Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por...
Transcript of Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por...
Estado del Arte de las
Tecnologías,
Modelado y Análisis
Cátedra Isdefe-UPM
Octubre 2019 – Octubre 2020
Madrid, octubre de 2020
Sistemas de estabilización de
sensores electro-ópticos
embarcados en vehículos
aéreos no tripulados
Índice
1. INTRODUCCIÓN ........................................................................................................ 1
2. SISTEMAS DE ESTABILIZACIÓN PARA CÁMARAS EMBARCADAS ............. 5
2.1. ESTABILIZACIÓN ÓPTICA (OIS) .............................................................................. 5
2.2. ESTABILIZACIÓN MECÁNICA (MIS) ....................................................................... 8
2.3. ESTABILIZACIÓN DIGITAL (DIS) .......................................................................... 10
3. MODELADO Y SIMULACIÓN DEL EFECTO DE EMBORRONADO EN
IMÁGENES ADQUIRIDAS MEDIANTE PLATAFORMAS AÉREAS ................ 14
3.1. ANÁLISIS DEL EMBORRONADO EN IMÁGENES TOMADAS POR PLATAFORMAS
AÉREAS ................................................................................................................ 14
3.2. MODELADO DE LA VIBRACIÓN Y DEL EMBORRONADO ASOCIADO ......................... 17
3.3. RESULTADOS OBTENIDOS A PARTIR DEL MODELO PROPUESTO ............................. 19
Caso de estudio I: UAV de ala fija .......................................................................... 20
Caso de estudio II: UAV de ala rotatoria o multirrotor ........................................... 23
4. ANÁLISIS DE LAS CAPACIDADES DE DETECCIÓN UTILIZANDO
ALGORITMOS DE DESEMBORRONADO Y DETECCIÓN AUTOMÁTICA .... 26
4.1. ANÁLISIS DE LOS RESULTADOS DE LA APLICACIÓN DE LOS ALGORITMOS DE
DESEMBORRONADO Y DETECCIÓN AUTOMÁTICA .................................................. 26
5. CONCLUSIONES ...................................................................................................... 36
BIBLIOGRAFÍA ............................................................................................................ 37
Estado del arte de las Tecnologías, Modelado y Análisis
1
Octubre 2019 – Octubre 2020
1. Introducción
Durante los últimos años, se ha visto reforzado el crecimiento en el uso de vehículos aéreos no
tripulados (Unmanned Aerial Vehicle, UAV) o drones para todo tipo de aplicaciones, tanto civiles
como militares, debido, principalmente, a la reducción de sus costes de fabricación, operación y
mantenimiento y a su mayor autonomía y facilidad de uso. Entre estas se encuentran aplicaciones de
seguridad (vigilancia de fronteras, guardacostas, etc.), servicios de emergencia, detección y
coordinación frente a incendios u otras catástrofes medioambientales y operaciones de búsqueda y
rescate [1-2], además de aplicaciones de comunicaciones, observación terrestre, mapeado y
teledetección (Remote Sensing), entre otras muchas [3-4].
Desde el punto de vista de las operaciones militares, los UAV son plataformas adecuadas para zonas
de conflicto, gracias a su flexibilidad de maniobra y a su mayor seguridad. Además, sus costes
operativos son muy inferiores a los de los sistemas de teledetección habituales como son las
aeronaves tripuladas o los satélites, y permiten obtener resultados de alta calidad volando a bajas
altitudes, difíciles o imposibles de alcanzar utilizando otras plataformas aéreas. Todo ello ha derivado
en un importante aumento del uso de sensores electro-ópticos embarcados en este tipo de plataformas
para llevar a cabo funciones de teledetección como la adquisición y reconocimiento de blancos.
Debido a la gran variedad de tareas que son capaces de realizar los UAVs, así como a la diversidad
de sus características, es útil establecer una clasificación [5]. En función del peso máximo al
despegue (MTOW, Maximum Take-Off Weight), la Tabla 1.1 presenta la clasificación más extendida,
propuesta por la Organización del Tratado del Atlántico Norte (OTAN) [6], mientras que la Figura
1.1 muestra algunos modelos comerciales o desarrollos militares representativos.
Clase Categoría Funcionalidad Altura típica
de operación
Radio de
misión
Clase I
(< 150 kg)
Nano
(< 0,2 kg) Subunidad táctica
(lanzamiento manual),
operaciones individuales
≤ 30 m AGL ≤ 1 km
(LOS)
Micro
(0,2 kg – 2 kg) ≤ 60 m AGL
≤ 5 km
(LOS)
Mini
(2 kg – 20 kg)
Unidad táctica
(lanzamiento manual) ≤ 900 m AGL
≤ 25 km
(LOS)
Pequeño
(> 20 kg)
Unidad táctica
(con sistemas de lanzamiento) ≤ 1500 m AGL
≤ 50 km
(LOS)
Clase II
(150 kg – 600 kg) Táctico Formación táctica ≤ 3000 m AGL
≤ 200 km
(LOS)
Clase I
(> 600 kg)
MALE Operacional /
Estratégico (de teatro) ≤ 13700 m MSL
Sin límite
(BLOS)
HALE Estratégico
(estrategia nacional) ≤ 19800 m
Sin límite
(BLOS)
Ataque / Combate
(UAV armado)
Estratégico /
Operacional ≤ 19800 m
Sin límite
(BLOS)
Notas: AGL: Above Ground Level. MSL: Mean Sea Level. LOS: Line of Sight. BLOS: Beyond LOS. MALE: Medium-
Altitude Long-Endurance. HALE: High-Altitude Long-Endurance.
Tabla 1.1. Clasificación de UAVs propuesta por la OTAN [6].
Dentro de las tres clases de UAVs propuestas por la OTAN, la Clase I supone el grueso principal del
mercado de plataformas aéreas no tripuladas debido a su mayor facilidad de despliegue y control y a
sus menores costes de desarrollo, fabricación y operación [13]. En contraposición a los modelos de
clases más pesadas, que presentan casi exclusivamente aplicaciones en el ámbito de la defensa, los
UAVs de Clase I, especialmente los de las categorías Micro (0,2 – 2 kg) y Mini (2 – 20 kg), con gran
Estado del arte de las Tecnologías, Modelado y Análisis
2
Octubre 2019 – Octubre 2020
variedad de cargas de pago, muestran un uso muy extendido en todo tipo de aplicaciones, tanto civiles
como militares.
Figura 1.1. Ejemplos de UAVs representativos de diferentes categorías (modificados de [6-12]).
Además, en función de la tecnología de vuelo, se distinguen los UAV de ala fija y de alas rotatorias,
habitualmente multirrotores. La Tabla 1.2 muestra una comparativa de las ventajas y desventajas que
presentan ambos tipos de UAVs [14]. Desde el punto de vista de las aplicaciones de teledetección y
mapeo [15], los multirrotores presentan una mayor maniobrabilidad y la capacidad de mantenerse en
una posición fija (hovering) o de volar a baja velocidad, mientras que las plataformas de ala fija
tienen mayor autonomía, alcanzan mayores velocidades, presentan un vuelo lineal más estable y
pueden operar en condiciones con cierto viento. Sin embargo, estos últimos UAVs requieran
lanzadoras o sistemas de despegue y aterrizaje más complejos y no pueden realizar despegues o
aterrizajes de forma vertical. Por este motivo, con el objetivo de aunar las ventajas de ambos tipos
de UAVs, en los últimos años se han llevado a cabo algunos desarrollos de prototipos híbridos, como
el sistema HADA (Helicóptero Adaptativo Avión) del INTA (Instituto Nacional de Técnica
Aeroespacial) [16] o de sistemas VTOL (Vertical Take-Off and Landing) de ala fija, como el dron
WingtraOne [17].
Para llevar a cabo las funciones de teledetección, los UAVs disponen de un amplio rango de sensores
ópticos, como son las cámaras de espectro visible, infrarrojas, multiespectrales o hiperespectrales
[3]. Actualmente, las cámaras de espectro visible e infrarrojo son las más utilizadas en el ámbito de
la detección y reconocimiento de blancos debido a su mayor madurez tecnológica y menor coste y
por ser sistemas más compactos. De esta manera, para seleccionar adecuadamente sistemas que
cumplan los requisitos operativos, surge la necesidad de estudiar el comportamiento de estas cámaras
en función de sus especificaciones técnicas, así como de las plataformas aéreas en las que se
encuentren embarcadas, para estimar sus capacidades operativas (alcance de detección, probabilidad
de detección, tamaño mínimo discernible, área cubierta por unidad de tiempo, resolución espacial,
etc.).
Para evaluar las capacidades operativas de estos sistemas y tomar decisiones de posibles
adquisiciones, se llevan a cabo habitualmente campañas de vuelo y pruebas de campo en entornos
reales. Este fue el caso del proyecto RAPAZ [13] lanzado en el año 2015 por la Dirección General
de Armamento y Material (DGAM) del Ministerio de Defensa de España con el objetivo de evaluar
las capacidades de diferentes sistemas de Clase I en misiones ISR (Intelligence, Surveillance and
Reconnaissance). Sin embargo, el incremento en el número de posibles alternativas y la mayor
Estado del arte de las Tecnologías, Modelado y Análisis
3
Octubre 2019 – Octubre 2020
complejidad de los sistemas hace necesario mejorar los métodos para estimar de forma más exacta y
precisa las capacidades operativas de los sensores a partir de sus parámetros técnicos publicados por
el fabricante. Los métodos y modelos mejorados pueden ser útiles como apoyo a la toma de
decisiones y a la preselección de sistemas. Por este motivo, el Observatorio Horizonte en Defensa y
Seguridad (Cátedra Isdefe-UPM) [18] mantiene una línea de investigación para analizar y evaluar
las capacidades operativas de sistemas ISTAR (Intelligence, Surveillance, Target Acquisition and
Reconnaissance) a partir de sus parámetros técnicos, en la cual se enmarca el desarrollo de este
trabajo.
Tecnología de vuelo Ventajas Desventajas
Ala fija
- Mayor autonomía
- Mayor velocidad de crucero
- Mayor estabilidad de vuelo
- Vuelo en condiciones de viento
- Recuperación en caso de fallo de
motor mediante planeo
- Requiere sistemas complejos o
manuales de despegue y aterrizaje
- Pilotaje y planificación de vuelo más
complejos
Alas rotatorias
- Mayor maniobrabilidad
- Capacidad de vuelo lento y estático
(hovering)
- Despegue y aterrizaje vertical
- Facilidad de uso
- Sistemas compactos
- Menor coste de adquisición
- Menor autonomía
- Menor estabilidad en condiciones de
viento
Tabla 1.2. Comparativa de ventajas y desventajas de UAVs de ala fija y alas rotatorias.
En lo relativo a cámaras de espectro visible e infrarrojo, el Criterio de Johnson es el método
tradicional y más extendido a la hora de estimar su alcance máximo. En función del grado deseado
de discriminación DRI (detección, reconocimiento, identificación), este criterio establece el mínimo
número de pares de líneas que debe ocupar un objeto en la imagen para que sea posible discriminarlo
por parte de un operador humano con una probabilidad de éxito del 50% [19]:
- Detección (D): Capacidad de distinguir la presencia o no de un objeto. Requiere que el objeto
ocupe en media un mínimo de 1.0 ± 0.25 pares de líneas.
- Reconocimiento (R): Capacidad de discernir el tipo de objeto detectado (persona, vehículo,
animal, etc.). Requiere en media de un mínimo de 4.0 ± 0.8 pares de líneas.
- Identificación (I): Capacidad para diferenciar detalles del objeto, siendo capaces de distinguir
objetos de la misma clase. Requiere en media de un mínimo de 6.4 ± 1.5 pares de líneas.
Sin embargo, este método sólo es aplicable de forma directa a situaciones estáticas al no tener en
cuenta el efecto de emborronado (blurring), o pérdida de nitidez, que se produce, por ejemplo, por
la vibración y el movimiento de las cámaras embarcadas en plataformas aéreas. Como se observa en
la Figura 1.2, este efecto degrada considerablemente la calidad de las imágenes adquiridas, limitando
el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras
embarcadas en plataformas aéreas disponen de sistemas de estabilización y se aplican procesados de
imagen que permiten compensar en cierta medida el efecto de la vibración y del movimiento durante
el tiempo de exposición, es necesario extender el Criterio de Johnson para tener en cuenta el efecto
del emborronado y estimar de manera más precisa las capacidades operativas de estos sistemas.
Además, el Criterio de Johnson se desarrolló considerando que el análisis de las imágenes para llevar
a cabo la discriminación de los objetos era realizado por un operador humano. Sin embargo, con el
objetivo de cubrir grandes áreas en menor tiempo utilizando sistemas de teledetección, las imágenes
adquiridas mediante plataformas aéreas se procesan actualmente de forma automática utilizando
Estado del arte de las Tecnologías, Modelado y Análisis
4
Octubre 2019 – Octubre 2020
algoritmos de detección cuyas capacidades de discriminación y requisitos computacionales también
deben ser evaluados.
a)
b)
Figura 1.2. Ejemplo de emborronado (blurring) en imágenes adquiridas utilizando plataformas aéreas: a) Imagen con
bajo efecto de emborronado (plataforma en vuelo estacionario o hovering) y b) Imagen con efecto de emborronado
severo debido al movimiento de la plataforma durante el tiempo de exposición.
Por todo ello, el objetivo principal de este documento es analizar los sistemas de estabilización de
sensores electro-ópticos embarcados en plataformas aéreas no tripuladas y proponer una metodología
para modelar el efecto de emborronado que se produce por su movimiento y vibración durante el
tiempo de exposición y estimar las capacidades operativas de estos sistemas. Para ello, además de
las especificaciones técnicas proporcionadas por los fabricantes relativas al rango de vibración de los
sensores con estabilización mecánica y óptica, se considerarán algoritmos representativos de
estabilización digital basados en técnicas de deblurring (eliminación del emborronado) y de
detección automática de blancos.
Para ello, este documento presenta la siguiente organización:
• En el capítulo 2 se realizar un estudio del estado del arte de los sistemas de estabilización
(ópticos, mecánicos y digitales) para sensores electro-ópticos embarcados en vehículos
aéreos no tripulados aplicados a tareas de teledetección. • En el capítulo 3 se plantea un modelo que permite analizar el efecto sobre la imagen adquirida
de la vibración y el movimiento de la plataforma aérea durante el tiempo de exposición,
teniendo en cuenta las diferencias entre los UAV multirrotor y de ala fija. Para ello, se
establecerán también las especificaciones técnicas que se requiere conocer de los sistemas de
estabilización y de las plataformas para aplicar dicho modelo. De esta forma, utilizando
scripts desarrollados en Matlab, se puede simular la adquisición de imágenes con plataformas
aéreas incluyendo el efecto de emborronado producido por la vibración y el movimiento de
las mismas. • En el capítulo 4 se analiza la aplicación de métodos de estabilización digital de imágenes
basados en algoritmos de deconvolución ciega (blind deconvolution) y compensación de
movimiento para analizar su funcionamiento en imágenes que presentan un efecto de
emborronado debido a vibraciones y movimiento del sensor durante su adquisición. Con estos
resultados, se desea evaluar la mejora que se consigue al aplicar estos algoritmos desde el
punto de vista de la detección de objetos mediante algoritmos automáticos de detección.
Además, mediante la realización de una simulación de Monte Carlo, se propone un
procedimiento para extender el Criterio de Johnson y estimar el alcance de las cámaras
embarcadas en plataformas aéreas teniendo en cuenta la degradación residual de la imagen
debida al efecto de la vibración y movimiento, a pesar de utilizar sistemas de estabilización. • En el capítulo 5 se presentan las conclusiones del análisis realizado.
Estado del arte de las Tecnologías, Modelado y Análisis
5
Octubre 2019 – Octubre 2020
2. Sistemas de estabilización para cámaras embarcadas
El deseo de obtener imágenes fieles a la realidad, es decir, con la mayor nitidez posible es tan antiguo
como el desarrollo de las primeras cámaras. Sin embargo, la necesidad de abordar la problemática
de la estabilización de imagen no surgió hasta más adelante, con la fabricación de cámaras que podían
ser sostenidas con las manos. En un principio, se intentaba conseguir mejorar la calidad de la imagen
tomada evitando vibraciones y movimientos de la cámara durante el tiempo de exposición a través
de elementos como los trípodes o los monópodes. No fue hasta 1994 cuando Nikon desarrolló la
primera cámara compacta con lente estabilizada en dos ejes, mediante un montaje con lentes 38-105
mm f/4-7.8 en la cámara Nikon Zoom 700VR (Vibration Reduction) [20-21]. Desde entonces, han
sido muchos los sistemas desarrollados con el objetivo de minimizar los efectos del emborronado
como consecuencia de la vibración de las cámaras digitales, y de aumentar la nitidez de las imágenes
adquiridas.
Este emborronado es además más importante con el aumento de la resolución o del zoom de las
cámaras, debido a que, a mayor resolución, mayor es el número de píxeles afectados por este efecto,
provocando por tanto un mayor deterioro de la imagen y degradando su resolución efectiva y, en el
caso de las aplicaciones de teledetección, el alcance máximo. A parte del aumento de resolución, la
integración de cámaras en teléfonos móviles y, más recientemente, en vehículos aéreos no tripulados
ha promovido el desarrollo de métodos y sistemas de estabilización más compactos o basados en el
procesado de la imagen con el objetivo de eliminar los efectos del temblor de manos (hand-shake) o
de la vibración y movimiento de las plataformas aéreas, respectivamente.
Este apartado pretende definir los principales métodos de estabilización de cámaras frente al
movimiento. Estos métodos están diseñados para reducir el emborronado de la imagen producido
por temblores habituales durante un tiempo de exposición de hasta un minuto en los sistemas más
complejos desarrollados para las aplicaciones más exigentes [22]. Se pueden distinguir tres tipos
principales de métodos de estabilización: estabilización óptica (OIS) o basada en lentes (lens-based),
estabilización mecánica (MIS) o basada en cuerpo (body-based o sensor-shift) y estabilización digital
(DIS) o electrónica (EIS).
Algunas cámaras disponen de sistemas de estabilización que integran conjuntamente varias de estas
técnicas. Sin embargo, se debe tener en cuenta que el diseño de estos submódulos no debe llevarse a
cabo de manera totalmente separada, integrando por ejemplo dos sistemas de estabilización que
funcionen independientemente, ya que intentar estabilizar una imagen ya estabilizada puede dar lugar
a una desestabilización de la misma.
2.1. Estabilización óptica (OIS)
La estabilización óptica suele aplicarse en cámaras para la adquisición tanto de fotografías como de
vídeo. La idea general consiste en modificar el camino óptico entre el objetivo y el sensor de imagen,
bien mediante un grupo de lentes móviles, o bien mediante un prisma con superficies móviles
compensando las vibraciones o el movimiento del sensor para evitar así el emborronado de la imagen
[23-24].
El funcionamiento de este tipo de estabilizadores es sencillo de resumir. Al tomar una fotografía de
un objeto estático, el obturador de la cámara permanece abierto un periodo de tiempo determinado
durante el cual la cámara sufre un movimiento involuntario de rotación, debido, por ejemplo, a
vibraciones. Considerando, para simplificar y sin pérdida de generalidad, que este movimiento se
Estado del arte de las Tecnologías, Modelado y Análisis
6
Octubre 2019 – Octubre 2020
produce únicamente en un eje, el haz de luz que, en situación estática afecta a un único píxel, ahora
se distribuye a lo largo de un segmento de píxeles.
Sin embargo, disponer de un sistema de OIS hace que las lentes se muevan en sentido opuesto a la
vibración, compensando de esta forma su movimiento. La rotación que se debe compensar es
detectada a través de dos sensores capaces de medir la velocidad angular alrededor de un eje
(giroscopios), uno para la guiñada (yaw) y otro para el cabeceo (pitch), movimientos que quedan
ilustrados en la Figura 2.1.1. Estos datos son enviados al microprocesador, que calcula la
compensación y su dirección, información que es posteriormente enviada al sistema de control. El
sistema de control utiliza estos datos, así como la posición de las lentes móviles medida por sensores,
generalmente de efecto Hall, para enviar a los actuadores las instrucciones de movimiento de las
lentes.
Figura 2.1.1. Movimientos de rotación alrededor de los tres ejes de la cámara: guiñada, cabeceo y alabeo. Los sistemas
de OIS permiten compensar rotaciones de guiñada y cabeceo, pero no giros alrededor del eje perpendicular al plano de
las lentes (alabeo).
Aunque el ejemplo descrito, que se representa esquemáticamente en la Figura 2.1.2, plantea un único
eje de vibración, en realidad, este fenómeno tiene lugar en dos ejes, repercutiendo por tanto en una
superficie bidimensional en lugar de en un segmento, y afecta a todos los píxeles de la imagen.
a) Cámara estática b) Cámara afectada por
vibración (sin compensar)
c) Cámara con OIS
(camino óptico corregido)
Figura 2.1.2. Esquema del funcionamiento básico de un sistema de estabilización óptica. El desplazamiento de la lente
intermedia permite corregir el camino óptico y que el haz de luz representado (línea sólida) alcance al mismo píxel que
en la situación estática evitando el emborronado de la imagen.
Estado del arte de las Tecnologías, Modelado y Análisis
7
Octubre 2019 – Octubre 2020
Cabe destacar, que este tipo de estabilización es capaz de compensar la vibración de la cámara, pero
no el emborronado derivado del movimiento de la imagen que se adquiere, es decir, los sistemas de
OIS no permite compensar el emborronado inherente al movimiento de elementos en la escena que
se intenta capturar. Estos sistemas tampoco son capaces de contrarrestar completamente los
desplazamientos lineales de la cámara ya que sólo compensan las rotaciones en guiñada y cabeceo
inducidas por dicho desplazamiento. Asimismo, estos sistemas de estabilización no son efectivos
para movimientos de gran amplitud, ni para giros en alabeo.
Como ya se ha mencionado, la implementación de un estabilizador óptico requiere elementos, como
los actuadores y sensores, que aumentan la complejidad de los módulos, así como el tamaño y el
coste. Sin embargo, los avances en esta tecnología y en la fabricación de lentes han permitido
desarrollar sistemas de altas prestaciones cada vez más compactos que se integran incluso en las
cámaras de los teléfonos móviles.
En cuanto a los actuadores, existen múltiples tecnologías como las lentes líquidas (LL), aleaciones
con memoria de forma (Shape Memory Allow, SMA) o motores piezoeléctricos, aunque actualmente
el uso de motores lineales de bobina de voz (Voice Coil Motors, VCM) constituye la práctica más
extendida. Esta última tecnología aprovecha la interacción entre una bobina y un imán, generando
una fuerza directamente proporcional a la cantidad de corriente aplicada a la bobina. En los últimos
años, también se están desarrollando actuadores compactos basados en tecnología MEMS
(Microelectromechanical System) con capacidades variables en estructuras tipo peine (comb-drive)
[25].
a) OIS con sensor de efecto Hall b) OIS con sensor foto reflectivo
Figura 2.1.3. Esquema de funcionamiento de sistemas de OIS con: a) Sensor de efecto Hall y b) Fotorreflector para
medir la posición y el desplazamiento de la lente.
A la hora de realinear el camino óptico con el centro del sensor de imagen existen principalmente
dos métodos: (i) mediante cambio de lentes, que hace uso de sensores Hall y (ii) mediante inclinación
del módulo. Ambos métodos utilizan la información proporcionada por giroscopios para calcular la
posición de las lentes que permite compensar la vibración. Con el método de cambio de lentes, los
sensores Hall detectan la posición en X/Y de la lente. El controlador combina esta información con
la de la posición objetivo, calculada a partir de los datos de los giroscopios para determinar la orden
que debe dar a los actuadores. El método (ii) funciona de manera similar, salvo que, en este caso, es
la posición del módulo entero la que se mide y se recoloca, en lugar de solo las lentes. En sistemas
de OIS se suelen utilizar sensores de efecto Hall para medir la posición y el desplazamiento de la
Estado del arte de las Tecnologías, Modelado y Análisis
8
Octubre 2019 – Octubre 2020
lente, ya que se ajustan mejor que los sensores foto reflectivos, más utilizados en estabilización
mecánica [26]. La Figura 2.1.3 representa de forma esquemática el funcionamiento de estos sensores
mediante un modelo 2D.
En definitiva, los sistemas de OIS disponen como componentes principales de, generalmente: (i)
giroscopios para detectar el movimiento del sistema, (ii) sensores de efecto Hall que detectan el
movimiento de las lentes dentro del módulo de la cámara, (iii) un microprocesador que calcula las
correcciones de movimiento que procedan a partir de las medidas del giroscopio, normalmente
procesadas mediante filtros de Kalman [27], y de las medidas de la posición de las lente adquiridas
mediante los sensores de efecto Hall, (iv) un controlador que maneja el actuador de la lente para
redireccionarla correctamente a partir de los datos proporcionados por los sensores y el
microprocesador y (v) el propio actuador que desplaza la lente en base a las instrucciones del
controlador [24-28]. La Figura 2.1.4 muestra el diagrama de bloques típico de los sistemas de OIS.
Figura 2.1.4. Diagrama de bloques de un sistema de OIS para compensar movimientos de rotación de cabeceo y
guiñada.
Una de las desventajas de este tipo de estabilizadores reside en el hecho de que cada lente requiere
de su propio sistema de estabilización, lo que repercute en el coste del sistema. Además, produce
aberración cromática desde el centro hasta los bordes de la imagen durante la estabilización. Por otro
lado, una importante ventaja de este tipo de tecnología es que no requiere del uso de algoritmos de
postprocesado.
2.2. Estabilización Mecánica (MIS)
En ocasiones se hace referencia a este tipo de estabilización como estabilización electromecánica,
aunque también se la conoce como un tipo de estabilización óptica por desplazamiento del propio
sensor de imagen (sensor-shift) en lugar de por desplazamiento de las lentes, como se ha tratado en
el apartado anterior.
El primer sistema de estabilización mecánica para cámaras fue implementado en 2003 por la
multinacional japonesa Konica Minolta con el nombre de Anti-Shake (AS) [29]. El sistema de
Konica Minolta medía la vibración de la cámara a través de unos giroscopios, al igual que los
sistemas de OIS, capaces de detectar y medir el movimiento angular y enviar las medidas al
microprocesador. Por otro lado, la posición del sensor de imagen es en todo momento conocida
gracias a un dispositivo sensible a la posición, generalmente un sensor foto reflectivo, que tras
determinar esta información la envía también al microprocesador. Este elemento permite mantener
Estado del arte de las Tecnologías, Modelado y Análisis
9
Octubre 2019 – Octubre 2020
el mecanismo de desplazamiento del sensor en bucle cerrado. A partir de esta información, el
microprocesador es capaz de calcular el desplazamiento oportuno para corregir la vibración,
manteniendo así la proyección de la escena sobre el plano de imagen y minimizando el emborronado
de la imagen debido a dicha vibración [23].
Estos sistemas utilizan generalmente un Smooth Impact Drive Mechanism (SIDM) para desplazar el
sensor. Los SIDM disponen de dos actuadores piezoeléctricos, uno para cada eje, que se expanden
al recibir tensión y se contraen rápidamente en caso contrario. Para que el movimiento tenga lugar
en la dirección opuesta basta con invertir la forma de la onda de tensión. El tamaño de estos
dispositivos es muy reducido, sin embargo, debido al corto recorrido que realizan los actuadores
piezoeléctricos es necesario el uso de otros elementos mecánicos para aumentar la longitud de dicho
recorrido. Como se observa en la Figura 2.2.1, este sistema dispone de un conjunto de actuadores
piezoeléctricos sujetos a una varilla con un elemento deslizante (slider) situado sobre ella y sobre el
que se coloca el sensor de imagen. A la hora de compensar la vibración, en primer lugar, el
dispositivo piezoeléctrico se expande a una velocidad suficientemente baja como para que la fricción
con el deslizador haga que este se mueva hasta llegar a la posición deseada (stick motion). A
continuación, se contrae rápidamente, lo que impide que el deslizador se vuelva a desplazar,
deslizándose sobre la varilla (slip motion). Esto permite reposicionar el deslizador permitiendo una
nueva expansión del elemento piezoeléctrico.
Figura 2.2.1. Principio de operación de los SIDM (modificado de [30]).
Además, para estos sistemas sensor-shift también se están desarrollando actuadores compactos
basados en tecnología MEMS que incluso son capaces de realizar compensaciones en 5 ejes (giros
en pitch, yaw y roll y desplazamientos en X e Y) [31].
Como ya he mencionado, este tipo de estabilización contrarresta el efecto del movimiento de la
cámara desplazando el propio sensor de imagen. A diferencia de la estabilización óptica, este método
no limita el tipo de lentes a utilizar en el objetivo de la cámara, permitiendo el uso de lentes no
estabilizadas y reduciendo consecuentemente el coste, el peso y la complejidad de las mismas.
Además, actualizar el dispositivo de estabilización mecánica cuando este se queda obsoleto implica
cambiar únicamente el cuerpo de la cámara, lo supone un coste muy inferior a tener que reponer las
lentes como sería necesario en sistemas con OIS.
Por otra parte, en plataformas aéreas, los sensores electro-ópticos suelen ir montados sobre gimbales,
que son estructuras giro-estabilizadas controladas por servomecanismos o motores paso a paso que
permiten apuntar la cámara en una cierta dirección (control de pan y tilt) y minimizar las vibraciones
Estado del arte de las Tecnologías, Modelado y Análisis
10
Octubre 2019 – Octubre 2020
sobre el sensor ocasionadas por los motores o por factores ambientales. Como se muestra en la Figura
2.2.2, estos sistemas cuentan habitualmente con un gimbal exterior encargado de controlar el pan y
el tilt y un gimbal interior con menor rango de giro para compensar las vibraciones de rotación de
alta frecuencia y evitar en cierta medida el emborronado de las imágenes adquiridas [32]. En
ocasiones, cuentan también con un tercer eje de rotación para controlar el alabeo (roll) de la cámara.
El control de los servomecanismos o motores paso a paso que actúan sobre los distintos ejes de giro
para compensar el movimiento y las vibraciones de la plataforma suele estar basado en las medidas
proporcionadas por sensores inerciales (Inertial Measurement Unit, IMU), instalados en la
plataforma de vuelo y en el propio gimbal [33]. Estas estructuras basadas en gimbales también se
aplican a sistemas de estabilización para plataformas terrestres o a sistemas en los que se instalan
cámaras o teléfonos móviles para realizar principalmente adquisición de vídeo.
a)
b)
Figura 2.2.2. Estabilización mediante gimbal: a) Esquema de sistema con gimbales externo e interno (modificado de
[32]) y b) Ejemplo de sistema comercial (CM142 de Ascent Vision Technologies) [34].
En aplicaciones de teledetección y vigilancia utilizando sensores electro-ópticos embarcados en
plataformas aéreas, el uso de sistemas de estabilización basados en gimbales son además útiles para
realizar el seguimiento (tracking) de blancos, geo-referenciar los blancos detectados o hacer barridos
de ciertas áreas de interés sin modificar la trayectoria de la plataforma.
2.3. Estabilización Digital (DIS)
También denominada estabilización electrónica (EIS), este tipo de estabilización se utiliza
principalmente en cámaras de vídeo. Evidentemente, si la velocidad de obturación no es
suficientemente rápida, los distintos fotogramas de un vídeo pueden presentar emborronado que debe
ser corregido para mejorar la calidad de imagen. Sin embargo, además de esta problemática, las
cámaras de video presentan otra dificultad que deriva del desplazamiento de la imagen entre un
fotograma y el siguiente debido a la vibración de la cámara [35]. Este es el caso, por ejemplo, de las
vibraciones inducidas en un vídeo grabado con una cámara de mano mientras el operador se desplaza
andando. No obstante, a la hora de contrarrestar este efecto no debe confundirse con el propio
movimiento de los elementos del entorno, que no debe ser compensado.
En este caso de la estabilización digital, la vibración indeseada no se compensa modificando el
camino óptico, sino que se hace uso de algoritmos de postprocesado para llevar a cabo la
estabilización. Esto supone una importante reducción de los costes de producción del dispositivo, ya
que no hace uso de partes móviles como en los sistemas de estabilización óptica o mecánica [28].
Estado del arte de las Tecnologías, Modelado y Análisis
11
Octubre 2019 – Octubre 2020
Algunos dispositivos de DIS, al igual que los sistemas de estabilización presentados anteriormente,
usan giroscopios para detectar el desplazamiento que tiene lugar entre fotograma y fotograma. Pero,
en lugar de modificar el camino óptico, esta información permite desplazar la imagen para
contrarrestar la vibración. Otros sistemas hacen un seguimiento de determinadas áreas de la imagen
a lo largo de una secuencia de fotogramas, siendo capaces de interpretar las diferencias entre las
posiciones de dichas áreas como una vibración. El problema de estos sistemas, como ya se ha
mencionado anteriormente, tiene que ver con el hecho de que el movimiento de los elementos del
entorno puede ser también interpretado como una vibración. Sin embargo, muchos fabricantes
afirman que sus sistemas de estabilización son capaces de distinguir entre la vibración indeseada del
sensor y el efecto producido cuando se graba una imagen en movimiento.
El proceso de estabilización digital queda ejemplificado en la Figura 2.3.1, donde se aprecia que el
funcionamiento de este tipo de estabilización es conceptualmente igual que el de MIS, sustituyendo
el movimiento del sensor por un reposicionamiento de la imagen mediante postprocesado.
Figura 2.3.1. Esquema básico de funcionamiento de la estabilización digital.
Como puede observarse en la Figura 2.3.2, para poder compensar el desplazamiento es necesario que
la imagen tenga márgenes tanto mayores cuanto mayor sea la vibración que se desea compensar. Esta
estabilización supone una pérdida de calidad efectiva de la imagen ya que estos márgenes se
consiguen mediante métodos como el zoom digital o a través de un sensor de imagen de mayor
tamaño que adquiere una imagen con mayor campo de visión (field-of-view, FOV) que el de la
imagen estabilizada. El tamaño de los márgenes limitará la capacidad del proceso de estabilización
y la amplitud de las vibraciones o del movimiento de la cámara que se puede compensar sin degradar
en exceso la calidad de la imagen.
Margen para
desplazamiento
Área
estabilizada
Estado del arte de las Tecnologías, Modelado y Análisis
12
Octubre 2019 – Octubre 2020
Figura 2.3.2. Márgenes necesarios para llevar a cabo la estabilización digital.
Se deduce, por tanto, que el uso de zoom digital produce una mayor pérdida de calidad al recortar
los fotogramas. Sin embargo, el uso de un sensor de mayor tamaño supone un aumento en los costes
de fabricación de la cámara.
Como ya ha sido mencionado, la DIS no evita que los fotogramas presenten emborronado debido al
movimiento o vibración de la plataforma en cada tiempo de exposición. Por ello, muchos fabricantes
hacen uso de sistemas híbridos que presentan tanto DIS como un sistema de compensación del
emborronado, ya sea OIS o MIS, que compensan vibraciones de menor amplitud y de mayor
frecuencia.
Por otro lado, algunos fabricantes han desarrollado sistemas que intentan hacer uso de técnicas de
postprocesado para mejorar la nitidez de las imágenes adquiridas digitalmente. Este es el caso del
sistema ASR (Advanced Shake Reduction) desarrollado por Samsung [36]. Este sistema hace uso de
dos fotografías que son posteriormente procesadas y combinadas para obtener una imagen con mayor
nitidez. Una de ellas es adquirida con una mayor exposición y, aunque presenta un mayor
emborronado debido a una menor velocidad de obturación, permite obtener la información de
luminancia y color, mientras que la otra, más oscura debido a una mayor velocidad de obturación,
presenta bordes bien definidos.
Además, también se han desarrollado algoritmos de postprocesado que permiten compensar el efecto
de la vibración en la imagen en base al movimiento entre la cámara y la escena a lo largo del tiempo
de exposición. Estas técnicas son especialmente importantes cuando la imagen a compensar es
tomada desde una cámara embarcada en una plataforma aérea con el objetivo de minimizar el
emborronado residual de los sistemas de estabilización óptica y mecánica. Para ello existen
esencialmente dos tipos de técnicas: (i) aquellas que hacen uso de una trayectoria o de movimientos
deterministas o medidos mediante sensores, y (ii) métodos que hacen uso de la propia imagen
obtenida para compensar el emborronado y mejorar su nitidez [37].
En el primer tipo, para medir el movimiento de la cámara durante el tiempo de exposición, es habitual
hacer uso de IMUs. Este tipo de dispositivos electrónicos permiten obtener información de la
velocidad, orientación y fuerzas gravitacionales sobre un sistema, usando acelerómetros, giróscopos
y, en ocasiones, magnetómetros. Las IMUs funcionan detectando la aceleración lineal mediante uno
o más acelerómetros y la velocidad angular mediante uno o más giróscopos. Los magnetómetros se
usan para obtener referencias de la orientación en base al campo magnético terrestre. La
configuración típica hace uso de un acelerómetro, un giróscopo y un magnetómetro para cada eje (X,
Y y Z) o eje de rotación (cabeceo, alabeo y guiñada) en coordenadas body frame (b-frame) tal y como
se observa en la Figura 2.3.3.
Figura 2.3.3. Sistema de coordenadas body frame (b-frame).
Estado del arte de las Tecnologías, Modelado y Análisis
13
Octubre 2019 – Octubre 2020
El segundo tipo de algoritmos implica compensar el efecto de emborronado a partir de la propia
imagen adquirida, sin medir explícitamente el movimiento de la cámara con sensores externos. De
hecho, en algunos métodos, la imagen captada permite obtener estimaciones del movimiento relativo
que produce el emborronado asociado. Ejemplos de este tipo de algoritmos se evalúan en el capítulo
4 de este documento.
Estado del arte de las Tecnologías, Modelado y Análisis
14
Octubre 2019 – Octubre 2020
3. Modelado y simulación del efecto de emborronado en
imágenes adquiridas mediante plataformas aéreas
Múltiples trabajos han estudiado los modelos cinemáticos y dinámicos de los UAVs multirrotores
[14] y de ala fija [38] y de los sistemas de estabilización basados en gimbales [32]. Además, se han
propuesto también diferentes modelos para simular y diseñar los sistemas de control de los
estabilizadores ópticos y mecánicos [39-44]. Sin embargo, además de la propia complejidad que
supone simular de forma conjunta los diferentes subsistemas implicados en la adquisición de las
imágenes, todos estos modelos requieren conocer de forma detallada los sistemas que se desean
simular, incluyendo información y especificaciones que los fabricantes no suelen proporcionar.
Por este motivo, el objetivo de este apartado es proponer un modelo que permita simular el efecto
del movimiento y las vibraciones de la plataforma sobre las imágenes adquiridas a partir de las
especificaciones típicas proporcionadas por los fabricantes de cámaras embarcadas en UAVs y de
los sistemas de estabilización [45]. De esta forma, se podrá simular el efecto del emborronado y
evaluar la degradación que produce sobre las capacidades operativas (alcance máximo de detección,
tamaño mínimo detectable, etc.) de los sensores electro-ópticos embarcados.
3.1. Análisis del emborronado en imágenes tomadas por plataformas aéreas
El proceso de adquisición de imágenes desde plataformas aéreas se ve afectado por distintos tipos de
factores que degradan su calidad y nitidez como son: el desenfoque, las turbulencias
atmosféricas [46] o el movimiento y vibraciones de la cámara. Estos efectos pueden modelarse
mediante una convolución en dos dimensiones entre la imagen ideal sin emborronado 𝑓(𝑥, 𝑦) y una
función de dispersión de punto (point spread function, PSF) ℎ(𝑥, 𝑦) que representa la función,
también llamada kernel, del emborronado. Por tanto, asumiendo que el emborronado no varía
espacialmente, la expresión (1) permite expresar matemáticamente la imagen adquirida 𝑔(𝑥, 𝑦),
donde 𝑤(𝑥, 𝑦) es el ruido del proceso de adquisición (conjunto de muestras de ruido Gaussiano de
media cero y varianza 𝜎2) [47].
𝑔(𝑥, 𝑦) = ℎ(𝑥, 𝑦) ∗ 𝑓(𝑥, 𝑦) + 𝑤(𝑥, 𝑦) = ∑ ∑ ℎ(𝑘, 𝑙)𝑓(𝑥 − 𝑘, 𝑦 − 𝑙)
𝑙𝑘
+ 𝑤(𝑥, 𝑦) (1)
En muchas ocasiones, la expresión (1) se utiliza en el dominio espectral, ya que suele facilitar su
aplicación a la hora de diseñar filtros restauradores y su uso conlleva generalmente un menor
consumo de recursos computacionales. Para ello, se aplica la transformada discreta de Fourier en dos
dimensiones a (1), obteniendo:
𝐺(𝑢, 𝑣) = 𝐻(𝑢, 𝑣)𝐹(𝑢, 𝑣) + 𝑊(𝑢, 𝑣) (2)
donde (u,v) representan las frecuencias espaciales y 𝐺(𝑢, 𝑣), 𝐻(𝑢, 𝑣), 𝐹(𝑢, 𝑣) y 𝑊(𝑢, 𝑣) son las
transformadas discretas de Fourier en dos dimensiones de 𝑔(𝑥, 𝑦), ℎ(𝑥, 𝑦), 𝑓(𝑥, 𝑦) y (𝑥, 𝑦),
respectivamente. La función 𝐻(𝑢, 𝑣) también se conoce habitualmente como Función de
Transferencia de Modulación (Modulation Transfer Function, MTF).
El desenfocado de las imágenes y las turbulencias atmosféricas para tiempos de exposición
largos dan lugar a emborronados aproximadamente Gaussianos (Figura 3.1.1a). Sin
embargo, asumiendo que la imagen se encuentra enfocada y teniendo en cuenta que el emborronado
debido a turbulencias atmosféricas es despreciable para los tiempos de exposición considerados en
Estado del arte de las Tecnologías, Modelado y Análisis
15
Octubre 2019 – Octubre 2020
la adquisición de imágenes con plataformas aéreas, el efecto de blurring predominante en cámaras
embarcadas en UAVs es el debido a la vibración y movimiento de la plataforma.
Por tanto, el emborronado que presentan las imágenes captadas por plataformas aéreas se debe
principalmente al movimiento relativo entre la escena capturada y el sensor de imagen durante el
tiempo que el sensor capta luz, es decir, durante el tiempo que el obturador permanece abierto,
conocido como tiempo de exposición te 1. Suponiendo que la plataforma se mueve a velocidad
constante v, este movimiento relativo tendrá una componente lineal debida al desplazamiento lineal
(v·te) de la plataforma (Figura 3.1.1b).
a) Emborronado debido a desenfocado o turbulencias atmosféricas (emborronado
Gaussiano)
b) Emborronado debida al movimiento lineal de la plataforma (emborronado lineal)
Figura 3.1.1. Ejemplos de: a) Emborronado Gaussiano y b) Emborronado lineal.
Sin embargo, además de este desplazamiento hay que tener en cuenta el efecto de las vibraciones de
la plataforma aérea. Esta vibración puede deberse a múltiples factores que varían en función del tipo
de plataforma utilizada, de tal forma que las principales fuentes de vibraciones son diferentes si se
trata de un UAV de ala fija o de uno de ala rotatoria o multirrotor.
En el caso de ala fija, las vibraciones se deben principalmente a cuatro fuentes: (i) ruido del motor,
(ii) flujos de aire sobre la estructura externa de la plataforma, (iii) flujos de aire y fenómenos de
resonancia acústica en cavidades abiertas al flujo externo de aire y (iv) movimientos estructurales
del fuselaje debidos a maniobras, aterrizajes, etc. [49]. De estos cuatro factores, el más significativo
suele ser el ruido del motor, que se produce principalmente a la propia frecuencia de rotación del
motor [50], así como a la frecuencia doble.
En cuanto a las plataformas de ala rotatoria, la principal fuente de vibración son los rotores [51-52].
La siguiente fuente de vibración con mayor efecto se debe a la vibración de la propia estructura,
principalmente de la plataforma y de los brazos extensivos donde se sitúan los rotores. Además, otra
fuente importante de vibraciones se corresponde con la vibración de las cargas que se puedan situar
1 En cámaras de infrarrojos (IR) el tiempo de exposición es equivalente al tiempo de integración para sensores IR
refrigerados (cooled detectors), y está relacionado con la constante de tiempo para sensores IR no refrigerados (uncooled
detectors). En este último caso, normalmente se considera que equivale aproximadamente a cinco constantes de tiempo,
ya que es el tiempo necesario para que el detector alcance prácticamente un estado estacionario tras una señal de entrada
en forma de escalón [48].
Estado del arte de las Tecnologías, Modelado y Análisis
16
Octubre 2019 – Octubre 2020
debajo de la plataforma. Sin embargo, las características de la vibración varían en función de la
estructura de la plataforma, la carga y las condiciones medioambientales, entre otros efectos.
Las vibraciones que afectan a las plataformas aéreas son esencialmente angulares y sinusoidales, ya
que se trata mayoritariamente de vibraciones periódicas que afectan a los ángulos de rotación y
pueden descomponerse en una serie de vibraciones sinusoidales de diferentes frecuencias [53-55].
Sin embargo, el efecto que estas producen varía en función de si estas vibraciones son de alta o de
baja frecuencia [56].
Esta distinción se hace con respecto al tiempo de exposición, de tal forma que si el periodo de la
vibración es inferior al tiempo de exposición se considera de alta frecuencia, mientras que en caso
contrario se considera de baja frecuencia. En general, las vibraciones de baja frecuencia son más
difíciles de compensar, debido a que la amplitud de estas vibraciones suele ser superior que las de
alta frecuencia [57] y a que el emborronado se produce únicamente durante un fragmento del periodo
de la vibración, cuyo comienzo dentro del periodo de la vibración es una variable aleatoria [58-60].
Como se observa en la Figura 3.1.2, el emborronado debido a la vibración de baja frecuencia será
máximo (dmax) cuando el tiempo de exposición esté centrado en los pasos por cero de la sinusoide
asociada, y será mínimo (dmin) cuando esté centrado en los extremos de la sinusoide, dando lugar a
un emborronado aproximadamente lineal distinto entre imágenes adquiridas secuencialmente.
Figura 3.1.2. Esquema de vibración angular de baja frecuencia (T0: Periodo de la vibración, te: tiempo de exposición,
dmax: rotación asociada al emborronado máximo, dmin: rotación asociada al emborronado mínimo).
El efecto que tienen las vibraciones sinusoidales de alta frecuencia sobre los puntos de la imagen es
el observado en la Figura 3.1.3, en la que se muestra por simplicidad la vibración sinusoidal sobre
un único eje de rotación. En ella se aprecia que el movimiento de cada punto del plano focal de la
imagen da lugar a un histograma de posiciones cuyo mínimo coincide con el punto de equilibrio
(centro) de la vibración y cuyos máximos coinciden con los extremos de esta. De esta forma, una
mayor amplitud (D) de estas vibraciones dará lugar a una mayor degradación de la nitidez de la
imagen.
Estado del arte de las Tecnologías, Modelado y Análisis
17
Octubre 2019 – Octubre 2020
Figura 3.1.3. Esquema de vibración angular de alta frecuencia (D: amplitud de la vibración).
3.2. Modelado de la vibración y del emborronado asociado
El objetivo de este apartado es proponer un modelo que permita generar vibraciones aleatorias y
evaluar la PSF asociada de emborronado de imagen, dando lugar a resultados que se asemejen a los
efectos de emborronado que sufren realmente los sistemas de imagen embarcados. Posteriormente,
se aplicará dicho modelo a un conjunto de plataformas e imágenes de prueba.
Como se ha mencionado previamente, la vibración que afecta al sistema de adquisición de imágenes
proviene de diversas fuentes simultáneamente, cada una de las cuales aporta diferentes frecuencias
de vibración, de tal forma que algunas fuentes como el giro del motor o el de los rotores dan lugar a
vibraciones que en la mayoría de los casos pueden considerarse de alta frecuencia, mientras que otras
como los flujos de aire se pueden considerar generalmente de baja frecuencia. Tal y como ha sido
razonado, la distinción entre baja y alta frecuencia se lleva a cabo con respecto al tiempo de
exposición y por lo tanto a la velocidad de obturación (shutter speed). Sin embargo, esta distinción
no cambia el hecho de que las múltiples fuentes dan lugar conjuntamente a un espectro de la vibración
que presenta componentes en diferentes rangos de frecuencia.
Los sistemas de estabilización ópticos y mecánicos, tratados en el capítulo anterior, permiten
compensar gran parte de las vibraciones que se producen sobre el sensor electro-óptico. Sin embargo,
existe una vibración residual que los fabricantes suelen especificar mediante un intervalo de
vibración angular o mediante la varianza del error angular de apuntamiento debido a dicha vibración
[45, 61]. Esta vibración residual sobre el sensor es la que se desea modelar, ya que da lugar al
emborronado de las imágenes, pero sin emplear los complejos modelos cinemáticos y dinámicos
propuestos para los distintos tipos de UAVs o de sistemas de estabilización.
De esta forma, como consecuencia de las diferentes fuentes de vibración, así como de la variedad de
frecuencias de las mismas, la expresión que se propone para modelar la vibración global 𝑏(𝑡) para
cada una de las coordenadas angulares (Figura 2.3.3), y que se va a utilizar en el posterior análisis,
consta de dos componentes:
𝑏(𝑡) = 𝑣(𝑡) + 𝑛(𝑡) (3)
siendo 𝑣(𝑡) la propia vibración angular y 𝑛(𝑡) un ruido de proceso, que se considera blanco
Gaussiano de media nula y varianza 𝜎𝑛2. En el modelo que se propone, se asume que las vibraciones
en cada eje de rotación son independientes entre sí, aunque dicha suposición deberá ser verificada
con medidas experimentales que permitan determinar, en caso contrario, la correlación cruzada entra
las distintas coordenadas de la vibración.
Estado del arte de las Tecnologías, Modelado y Análisis
18
Octubre 2019 – Octubre 2020
Para el término 𝑣(𝑡) de la vibración, en lugar de utilizar una única frecuencia que represente la
vibración predominante de los motores, como se hace en otros trabajos publicados [58-60], se
propone el uso de una suma de múltiples sinusoidales cuyas frecuencias siguen una distribución
modelada por una mezcla de Gaussianas (Gaussian Mixture Model, GMM) compuesta por dos
distribuciones Gaussianas de media las denominadas frecuencias fundamentales de la vibración: la
componente de baja frecuencia (fl) y la componente de alta frecuencia (fh). Este modelo se ajusta
mejor a las propiedades espectrales de la vibración medida para estas plataformas [57].
Ahora bien, a la hora de implementar un modelo con estas características pueden plantease dos
posibilidades. La primera de ellas parte del dominio temporal para generar las vibraciones como
suma de múltiples sinusoides, mientras que en la segunda se lleva a cabo el tratamiento de la
vibración partiendo de su espectro.
Además, cada una de las N señales sinusoidales sumadas tendrán un desfase aleatorio 𝜑𝑖 determinado
como una VA uniforme de límites (0,2π). Por lo tanto, el término 𝑣(𝑡) de la vibración queda
expresado por (4).
𝑣(𝑡) = ∑ 𝐴𝑙𝑐𝑜𝑠(2𝜋𝑓𝑙𝑖𝑡 + 𝜑𝑖)
𝑁
𝑖=1
+ ∑ 𝐴ℎ𝑐𝑜𝑠(2𝜋𝑓ℎ𝑖𝑡 + 𝜑𝑖)
𝑁
𝑖=1
(4)
Cabe destacar que la diferencia de amplitudes 𝐴𝑙, 𝐴ℎ, procede del hecho de que las vibraciones de
baja frecuencia presentan generalmente una mayor amplitud que las de baja frecuencia. Además, será
necesario normalizar la señal en potencia para posteriormente escalar la amplitud de la vibración a
los valores coherentes con los rangos de vibración angular especificados por el fabricante.
Como se dijo anteriormente, la generación de la vibración se lleva a cabo generando por separado
las componentes en las tres vibraciones angulares (alabeo, 𝑣𝑟(𝑡), cabeceo, 𝑣𝑝(𝑡), y guiñada, 𝑣𝑦(𝑡))
para posteriormente aplicarlas al modelo de adquisición de la imagen con efecto de emborronado.
Además, se debe tener también en cuenta el ruido del proceso en la generación de la vibración. Se
asume que este ruido presenta un carácter Gaussiano blanco aditivo (Additive White Gaussian Noise,
AWGN) que afecta a todo el rango espectral considerado de la vibración.
Añadiendo el ruido a las a las tres componentes de vibración ya definidas, obtenemos las tres
componentes angulares que definirán la PSF debido a la vibración, en alabeo, 𝑏𝑟(𝑡), cabeceo, 𝑏𝑝(𝑡),
y guiñada, 𝑏𝑦(𝑡), tal y como se muestra en la expresión (3), y por tanto el emborronado sufrido por
las imágenes. Al determinar la PSF, además de la vibración angular modelada durante el tiempo de
exposición, se tendrá en cuenta el movimiento de traslación de la plataforma (movimiento lineal con
velocidad constante).
El resultado del análisis del recorrido de un punto tridimensional proyectado a lo largo del tiempo de
exposición [62-63] da lugar a una representación cuyo número de puntos en el plano de la imagen
depende de la frecuencia de muestreo de la simulación, sin embargo, a la hora de generar la PSF, lo
importante es la densidad de puntos que presenta cada píxel del sensor de imagen [64]. La
representación de este proceso, que permite estimar la PSF debida al movimiento y la vibración de
la plataforma, se muestra en la Figura 3.2.1.
Estado del arte de las Tecnologías, Modelado y Análisis
19
Octubre 2019 – Octubre 2020
Figura 3.2.1. Modelo para generar la PSF debida al movimiento y vibración de la plataforma a partir del recorrido de
la proyección de un punto tridimensional en el plano de la imagen.
En realidad, no todos los puntos del plano fotografiado presenten la misma PSF, sino que se produce
una variación espacial de la PSF debido a que la distancia y posición de cada punto tridimensional
del plano fotografiado al sistema de imagen es también variante. Sin embargo, asumiendo que la
distancia entre el dron y el objetivo a fotografiar es grande, la diferencia entre las PSF de los distintos
puntos de la imagen será suficientemente pequeña para considerar despreciable dicha variación.
Este modelo permite, además, tratar de manera diferente el efecto del emborronado en plataformas
de ala fija y ala rotatoria a través de varios parámetros. Por un lado, para simular la mayor estabilidad
que presentan las plataformas de ala fija, se considera un menor ruido del proceso, así como una
menor varianza de las Gaussianas que componen el modelo de mezcla en torno a las frecuencias
fundamentales con respecto a las plataformas de ala rotatoria, que presentan, en general, una menor
estabilidad y velocidad lineal de vuelo.
3.3. Resultados obtenidos a partir del modelo propuesto
El objetivo de este apartado es analizar los resultados del modelo propuesto en el apartado anterior,
poniendo atención en las diferencias según el tipo de plataforma simulada. Para ello, se van a estudiar
dos casos representativos considerando especificaciones típicas de UAVs. El primero simulará una
plataforma de ala fija, y el segundo una plataforma de ala rotatoria.
Ambos casos de estudio comparten una serie de parámetros típicos, relacionados principalmente con
el sensor óptico, el sistema de estabilización y el escenario considerado, como son:
Parámetro Valor
Altura de vuelo del dron 100 m
Ángulo de apuntamiento de la cámara en elevación respecto a nadir 45 º
Campo de visión vertical 30 º
Campo de visión horizontal 45 º
Resolución 10 MP (3872x2592 píxeles)
Tiempo de exposición 100 ms
Deviación típica de la amplitud de las vibraciones en alabeo, cabeceo y guiñada 0.03 º
Frecuencia de vibración baja 2.5 Hz
Frecuencia de vibración alta 100 Hz
Frecuencia de muestreo simulación 10 KHz
Tiempo total simulado de la vibración 10 s
Tabla 3.3.1. Parámetros comunes a ambos casos de estudio.
Estado del arte de las Tecnologías, Modelado y Análisis
20
Octubre 2019 – Octubre 2020
Como sistema representativo se considera una cámara embarcada de 10 MP de resolución y un campo
de visión amplio (Wide Field of View, WFOV) con un FOV de 45º en horizontal y una relación de
aspecto 3:2 (con píxeles cuadrados). Se ha considerado un tiempo de exposición de 100 ms, como
caso peor para situaciones de baja iluminación, que dará lugar a un emborronado severo [65].
Además, de acuerdo con estudios que han medido las componentes espectrales de las vibraciones de
distintos UAVs, se han seleccionado como frecuencias fundamentales de vibración 2.5 Hz y 100 Hz,
para la frecuencia baja y alta, respectivamente [50, 57]. Estas características se pueden considerar
típicas para sensores electro-ópticos embarcados en plataformas autónomas aéreas de categoría I.
Sin embargo, se debe tener en cuenta que las cámaras IR embarcadas presentan una resolución
considerablemente menor a los sensores de espectro visible y, por lo tanto, el movimiento y vibración
de la plataforma da lugar a una menor degradación de la calidad de la imagen. No obstante, su menor
resolución supone también un menor alcance.
Caso de estudio I: UAV de ala fija
En primer lugar, se analiza el caso de un UAV de ala fija. Para simular este tipo de plataformas,
además de los parámetros comunes a ambos casos, se han establecido los siguientes parámetros,
teniendo en cuenta que este tipo de plataformas presenta una mayor estabilidad que las plataformas
de ala rotatoria:
- Relación de amplitudes entre las vibraciones de baja y alta frecuencia: 𝐴𝑙/𝐴ℎ = 4
- N = 10000 (número de sinusoides en el sumatorio del modelo)
- Desviación típica de la vibración de baja frecuencia (𝜎𝑙): 0.25 Hz.
- Desviación típica de la vibración de alta frecuencia (𝜎ℎ): 5 Hz.
- Relación señal a ruido del ruido del proceso: 20 (unidades lineales).
- Velocidad lineal del dron: 20 m/s.
En primer lugar, partiendo de estos parámetros, la Figura 3.3.1 representa las tres componentes
angulares de la vibración generadas para una realización utilizando el modelo propuesto.
Estado del arte de las Tecnologías, Modelado y Análisis
21
Octubre 2019 – Octubre 2020
Figura 3.3.1. Componentes angulares de la vibración generada considerando un UAV de ala fija para una realización
del experimento utilizando el modelo propuesto.
Se observa que, aunque la desviación típica en amplitud de las señales de vibración es de 0.03º (de
acuerdo con las especificaciones del sistema de estabilización), durante los 10 segundos simulados
se alcanzan picos de hasta ±0.08º. Sin embargo, lo realmente importante de cara al emborronado es
la variación de amplitud durante el tiempo de exposición, que será, en general, inferior a esos picos
debido a que estos se deben principalmente a las vibraciones de baja frecuencia.
Del zoom que aparece en la Figura 3.3.1, puede deducirse que cuanto menor sea el tiempo de
exposición, mayor será la probabilidad de que la variación de amplitud sea también pequeña y, por
lo tanto, se produzca un menor emborronado debido a la vibración de la imagen adquirida. Además,
esta variación dependerá del instante en el que comience la exposición a la luz del sensor de imagen
(tal y como se explicó al comienzo de este capítulo). De tal forma que, con un tiempo de exposición
de 100 milisegundos, si la exposición comienza, por ejemplo, en 4.2 s, cuando la componente de baja
frecuencia de la vibración en alabeo (azul) se encuentra en un pico (un máximo en este caso), la
variación angular de la vibración es pequeña (de unos 0.02º - 0.04º) y su efecto en el emborronado
será más tenue que cuando el tiempo de exposición comienza en 4.3 s o 4.5 s, donde la componente
de baja frecuencia en alabeo comienza a descender u ascender y la variación del apuntamiento
angular es más grande (0.08º - 0.1º). Además, se debe tener en cuenta que un mayor tiempo de
exposición supone también un mayor desplazamiento lineal de la plataforma.
Observando las señales en el dominio transformado (Figura 3.3.2), se aprecian claramente las
funciones Gaussianas de alta y baja frecuencia, dadas por el modelo de mezcla considerado, para
cada una de las componentes angulares de vibración. De acuerdo con los parámetros del modelo, se
observa una mayor amplitud para la vibración de baja frecuencia, pero con una anchura mucho menor
(de unos 0.25 Hz, frente a los 5 Hz en alta frecuencia), determinados por las varianzas de las variables
aleatorias que dan lugar a ambas componentes frecuenciales, además de una cierta aleatoriedad en la
amplitud, claramente apreciable en la componente de alta frecuencia.
Figura 3.3.2. Espectro normalizado de las componentes angulares de vibración para un UAV de ala fija en alabeo
(azul), cabeceo (rojo) y guiñada (amarillo).
Una vez analizadas las vibraciones generadas en ausencia de ruido de proceso AWGN, en la Figura
3.3.3 se puede apreciar el efecto de añadir dicho ruido, en un instante de la vibración durante el
tiempo de exposición considerado (100 ms).
Estado del arte de las Tecnologías, Modelado y Análisis
22
Octubre 2019 – Octubre 2020
Figura 3.3.3. Adición del ruido de proceso AWGN a la vibración generada para el UAV de ala fija.
Por otro lado, no debe olvidarse que lo que va a determinar la PSF debida al movimiento y la
vibración, o lo que es lo mismo, el emborronado de la imagen, es únicamente la fracción de la
vibración y el movimiento de la plataforma que se produce durante el tiempo en el que el sistema
capta luz, es decir, durante el tiempo de exposición. Por ello, para analizar las posibles PSFs
obtenidas mediante el modelo, se debe hacer uso de dicha fracción seleccionando un instante
aleatorio de la vibración para comenzar el tiempo de exposición.
Para este primer caso de estudio, pude destacarse que las PSFs obtenidas presentan esencialmente
tres características bien diferenciables:
1. En primer lugar, destaca la componente lineal debida al desplazamiento de la plataforma
durante el tiempo de exposición.
2. La segunda característica es la pendiente de esta componente lineal, que viene determinada
por el tramo de la componente de baja frecuencia que tiene efecto durante el tiempo de
exposición. Esta pendiente puede ser inapreciable, es decir, próxima a cero, cuando el tiempo
de exposición coincide con un extremo (máximo o mínimo), de la componente de baja
frecuencia. Un caso representativo de este caso es el representado en la imagen superior de
la Figura 3.3.4.
3. En tercer lugar, se observa el carácter sinusoidal que presenta la PSF, esta depende de la
amplitud de la componente de alta frecuencia a lo largo del tiempo de exposición. Un caso
extremo con respecto a esta característica sería que la componente de baja frecuencia fuera
tan tenue que la PSF presentase una forma prácticamente lineal.
Estado del arte de las Tecnologías, Modelado y Análisis
23
Octubre 2019 – Octubre 2020
Figura 3.3.4. PSFs generadas mediante el modelo para plataformas de ala fija.
Estas características son claramente distinguibles en las PSFs obtenidas de este primer caso de
estudio, sin embargo, su apreciación será más complicada en el caso de plataformas de ala rotatoria
debido a su menor estabilidad.
Caso de estudio II: UAV de ala rotatoria o multirrotor
A continuación, se analiza el caso de un UAV de ala rotatoria. Para simular este tipo de plataformas,
los parámetros que difieren, debido a su menor estabilidad de vuelo y menor velocidad lineal, con
respecto al caso de ala fija son:
- Relación de amplitudes entre las vibraciones de baja y alta frecuencia: 𝐴𝑙/𝐴ℎ = 2.5
- N = 10000 (número de sinusoides en el sumatorio del modelo).
- Desviación típica de la vibración de baja frecuencia (𝜎𝑙): 0.25 Hz.
- Desviación típica de la vibración de alta frecuencia (𝜎ℎ): 10 Hz.
- Relación señal a ruido del ruido del proceso: 15 (unidades lineales).
- Velocidad lineal del dron: 10 m/s.
Al igual que en el caso anterior, en primer lugar, se generan las tres componentes de vibración
resultantes de la aplicación del modelo propuesto de simulación durante un tiempo de diez segundos
(Figura 3.3.5), que permite realizar un análisis espectral de las componentes de la vibración con una
resolución de 0.1 Hz. Esta resolución aporta un nivel de detalle suficiente sin dar lugar a tiempos de
procesado excesivos para la generación de la vibración simulada y sus correspondientes PSF
considerando el tiempo de exposición.
Estado del arte de las Tecnologías, Modelado y Análisis
24
Octubre 2019 – Octubre 2020
Figura 3.3.5. Componentes angulares de la vibración generada considerando un UAV de ala fija para una realización
del experimento utilizando el modelo propuesto.
Aunque en principio la señal de diez segundos de duración pudiera parecer muy similar a la obtenida
en el caso de ala fija, es fácil apreciar, en la imagen ampliada, el mayor impacto causado por la
componente de alta frecuencia en las distintas componentes angulares de la vibración. De hecho, hay
intervalos de tiempo durante los que la variación de amplitud debida a la componente de alta
frecuencia es considerablemente más relevante que la debida a la componente de baja frecuencia.
Esto se debe al menor ratio 𝐴𝑙/𝐴ℎ, que relaciona las amplitudes de las componentes de baja y alta
frecuencia, debido a la mayor contribución de las vibraciones de alta frecuencia en los UAV de ala
rotatoria.
Por otro lado, dado que la amplitud de las tres componentes está normalizada para poder fijar una
variación angular aproximada de desviación típica 0.03º en este caso, y que la componente de baja
frecuencia sigue siendo predominante, los picos alcanzados son similares al caso de ala fija, aunque,
como ya se ha dicho, en este caso la componente de alta frecuencia presenta una mayor contribución
que en las plataformas de ala fija.
El efecto del cambio en los parámetros 𝐴𝑙/𝐴ℎ y 𝜎ℎ es quizá más fácil de apreciar en el dominio
transformado (Figura 3.3.6), donde se observa que la componente correspondiente a alta frecuencia
presenta aproximadamente el doble de ancho de banda que en el caso de ala fija. Por tanto, como la
representación está normalizada al máximo y el lóbulo correspondiente a las componentes de alta
frecuencia presenta aproximadamente el mismo nivel en ambos casos, la contribución de las
componentes de alta frecuencia es mayor en el UAV de ala rotatoria.
a) b) Figura 3.3.6. Comparación de los espectros normalizados de las componentes angulares de vibración en alabeo (azul),
cabeceo (rojo) y guiñada (amarillo) en los casos: a) ala rotatoria y b) ala fija.
A continuación, al igual que en el primer caso de estudio, antes de obtener la PSF debida a la
vibración y el movimiento, se añade el ruido de proceso AWGN a cada una de las componentes
(Figura 3.3.7), que, en este caso, presenta un nivel superior debido a la menor estabilidad de estos
UAVs.
Estado del arte de las Tecnologías, Modelado y Análisis
25
Octubre 2019 – Octubre 2020
Figura 3.3.7. Adición del ruido de proceso AWGN a la vibración generada para el UAV de ala rotatoria.
Una vez generadas las tres componentes de vibración, añadido el ruido de proceso y considerando el
desplazamiento lineal de la plataforma, es posible generar las PSFs correspondientes a dichas
vibraciones durante un tiempo de exposición te. Algunas PSFs representativas generadas mediante
este modelo se muestran en la Figura 3.3.8, en las que no se observan tan claramente las
características comentadas para el caso de ala fija debido a la menor estabilidad de los UAVs de ala
rotatoria.
Figura 3.3.8. PSFs generadas mediante el modelo para plataformas de ala rotatoria.
Estado del arte de las Tecnologías, Modelado y Análisis
26
Octubre 2019 – Octubre 2020
4. Análisis de las capacidades de detección utilizando
algoritmos de desemborronado y detección automática
En este capítulo, utilizando el modelo de vibración y de obtención de la PSF presentado
anteriormente, se pretende evaluar mediante simulaciones el comportamiento de un algoritmo
representativo de estabilización digital (algoritmo de desemborronado) combinado con un algoritmo
de detección automática de objetos, de acuerdo con el procesado típico mostrado en la Figura 4.1.
Posteriormente, en base a los resultados obtenidos del análisis, se propone una extensión del Criterio
de Johnson, tratado en la introducción de este trabajo, que permita estimar de forma sencilla el
alcance de las cámaras embarcadas en plataformas aéreas en función de las especificaciones técnicas
de estas y de los sistemas de estabilización.
Figura 4.1. Esquema de la cadena de proceso analizada que incluye el desemborronado (deblurring) de la imagen y la
detección automática de blancos.
Por un lado, los algoritmos de desemborronado (deblurring) pretenden obtener la imagen latente con
la mayor nitidez posible, partiendo de una única imagen adquirida con el sensor electro-óptico
afectado por vibraciones y movimiento. Concretamente se ha utilizado como algoritmo el propuesto
por Krishnan et al. [66].
Por otro lado, de cara a proponer una extensión del Criterio de Johnson para la estimación del alcance
de las cámaras embarcadas, es necesario establecer un método que permita analizar la degradación
de la imagen debida al emborronado y la capacidad de compensación por parte de los algoritmos de
desemborronado utilizados. Para ello, se implementa un algoritmo de detección automática de
objetos que permite comparar la eficiencia de la detección de blancos en imágenes sin emborronado,
emborronadas y estabilizadas digitalmente (desemborronadas). En este caso, se hace uso de un
algoritmo de detección de “objetos salientes” (saliency detection), mediante el algoritmo Minimum
Barrier Salient Object Detection [67], que permite detectar objetos por contraste con el fondo de la
imagen.
4.1. Análisis de los resultados de la aplicación de los algoritmos de
desemborronado y detección automática
En este apartado, se van a presentar y analizar los resultados obtenidos de la aplicación combinada
de emborronado, estabilización (algoritmos de deblurring) y detección automática de una imagen
real representativa obtenida mediante una cámara digital. Lo que permitirá estimar la extensión del
Criterio de Johnson que es objeto de este trabajo.
La imagen original (sin emborronado) que será el objeto del análisis en este apartado presenta un
blanco claramente diferenciado (Primera imagen de la Figura 4.1.1).
Estado del arte de las Tecnologías, Modelado y Análisis
27
Octubre 2019 – Octubre 2020
Dado que el Criterio de Johnson establece el número de líneas que debe ocupar un objeto en la
imagen para poder ser discriminado, se va a llevar a cabo el análisis de la imagen original y de una
serie de versiones submuestreadas de esta, de tal forma que los objetos a detectar (un ave en este
caso) ocupen progresivamente menos píxeles en la imagen, permitiendo obtener un tamaño mínimo
necesario para una detección automática exitosa (Figura 4.1.1).
Figura 4.1.1. Versiones original y submuestreadas de la imagen utilizada en el análisis.
Con las versiones submuestreadas ordenadas de mayor a menor número de muestras, o lo que es lo
mismo, de menor a mayor factor de submuestreo, de izquierda a derecha y de arriba hacia abajo,
siendo el factor de submuestreo el cociente entre el número de muestras de la imagen original y el
de la versión submuestreada, el tamaño del blanco en cada una de dichas versiones queda recogido
en la Tabla 4.1.1.
Imagen Factor de submuestreo Tamaño imagen Nº de píxeles en vertical Nº de píxeles en horizontal
a.1 1 640 x 359 84 52
a.2 2 320 x 180 42 26
a.3 4 160 x 90 21 13
a.4 8 80 x 45 11 6
a.5 16 40 x 23 4 2
a.6 32 20 x 12 1 1
Tabla 4.1.1. Características de las versiones submuestreadas de la imagen.
A continuación, se va a llevar a cabo el procesado completo de la imagen. En primer lugar, se procede
analizando la capacidad de detección que presenta el algoritmo de detección automática utilizado
con las distintas versiones de la imagen antes de ser emborronada (1). A continuación, se aplicará el
algoritmo de emborronado a cada una de las versiones de la imagen, utilizando la misma PSF en
cada una de ellas (comparando el modelo de ala fija y el de ala rotatoria), para posteriormente volver
a evaluar la capacidad de detección en las nuevas versiones emborronadas (2). Por último, se aplicará
un algoritmo de estabilización digital sobre las imágenes emborronadas y se volverá a evaluar la
capacidad de detección automática sobre las nuevas versiones desemborronadas de la imagen (3).
Cabe destacar que, a la hora de decidir si la detección ha sido o no exitosa se va a emplear el criterio
Ground Truth, es decir, se considerará que la detección ha sido exitosa en caso de que la superficie
detectada coincida total o parcialmente con la superficie del blanco que se desea detectar. Además,
dado que el objetivo es determinar aproximadamente el tamaño (en pares de líneas) que debe ocupar
un blanco para ser detectado, una vez que una versión submuestreada dé lugar a una pérdida en la
detección (missed detection) todas las versiones de menor tamaño se considerarán también como
detecciones fallidas.
Estado del arte de las Tecnologías, Modelado y Análisis
28
Octubre 2019 – Octubre 2020
(1) El algoritmo de detección automática seleccionado presenta un comportamiento interesante
al utilizarlo con la imagen considerada, mostrando algunas de las problemáticas de este
algoritmo. Esto se debe a que, si bien es capaz de detectar sin dificultad la presencia del ave
en la imagen utilizando la transformada de distancia (Figura 4.1.2a), el resultado del proceso
de detección determina varias regiones como posibles blancos, es decir, presenta falsas
alarmas. Esto puede deberse a varias razones. Por un lado, hay que tener en cuenta que el
algoritmo hace uso del color presente en los cuatro bordes de la imagen para determinar las
regiones consideradas como fondo de la imagen. En este caso, la parte central de la imagen
presenta una mayor luminosidad, lo que hace que los colores en esta región sean más claros
y por tanto difieran más con los colores presentes en los bordes.
a)
b)
c)
e)
Figura 4.1.2. Resultados del algoritmo de detección automática en la imagen de tamaño original: a) Transformada de
distancia (FastMBD), b) Combinanción de la transformada de distancia y del mapa de contraste, c) Detecciones
obtenidas y d) Imagen original y bounding box (cuadro delimitador) que incluye todas las detecciones obtenidas.
Además, el hecho de aplicar un umbral adaptativo utilizando un algoritmo CA-CFAR, que
emplea una ventana deslizante, hace que aparezcan falsas alarmas en algunos de los bordes
entre las regiones que se observan en el resultado combinado de la transformada de distancia
y el mapa de contraste (Figura 4.1.2c), haciendo que se interpreten algunas zonas de nubes
de la región central como posibles blancos (Figura 4.1.2c).
Figura 4.1.3. Resultados del algoritmo de detección automática en las distintas versiones submuestreadas de la imagen.
Para no tener que modificar los parámetros de los algoritmos y conseguir resultados comparables, a las imágenes
submuestreadas se les aplica un upsampling para mantener el mismo número de píxeles que la imagen original.
A pesar de las falsas alarmas, dado que el ave también es detectada, se considera que la
detección ha sido exitosa. Para evitar estas falsas alarmas, se podría modificar los parámetros
Estado del arte de las Tecnologías, Modelado y Análisis
29
Octubre 2019 – Octubre 2020
del algoritmo CA-CFAR, aumentando el umbral (lo que a su vez disminuye a la probabilidad
de detección), o utilizar otros algoritmos con umbral adaptativo robustos frente a bordes.
El resto de las versiones submuestreadas presentan resultados similares, siendo capaz el
algoritmo de detectar el blanco en todas ellas, incluso cuando este ocupa únicamente un píxel
(Figura 4.1.3).
(2) A continuación, se aplica el tipo de emborronado propuesto en este documento mediante
simulaciones, considerando un tiempo de exposición típico de 0.02 s, tanto para el modelo
de ala fija como para el de ala rotatoria. Las PSFs de emborronado simuladas para los casos
de ala fija y ala rotatoria se representan en las Figuras 4.1.4a y 4.1.4b respectivamente.
a)
b)
Figura 4.1.4. PSFs aplicadas para el emborronado de los casos: a) de ala fija y b) de ala rotatoria.
A partir de dichas PSFs, se generan las versiones emborronadas de la imagen, obteniendo
para los casos de ala fija y ala rotatoria las imágenes mostradas en las Figuras 4.1.5 y 4.1.6,
respectivamente.
Figura 4.1.5. Versiones emborronadas según el modelo para plataformas de ala fija de las imágenes original y
submuestreadas.
Figura 4.1.6. Versiones emborronadas según el modelo para plataformas de ala rotatoria de las imágenes
original y submuestreadas.
Estado del arte de las Tecnologías, Modelado y Análisis
30
Octubre 2019 – Octubre 2020
Se observa que, para las imágenes cuyos blancos ocupaban cuatro o menos píxeles en cada
eje de la imagen antes de emborronar, es imposible clasificar el tipo de blanco fotografiado.
Esto se debe a que la energía de dicho blanco, que estaba concentrada en un número pequeño
de píxeles, se distribuye entre muchos píxeles que no se corresponden con el blanco. Por ello,
la energía del blanco presente en cada uno de los píxeles entre los que se ha esparcido es
pequeña en relación con la energía correspondiente a los píxeles que inicialmente no se
correspondían con el blanco.
Figura 4.1.7. Resultados del algoritmo de detección automática en las distintas versiones emborronadas mediante los
modelos para plataformas de ala fija (columnas primera y segunda) y ala rotatoria (columnas tercera y cuarta).
Este efecto, en imágenes en las que el blanco ocupa originalmente un gran número de píxeles
da lugar principalmente a que los bordes del blanco aparezcan difuminados, mientras que los
Estado del arte de las Tecnologías, Modelado y Análisis
31
Octubre 2019 – Octubre 2020
píxeles centrales del blanco siguen presentando principalmente energía correspondiente al
blanco.
Lo interesante ahora es evaluar en qué medida el emborronado complica la detección
automática del blanco. Los resultados de aplicar el algoritmo de detección automática a las
imágenes emborronadas mediante los modelos de ala fija y ala rotatoria se muestran en la
Figura 4.1.7. En esta figura, las columnas primera y tercera presentan el mapa con las regiones
“salientes” (aplicando un proceso de erosión y dilatación sobre la imagen umbralizada con
las detecciones) en los casos de ala fija y ala rotatoria, respectivamente, y las columnas
segunda y cuarta muestran el área de la imagen en la que quedan enmarcadas dichas regiones
(bounding box) en los casos de ala fija y ala rotatoria, respectivamente.
El primero de los casos presenta claras dificultades a la hora de detectar el blanco.
Únicamente es capaz de detectarlo en las dos primeras imágenes (factores de submuestreo 1
y 2). De acuerdo con el ground truth, en la tercera de las imágenes, se produce una falsa
alarma, al detectarse el sol en lugar del ave, y en el resto de las imágenes se dan falsas alarmas
o ni siquiera el algoritmo es capaz de detectar un posible blanco.
En cuanto al caso de ala rotatoria, el ave es detectada correctamente en las cuatro primeras
imágenes, mientras que en la quinta se da una falsa alarma y en la sexta no es posible discernir
ningún blanco.
(3) Finalmente, se muestran los resultados de procesar las imágenes emborronadas mediante el
algoritmo de estabilización de imagen que se ha probado para los casos de ala fija y ala
rotatoria, junto con los resultados de la detección (Figuras 4.1.9 y 4.1.10). El algoritmo
utilizado es el presentado por Krishnan et al. en 2013 [66].
a) b)
1)
2)
Figura 4.1.8. Comparación entre las PSFs de emborronado a) según: 1) el modelo de ala fija y 2) el modelo de ala
rotatoria, y las estimaciones obtenidas b) para las imágenes de tamaño original a partir del algoritmo de Krishnan et al.
[66].
Posteriormente, se evalúa el desempeño del algoritmo de detección automática en cada una
de las imágenes.
De las detecciones presentadas en la Figura 4.1.9, las tres últimas se corresponden con falsas
alarmas, mientras que, en la Figura 4.1.10, únicamente las dos últimas se corresponden con
falsas alarmas.
El proceso de análisis mostrado se ha realizado con varias imágenes digitales que presentaban
blancos bien distinguibles. Con todas ellas se han obtenido resultados similares a los presentados.
Estado del arte de las Tecnologías, Modelado y Análisis
32
Octubre 2019 – Octubre 2020
Figura 4.1.9. Resultados del algoritmo de detección automática en las distintas versiones estabilizadas mediante el
algoritmo de Krishnan et al. de las imágenes emborronadas mediante el modelo para plataformas de ala fija.
Figura 4.1.10. Resultados del algoritmo de detección automática en las distintas versiones estabilizadas mediante el
algoritmo de Krishnan et al. de las imágenes emborronadas mediante el modelo para plataformas de ala rotatoria.
Antes de sacar conclusiones de las pruebas realizadas, se presentan a modo de resumen los resultados
de las detecciones obtenidos mediante la Tabla 4.1.2. En ella se indica si el algoritmo ha sido capaz
de detectar el blanco exitosamente (Si), o si, por el contrario, se trata de una falsa alarma o no ha sido
capaz de detectarlo (No). La primera columna indica la etapa de la evaluación, mientras que la fila
superior indica el número de píxeles que ocupa el blanco en cada eje de la imagen.
Detección 84 x 52 42 x 26 21 x 13 11 x 6 4 x 2 1 x 1
Original Si Si Si Si Si Si
Emborronada AF Si Si No No No No
Emborronada AR Si Si Si Si No No
Estabilizada
Krishnan et al. AF Si Si Si No No No
Estabilizada
Krishnan et al. AR Si Si Si Si No No
Tabla 4.1.2. Resultados del algoritmo de detección automática para la imagen en cada etapa del análisis. (AF: Modelo
para ala fija; AR: Modelo para ala rotatoria).
Estado del arte de las Tecnologías, Modelado y Análisis
33
Octubre 2019 – Octubre 2020
A partir de estos resultados, para poder relacionarlos con las directrices que describe el Criterio de
Johnson, el procedimiento seguido se basa en la definición de par de líneas utilizado en procesado
de imágenes, que está en cierto modo relacionado con la resolución de la imagen. Para comprender
el concepto de par de líneas se suele recurrir al ejemplo de dos líneas negras paralelas de un cierto
grosor situadas sobre un fondo blanco que se van acercando progresivamente la una a la otra. Llegará
un momento en el que la distancia será tan pequeña que no le será posible distinguir las dos líneas,
es decir, parecerá que sólo hay una. Esa distancia es el límite de la resolución óptica. En imágenes
digitales este concepto es equivalente aproximadamente a dos píxeles de resolución.
Teniendo esto en cuenta, la relación entre el tamaño de un blanco en una imagen y el número de
pares de líneas que ocupa será igual a la máxima magnitud entre el ancho y el alto (en píxeles) que
definen el blanco en la imagen dividido por dos.
Siguiendo el criterio anterior y fijándonos en los resultados recopilados en la Tabla 4.1.2, observamos
que, para la situación sin emborronado, 0.5 pares de líneas son suficientes para poder detectar el
blanco objetivo. Esto concuerda de manera aproximada con el Criterio de Johnson, aunque en
realidad este está conceptualizado de una manera más cualitativa, puesto que su aplicación fue
inicialmente pensada para llevarse a cabo mediante un operador humano.
Si la imagen es tomada desde una plataforma aérea en movimiento y, por lo tanto, se ve afectada por
un cierto emborronado, el número de pares de líneas que deberá ocupar el blanco sin ser afectado
por emborronado será mayor y dependerá esencialmente del tamaño de la PSF (el emborronado
produce una pérdida de nitidez y, por lo tanto, de resolución efectiva). Esta depende principalmente
de la velocidad lineal de la plataforma, la distancia del blanco y la amplitud de la vibración. En lo
que a la PSF respecta, los resultados obtenidos muestran las siguientes conclusiones. De forma
cualitativa, se observa que, en general, para que la detección tenga éxito es necesario que el blanco
ocupe un número de pares de líneas similar a la longitud de la PSF. Por ejemplo, si la PSF tiene una
longitud de 20 píxeles, como es el caso del ejemplo de ala fija utilizado en el análisis, la detección
no ha sido exitosa hasta que el blanco ocupaba 42 x 26 píxeles, es decir, 21 pares de líneas.
Por último, si se somete a la imagen emborronada a un proceso de estabilización, el número de pares
de líneas que es necesario que ocupe el blanco sin efectos de emborronado se ve reducido
considerablemente, llegando a ser suficiente 10.5 pares de líneas para el caso en el que antes de
aplicar el algoritmo de desemborronado eran necesarios 21.
En el caso mostrado de una plataforma de ala rotatoria, en el que la PSF ocupa unos 10 píxeles
transversales se observa que en este caso no se consigue mejorar la capacidad de detección, ya que,
cuando la imagen es emborronada pero no estabilizada, son necesarios 5.5 pares de líneas, y tras la
estabilización, siguen siendo necesarios 5.5 pares de líneas, esto se debe a que, en el caso presentado,
el blanco presenta un tamaño muy reducido. Repitiendo el análisis con otras imágenes se obtienen
resultados similares, observándose para la mayoría de los casos una mejora importante de las
capacidades de detección.
Se han analizado y probado diferentes algoritmos de estabilización además del presentado en el
análisis, algunos de ellos con mejores resultados, sin embargo, dado que el principal objeto de este
trabajo es ser capaces de extender el mencionado Criterio de Johnson, y que para ello se va a llevar
a cabo una simulación de Monte Carlo, hemos optado por utilizar el algoritmo que presentara un
mejor compromiso entre el comportamiento del algoritmo y su coste computacional.
Estado del arte de las Tecnologías, Modelado y Análisis
34
Octubre 2019 – Octubre 2020
A continuación, como se acaba de mencionar, haciendo uso de un conjunto de imágenes aéreas con
blancos presentes y realizando submuestreos para simular distintos tamaños, la Figura 4.1.11 muestra
los resultados obtenidos de una simulación de Monte Carlo de la probabilidad de detección del blanco
en función del número de píxeles que ocupa en la imagen original sin emborronar para los casos de
ala rotatoria y ala fija definidos anteriormente.
Figura 4.1.11. Resultados de una simulación de Monte Carlo sobre un conjunto de imágenes con blancos utilizando el
modelo de emborronado propuesto y aplicando un algoritmo de detección automática sobre imágenes emborronadas e
imágenes posteriormente estabilizadas digitalmente mediante un algoritmo de deconvolución ciega.
Una mayor velocidad lineal de la plataforma de ala fija induce una mayor degradación, aunque en
ambos casos se consigue una mejora importante de la capacidad de detección al utilizar el algoritmo
de desemborronado (deblurring). Cabe destacar que, a igual velocidad de vuelo, la mejor estabilidad
de las plataformas de ala fija da lugar a mejores resultados que las plataformas de ala rotatoria.
El movimiento y la vibración de la plataforma durante el tiempo de exposición dan lugar a una
pérdida de resolución que equivale aproximadamente al tamaño de la PSF. Como se muestra en la
Figura 4.1.12, dicha PSF puede aproximarse en media por una forma rectangular con un número de
píxeles NPSF = NV · NH, que viene dado por: las especificaciones de la cámara (IFOV, instantaneous
FOV, en vertical (V) y horizontal (H) y el tiempo de exposición, texp), la amplitud típica de la
vibración de alta frecuencia, Ahigh (predominante en el efecto de emborronado), la velocidad de la
plataforma, vuav, y la distancia a la que se encuentra la escena capturada, R.
Figura 4.1.12. Tamaño aproximado de la PSF que da lugar a una pérdida de resolución equivalente.
Por tanto, de forma aproximada, para cámaras embarcadas en plataformas aéreas, el objeto deberá
ocupar al menos NPSF · Nmin_CJ píxeles, siendo Nmin_CJ el número mínimo de píxeles que fija el Criterio
de Johnson para el nivel de discriminación analizado (detección, clasificación o identificación),
válido para situaciones estáticas. Esta aproximación se ajusta a los resultados obtenidos de la
Estado del arte de las Tecnologías, Modelado y Análisis
35
Octubre 2019 – Octubre 2020
simulación, en los que para las imágenes emborronadas el blanco debía ocupar un número de píxeles
superior al tamaño de la PSF por un factor que es próximo al fijado por el Criterio de Johnson para
ser detectado con una probabilidad superior del 50%.
Esta aproximación, que permite extender el Criterio de Johnson para estimar de forma sencilla las
capacidades de detección cuando la cámara se embarca en una plataforma móvil, y que supone una
limitación importante del alcance o del tamaño mínimo detectable respecto a situaciones estática,
pone de relieve la importancia de los sistemas de estabilización y de la propia estabilidad de la
plataforma en aplicaciones de teledetección. De hecho, como se observa en los resultados de las
simulaciones realizadas, el empleo de una etapa de estabilización digital en el procesado mediante
algoritmos de deconvolución ciega mejora de forma importante las capacidades de detección,
permitiendo aumentar el alcance de detección o reducir el tamaño mínimo detectable para cámaras
embarcadas en plataformas aéreas. Sin embargo, estos algoritmos requieren generalmente una
elevada carga computacional y no se ejecutan en tiempo real.
Estado del arte de las Tecnologías, Modelado y Análisis
36
Octubre 2019 – Octubre 2020
5. Conclusiones
El uso de plataformas aéreas no tripuladas para aplicaciones de teledetección abre nuevos horizontes
difíciles de alcanzar mediante otros sistemas clásicos. Para extender sus límites y mejorar las
capacidades operativas alcanzables utilizando este tipo de vehículos es necesario maximizar el
desempeño de todos los sistemas involucrados. Entre estos sistemas se encuentra el sistema de
adquisición imagen. La optimización de este tipo de sistemas de imagen cobra cada vez más
importancia debido a la exigencia de las nuevas aplicaciones, así como de las características cada
vez más específicas de las plataformas utilizadas, con las que se pretende reducir en gran medida los
costes, principalmente operativos, pero alcanzando prestaciones cada vez más exigentes. Entre estas
plataformas se encuentran drones de pequeño tamaño (peso máximo al despegue inferior a 150 kg
de acuerdo con la clasificación de la OTAN) que se ven muy afectados por las turbulencias u otros
efectos atmosféricos (viento, lluvia, etc.), drones que durante el cumplimiento de sus misiones se
mueven a gran velocidad y cuyas cargas de pago están muy limitadas en cuanto al peso máximo. Por
todo ello, es esencial desarrollar sistemas de imagen que permitan alcanzar el mejor compromiso
coste-prestaciones.
Por un lado, el análisis realizado en este trabajo muestra que la estabilización de la imagen, en este
caso mediante técnicas de postprocesado, ofrece mejoras significativas en las prestaciones de los
sistemas de teledetección.
Por otro lado, para que los sistemas de estabilización se ajusten correctamente a las características
de las nuevas aplicaciones y, en definitiva, para ayudar a la toma de decisiones y a la preselección y
adquisición de sistemas, en un sector con cada vez más alternativas comerciales, es esencial conocer
con precisión el efecto de todos los factores que intervienen en el emborronado de la imagen. En este
trabajo se ha tenido en cuenta el efecto de la velocidad de movimiento del dron y de las vibraciones
principalmente inherentes a la estructura del dron (motor, fuselaje, cavidades, etc.) sobre la
adquisición de imágenes mediante sensores electro-ópticos embarcados. En base a medidas
publicadas sobre el espectro de vibración de estas plataformas, se ha propuesto un modelo teórico
basado en estudios y trabajos realizados hasta la fecha.
A partir del modelo propuesto se han analizado dos casos de estudio, haciendo una distinción entre
plataformas de ala fija y de ala rotatoria. Además, para evaluar la mejora que conlleva la
estabilización, se ha combinado el uso de algoritmos de estabilización en las imágenes emborronadas
a partir del modelo propuesto, con algoritmos de detección automática.
El análisis realizado en este trabajo muestra que la estabilización de la imagen, incluyendo técnicas
de postprocesado, ofrece mejoras significativas en las prestaciones de los sistemas de teledetección.
Por otro lado, para ayudar a la toma de decisiones y a la preselección y adquisición de sistemas, en
un sector con cada vez más alternativas comerciales, es esencial conocer el efecto de la estabilidad
de la plataforma sobre las capacidades de detección de blancos en las imágenes adquiridas. Por este
motivo, se ha propuesto una extensión del Criterio de Johnson que tiene en cuenta la degradación
producida por las vibraciones y movimiento de la plataforma durante el tiempo de exposición. Esta
extensión permite, en base a una serie de especificaciones de los sistemas de estabilización e imagen
y de los requisitos operativos que se definan (distancia máxima del blanco y velocidad lineal de
operación del dron), estimar si el sistema se comportará adecuadamente en la realización de la tarea
para la que se requiera, facilitando la toma de decisiones y a la preselección y adquisición de sistemas.
Estado del arte de las Tecnologías, Modelado y Análisis
37
Octubre 2019 – Octubre 2020
Bibliografía
[1] R. P. Higgins, “Automatic event recognition for enhanced situational awareness in UAV
video,” Proc. - IEEE Mil. Commun. Conf. MILCOM, Atlantic City, NJ, USA, Oct. 2005, pp.
1-6.
[2] M. Erdelj, E. Natalizio, K.R. Chowdhury, and I.F. Akyildiz, “Help from the Sky: Leveraging
UAVs for Disaster Management,” IEEE Pervasive Comput., vol. 16, no. 1, pp. 24–32, Jan.
2017.
[3] K. Themistocleous, “The Use of UAV Platforms for Remote Sensing Applications: Case
Studies In Cyprus,” Second International Conference on Remote Sensing and Geoinformation
of the Environment (RSCy2014), Paphos, Cyprus, Aug. 2010, pp. 1-9.
[4] I. Colomina and P. Molina, “Unmanned aerial systems for photogrammetry and remote
sensing: A review,” ISPRS Journal of Photogrammetry and Remote Sensing, vol. 92, pp. 79-
97, Apr. 2014.
[5] K. Dalamagkidis, “Classification of UAVs,” in Handbook of Unmanned Aerial Vehicles, K.
P. Valavanis and G. J. Vachtsevanos (Eds.), New York: Springer, 2015, ch. 5, pp. 83-91.
[6] Joing Air Power Competence Center, “Strategic Concept of Employment for Unmanned
Aircraft Systems in NATO”, 2010.
[7] FLIR, “Black Hornet PRS” [Online]. Retrieved from: https://www.flir.com/
products/black-hornet-prs/ [Accessed 21/05/2020].
[8] DJI, “Phantom 4” [Online]. Retrieved from: https://www.dji.com/es/phantom-4 [Accessed
21/05/2020].
[9] Boeing, “ScanEagle” [Online]. Retrieved from: https://www.boeing.com/defense/
autonomous-systems/scaneagle/index.page [Accessed 21/05/2020].
[10] UAS Vision, “Elbit Upgrades Hermes 90”, 2014 [Online]. Retrieved from: https://
www.uasvision.com/2014/09/04/elbit-upgrades-hermes-90/ [Accessed 21/05/2020]
[11] IAI, “Heron TP MALE Unmanned Aerial System (UAS)” [Online]. Retrieved from:
https://www.iai.co.il/p/heron-tp [Accessed 21/05/2020].
[12] U.S. Air Force, “MQ-9 Reaper”, 2009 [Online]. Retrieved from:
https://www.af.mil/News/Photos.aspx?igphoto=2000398487 [Accessed 21/05/2020].
[13] Ministerio de Defensa de España, “Monografías del SOPT 15: Proyecto RAPAZ y tecnologías
anti-RPAS,” 2017.
[14] C. Powers, D. Mellinger, and V. Kumar, “Quadrotor Kinematics and Dynamics,” in Handbook
of Unmanned Aerial Vehicles, K. P. Valavanis and G. J. Vachtsevanos (Eds.), New York:
Springer, 2015, ch. 16, pp. 307-328.
[15] M.A. Boon, A.P. Drijfhout, and S. Tesfamichael, “Comparison of a fixed-wing and multi-
rotor UAV for environmental mapping applications: a case study”. The International Archives
of Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. 42, Aug. 2017,
pp. 47-54.
[16] Embetion, “HADA-Helicóptero Adaptativo Avión” [Online]. Retrieved from:
Estado del arte de las Tecnologías, Modelado y Análisis
38
Octubre 2019 – Octubre 2020
https://www.embention.com/es/project/hada-helicoptero-adaptativo-avion/ [Accessed
23/05/2020].
[17] Wingtra, “WingtraOne – Mapping Drone for High-Accuracy Aerial Surveys” [Online].
Retrieved from: https://wingtra.com/mapping-drone-wingtraone/ [Accessed 23/05/2020].
[18] Cátedra Isdefe-UPM, “Horizonte Defensa y Seguridad” [Online]. Retrieved from:
http://www.horizontesdefensayseguridad.net/ [Accessed 23/05/2020].
[19] J. Donohue, “Introductory review of target discrimination criteria. Final Report,” Dynamics
Research Corporation, Dec. 1991.
[20] Nikon, “Zoom 700VR / 700VR QD” [Online]. Retrieved from: https://imaging.
nikon.com/lineup/filmcamera/compact/zoom700vr_700vr_qd/index.htm [Accessed
23/05/2020].
[21] Y.Y. Shih, S.F. Su, and I. Rudas, “Fuzzy based hand-shake compensation for image
stabilization,” 2012 International Conference on System Science and Engineering (ICSEE),
Dalian, China, Jul. 2012, pp. 40-44.
[22] Canon, “How to master shutter speed” [Online]. Retrieved from: https://www.canon-
europe.com/get-inspired/tips-and-techniques/how-to-use-shutter-speed/ [Accessed
23/05/2020]
[23] B. Golik, "Development of a test method for image stabilizing systems," Diploma’s Thesis,
Cologne University of Applied Sciences, Oct. 2006.
[24] F. La Rosa, M.C. Virzì, F. Bonaccorso, and M. Branciforte, “Optical Image Stabilization
(OIS),” STM white paper, 2011, pp. 1–26.
[25] S.B. Rudraswamy, A.A. Bannadabhavi, A. Kumar, and J. Bapu, “MEMS based Optical Image
Stabilization,” in 2015 International Conference on Emerging Research in Electronics,
Computer Science and Technology (ICERECT), Mandya, India, Dec. 2015, pp. 104-107.
[26] ROHM Semiconductor, “Optical Image Stabilization (White Paper),” 2013, pp. 1–13.
[27] T.H.S. Li, and C.C. Chen, “Extended Kalman filter based hand-shake detector for optical
image stabilization using a low cost gyroscope,” IEEE Transactions on Consumer Electronics,
vol. 59, no. 1, pp. 113-121, Apr. 2013.
[28] D. Sachs, S. Nasiri, and D. Goehl, “Image stabilization technology overview,” Inven.
Whitepaper, vol. 95054, no. 408, pp. 1–18, 2006.
[29] Imaging Resource, “Minolta DiMAGE A1”, 2003 [Online]. Retrieved from: https://
www.imaging-resource.com/PRODS/A1/A1P.HTM [Accessed 23/05/2020].
[30] T. Morita, H. Murakami, T. Yokose, and H. Hosaka, "A miniaturized resonant-type smooth
impact drive mechanism actuator," Sensors and Actuators A: Physical, vol. 178, pp. 188-192,
Feb. 2012.
[31] MEMSDrive, “MEMSDrive Word’s 1st 5-Axis OIS in Smartphone Puts on Strong Showing
at CES”, 2018 [Online]. Retrieved from: http://memsdrive.com/
news/25.html [Accessed 23/05/2020].
[32] P. Skoglar, “Modelling and Control of IR/EO-gimbal for UAV Surveillance Applications”,
Linköpings Universitet, 2002.
Estado del arte de las Tecnologías, Modelado y Análisis
39
Octubre 2019 – Octubre 2020
[33] D. Bereska, K. Daniec, S. Fraś, K. Jędrasiak, M. Malinowski, and A. Nawrat, “System for
multi-axial mechanical stabilization of digital camera” in Vision Based Systems for UAV
Applications, A. Nawrat and Z. Kus (Eds.), Heidelberg: Springer, 2013, pp. 177-189.
[34] Ascent Vision Technologies, “CM142 – ISR & Target Acquisition” [Online]. Retrieved from:
https://ascentvision.com/cm142/ [Accessed 23/05/2020]
[35] R. Chereau and T. P. Breckon, “Robust motion filtering as an enabler to video stabilization
for a tele-operated mobile robot,” Electro-Optical Remote Sensing, Photonic Technol. Appl.
VII; Mil. Appl. Hyperspectral Imaging High Spat. Resolut. Sens., Dresden, Germany, vol.
8897, p. 88970I, 2013.
[36] B. Golik and D. Wueller, “Measurement method for image stabilizing systems,” Digital
Photography III, San Jose, CA, USA, vol. 6502, p. 65020O, 2007.
[37] W.G. Carrara, R.S. Goodman, and R.M. Majewski, Spotlight Synthetic Aperture Radar Signal
Processing Algorithms, Artech House, 1995.
[38] V. Dobrokhodov, “Kinematics and Dynamics of Fixed-Wing UAVs,” in Handbook of
Unmanned Aerial Vehicles, K. P. Valavanis and G. J. Vachtsevanos (Eds.), New York:
Springer, 2015, ch. 14, pp. 243-277.
[39] W.C. Kao and S.Y. Lin, “An Overview if Image / Video Stabilization Techniques,” in Single-
Sensor Imaging: Methods and Applications for Digital Cameras, R. Lukac (Ed.), Boca Raton
FL: CRC Press, 2009, ch. 20, pp. 535-561.
[40] H. Kusaka, Y. Tsuchida, and T. Shimohata, “Control technology foroptical image
stabilization,” SMPTE Motion Imaging Journal, vol. 111, no. 12, pp. 609-615, Dec. 2002.
[41] J.H. Moon and S.Y. Jung, “Implementation of an Image Stabilization System for a Small
Digital Camera,” IEEE Transactions on Consumer Electronics, vol. 54, no. 2, pp. 206-212,
Jul. 2008.
[42] T.H. S. Li, C.C. Chen, and Y.T. Su, “Optical Image Stabilizing System Using Fuzzy Sliding-
Mode Controller for Digital Cameras,” IEEE Transactions on Consumer Electronics, vol. 58,
no. 2, pp. 237-245, Jul. 2012.
[43] C.W. Chiu, P.C.P. Chao, and D.Y. Wu, “Optimal Design of Magnetically Actuated Optical
Image Stabilizer Mechanism for Cameras in Mobile Phones via Genetic Algorithm,” IEEE
Transactions on Magnetics, vol. 43, no. 6, pp. 2582-2584, May 2007.
[44] S.K. Kjenstad, “Stabilized Camera for a Nano-UAV”, Master’s Thesis, Norwegian University
of Science and Technology, 2010.
[45] J.M. Hilkert, M.L. Bowen, and J. Wang, “Specifications for image stabilization systems”,
Tactical Infrared Systems, vol. 1498, pp. 24-38, Oct. 1991.
[46] C.P. Lau, Y.H. Lai, and L.M. Lui, “Restoration of atmospheric turbulence-distorted images
via RPCA and quasiconformal maps”, Inverse Problems, vol. 35, no. 7, pp. 74002-74033, Jun.
2019.
[47] R.L. Lagendijk and J. Biemond, “Basic Methods for Image Restoration and Identification”,
in Handbook of Image and Video Processing, A.C. Bovik (Ed.), Academic press, 2000, pp.
125-139.
[48] FLIR, “High Speed Thermal Cameras – the Need for Speed”, 2016.
Estado del arte de las Tecnologías, Modelado y Análisis
40
Octubre 2019 – Octubre 2020
[49] H. Ma and J. Wu, “Analysis of positioning errors caused by platform vibration of airborne
LiDAR system,” 2012 8th IEEE International Symposium on Instrumentation and Control
Technology (ISICT) Procedings, London, UK, 2012, pp. 257–261.
[50] S.A. Nundal and E. Skjong, “Tracking objects with fixed-wing UAV using model predictive
control and machine vision”, Master’s Thesis, Norwegian University of Science and
Technology, Jun. 2014.
[51] J. Verbeke and S. Debruyne, “Vibration analysis of a UAV multirotor frame,” Proceedings of
ISMA 2016 International Conference on Noise and Vibration Engineering, Leuven, Belgium,
2016, pp. 2329-2337.
[52] Z. Li, M. Lao, S.K. Phang, M.R.A. Hamid, K.Z. Tang, and Feng Lin, “Development and
Design Methodology of an Anti-Vibration System on Micro-UAVs,” International Micro Air
Vehicle Conference and Flight Competition (IMAV), Toulouse, France, 2017, pp. 223-228.
[53] C. Li and F. Tan, “Effect of UAV vibration on imaging quality of binary optical elements,”
2018 IEEE International Conference on Mechatronics and Automation (ICMA), Changchun,
China, 2018, pp. 1693-1698.
[54] A. Stern and N.S. Kopeika, “Analytical method to calculate optical transfer functions for
image motion and its implementation in vibrated image restoration,” Proceedings of the 19th
Convention of Electrical and Electronics Engineers in Israel, Jerusalem, Israel, 1996, pp. 379-
382.
[55] G. D. Boreman, Modulation Transfer Function in Optical and Electro-Optical Systems,
Bellingham, WA: SPIE Press, 2001.
[56] J. Haghshenas, “Effects of satellite platform’s vibrations on the image quality of a remote
sensing payload: system level design and challenges,” Optical Systems Design 2015: Optical
Design and Engineering, vol. 9626, no. 74, p. 96262P, 2015.
[57] Z. Caratao, K. Gabel, A. Arun, B. Myers, D. Swartzendruber, and C.W. Lum, “MicaSense
aerial pointing and stabilization system: Dampening in-flight vibrations for improved
agricultural imaging,” 2018 AIAA Inf. Syst. Infotech Aerospace, Kissimmee, FL, USA, Jan.
2018, pp. 1-16.
[58] D. Wulich and N. Kopeika, “Image resolution limits resulting from mechanical vibrations”,
Optical Engineering, vol.26, no. 6, pp. 529-533, Jun. 1987.
[59] S.O. Rudoler, O. Hadar, M. Fisher, and N.S. Kopeika, “Image resolution limits resulting from
mechanical vibrations, part II: Experiment”, Optical Engineering, vol. 30, no. 5, pp. 577-589,
May 1991.
[60] O. Hadar, M. Fisher, and N.S. Kopeika, “Image resolution limits resulting from mechanical
vibrations, part III: Numerical calculation of modulation transfer function”, Optical
Engineering, vol. 31, no. 3, pp. 581-589, Mar. 1992.
[61] DJI, “Phantom 4 Pro V2.0 – Especificaciones” [Online]. Retrieved from:
https://www.dji.com/es/phantom-4-pro-v2/info [Accessed 01/06/2020].
[62] E.R. Davies, "Image Transformations and Camera Calibration", in Computer and machine
vision: theory, algorithms, practicalities, 4th Ed., Waltham, MA: Academic Press, 2012, pp.
478-504.
[63] A.N. Rajagopalan and R. Chellappa (Eds.), Motion Deblurring: Algorithms and Systems,
Estado del arte de las Tecnologías, Modelado y Análisis
41
Octubre 2019 – Octubre 2020
Cambridge, UK: Cambridge University Press, 2014.
[64] Y. W. Tai, N. Kong, S. Lin, and S. Y. Shin, “Coded exposure imaging for projective motion
deblurring,” 2010 IEEE Computer Society Conference on Computer Vision and Pattern
Recognition, San Francisco, CA, USA, Jun. 2010, pp. 2408-2415.
[65] Flir, “Duo Pro R” [Online]. Retrieved from: https://flir.netx.net/file/asset/8136/
original [Accessed 05/06/2020].
[66] D. Krishnan, T. Tay, and R. Fergus, “Blind deconvolution using a normalized sparsity
measure” 2011 IEEE Conference on Computer Vision and Pattern Recognition, Providence,
RI, USA, 2011, pp. 233-240.
[67] J. Zhang, S. Sclaroff, Z. Lin, X. Shen, B. Price, and R. Mech, “Minimum barrier salient object
detection at 80 FPS,” 2015 IEEE International Conference on Compiter Vision (ICCV),
Santiago, Chile, Dec. 2015, pp. 1404-1412.