Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por...

43
Estado del Arte de las Tecnologías, Modelado y Análisis Cátedra Isdefe-UPM Octubre 2019 Octubre 2020 Madrid, octubre de 2020 Sistemas de estabilización de sensores electro-ópticos embarcados en vehículos aéreos no tripulados

Transcript of Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por...

Page 1: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del Arte de las

Tecnologías,

Modelado y Análisis

Cátedra Isdefe-UPM

Octubre 2019 – Octubre 2020

Madrid, octubre de 2020

Sistemas de estabilización de

sensores electro-ópticos

embarcados en vehículos

aéreos no tripulados

Page 2: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Índice

1. INTRODUCCIÓN ........................................................................................................ 1

2. SISTEMAS DE ESTABILIZACIÓN PARA CÁMARAS EMBARCADAS ............. 5

2.1. ESTABILIZACIÓN ÓPTICA (OIS) .............................................................................. 5

2.2. ESTABILIZACIÓN MECÁNICA (MIS) ....................................................................... 8

2.3. ESTABILIZACIÓN DIGITAL (DIS) .......................................................................... 10

3. MODELADO Y SIMULACIÓN DEL EFECTO DE EMBORRONADO EN

IMÁGENES ADQUIRIDAS MEDIANTE PLATAFORMAS AÉREAS ................ 14

3.1. ANÁLISIS DEL EMBORRONADO EN IMÁGENES TOMADAS POR PLATAFORMAS

AÉREAS ................................................................................................................ 14

3.2. MODELADO DE LA VIBRACIÓN Y DEL EMBORRONADO ASOCIADO ......................... 17

3.3. RESULTADOS OBTENIDOS A PARTIR DEL MODELO PROPUESTO ............................. 19

Caso de estudio I: UAV de ala fija .......................................................................... 20

Caso de estudio II: UAV de ala rotatoria o multirrotor ........................................... 23

4. ANÁLISIS DE LAS CAPACIDADES DE DETECCIÓN UTILIZANDO

ALGORITMOS DE DESEMBORRONADO Y DETECCIÓN AUTOMÁTICA .... 26

4.1. ANÁLISIS DE LOS RESULTADOS DE LA APLICACIÓN DE LOS ALGORITMOS DE

DESEMBORRONADO Y DETECCIÓN AUTOMÁTICA .................................................. 26

5. CONCLUSIONES ...................................................................................................... 36

BIBLIOGRAFÍA ............................................................................................................ 37

Page 3: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

1

Octubre 2019 – Octubre 2020

1. Introducción

Durante los últimos años, se ha visto reforzado el crecimiento en el uso de vehículos aéreos no

tripulados (Unmanned Aerial Vehicle, UAV) o drones para todo tipo de aplicaciones, tanto civiles

como militares, debido, principalmente, a la reducción de sus costes de fabricación, operación y

mantenimiento y a su mayor autonomía y facilidad de uso. Entre estas se encuentran aplicaciones de

seguridad (vigilancia de fronteras, guardacostas, etc.), servicios de emergencia, detección y

coordinación frente a incendios u otras catástrofes medioambientales y operaciones de búsqueda y

rescate [1-2], además de aplicaciones de comunicaciones, observación terrestre, mapeado y

teledetección (Remote Sensing), entre otras muchas [3-4].

Desde el punto de vista de las operaciones militares, los UAV son plataformas adecuadas para zonas

de conflicto, gracias a su flexibilidad de maniobra y a su mayor seguridad. Además, sus costes

operativos son muy inferiores a los de los sistemas de teledetección habituales como son las

aeronaves tripuladas o los satélites, y permiten obtener resultados de alta calidad volando a bajas

altitudes, difíciles o imposibles de alcanzar utilizando otras plataformas aéreas. Todo ello ha derivado

en un importante aumento del uso de sensores electro-ópticos embarcados en este tipo de plataformas

para llevar a cabo funciones de teledetección como la adquisición y reconocimiento de blancos.

Debido a la gran variedad de tareas que son capaces de realizar los UAVs, así como a la diversidad

de sus características, es útil establecer una clasificación [5]. En función del peso máximo al

despegue (MTOW, Maximum Take-Off Weight), la Tabla 1.1 presenta la clasificación más extendida,

propuesta por la Organización del Tratado del Atlántico Norte (OTAN) [6], mientras que la Figura

1.1 muestra algunos modelos comerciales o desarrollos militares representativos.

Clase Categoría Funcionalidad Altura típica

de operación

Radio de

misión

Clase I

(< 150 kg)

Nano

(< 0,2 kg) Subunidad táctica

(lanzamiento manual),

operaciones individuales

≤ 30 m AGL ≤ 1 km

(LOS)

Micro

(0,2 kg – 2 kg) ≤ 60 m AGL

≤ 5 km

(LOS)

Mini

(2 kg – 20 kg)

Unidad táctica

(lanzamiento manual) ≤ 900 m AGL

≤ 25 km

(LOS)

Pequeño

(> 20 kg)

Unidad táctica

(con sistemas de lanzamiento) ≤ 1500 m AGL

≤ 50 km

(LOS)

Clase II

(150 kg – 600 kg) Táctico Formación táctica ≤ 3000 m AGL

≤ 200 km

(LOS)

Clase I

(> 600 kg)

MALE Operacional /

Estratégico (de teatro) ≤ 13700 m MSL

Sin límite

(BLOS)

HALE Estratégico

(estrategia nacional) ≤ 19800 m

Sin límite

(BLOS)

Ataque / Combate

(UAV armado)

Estratégico /

Operacional ≤ 19800 m

Sin límite

(BLOS)

Notas: AGL: Above Ground Level. MSL: Mean Sea Level. LOS: Line of Sight. BLOS: Beyond LOS. MALE: Medium-

Altitude Long-Endurance. HALE: High-Altitude Long-Endurance.

Tabla 1.1. Clasificación de UAVs propuesta por la OTAN [6].

Dentro de las tres clases de UAVs propuestas por la OTAN, la Clase I supone el grueso principal del

mercado de plataformas aéreas no tripuladas debido a su mayor facilidad de despliegue y control y a

sus menores costes de desarrollo, fabricación y operación [13]. En contraposición a los modelos de

clases más pesadas, que presentan casi exclusivamente aplicaciones en el ámbito de la defensa, los

UAVs de Clase I, especialmente los de las categorías Micro (0,2 – 2 kg) y Mini (2 – 20 kg), con gran

Page 4: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

2

Octubre 2019 – Octubre 2020

variedad de cargas de pago, muestran un uso muy extendido en todo tipo de aplicaciones, tanto civiles

como militares.

Figura 1.1. Ejemplos de UAVs representativos de diferentes categorías (modificados de [6-12]).

Además, en función de la tecnología de vuelo, se distinguen los UAV de ala fija y de alas rotatorias,

habitualmente multirrotores. La Tabla 1.2 muestra una comparativa de las ventajas y desventajas que

presentan ambos tipos de UAVs [14]. Desde el punto de vista de las aplicaciones de teledetección y

mapeo [15], los multirrotores presentan una mayor maniobrabilidad y la capacidad de mantenerse en

una posición fija (hovering) o de volar a baja velocidad, mientras que las plataformas de ala fija

tienen mayor autonomía, alcanzan mayores velocidades, presentan un vuelo lineal más estable y

pueden operar en condiciones con cierto viento. Sin embargo, estos últimos UAVs requieran

lanzadoras o sistemas de despegue y aterrizaje más complejos y no pueden realizar despegues o

aterrizajes de forma vertical. Por este motivo, con el objetivo de aunar las ventajas de ambos tipos

de UAVs, en los últimos años se han llevado a cabo algunos desarrollos de prototipos híbridos, como

el sistema HADA (Helicóptero Adaptativo Avión) del INTA (Instituto Nacional de Técnica

Aeroespacial) [16] o de sistemas VTOL (Vertical Take-Off and Landing) de ala fija, como el dron

WingtraOne [17].

Para llevar a cabo las funciones de teledetección, los UAVs disponen de un amplio rango de sensores

ópticos, como son las cámaras de espectro visible, infrarrojas, multiespectrales o hiperespectrales

[3]. Actualmente, las cámaras de espectro visible e infrarrojo son las más utilizadas en el ámbito de

la detección y reconocimiento de blancos debido a su mayor madurez tecnológica y menor coste y

por ser sistemas más compactos. De esta manera, para seleccionar adecuadamente sistemas que

cumplan los requisitos operativos, surge la necesidad de estudiar el comportamiento de estas cámaras

en función de sus especificaciones técnicas, así como de las plataformas aéreas en las que se

encuentren embarcadas, para estimar sus capacidades operativas (alcance de detección, probabilidad

de detección, tamaño mínimo discernible, área cubierta por unidad de tiempo, resolución espacial,

etc.).

Para evaluar las capacidades operativas de estos sistemas y tomar decisiones de posibles

adquisiciones, se llevan a cabo habitualmente campañas de vuelo y pruebas de campo en entornos

reales. Este fue el caso del proyecto RAPAZ [13] lanzado en el año 2015 por la Dirección General

de Armamento y Material (DGAM) del Ministerio de Defensa de España con el objetivo de evaluar

las capacidades de diferentes sistemas de Clase I en misiones ISR (Intelligence, Surveillance and

Reconnaissance). Sin embargo, el incremento en el número de posibles alternativas y la mayor

Page 5: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

3

Octubre 2019 – Octubre 2020

complejidad de los sistemas hace necesario mejorar los métodos para estimar de forma más exacta y

precisa las capacidades operativas de los sensores a partir de sus parámetros técnicos publicados por

el fabricante. Los métodos y modelos mejorados pueden ser útiles como apoyo a la toma de

decisiones y a la preselección de sistemas. Por este motivo, el Observatorio Horizonte en Defensa y

Seguridad (Cátedra Isdefe-UPM) [18] mantiene una línea de investigación para analizar y evaluar

las capacidades operativas de sistemas ISTAR (Intelligence, Surveillance, Target Acquisition and

Reconnaissance) a partir de sus parámetros técnicos, en la cual se enmarca el desarrollo de este

trabajo.

Tecnología de vuelo Ventajas Desventajas

Ala fija

- Mayor autonomía

- Mayor velocidad de crucero

- Mayor estabilidad de vuelo

- Vuelo en condiciones de viento

- Recuperación en caso de fallo de

motor mediante planeo

- Requiere sistemas complejos o

manuales de despegue y aterrizaje

- Pilotaje y planificación de vuelo más

complejos

Alas rotatorias

- Mayor maniobrabilidad

- Capacidad de vuelo lento y estático

(hovering)

- Despegue y aterrizaje vertical

- Facilidad de uso

- Sistemas compactos

- Menor coste de adquisición

- Menor autonomía

- Menor estabilidad en condiciones de

viento

Tabla 1.2. Comparativa de ventajas y desventajas de UAVs de ala fija y alas rotatorias.

En lo relativo a cámaras de espectro visible e infrarrojo, el Criterio de Johnson es el método

tradicional y más extendido a la hora de estimar su alcance máximo. En función del grado deseado

de discriminación DRI (detección, reconocimiento, identificación), este criterio establece el mínimo

número de pares de líneas que debe ocupar un objeto en la imagen para que sea posible discriminarlo

por parte de un operador humano con una probabilidad de éxito del 50% [19]:

- Detección (D): Capacidad de distinguir la presencia o no de un objeto. Requiere que el objeto

ocupe en media un mínimo de 1.0 ± 0.25 pares de líneas.

- Reconocimiento (R): Capacidad de discernir el tipo de objeto detectado (persona, vehículo,

animal, etc.). Requiere en media de un mínimo de 4.0 ± 0.8 pares de líneas.

- Identificación (I): Capacidad para diferenciar detalles del objeto, siendo capaces de distinguir

objetos de la misma clase. Requiere en media de un mínimo de 6.4 ± 1.5 pares de líneas.

Sin embargo, este método sólo es aplicable de forma directa a situaciones estáticas al no tener en

cuenta el efecto de emborronado (blurring), o pérdida de nitidez, que se produce, por ejemplo, por

la vibración y el movimiento de las cámaras embarcadas en plataformas aéreas. Como se observa en

la Figura 1.2, este efecto degrada considerablemente la calidad de las imágenes adquiridas, limitando

el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras

embarcadas en plataformas aéreas disponen de sistemas de estabilización y se aplican procesados de

imagen que permiten compensar en cierta medida el efecto de la vibración y del movimiento durante

el tiempo de exposición, es necesario extender el Criterio de Johnson para tener en cuenta el efecto

del emborronado y estimar de manera más precisa las capacidades operativas de estos sistemas.

Además, el Criterio de Johnson se desarrolló considerando que el análisis de las imágenes para llevar

a cabo la discriminación de los objetos era realizado por un operador humano. Sin embargo, con el

objetivo de cubrir grandes áreas en menor tiempo utilizando sistemas de teledetección, las imágenes

adquiridas mediante plataformas aéreas se procesan actualmente de forma automática utilizando

Page 6: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

4

Octubre 2019 – Octubre 2020

algoritmos de detección cuyas capacidades de discriminación y requisitos computacionales también

deben ser evaluados.

a)

b)

Figura 1.2. Ejemplo de emborronado (blurring) en imágenes adquiridas utilizando plataformas aéreas: a) Imagen con

bajo efecto de emborronado (plataforma en vuelo estacionario o hovering) y b) Imagen con efecto de emborronado

severo debido al movimiento de la plataforma durante el tiempo de exposición.

Por todo ello, el objetivo principal de este documento es analizar los sistemas de estabilización de

sensores electro-ópticos embarcados en plataformas aéreas no tripuladas y proponer una metodología

para modelar el efecto de emborronado que se produce por su movimiento y vibración durante el

tiempo de exposición y estimar las capacidades operativas de estos sistemas. Para ello, además de

las especificaciones técnicas proporcionadas por los fabricantes relativas al rango de vibración de los

sensores con estabilización mecánica y óptica, se considerarán algoritmos representativos de

estabilización digital basados en técnicas de deblurring (eliminación del emborronado) y de

detección automática de blancos.

Para ello, este documento presenta la siguiente organización:

• En el capítulo 2 se realizar un estudio del estado del arte de los sistemas de estabilización

(ópticos, mecánicos y digitales) para sensores electro-ópticos embarcados en vehículos

aéreos no tripulados aplicados a tareas de teledetección. • En el capítulo 3 se plantea un modelo que permite analizar el efecto sobre la imagen adquirida

de la vibración y el movimiento de la plataforma aérea durante el tiempo de exposición,

teniendo en cuenta las diferencias entre los UAV multirrotor y de ala fija. Para ello, se

establecerán también las especificaciones técnicas que se requiere conocer de los sistemas de

estabilización y de las plataformas para aplicar dicho modelo. De esta forma, utilizando

scripts desarrollados en Matlab, se puede simular la adquisición de imágenes con plataformas

aéreas incluyendo el efecto de emborronado producido por la vibración y el movimiento de

las mismas. • En el capítulo 4 se analiza la aplicación de métodos de estabilización digital de imágenes

basados en algoritmos de deconvolución ciega (blind deconvolution) y compensación de

movimiento para analizar su funcionamiento en imágenes que presentan un efecto de

emborronado debido a vibraciones y movimiento del sensor durante su adquisición. Con estos

resultados, se desea evaluar la mejora que se consigue al aplicar estos algoritmos desde el

punto de vista de la detección de objetos mediante algoritmos automáticos de detección.

Además, mediante la realización de una simulación de Monte Carlo, se propone un

procedimiento para extender el Criterio de Johnson y estimar el alcance de las cámaras

embarcadas en plataformas aéreas teniendo en cuenta la degradación residual de la imagen

debida al efecto de la vibración y movimiento, a pesar de utilizar sistemas de estabilización. • En el capítulo 5 se presentan las conclusiones del análisis realizado.

Page 7: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

5

Octubre 2019 – Octubre 2020

2. Sistemas de estabilización para cámaras embarcadas

El deseo de obtener imágenes fieles a la realidad, es decir, con la mayor nitidez posible es tan antiguo

como el desarrollo de las primeras cámaras. Sin embargo, la necesidad de abordar la problemática

de la estabilización de imagen no surgió hasta más adelante, con la fabricación de cámaras que podían

ser sostenidas con las manos. En un principio, se intentaba conseguir mejorar la calidad de la imagen

tomada evitando vibraciones y movimientos de la cámara durante el tiempo de exposición a través

de elementos como los trípodes o los monópodes. No fue hasta 1994 cuando Nikon desarrolló la

primera cámara compacta con lente estabilizada en dos ejes, mediante un montaje con lentes 38-105

mm f/4-7.8 en la cámara Nikon Zoom 700VR (Vibration Reduction) [20-21]. Desde entonces, han

sido muchos los sistemas desarrollados con el objetivo de minimizar los efectos del emborronado

como consecuencia de la vibración de las cámaras digitales, y de aumentar la nitidez de las imágenes

adquiridas.

Este emborronado es además más importante con el aumento de la resolución o del zoom de las

cámaras, debido a que, a mayor resolución, mayor es el número de píxeles afectados por este efecto,

provocando por tanto un mayor deterioro de la imagen y degradando su resolución efectiva y, en el

caso de las aplicaciones de teledetección, el alcance máximo. A parte del aumento de resolución, la

integración de cámaras en teléfonos móviles y, más recientemente, en vehículos aéreos no tripulados

ha promovido el desarrollo de métodos y sistemas de estabilización más compactos o basados en el

procesado de la imagen con el objetivo de eliminar los efectos del temblor de manos (hand-shake) o

de la vibración y movimiento de las plataformas aéreas, respectivamente.

Este apartado pretende definir los principales métodos de estabilización de cámaras frente al

movimiento. Estos métodos están diseñados para reducir el emborronado de la imagen producido

por temblores habituales durante un tiempo de exposición de hasta un minuto en los sistemas más

complejos desarrollados para las aplicaciones más exigentes [22]. Se pueden distinguir tres tipos

principales de métodos de estabilización: estabilización óptica (OIS) o basada en lentes (lens-based),

estabilización mecánica (MIS) o basada en cuerpo (body-based o sensor-shift) y estabilización digital

(DIS) o electrónica (EIS).

Algunas cámaras disponen de sistemas de estabilización que integran conjuntamente varias de estas

técnicas. Sin embargo, se debe tener en cuenta que el diseño de estos submódulos no debe llevarse a

cabo de manera totalmente separada, integrando por ejemplo dos sistemas de estabilización que

funcionen independientemente, ya que intentar estabilizar una imagen ya estabilizada puede dar lugar

a una desestabilización de la misma.

2.1. Estabilización óptica (OIS)

La estabilización óptica suele aplicarse en cámaras para la adquisición tanto de fotografías como de

vídeo. La idea general consiste en modificar el camino óptico entre el objetivo y el sensor de imagen,

bien mediante un grupo de lentes móviles, o bien mediante un prisma con superficies móviles

compensando las vibraciones o el movimiento del sensor para evitar así el emborronado de la imagen

[23-24].

El funcionamiento de este tipo de estabilizadores es sencillo de resumir. Al tomar una fotografía de

un objeto estático, el obturador de la cámara permanece abierto un periodo de tiempo determinado

durante el cual la cámara sufre un movimiento involuntario de rotación, debido, por ejemplo, a

vibraciones. Considerando, para simplificar y sin pérdida de generalidad, que este movimiento se

Page 8: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

6

Octubre 2019 – Octubre 2020

produce únicamente en un eje, el haz de luz que, en situación estática afecta a un único píxel, ahora

se distribuye a lo largo de un segmento de píxeles.

Sin embargo, disponer de un sistema de OIS hace que las lentes se muevan en sentido opuesto a la

vibración, compensando de esta forma su movimiento. La rotación que se debe compensar es

detectada a través de dos sensores capaces de medir la velocidad angular alrededor de un eje

(giroscopios), uno para la guiñada (yaw) y otro para el cabeceo (pitch), movimientos que quedan

ilustrados en la Figura 2.1.1. Estos datos son enviados al microprocesador, que calcula la

compensación y su dirección, información que es posteriormente enviada al sistema de control. El

sistema de control utiliza estos datos, así como la posición de las lentes móviles medida por sensores,

generalmente de efecto Hall, para enviar a los actuadores las instrucciones de movimiento de las

lentes.

Figura 2.1.1. Movimientos de rotación alrededor de los tres ejes de la cámara: guiñada, cabeceo y alabeo. Los sistemas

de OIS permiten compensar rotaciones de guiñada y cabeceo, pero no giros alrededor del eje perpendicular al plano de

las lentes (alabeo).

Aunque el ejemplo descrito, que se representa esquemáticamente en la Figura 2.1.2, plantea un único

eje de vibración, en realidad, este fenómeno tiene lugar en dos ejes, repercutiendo por tanto en una

superficie bidimensional en lugar de en un segmento, y afecta a todos los píxeles de la imagen.

a) Cámara estática b) Cámara afectada por

vibración (sin compensar)

c) Cámara con OIS

(camino óptico corregido)

Figura 2.1.2. Esquema del funcionamiento básico de un sistema de estabilización óptica. El desplazamiento de la lente

intermedia permite corregir el camino óptico y que el haz de luz representado (línea sólida) alcance al mismo píxel que

en la situación estática evitando el emborronado de la imagen.

Page 9: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

7

Octubre 2019 – Octubre 2020

Cabe destacar, que este tipo de estabilización es capaz de compensar la vibración de la cámara, pero

no el emborronado derivado del movimiento de la imagen que se adquiere, es decir, los sistemas de

OIS no permite compensar el emborronado inherente al movimiento de elementos en la escena que

se intenta capturar. Estos sistemas tampoco son capaces de contrarrestar completamente los

desplazamientos lineales de la cámara ya que sólo compensan las rotaciones en guiñada y cabeceo

inducidas por dicho desplazamiento. Asimismo, estos sistemas de estabilización no son efectivos

para movimientos de gran amplitud, ni para giros en alabeo.

Como ya se ha mencionado, la implementación de un estabilizador óptico requiere elementos, como

los actuadores y sensores, que aumentan la complejidad de los módulos, así como el tamaño y el

coste. Sin embargo, los avances en esta tecnología y en la fabricación de lentes han permitido

desarrollar sistemas de altas prestaciones cada vez más compactos que se integran incluso en las

cámaras de los teléfonos móviles.

En cuanto a los actuadores, existen múltiples tecnologías como las lentes líquidas (LL), aleaciones

con memoria de forma (Shape Memory Allow, SMA) o motores piezoeléctricos, aunque actualmente

el uso de motores lineales de bobina de voz (Voice Coil Motors, VCM) constituye la práctica más

extendida. Esta última tecnología aprovecha la interacción entre una bobina y un imán, generando

una fuerza directamente proporcional a la cantidad de corriente aplicada a la bobina. En los últimos

años, también se están desarrollando actuadores compactos basados en tecnología MEMS

(Microelectromechanical System) con capacidades variables en estructuras tipo peine (comb-drive)

[25].

a) OIS con sensor de efecto Hall b) OIS con sensor foto reflectivo

Figura 2.1.3. Esquema de funcionamiento de sistemas de OIS con: a) Sensor de efecto Hall y b) Fotorreflector para

medir la posición y el desplazamiento de la lente.

A la hora de realinear el camino óptico con el centro del sensor de imagen existen principalmente

dos métodos: (i) mediante cambio de lentes, que hace uso de sensores Hall y (ii) mediante inclinación

del módulo. Ambos métodos utilizan la información proporcionada por giroscopios para calcular la

posición de las lentes que permite compensar la vibración. Con el método de cambio de lentes, los

sensores Hall detectan la posición en X/Y de la lente. El controlador combina esta información con

la de la posición objetivo, calculada a partir de los datos de los giroscopios para determinar la orden

que debe dar a los actuadores. El método (ii) funciona de manera similar, salvo que, en este caso, es

la posición del módulo entero la que se mide y se recoloca, en lugar de solo las lentes. En sistemas

de OIS se suelen utilizar sensores de efecto Hall para medir la posición y el desplazamiento de la

Page 10: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

8

Octubre 2019 – Octubre 2020

lente, ya que se ajustan mejor que los sensores foto reflectivos, más utilizados en estabilización

mecánica [26]. La Figura 2.1.3 representa de forma esquemática el funcionamiento de estos sensores

mediante un modelo 2D.

En definitiva, los sistemas de OIS disponen como componentes principales de, generalmente: (i)

giroscopios para detectar el movimiento del sistema, (ii) sensores de efecto Hall que detectan el

movimiento de las lentes dentro del módulo de la cámara, (iii) un microprocesador que calcula las

correcciones de movimiento que procedan a partir de las medidas del giroscopio, normalmente

procesadas mediante filtros de Kalman [27], y de las medidas de la posición de las lente adquiridas

mediante los sensores de efecto Hall, (iv) un controlador que maneja el actuador de la lente para

redireccionarla correctamente a partir de los datos proporcionados por los sensores y el

microprocesador y (v) el propio actuador que desplaza la lente en base a las instrucciones del

controlador [24-28]. La Figura 2.1.4 muestra el diagrama de bloques típico de los sistemas de OIS.

Figura 2.1.4. Diagrama de bloques de un sistema de OIS para compensar movimientos de rotación de cabeceo y

guiñada.

Una de las desventajas de este tipo de estabilizadores reside en el hecho de que cada lente requiere

de su propio sistema de estabilización, lo que repercute en el coste del sistema. Además, produce

aberración cromática desde el centro hasta los bordes de la imagen durante la estabilización. Por otro

lado, una importante ventaja de este tipo de tecnología es que no requiere del uso de algoritmos de

postprocesado.

2.2. Estabilización Mecánica (MIS)

En ocasiones se hace referencia a este tipo de estabilización como estabilización electromecánica,

aunque también se la conoce como un tipo de estabilización óptica por desplazamiento del propio

sensor de imagen (sensor-shift) en lugar de por desplazamiento de las lentes, como se ha tratado en

el apartado anterior.

El primer sistema de estabilización mecánica para cámaras fue implementado en 2003 por la

multinacional japonesa Konica Minolta con el nombre de Anti-Shake (AS) [29]. El sistema de

Konica Minolta medía la vibración de la cámara a través de unos giroscopios, al igual que los

sistemas de OIS, capaces de detectar y medir el movimiento angular y enviar las medidas al

microprocesador. Por otro lado, la posición del sensor de imagen es en todo momento conocida

gracias a un dispositivo sensible a la posición, generalmente un sensor foto reflectivo, que tras

determinar esta información la envía también al microprocesador. Este elemento permite mantener

Page 11: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

9

Octubre 2019 – Octubre 2020

el mecanismo de desplazamiento del sensor en bucle cerrado. A partir de esta información, el

microprocesador es capaz de calcular el desplazamiento oportuno para corregir la vibración,

manteniendo así la proyección de la escena sobre el plano de imagen y minimizando el emborronado

de la imagen debido a dicha vibración [23].

Estos sistemas utilizan generalmente un Smooth Impact Drive Mechanism (SIDM) para desplazar el

sensor. Los SIDM disponen de dos actuadores piezoeléctricos, uno para cada eje, que se expanden

al recibir tensión y se contraen rápidamente en caso contrario. Para que el movimiento tenga lugar

en la dirección opuesta basta con invertir la forma de la onda de tensión. El tamaño de estos

dispositivos es muy reducido, sin embargo, debido al corto recorrido que realizan los actuadores

piezoeléctricos es necesario el uso de otros elementos mecánicos para aumentar la longitud de dicho

recorrido. Como se observa en la Figura 2.2.1, este sistema dispone de un conjunto de actuadores

piezoeléctricos sujetos a una varilla con un elemento deslizante (slider) situado sobre ella y sobre el

que se coloca el sensor de imagen. A la hora de compensar la vibración, en primer lugar, el

dispositivo piezoeléctrico se expande a una velocidad suficientemente baja como para que la fricción

con el deslizador haga que este se mueva hasta llegar a la posición deseada (stick motion). A

continuación, se contrae rápidamente, lo que impide que el deslizador se vuelva a desplazar,

deslizándose sobre la varilla (slip motion). Esto permite reposicionar el deslizador permitiendo una

nueva expansión del elemento piezoeléctrico.

Figura 2.2.1. Principio de operación de los SIDM (modificado de [30]).

Además, para estos sistemas sensor-shift también se están desarrollando actuadores compactos

basados en tecnología MEMS que incluso son capaces de realizar compensaciones en 5 ejes (giros

en pitch, yaw y roll y desplazamientos en X e Y) [31].

Como ya he mencionado, este tipo de estabilización contrarresta el efecto del movimiento de la

cámara desplazando el propio sensor de imagen. A diferencia de la estabilización óptica, este método

no limita el tipo de lentes a utilizar en el objetivo de la cámara, permitiendo el uso de lentes no

estabilizadas y reduciendo consecuentemente el coste, el peso y la complejidad de las mismas.

Además, actualizar el dispositivo de estabilización mecánica cuando este se queda obsoleto implica

cambiar únicamente el cuerpo de la cámara, lo supone un coste muy inferior a tener que reponer las

lentes como sería necesario en sistemas con OIS.

Por otra parte, en plataformas aéreas, los sensores electro-ópticos suelen ir montados sobre gimbales,

que son estructuras giro-estabilizadas controladas por servomecanismos o motores paso a paso que

permiten apuntar la cámara en una cierta dirección (control de pan y tilt) y minimizar las vibraciones

Page 12: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

10

Octubre 2019 – Octubre 2020

sobre el sensor ocasionadas por los motores o por factores ambientales. Como se muestra en la Figura

2.2.2, estos sistemas cuentan habitualmente con un gimbal exterior encargado de controlar el pan y

el tilt y un gimbal interior con menor rango de giro para compensar las vibraciones de rotación de

alta frecuencia y evitar en cierta medida el emborronado de las imágenes adquiridas [32]. En

ocasiones, cuentan también con un tercer eje de rotación para controlar el alabeo (roll) de la cámara.

El control de los servomecanismos o motores paso a paso que actúan sobre los distintos ejes de giro

para compensar el movimiento y las vibraciones de la plataforma suele estar basado en las medidas

proporcionadas por sensores inerciales (Inertial Measurement Unit, IMU), instalados en la

plataforma de vuelo y en el propio gimbal [33]. Estas estructuras basadas en gimbales también se

aplican a sistemas de estabilización para plataformas terrestres o a sistemas en los que se instalan

cámaras o teléfonos móviles para realizar principalmente adquisición de vídeo.

a)

b)

Figura 2.2.2. Estabilización mediante gimbal: a) Esquema de sistema con gimbales externo e interno (modificado de

[32]) y b) Ejemplo de sistema comercial (CM142 de Ascent Vision Technologies) [34].

En aplicaciones de teledetección y vigilancia utilizando sensores electro-ópticos embarcados en

plataformas aéreas, el uso de sistemas de estabilización basados en gimbales son además útiles para

realizar el seguimiento (tracking) de blancos, geo-referenciar los blancos detectados o hacer barridos

de ciertas áreas de interés sin modificar la trayectoria de la plataforma.

2.3. Estabilización Digital (DIS)

También denominada estabilización electrónica (EIS), este tipo de estabilización se utiliza

principalmente en cámaras de vídeo. Evidentemente, si la velocidad de obturación no es

suficientemente rápida, los distintos fotogramas de un vídeo pueden presentar emborronado que debe

ser corregido para mejorar la calidad de imagen. Sin embargo, además de esta problemática, las

cámaras de video presentan otra dificultad que deriva del desplazamiento de la imagen entre un

fotograma y el siguiente debido a la vibración de la cámara [35]. Este es el caso, por ejemplo, de las

vibraciones inducidas en un vídeo grabado con una cámara de mano mientras el operador se desplaza

andando. No obstante, a la hora de contrarrestar este efecto no debe confundirse con el propio

movimiento de los elementos del entorno, que no debe ser compensado.

En este caso de la estabilización digital, la vibración indeseada no se compensa modificando el

camino óptico, sino que se hace uso de algoritmos de postprocesado para llevar a cabo la

estabilización. Esto supone una importante reducción de los costes de producción del dispositivo, ya

que no hace uso de partes móviles como en los sistemas de estabilización óptica o mecánica [28].

Page 13: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

11

Octubre 2019 – Octubre 2020

Algunos dispositivos de DIS, al igual que los sistemas de estabilización presentados anteriormente,

usan giroscopios para detectar el desplazamiento que tiene lugar entre fotograma y fotograma. Pero,

en lugar de modificar el camino óptico, esta información permite desplazar la imagen para

contrarrestar la vibración. Otros sistemas hacen un seguimiento de determinadas áreas de la imagen

a lo largo de una secuencia de fotogramas, siendo capaces de interpretar las diferencias entre las

posiciones de dichas áreas como una vibración. El problema de estos sistemas, como ya se ha

mencionado anteriormente, tiene que ver con el hecho de que el movimiento de los elementos del

entorno puede ser también interpretado como una vibración. Sin embargo, muchos fabricantes

afirman que sus sistemas de estabilización son capaces de distinguir entre la vibración indeseada del

sensor y el efecto producido cuando se graba una imagen en movimiento.

El proceso de estabilización digital queda ejemplificado en la Figura 2.3.1, donde se aprecia que el

funcionamiento de este tipo de estabilización es conceptualmente igual que el de MIS, sustituyendo

el movimiento del sensor por un reposicionamiento de la imagen mediante postprocesado.

Figura 2.3.1. Esquema básico de funcionamiento de la estabilización digital.

Como puede observarse en la Figura 2.3.2, para poder compensar el desplazamiento es necesario que

la imagen tenga márgenes tanto mayores cuanto mayor sea la vibración que se desea compensar. Esta

estabilización supone una pérdida de calidad efectiva de la imagen ya que estos márgenes se

consiguen mediante métodos como el zoom digital o a través de un sensor de imagen de mayor

tamaño que adquiere una imagen con mayor campo de visión (field-of-view, FOV) que el de la

imagen estabilizada. El tamaño de los márgenes limitará la capacidad del proceso de estabilización

y la amplitud de las vibraciones o del movimiento de la cámara que se puede compensar sin degradar

en exceso la calidad de la imagen.

Margen para

desplazamiento

Área

estabilizada

Page 14: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

12

Octubre 2019 – Octubre 2020

Figura 2.3.2. Márgenes necesarios para llevar a cabo la estabilización digital.

Se deduce, por tanto, que el uso de zoom digital produce una mayor pérdida de calidad al recortar

los fotogramas. Sin embargo, el uso de un sensor de mayor tamaño supone un aumento en los costes

de fabricación de la cámara.

Como ya ha sido mencionado, la DIS no evita que los fotogramas presenten emborronado debido al

movimiento o vibración de la plataforma en cada tiempo de exposición. Por ello, muchos fabricantes

hacen uso de sistemas híbridos que presentan tanto DIS como un sistema de compensación del

emborronado, ya sea OIS o MIS, que compensan vibraciones de menor amplitud y de mayor

frecuencia.

Por otro lado, algunos fabricantes han desarrollado sistemas que intentan hacer uso de técnicas de

postprocesado para mejorar la nitidez de las imágenes adquiridas digitalmente. Este es el caso del

sistema ASR (Advanced Shake Reduction) desarrollado por Samsung [36]. Este sistema hace uso de

dos fotografías que son posteriormente procesadas y combinadas para obtener una imagen con mayor

nitidez. Una de ellas es adquirida con una mayor exposición y, aunque presenta un mayor

emborronado debido a una menor velocidad de obturación, permite obtener la información de

luminancia y color, mientras que la otra, más oscura debido a una mayor velocidad de obturación,

presenta bordes bien definidos.

Además, también se han desarrollado algoritmos de postprocesado que permiten compensar el efecto

de la vibración en la imagen en base al movimiento entre la cámara y la escena a lo largo del tiempo

de exposición. Estas técnicas son especialmente importantes cuando la imagen a compensar es

tomada desde una cámara embarcada en una plataforma aérea con el objetivo de minimizar el

emborronado residual de los sistemas de estabilización óptica y mecánica. Para ello existen

esencialmente dos tipos de técnicas: (i) aquellas que hacen uso de una trayectoria o de movimientos

deterministas o medidos mediante sensores, y (ii) métodos que hacen uso de la propia imagen

obtenida para compensar el emborronado y mejorar su nitidez [37].

En el primer tipo, para medir el movimiento de la cámara durante el tiempo de exposición, es habitual

hacer uso de IMUs. Este tipo de dispositivos electrónicos permiten obtener información de la

velocidad, orientación y fuerzas gravitacionales sobre un sistema, usando acelerómetros, giróscopos

y, en ocasiones, magnetómetros. Las IMUs funcionan detectando la aceleración lineal mediante uno

o más acelerómetros y la velocidad angular mediante uno o más giróscopos. Los magnetómetros se

usan para obtener referencias de la orientación en base al campo magnético terrestre. La

configuración típica hace uso de un acelerómetro, un giróscopo y un magnetómetro para cada eje (X,

Y y Z) o eje de rotación (cabeceo, alabeo y guiñada) en coordenadas body frame (b-frame) tal y como

se observa en la Figura 2.3.3.

Figura 2.3.3. Sistema de coordenadas body frame (b-frame).

Page 15: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

13

Octubre 2019 – Octubre 2020

El segundo tipo de algoritmos implica compensar el efecto de emborronado a partir de la propia

imagen adquirida, sin medir explícitamente el movimiento de la cámara con sensores externos. De

hecho, en algunos métodos, la imagen captada permite obtener estimaciones del movimiento relativo

que produce el emborronado asociado. Ejemplos de este tipo de algoritmos se evalúan en el capítulo

4 de este documento.

Page 16: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

14

Octubre 2019 – Octubre 2020

3. Modelado y simulación del efecto de emborronado en

imágenes adquiridas mediante plataformas aéreas

Múltiples trabajos han estudiado los modelos cinemáticos y dinámicos de los UAVs multirrotores

[14] y de ala fija [38] y de los sistemas de estabilización basados en gimbales [32]. Además, se han

propuesto también diferentes modelos para simular y diseñar los sistemas de control de los

estabilizadores ópticos y mecánicos [39-44]. Sin embargo, además de la propia complejidad que

supone simular de forma conjunta los diferentes subsistemas implicados en la adquisición de las

imágenes, todos estos modelos requieren conocer de forma detallada los sistemas que se desean

simular, incluyendo información y especificaciones que los fabricantes no suelen proporcionar.

Por este motivo, el objetivo de este apartado es proponer un modelo que permita simular el efecto

del movimiento y las vibraciones de la plataforma sobre las imágenes adquiridas a partir de las

especificaciones típicas proporcionadas por los fabricantes de cámaras embarcadas en UAVs y de

los sistemas de estabilización [45]. De esta forma, se podrá simular el efecto del emborronado y

evaluar la degradación que produce sobre las capacidades operativas (alcance máximo de detección,

tamaño mínimo detectable, etc.) de los sensores electro-ópticos embarcados.

3.1. Análisis del emborronado en imágenes tomadas por plataformas aéreas

El proceso de adquisición de imágenes desde plataformas aéreas se ve afectado por distintos tipos de

factores que degradan su calidad y nitidez como son: el desenfoque, las turbulencias

atmosféricas [46] o el movimiento y vibraciones de la cámara. Estos efectos pueden modelarse

mediante una convolución en dos dimensiones entre la imagen ideal sin emborronado 𝑓(𝑥, 𝑦) y una

función de dispersión de punto (point spread function, PSF) ℎ(𝑥, 𝑦) que representa la función,

también llamada kernel, del emborronado. Por tanto, asumiendo que el emborronado no varía

espacialmente, la expresión (1) permite expresar matemáticamente la imagen adquirida 𝑔(𝑥, 𝑦),

donde 𝑤(𝑥, 𝑦) es el ruido del proceso de adquisición (conjunto de muestras de ruido Gaussiano de

media cero y varianza 𝜎2) [47].

𝑔(𝑥, 𝑦) = ℎ(𝑥, 𝑦) ∗ 𝑓(𝑥, 𝑦) + 𝑤(𝑥, 𝑦) = ∑ ∑ ℎ(𝑘, 𝑙)𝑓(𝑥 − 𝑘, 𝑦 − 𝑙)

𝑙𝑘

+ 𝑤(𝑥, 𝑦) (1)

En muchas ocasiones, la expresión (1) se utiliza en el dominio espectral, ya que suele facilitar su

aplicación a la hora de diseñar filtros restauradores y su uso conlleva generalmente un menor

consumo de recursos computacionales. Para ello, se aplica la transformada discreta de Fourier en dos

dimensiones a (1), obteniendo:

𝐺(𝑢, 𝑣) = 𝐻(𝑢, 𝑣)𝐹(𝑢, 𝑣) + 𝑊(𝑢, 𝑣) (2)

donde (u,v) representan las frecuencias espaciales y 𝐺(𝑢, 𝑣), 𝐻(𝑢, 𝑣), 𝐹(𝑢, 𝑣) y 𝑊(𝑢, 𝑣) son las

transformadas discretas de Fourier en dos dimensiones de 𝑔(𝑥, 𝑦), ℎ(𝑥, 𝑦), 𝑓(𝑥, 𝑦) y (𝑥, 𝑦),

respectivamente. La función 𝐻(𝑢, 𝑣) también se conoce habitualmente como Función de

Transferencia de Modulación (Modulation Transfer Function, MTF).

El desenfocado de las imágenes y las turbulencias atmosféricas para tiempos de exposición

largos dan lugar a emborronados aproximadamente Gaussianos (Figura 3.1.1a). Sin

embargo, asumiendo que la imagen se encuentra enfocada y teniendo en cuenta que el emborronado

debido a turbulencias atmosféricas es despreciable para los tiempos de exposición considerados en

Page 17: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

15

Octubre 2019 – Octubre 2020

la adquisición de imágenes con plataformas aéreas, el efecto de blurring predominante en cámaras

embarcadas en UAVs es el debido a la vibración y movimiento de la plataforma.

Por tanto, el emborronado que presentan las imágenes captadas por plataformas aéreas se debe

principalmente al movimiento relativo entre la escena capturada y el sensor de imagen durante el

tiempo que el sensor capta luz, es decir, durante el tiempo que el obturador permanece abierto,

conocido como tiempo de exposición te 1. Suponiendo que la plataforma se mueve a velocidad

constante v, este movimiento relativo tendrá una componente lineal debida al desplazamiento lineal

(v·te) de la plataforma (Figura 3.1.1b).

a) Emborronado debido a desenfocado o turbulencias atmosféricas (emborronado

Gaussiano)

b) Emborronado debida al movimiento lineal de la plataforma (emborronado lineal)

Figura 3.1.1. Ejemplos de: a) Emborronado Gaussiano y b) Emborronado lineal.

Sin embargo, además de este desplazamiento hay que tener en cuenta el efecto de las vibraciones de

la plataforma aérea. Esta vibración puede deberse a múltiples factores que varían en función del tipo

de plataforma utilizada, de tal forma que las principales fuentes de vibraciones son diferentes si se

trata de un UAV de ala fija o de uno de ala rotatoria o multirrotor.

En el caso de ala fija, las vibraciones se deben principalmente a cuatro fuentes: (i) ruido del motor,

(ii) flujos de aire sobre la estructura externa de la plataforma, (iii) flujos de aire y fenómenos de

resonancia acústica en cavidades abiertas al flujo externo de aire y (iv) movimientos estructurales

del fuselaje debidos a maniobras, aterrizajes, etc. [49]. De estos cuatro factores, el más significativo

suele ser el ruido del motor, que se produce principalmente a la propia frecuencia de rotación del

motor [50], así como a la frecuencia doble.

En cuanto a las plataformas de ala rotatoria, la principal fuente de vibración son los rotores [51-52].

La siguiente fuente de vibración con mayor efecto se debe a la vibración de la propia estructura,

principalmente de la plataforma y de los brazos extensivos donde se sitúan los rotores. Además, otra

fuente importante de vibraciones se corresponde con la vibración de las cargas que se puedan situar

1 En cámaras de infrarrojos (IR) el tiempo de exposición es equivalente al tiempo de integración para sensores IR

refrigerados (cooled detectors), y está relacionado con la constante de tiempo para sensores IR no refrigerados (uncooled

detectors). En este último caso, normalmente se considera que equivale aproximadamente a cinco constantes de tiempo,

ya que es el tiempo necesario para que el detector alcance prácticamente un estado estacionario tras una señal de entrada

en forma de escalón [48].

Page 18: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

16

Octubre 2019 – Octubre 2020

debajo de la plataforma. Sin embargo, las características de la vibración varían en función de la

estructura de la plataforma, la carga y las condiciones medioambientales, entre otros efectos.

Las vibraciones que afectan a las plataformas aéreas son esencialmente angulares y sinusoidales, ya

que se trata mayoritariamente de vibraciones periódicas que afectan a los ángulos de rotación y

pueden descomponerse en una serie de vibraciones sinusoidales de diferentes frecuencias [53-55].

Sin embargo, el efecto que estas producen varía en función de si estas vibraciones son de alta o de

baja frecuencia [56].

Esta distinción se hace con respecto al tiempo de exposición, de tal forma que si el periodo de la

vibración es inferior al tiempo de exposición se considera de alta frecuencia, mientras que en caso

contrario se considera de baja frecuencia. En general, las vibraciones de baja frecuencia son más

difíciles de compensar, debido a que la amplitud de estas vibraciones suele ser superior que las de

alta frecuencia [57] y a que el emborronado se produce únicamente durante un fragmento del periodo

de la vibración, cuyo comienzo dentro del periodo de la vibración es una variable aleatoria [58-60].

Como se observa en la Figura 3.1.2, el emborronado debido a la vibración de baja frecuencia será

máximo (dmax) cuando el tiempo de exposición esté centrado en los pasos por cero de la sinusoide

asociada, y será mínimo (dmin) cuando esté centrado en los extremos de la sinusoide, dando lugar a

un emborronado aproximadamente lineal distinto entre imágenes adquiridas secuencialmente.

Figura 3.1.2. Esquema de vibración angular de baja frecuencia (T0: Periodo de la vibración, te: tiempo de exposición,

dmax: rotación asociada al emborronado máximo, dmin: rotación asociada al emborronado mínimo).

El efecto que tienen las vibraciones sinusoidales de alta frecuencia sobre los puntos de la imagen es

el observado en la Figura 3.1.3, en la que se muestra por simplicidad la vibración sinusoidal sobre

un único eje de rotación. En ella se aprecia que el movimiento de cada punto del plano focal de la

imagen da lugar a un histograma de posiciones cuyo mínimo coincide con el punto de equilibrio

(centro) de la vibración y cuyos máximos coinciden con los extremos de esta. De esta forma, una

mayor amplitud (D) de estas vibraciones dará lugar a una mayor degradación de la nitidez de la

imagen.

Page 19: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

17

Octubre 2019 – Octubre 2020

Figura 3.1.3. Esquema de vibración angular de alta frecuencia (D: amplitud de la vibración).

3.2. Modelado de la vibración y del emborronado asociado

El objetivo de este apartado es proponer un modelo que permita generar vibraciones aleatorias y

evaluar la PSF asociada de emborronado de imagen, dando lugar a resultados que se asemejen a los

efectos de emborronado que sufren realmente los sistemas de imagen embarcados. Posteriormente,

se aplicará dicho modelo a un conjunto de plataformas e imágenes de prueba.

Como se ha mencionado previamente, la vibración que afecta al sistema de adquisición de imágenes

proviene de diversas fuentes simultáneamente, cada una de las cuales aporta diferentes frecuencias

de vibración, de tal forma que algunas fuentes como el giro del motor o el de los rotores dan lugar a

vibraciones que en la mayoría de los casos pueden considerarse de alta frecuencia, mientras que otras

como los flujos de aire se pueden considerar generalmente de baja frecuencia. Tal y como ha sido

razonado, la distinción entre baja y alta frecuencia se lleva a cabo con respecto al tiempo de

exposición y por lo tanto a la velocidad de obturación (shutter speed). Sin embargo, esta distinción

no cambia el hecho de que las múltiples fuentes dan lugar conjuntamente a un espectro de la vibración

que presenta componentes en diferentes rangos de frecuencia.

Los sistemas de estabilización ópticos y mecánicos, tratados en el capítulo anterior, permiten

compensar gran parte de las vibraciones que se producen sobre el sensor electro-óptico. Sin embargo,

existe una vibración residual que los fabricantes suelen especificar mediante un intervalo de

vibración angular o mediante la varianza del error angular de apuntamiento debido a dicha vibración

[45, 61]. Esta vibración residual sobre el sensor es la que se desea modelar, ya que da lugar al

emborronado de las imágenes, pero sin emplear los complejos modelos cinemáticos y dinámicos

propuestos para los distintos tipos de UAVs o de sistemas de estabilización.

De esta forma, como consecuencia de las diferentes fuentes de vibración, así como de la variedad de

frecuencias de las mismas, la expresión que se propone para modelar la vibración global 𝑏(𝑡) para

cada una de las coordenadas angulares (Figura 2.3.3), y que se va a utilizar en el posterior análisis,

consta de dos componentes:

𝑏(𝑡) = 𝑣(𝑡) + 𝑛(𝑡) (3)

siendo 𝑣(𝑡) la propia vibración angular y 𝑛(𝑡) un ruido de proceso, que se considera blanco

Gaussiano de media nula y varianza 𝜎𝑛2. En el modelo que se propone, se asume que las vibraciones

en cada eje de rotación son independientes entre sí, aunque dicha suposición deberá ser verificada

con medidas experimentales que permitan determinar, en caso contrario, la correlación cruzada entra

las distintas coordenadas de la vibración.

Page 20: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

18

Octubre 2019 – Octubre 2020

Para el término 𝑣(𝑡) de la vibración, en lugar de utilizar una única frecuencia que represente la

vibración predominante de los motores, como se hace en otros trabajos publicados [58-60], se

propone el uso de una suma de múltiples sinusoidales cuyas frecuencias siguen una distribución

modelada por una mezcla de Gaussianas (Gaussian Mixture Model, GMM) compuesta por dos

distribuciones Gaussianas de media las denominadas frecuencias fundamentales de la vibración: la

componente de baja frecuencia (fl) y la componente de alta frecuencia (fh). Este modelo se ajusta

mejor a las propiedades espectrales de la vibración medida para estas plataformas [57].

Ahora bien, a la hora de implementar un modelo con estas características pueden plantease dos

posibilidades. La primera de ellas parte del dominio temporal para generar las vibraciones como

suma de múltiples sinusoides, mientras que en la segunda se lleva a cabo el tratamiento de la

vibración partiendo de su espectro.

Además, cada una de las N señales sinusoidales sumadas tendrán un desfase aleatorio 𝜑𝑖 determinado

como una VA uniforme de límites (0,2π). Por lo tanto, el término 𝑣(𝑡) de la vibración queda

expresado por (4).

𝑣(𝑡) = ∑ 𝐴𝑙𝑐𝑜𝑠(2𝜋𝑓𝑙𝑖𝑡 + 𝜑𝑖)

𝑁

𝑖=1

+ ∑ 𝐴ℎ𝑐𝑜𝑠(2𝜋𝑓ℎ𝑖𝑡 + 𝜑𝑖)

𝑁

𝑖=1

(4)

Cabe destacar que la diferencia de amplitudes 𝐴𝑙, 𝐴ℎ, procede del hecho de que las vibraciones de

baja frecuencia presentan generalmente una mayor amplitud que las de baja frecuencia. Además, será

necesario normalizar la señal en potencia para posteriormente escalar la amplitud de la vibración a

los valores coherentes con los rangos de vibración angular especificados por el fabricante.

Como se dijo anteriormente, la generación de la vibración se lleva a cabo generando por separado

las componentes en las tres vibraciones angulares (alabeo, 𝑣𝑟(𝑡), cabeceo, 𝑣𝑝(𝑡), y guiñada, 𝑣𝑦(𝑡))

para posteriormente aplicarlas al modelo de adquisición de la imagen con efecto de emborronado.

Además, se debe tener también en cuenta el ruido del proceso en la generación de la vibración. Se

asume que este ruido presenta un carácter Gaussiano blanco aditivo (Additive White Gaussian Noise,

AWGN) que afecta a todo el rango espectral considerado de la vibración.

Añadiendo el ruido a las a las tres componentes de vibración ya definidas, obtenemos las tres

componentes angulares que definirán la PSF debido a la vibración, en alabeo, 𝑏𝑟(𝑡), cabeceo, 𝑏𝑝(𝑡),

y guiñada, 𝑏𝑦(𝑡), tal y como se muestra en la expresión (3), y por tanto el emborronado sufrido por

las imágenes. Al determinar la PSF, además de la vibración angular modelada durante el tiempo de

exposición, se tendrá en cuenta el movimiento de traslación de la plataforma (movimiento lineal con

velocidad constante).

El resultado del análisis del recorrido de un punto tridimensional proyectado a lo largo del tiempo de

exposición [62-63] da lugar a una representación cuyo número de puntos en el plano de la imagen

depende de la frecuencia de muestreo de la simulación, sin embargo, a la hora de generar la PSF, lo

importante es la densidad de puntos que presenta cada píxel del sensor de imagen [64]. La

representación de este proceso, que permite estimar la PSF debida al movimiento y la vibración de

la plataforma, se muestra en la Figura 3.2.1.

Page 21: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

19

Octubre 2019 – Octubre 2020

Figura 3.2.1. Modelo para generar la PSF debida al movimiento y vibración de la plataforma a partir del recorrido de

la proyección de un punto tridimensional en el plano de la imagen.

En realidad, no todos los puntos del plano fotografiado presenten la misma PSF, sino que se produce

una variación espacial de la PSF debido a que la distancia y posición de cada punto tridimensional

del plano fotografiado al sistema de imagen es también variante. Sin embargo, asumiendo que la

distancia entre el dron y el objetivo a fotografiar es grande, la diferencia entre las PSF de los distintos

puntos de la imagen será suficientemente pequeña para considerar despreciable dicha variación.

Este modelo permite, además, tratar de manera diferente el efecto del emborronado en plataformas

de ala fija y ala rotatoria a través de varios parámetros. Por un lado, para simular la mayor estabilidad

que presentan las plataformas de ala fija, se considera un menor ruido del proceso, así como una

menor varianza de las Gaussianas que componen el modelo de mezcla en torno a las frecuencias

fundamentales con respecto a las plataformas de ala rotatoria, que presentan, en general, una menor

estabilidad y velocidad lineal de vuelo.

3.3. Resultados obtenidos a partir del modelo propuesto

El objetivo de este apartado es analizar los resultados del modelo propuesto en el apartado anterior,

poniendo atención en las diferencias según el tipo de plataforma simulada. Para ello, se van a estudiar

dos casos representativos considerando especificaciones típicas de UAVs. El primero simulará una

plataforma de ala fija, y el segundo una plataforma de ala rotatoria.

Ambos casos de estudio comparten una serie de parámetros típicos, relacionados principalmente con

el sensor óptico, el sistema de estabilización y el escenario considerado, como son:

Parámetro Valor

Altura de vuelo del dron 100 m

Ángulo de apuntamiento de la cámara en elevación respecto a nadir 45 º

Campo de visión vertical 30 º

Campo de visión horizontal 45 º

Resolución 10 MP (3872x2592 píxeles)

Tiempo de exposición 100 ms

Deviación típica de la amplitud de las vibraciones en alabeo, cabeceo y guiñada 0.03 º

Frecuencia de vibración baja 2.5 Hz

Frecuencia de vibración alta 100 Hz

Frecuencia de muestreo simulación 10 KHz

Tiempo total simulado de la vibración 10 s

Tabla 3.3.1. Parámetros comunes a ambos casos de estudio.

Page 22: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

20

Octubre 2019 – Octubre 2020

Como sistema representativo se considera una cámara embarcada de 10 MP de resolución y un campo

de visión amplio (Wide Field of View, WFOV) con un FOV de 45º en horizontal y una relación de

aspecto 3:2 (con píxeles cuadrados). Se ha considerado un tiempo de exposición de 100 ms, como

caso peor para situaciones de baja iluminación, que dará lugar a un emborronado severo [65].

Además, de acuerdo con estudios que han medido las componentes espectrales de las vibraciones de

distintos UAVs, se han seleccionado como frecuencias fundamentales de vibración 2.5 Hz y 100 Hz,

para la frecuencia baja y alta, respectivamente [50, 57]. Estas características se pueden considerar

típicas para sensores electro-ópticos embarcados en plataformas autónomas aéreas de categoría I.

Sin embargo, se debe tener en cuenta que las cámaras IR embarcadas presentan una resolución

considerablemente menor a los sensores de espectro visible y, por lo tanto, el movimiento y vibración

de la plataforma da lugar a una menor degradación de la calidad de la imagen. No obstante, su menor

resolución supone también un menor alcance.

Caso de estudio I: UAV de ala fija

En primer lugar, se analiza el caso de un UAV de ala fija. Para simular este tipo de plataformas,

además de los parámetros comunes a ambos casos, se han establecido los siguientes parámetros,

teniendo en cuenta que este tipo de plataformas presenta una mayor estabilidad que las plataformas

de ala rotatoria:

- Relación de amplitudes entre las vibraciones de baja y alta frecuencia: 𝐴𝑙/𝐴ℎ = 4

- N = 10000 (número de sinusoides en el sumatorio del modelo)

- Desviación típica de la vibración de baja frecuencia (𝜎𝑙): 0.25 Hz.

- Desviación típica de la vibración de alta frecuencia (𝜎ℎ): 5 Hz.

- Relación señal a ruido del ruido del proceso: 20 (unidades lineales).

- Velocidad lineal del dron: 20 m/s.

En primer lugar, partiendo de estos parámetros, la Figura 3.3.1 representa las tres componentes

angulares de la vibración generadas para una realización utilizando el modelo propuesto.

Page 23: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

21

Octubre 2019 – Octubre 2020

Figura 3.3.1. Componentes angulares de la vibración generada considerando un UAV de ala fija para una realización

del experimento utilizando el modelo propuesto.

Se observa que, aunque la desviación típica en amplitud de las señales de vibración es de 0.03º (de

acuerdo con las especificaciones del sistema de estabilización), durante los 10 segundos simulados

se alcanzan picos de hasta ±0.08º. Sin embargo, lo realmente importante de cara al emborronado es

la variación de amplitud durante el tiempo de exposición, que será, en general, inferior a esos picos

debido a que estos se deben principalmente a las vibraciones de baja frecuencia.

Del zoom que aparece en la Figura 3.3.1, puede deducirse que cuanto menor sea el tiempo de

exposición, mayor será la probabilidad de que la variación de amplitud sea también pequeña y, por

lo tanto, se produzca un menor emborronado debido a la vibración de la imagen adquirida. Además,

esta variación dependerá del instante en el que comience la exposición a la luz del sensor de imagen

(tal y como se explicó al comienzo de este capítulo). De tal forma que, con un tiempo de exposición

de 100 milisegundos, si la exposición comienza, por ejemplo, en 4.2 s, cuando la componente de baja

frecuencia de la vibración en alabeo (azul) se encuentra en un pico (un máximo en este caso), la

variación angular de la vibración es pequeña (de unos 0.02º - 0.04º) y su efecto en el emborronado

será más tenue que cuando el tiempo de exposición comienza en 4.3 s o 4.5 s, donde la componente

de baja frecuencia en alabeo comienza a descender u ascender y la variación del apuntamiento

angular es más grande (0.08º - 0.1º). Además, se debe tener en cuenta que un mayor tiempo de

exposición supone también un mayor desplazamiento lineal de la plataforma.

Observando las señales en el dominio transformado (Figura 3.3.2), se aprecian claramente las

funciones Gaussianas de alta y baja frecuencia, dadas por el modelo de mezcla considerado, para

cada una de las componentes angulares de vibración. De acuerdo con los parámetros del modelo, se

observa una mayor amplitud para la vibración de baja frecuencia, pero con una anchura mucho menor

(de unos 0.25 Hz, frente a los 5 Hz en alta frecuencia), determinados por las varianzas de las variables

aleatorias que dan lugar a ambas componentes frecuenciales, además de una cierta aleatoriedad en la

amplitud, claramente apreciable en la componente de alta frecuencia.

Figura 3.3.2. Espectro normalizado de las componentes angulares de vibración para un UAV de ala fija en alabeo

(azul), cabeceo (rojo) y guiñada (amarillo).

Una vez analizadas las vibraciones generadas en ausencia de ruido de proceso AWGN, en la Figura

3.3.3 se puede apreciar el efecto de añadir dicho ruido, en un instante de la vibración durante el

tiempo de exposición considerado (100 ms).

Page 24: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

22

Octubre 2019 – Octubre 2020

Figura 3.3.3. Adición del ruido de proceso AWGN a la vibración generada para el UAV de ala fija.

Por otro lado, no debe olvidarse que lo que va a determinar la PSF debida al movimiento y la

vibración, o lo que es lo mismo, el emborronado de la imagen, es únicamente la fracción de la

vibración y el movimiento de la plataforma que se produce durante el tiempo en el que el sistema

capta luz, es decir, durante el tiempo de exposición. Por ello, para analizar las posibles PSFs

obtenidas mediante el modelo, se debe hacer uso de dicha fracción seleccionando un instante

aleatorio de la vibración para comenzar el tiempo de exposición.

Para este primer caso de estudio, pude destacarse que las PSFs obtenidas presentan esencialmente

tres características bien diferenciables:

1. En primer lugar, destaca la componente lineal debida al desplazamiento de la plataforma

durante el tiempo de exposición.

2. La segunda característica es la pendiente de esta componente lineal, que viene determinada

por el tramo de la componente de baja frecuencia que tiene efecto durante el tiempo de

exposición. Esta pendiente puede ser inapreciable, es decir, próxima a cero, cuando el tiempo

de exposición coincide con un extremo (máximo o mínimo), de la componente de baja

frecuencia. Un caso representativo de este caso es el representado en la imagen superior de

la Figura 3.3.4.

3. En tercer lugar, se observa el carácter sinusoidal que presenta la PSF, esta depende de la

amplitud de la componente de alta frecuencia a lo largo del tiempo de exposición. Un caso

extremo con respecto a esta característica sería que la componente de baja frecuencia fuera

tan tenue que la PSF presentase una forma prácticamente lineal.

Page 25: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

23

Octubre 2019 – Octubre 2020

Figura 3.3.4. PSFs generadas mediante el modelo para plataformas de ala fija.

Estas características son claramente distinguibles en las PSFs obtenidas de este primer caso de

estudio, sin embargo, su apreciación será más complicada en el caso de plataformas de ala rotatoria

debido a su menor estabilidad.

Caso de estudio II: UAV de ala rotatoria o multirrotor

A continuación, se analiza el caso de un UAV de ala rotatoria. Para simular este tipo de plataformas,

los parámetros que difieren, debido a su menor estabilidad de vuelo y menor velocidad lineal, con

respecto al caso de ala fija son:

- Relación de amplitudes entre las vibraciones de baja y alta frecuencia: 𝐴𝑙/𝐴ℎ = 2.5

- N = 10000 (número de sinusoides en el sumatorio del modelo).

- Desviación típica de la vibración de baja frecuencia (𝜎𝑙): 0.25 Hz.

- Desviación típica de la vibración de alta frecuencia (𝜎ℎ): 10 Hz.

- Relación señal a ruido del ruido del proceso: 15 (unidades lineales).

- Velocidad lineal del dron: 10 m/s.

Al igual que en el caso anterior, en primer lugar, se generan las tres componentes de vibración

resultantes de la aplicación del modelo propuesto de simulación durante un tiempo de diez segundos

(Figura 3.3.5), que permite realizar un análisis espectral de las componentes de la vibración con una

resolución de 0.1 Hz. Esta resolución aporta un nivel de detalle suficiente sin dar lugar a tiempos de

procesado excesivos para la generación de la vibración simulada y sus correspondientes PSF

considerando el tiempo de exposición.

Page 26: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

24

Octubre 2019 – Octubre 2020

Figura 3.3.5. Componentes angulares de la vibración generada considerando un UAV de ala fija para una realización

del experimento utilizando el modelo propuesto.

Aunque en principio la señal de diez segundos de duración pudiera parecer muy similar a la obtenida

en el caso de ala fija, es fácil apreciar, en la imagen ampliada, el mayor impacto causado por la

componente de alta frecuencia en las distintas componentes angulares de la vibración. De hecho, hay

intervalos de tiempo durante los que la variación de amplitud debida a la componente de alta

frecuencia es considerablemente más relevante que la debida a la componente de baja frecuencia.

Esto se debe al menor ratio 𝐴𝑙/𝐴ℎ, que relaciona las amplitudes de las componentes de baja y alta

frecuencia, debido a la mayor contribución de las vibraciones de alta frecuencia en los UAV de ala

rotatoria.

Por otro lado, dado que la amplitud de las tres componentes está normalizada para poder fijar una

variación angular aproximada de desviación típica 0.03º en este caso, y que la componente de baja

frecuencia sigue siendo predominante, los picos alcanzados son similares al caso de ala fija, aunque,

como ya se ha dicho, en este caso la componente de alta frecuencia presenta una mayor contribución

que en las plataformas de ala fija.

El efecto del cambio en los parámetros 𝐴𝑙/𝐴ℎ y 𝜎ℎ es quizá más fácil de apreciar en el dominio

transformado (Figura 3.3.6), donde se observa que la componente correspondiente a alta frecuencia

presenta aproximadamente el doble de ancho de banda que en el caso de ala fija. Por tanto, como la

representación está normalizada al máximo y el lóbulo correspondiente a las componentes de alta

frecuencia presenta aproximadamente el mismo nivel en ambos casos, la contribución de las

componentes de alta frecuencia es mayor en el UAV de ala rotatoria.

a) b) Figura 3.3.6. Comparación de los espectros normalizados de las componentes angulares de vibración en alabeo (azul),

cabeceo (rojo) y guiñada (amarillo) en los casos: a) ala rotatoria y b) ala fija.

A continuación, al igual que en el primer caso de estudio, antes de obtener la PSF debida a la

vibración y el movimiento, se añade el ruido de proceso AWGN a cada una de las componentes

(Figura 3.3.7), que, en este caso, presenta un nivel superior debido a la menor estabilidad de estos

UAVs.

Page 27: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

25

Octubre 2019 – Octubre 2020

Figura 3.3.7. Adición del ruido de proceso AWGN a la vibración generada para el UAV de ala rotatoria.

Una vez generadas las tres componentes de vibración, añadido el ruido de proceso y considerando el

desplazamiento lineal de la plataforma, es posible generar las PSFs correspondientes a dichas

vibraciones durante un tiempo de exposición te. Algunas PSFs representativas generadas mediante

este modelo se muestran en la Figura 3.3.8, en las que no se observan tan claramente las

características comentadas para el caso de ala fija debido a la menor estabilidad de los UAVs de ala

rotatoria.

Figura 3.3.8. PSFs generadas mediante el modelo para plataformas de ala rotatoria.

Page 28: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

26

Octubre 2019 – Octubre 2020

4. Análisis de las capacidades de detección utilizando

algoritmos de desemborronado y detección automática

En este capítulo, utilizando el modelo de vibración y de obtención de la PSF presentado

anteriormente, se pretende evaluar mediante simulaciones el comportamiento de un algoritmo

representativo de estabilización digital (algoritmo de desemborronado) combinado con un algoritmo

de detección automática de objetos, de acuerdo con el procesado típico mostrado en la Figura 4.1.

Posteriormente, en base a los resultados obtenidos del análisis, se propone una extensión del Criterio

de Johnson, tratado en la introducción de este trabajo, que permita estimar de forma sencilla el

alcance de las cámaras embarcadas en plataformas aéreas en función de las especificaciones técnicas

de estas y de los sistemas de estabilización.

Figura 4.1. Esquema de la cadena de proceso analizada que incluye el desemborronado (deblurring) de la imagen y la

detección automática de blancos.

Por un lado, los algoritmos de desemborronado (deblurring) pretenden obtener la imagen latente con

la mayor nitidez posible, partiendo de una única imagen adquirida con el sensor electro-óptico

afectado por vibraciones y movimiento. Concretamente se ha utilizado como algoritmo el propuesto

por Krishnan et al. [66].

Por otro lado, de cara a proponer una extensión del Criterio de Johnson para la estimación del alcance

de las cámaras embarcadas, es necesario establecer un método que permita analizar la degradación

de la imagen debida al emborronado y la capacidad de compensación por parte de los algoritmos de

desemborronado utilizados. Para ello, se implementa un algoritmo de detección automática de

objetos que permite comparar la eficiencia de la detección de blancos en imágenes sin emborronado,

emborronadas y estabilizadas digitalmente (desemborronadas). En este caso, se hace uso de un

algoritmo de detección de “objetos salientes” (saliency detection), mediante el algoritmo Minimum

Barrier Salient Object Detection [67], que permite detectar objetos por contraste con el fondo de la

imagen.

4.1. Análisis de los resultados de la aplicación de los algoritmos de

desemborronado y detección automática

En este apartado, se van a presentar y analizar los resultados obtenidos de la aplicación combinada

de emborronado, estabilización (algoritmos de deblurring) y detección automática de una imagen

real representativa obtenida mediante una cámara digital. Lo que permitirá estimar la extensión del

Criterio de Johnson que es objeto de este trabajo.

La imagen original (sin emborronado) que será el objeto del análisis en este apartado presenta un

blanco claramente diferenciado (Primera imagen de la Figura 4.1.1).

Page 29: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

27

Octubre 2019 – Octubre 2020

Dado que el Criterio de Johnson establece el número de líneas que debe ocupar un objeto en la

imagen para poder ser discriminado, se va a llevar a cabo el análisis de la imagen original y de una

serie de versiones submuestreadas de esta, de tal forma que los objetos a detectar (un ave en este

caso) ocupen progresivamente menos píxeles en la imagen, permitiendo obtener un tamaño mínimo

necesario para una detección automática exitosa (Figura 4.1.1).

Figura 4.1.1. Versiones original y submuestreadas de la imagen utilizada en el análisis.

Con las versiones submuestreadas ordenadas de mayor a menor número de muestras, o lo que es lo

mismo, de menor a mayor factor de submuestreo, de izquierda a derecha y de arriba hacia abajo,

siendo el factor de submuestreo el cociente entre el número de muestras de la imagen original y el

de la versión submuestreada, el tamaño del blanco en cada una de dichas versiones queda recogido

en la Tabla 4.1.1.

Imagen Factor de submuestreo Tamaño imagen Nº de píxeles en vertical Nº de píxeles en horizontal

a.1 1 640 x 359 84 52

a.2 2 320 x 180 42 26

a.3 4 160 x 90 21 13

a.4 8 80 x 45 11 6

a.5 16 40 x 23 4 2

a.6 32 20 x 12 1 1

Tabla 4.1.1. Características de las versiones submuestreadas de la imagen.

A continuación, se va a llevar a cabo el procesado completo de la imagen. En primer lugar, se procede

analizando la capacidad de detección que presenta el algoritmo de detección automática utilizado

con las distintas versiones de la imagen antes de ser emborronada (1). A continuación, se aplicará el

algoritmo de emborronado a cada una de las versiones de la imagen, utilizando la misma PSF en

cada una de ellas (comparando el modelo de ala fija y el de ala rotatoria), para posteriormente volver

a evaluar la capacidad de detección en las nuevas versiones emborronadas (2). Por último, se aplicará

un algoritmo de estabilización digital sobre las imágenes emborronadas y se volverá a evaluar la

capacidad de detección automática sobre las nuevas versiones desemborronadas de la imagen (3).

Cabe destacar que, a la hora de decidir si la detección ha sido o no exitosa se va a emplear el criterio

Ground Truth, es decir, se considerará que la detección ha sido exitosa en caso de que la superficie

detectada coincida total o parcialmente con la superficie del blanco que se desea detectar. Además,

dado que el objetivo es determinar aproximadamente el tamaño (en pares de líneas) que debe ocupar

un blanco para ser detectado, una vez que una versión submuestreada dé lugar a una pérdida en la

detección (missed detection) todas las versiones de menor tamaño se considerarán también como

detecciones fallidas.

Page 30: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

28

Octubre 2019 – Octubre 2020

(1) El algoritmo de detección automática seleccionado presenta un comportamiento interesante

al utilizarlo con la imagen considerada, mostrando algunas de las problemáticas de este

algoritmo. Esto se debe a que, si bien es capaz de detectar sin dificultad la presencia del ave

en la imagen utilizando la transformada de distancia (Figura 4.1.2a), el resultado del proceso

de detección determina varias regiones como posibles blancos, es decir, presenta falsas

alarmas. Esto puede deberse a varias razones. Por un lado, hay que tener en cuenta que el

algoritmo hace uso del color presente en los cuatro bordes de la imagen para determinar las

regiones consideradas como fondo de la imagen. En este caso, la parte central de la imagen

presenta una mayor luminosidad, lo que hace que los colores en esta región sean más claros

y por tanto difieran más con los colores presentes en los bordes.

a)

b)

c)

e)

Figura 4.1.2. Resultados del algoritmo de detección automática en la imagen de tamaño original: a) Transformada de

distancia (FastMBD), b) Combinanción de la transformada de distancia y del mapa de contraste, c) Detecciones

obtenidas y d) Imagen original y bounding box (cuadro delimitador) que incluye todas las detecciones obtenidas.

Además, el hecho de aplicar un umbral adaptativo utilizando un algoritmo CA-CFAR, que

emplea una ventana deslizante, hace que aparezcan falsas alarmas en algunos de los bordes

entre las regiones que se observan en el resultado combinado de la transformada de distancia

y el mapa de contraste (Figura 4.1.2c), haciendo que se interpreten algunas zonas de nubes

de la región central como posibles blancos (Figura 4.1.2c).

Figura 4.1.3. Resultados del algoritmo de detección automática en las distintas versiones submuestreadas de la imagen.

Para no tener que modificar los parámetros de los algoritmos y conseguir resultados comparables, a las imágenes

submuestreadas se les aplica un upsampling para mantener el mismo número de píxeles que la imagen original.

A pesar de las falsas alarmas, dado que el ave también es detectada, se considera que la

detección ha sido exitosa. Para evitar estas falsas alarmas, se podría modificar los parámetros

Page 31: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

29

Octubre 2019 – Octubre 2020

del algoritmo CA-CFAR, aumentando el umbral (lo que a su vez disminuye a la probabilidad

de detección), o utilizar otros algoritmos con umbral adaptativo robustos frente a bordes.

El resto de las versiones submuestreadas presentan resultados similares, siendo capaz el

algoritmo de detectar el blanco en todas ellas, incluso cuando este ocupa únicamente un píxel

(Figura 4.1.3).

(2) A continuación, se aplica el tipo de emborronado propuesto en este documento mediante

simulaciones, considerando un tiempo de exposición típico de 0.02 s, tanto para el modelo

de ala fija como para el de ala rotatoria. Las PSFs de emborronado simuladas para los casos

de ala fija y ala rotatoria se representan en las Figuras 4.1.4a y 4.1.4b respectivamente.

a)

b)

Figura 4.1.4. PSFs aplicadas para el emborronado de los casos: a) de ala fija y b) de ala rotatoria.

A partir de dichas PSFs, se generan las versiones emborronadas de la imagen, obteniendo

para los casos de ala fija y ala rotatoria las imágenes mostradas en las Figuras 4.1.5 y 4.1.6,

respectivamente.

Figura 4.1.5. Versiones emborronadas según el modelo para plataformas de ala fija de las imágenes original y

submuestreadas.

Figura 4.1.6. Versiones emborronadas según el modelo para plataformas de ala rotatoria de las imágenes

original y submuestreadas.

Page 32: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

30

Octubre 2019 – Octubre 2020

Se observa que, para las imágenes cuyos blancos ocupaban cuatro o menos píxeles en cada

eje de la imagen antes de emborronar, es imposible clasificar el tipo de blanco fotografiado.

Esto se debe a que la energía de dicho blanco, que estaba concentrada en un número pequeño

de píxeles, se distribuye entre muchos píxeles que no se corresponden con el blanco. Por ello,

la energía del blanco presente en cada uno de los píxeles entre los que se ha esparcido es

pequeña en relación con la energía correspondiente a los píxeles que inicialmente no se

correspondían con el blanco.

Figura 4.1.7. Resultados del algoritmo de detección automática en las distintas versiones emborronadas mediante los

modelos para plataformas de ala fija (columnas primera y segunda) y ala rotatoria (columnas tercera y cuarta).

Este efecto, en imágenes en las que el blanco ocupa originalmente un gran número de píxeles

da lugar principalmente a que los bordes del blanco aparezcan difuminados, mientras que los

Page 33: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

31

Octubre 2019 – Octubre 2020

píxeles centrales del blanco siguen presentando principalmente energía correspondiente al

blanco.

Lo interesante ahora es evaluar en qué medida el emborronado complica la detección

automática del blanco. Los resultados de aplicar el algoritmo de detección automática a las

imágenes emborronadas mediante los modelos de ala fija y ala rotatoria se muestran en la

Figura 4.1.7. En esta figura, las columnas primera y tercera presentan el mapa con las regiones

“salientes” (aplicando un proceso de erosión y dilatación sobre la imagen umbralizada con

las detecciones) en los casos de ala fija y ala rotatoria, respectivamente, y las columnas

segunda y cuarta muestran el área de la imagen en la que quedan enmarcadas dichas regiones

(bounding box) en los casos de ala fija y ala rotatoria, respectivamente.

El primero de los casos presenta claras dificultades a la hora de detectar el blanco.

Únicamente es capaz de detectarlo en las dos primeras imágenes (factores de submuestreo 1

y 2). De acuerdo con el ground truth, en la tercera de las imágenes, se produce una falsa

alarma, al detectarse el sol en lugar del ave, y en el resto de las imágenes se dan falsas alarmas

o ni siquiera el algoritmo es capaz de detectar un posible blanco.

En cuanto al caso de ala rotatoria, el ave es detectada correctamente en las cuatro primeras

imágenes, mientras que en la quinta se da una falsa alarma y en la sexta no es posible discernir

ningún blanco.

(3) Finalmente, se muestran los resultados de procesar las imágenes emborronadas mediante el

algoritmo de estabilización de imagen que se ha probado para los casos de ala fija y ala

rotatoria, junto con los resultados de la detección (Figuras 4.1.9 y 4.1.10). El algoritmo

utilizado es el presentado por Krishnan et al. en 2013 [66].

a) b)

1)

2)

Figura 4.1.8. Comparación entre las PSFs de emborronado a) según: 1) el modelo de ala fija y 2) el modelo de ala

rotatoria, y las estimaciones obtenidas b) para las imágenes de tamaño original a partir del algoritmo de Krishnan et al.

[66].

Posteriormente, se evalúa el desempeño del algoritmo de detección automática en cada una

de las imágenes.

De las detecciones presentadas en la Figura 4.1.9, las tres últimas se corresponden con falsas

alarmas, mientras que, en la Figura 4.1.10, únicamente las dos últimas se corresponden con

falsas alarmas.

El proceso de análisis mostrado se ha realizado con varias imágenes digitales que presentaban

blancos bien distinguibles. Con todas ellas se han obtenido resultados similares a los presentados.

Page 34: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

32

Octubre 2019 – Octubre 2020

Figura 4.1.9. Resultados del algoritmo de detección automática en las distintas versiones estabilizadas mediante el

algoritmo de Krishnan et al. de las imágenes emborronadas mediante el modelo para plataformas de ala fija.

Figura 4.1.10. Resultados del algoritmo de detección automática en las distintas versiones estabilizadas mediante el

algoritmo de Krishnan et al. de las imágenes emborronadas mediante el modelo para plataformas de ala rotatoria.

Antes de sacar conclusiones de las pruebas realizadas, se presentan a modo de resumen los resultados

de las detecciones obtenidos mediante la Tabla 4.1.2. En ella se indica si el algoritmo ha sido capaz

de detectar el blanco exitosamente (Si), o si, por el contrario, se trata de una falsa alarma o no ha sido

capaz de detectarlo (No). La primera columna indica la etapa de la evaluación, mientras que la fila

superior indica el número de píxeles que ocupa el blanco en cada eje de la imagen.

Detección 84 x 52 42 x 26 21 x 13 11 x 6 4 x 2 1 x 1

Original Si Si Si Si Si Si

Emborronada AF Si Si No No No No

Emborronada AR Si Si Si Si No No

Estabilizada

Krishnan et al. AF Si Si Si No No No

Estabilizada

Krishnan et al. AR Si Si Si Si No No

Tabla 4.1.2. Resultados del algoritmo de detección automática para la imagen en cada etapa del análisis. (AF: Modelo

para ala fija; AR: Modelo para ala rotatoria).

Page 35: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

33

Octubre 2019 – Octubre 2020

A partir de estos resultados, para poder relacionarlos con las directrices que describe el Criterio de

Johnson, el procedimiento seguido se basa en la definición de par de líneas utilizado en procesado

de imágenes, que está en cierto modo relacionado con la resolución de la imagen. Para comprender

el concepto de par de líneas se suele recurrir al ejemplo de dos líneas negras paralelas de un cierto

grosor situadas sobre un fondo blanco que se van acercando progresivamente la una a la otra. Llegará

un momento en el que la distancia será tan pequeña que no le será posible distinguir las dos líneas,

es decir, parecerá que sólo hay una. Esa distancia es el límite de la resolución óptica. En imágenes

digitales este concepto es equivalente aproximadamente a dos píxeles de resolución.

Teniendo esto en cuenta, la relación entre el tamaño de un blanco en una imagen y el número de

pares de líneas que ocupa será igual a la máxima magnitud entre el ancho y el alto (en píxeles) que

definen el blanco en la imagen dividido por dos.

Siguiendo el criterio anterior y fijándonos en los resultados recopilados en la Tabla 4.1.2, observamos

que, para la situación sin emborronado, 0.5 pares de líneas son suficientes para poder detectar el

blanco objetivo. Esto concuerda de manera aproximada con el Criterio de Johnson, aunque en

realidad este está conceptualizado de una manera más cualitativa, puesto que su aplicación fue

inicialmente pensada para llevarse a cabo mediante un operador humano.

Si la imagen es tomada desde una plataforma aérea en movimiento y, por lo tanto, se ve afectada por

un cierto emborronado, el número de pares de líneas que deberá ocupar el blanco sin ser afectado

por emborronado será mayor y dependerá esencialmente del tamaño de la PSF (el emborronado

produce una pérdida de nitidez y, por lo tanto, de resolución efectiva). Esta depende principalmente

de la velocidad lineal de la plataforma, la distancia del blanco y la amplitud de la vibración. En lo

que a la PSF respecta, los resultados obtenidos muestran las siguientes conclusiones. De forma

cualitativa, se observa que, en general, para que la detección tenga éxito es necesario que el blanco

ocupe un número de pares de líneas similar a la longitud de la PSF. Por ejemplo, si la PSF tiene una

longitud de 20 píxeles, como es el caso del ejemplo de ala fija utilizado en el análisis, la detección

no ha sido exitosa hasta que el blanco ocupaba 42 x 26 píxeles, es decir, 21 pares de líneas.

Por último, si se somete a la imagen emborronada a un proceso de estabilización, el número de pares

de líneas que es necesario que ocupe el blanco sin efectos de emborronado se ve reducido

considerablemente, llegando a ser suficiente 10.5 pares de líneas para el caso en el que antes de

aplicar el algoritmo de desemborronado eran necesarios 21.

En el caso mostrado de una plataforma de ala rotatoria, en el que la PSF ocupa unos 10 píxeles

transversales se observa que en este caso no se consigue mejorar la capacidad de detección, ya que,

cuando la imagen es emborronada pero no estabilizada, son necesarios 5.5 pares de líneas, y tras la

estabilización, siguen siendo necesarios 5.5 pares de líneas, esto se debe a que, en el caso presentado,

el blanco presenta un tamaño muy reducido. Repitiendo el análisis con otras imágenes se obtienen

resultados similares, observándose para la mayoría de los casos una mejora importante de las

capacidades de detección.

Se han analizado y probado diferentes algoritmos de estabilización además del presentado en el

análisis, algunos de ellos con mejores resultados, sin embargo, dado que el principal objeto de este

trabajo es ser capaces de extender el mencionado Criterio de Johnson, y que para ello se va a llevar

a cabo una simulación de Monte Carlo, hemos optado por utilizar el algoritmo que presentara un

mejor compromiso entre el comportamiento del algoritmo y su coste computacional.

Page 36: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

34

Octubre 2019 – Octubre 2020

A continuación, como se acaba de mencionar, haciendo uso de un conjunto de imágenes aéreas con

blancos presentes y realizando submuestreos para simular distintos tamaños, la Figura 4.1.11 muestra

los resultados obtenidos de una simulación de Monte Carlo de la probabilidad de detección del blanco

en función del número de píxeles que ocupa en la imagen original sin emborronar para los casos de

ala rotatoria y ala fija definidos anteriormente.

Figura 4.1.11. Resultados de una simulación de Monte Carlo sobre un conjunto de imágenes con blancos utilizando el

modelo de emborronado propuesto y aplicando un algoritmo de detección automática sobre imágenes emborronadas e

imágenes posteriormente estabilizadas digitalmente mediante un algoritmo de deconvolución ciega.

Una mayor velocidad lineal de la plataforma de ala fija induce una mayor degradación, aunque en

ambos casos se consigue una mejora importante de la capacidad de detección al utilizar el algoritmo

de desemborronado (deblurring). Cabe destacar que, a igual velocidad de vuelo, la mejor estabilidad

de las plataformas de ala fija da lugar a mejores resultados que las plataformas de ala rotatoria.

El movimiento y la vibración de la plataforma durante el tiempo de exposición dan lugar a una

pérdida de resolución que equivale aproximadamente al tamaño de la PSF. Como se muestra en la

Figura 4.1.12, dicha PSF puede aproximarse en media por una forma rectangular con un número de

píxeles NPSF = NV · NH, que viene dado por: las especificaciones de la cámara (IFOV, instantaneous

FOV, en vertical (V) y horizontal (H) y el tiempo de exposición, texp), la amplitud típica de la

vibración de alta frecuencia, Ahigh (predominante en el efecto de emborronado), la velocidad de la

plataforma, vuav, y la distancia a la que se encuentra la escena capturada, R.

Figura 4.1.12. Tamaño aproximado de la PSF que da lugar a una pérdida de resolución equivalente.

Por tanto, de forma aproximada, para cámaras embarcadas en plataformas aéreas, el objeto deberá

ocupar al menos NPSF · Nmin_CJ píxeles, siendo Nmin_CJ el número mínimo de píxeles que fija el Criterio

de Johnson para el nivel de discriminación analizado (detección, clasificación o identificación),

válido para situaciones estáticas. Esta aproximación se ajusta a los resultados obtenidos de la

Page 37: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

35

Octubre 2019 – Octubre 2020

simulación, en los que para las imágenes emborronadas el blanco debía ocupar un número de píxeles

superior al tamaño de la PSF por un factor que es próximo al fijado por el Criterio de Johnson para

ser detectado con una probabilidad superior del 50%.

Esta aproximación, que permite extender el Criterio de Johnson para estimar de forma sencilla las

capacidades de detección cuando la cámara se embarca en una plataforma móvil, y que supone una

limitación importante del alcance o del tamaño mínimo detectable respecto a situaciones estática,

pone de relieve la importancia de los sistemas de estabilización y de la propia estabilidad de la

plataforma en aplicaciones de teledetección. De hecho, como se observa en los resultados de las

simulaciones realizadas, el empleo de una etapa de estabilización digital en el procesado mediante

algoritmos de deconvolución ciega mejora de forma importante las capacidades de detección,

permitiendo aumentar el alcance de detección o reducir el tamaño mínimo detectable para cámaras

embarcadas en plataformas aéreas. Sin embargo, estos algoritmos requieren generalmente una

elevada carga computacional y no se ejecutan en tiempo real.

Page 38: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

36

Octubre 2019 – Octubre 2020

5. Conclusiones

El uso de plataformas aéreas no tripuladas para aplicaciones de teledetección abre nuevos horizontes

difíciles de alcanzar mediante otros sistemas clásicos. Para extender sus límites y mejorar las

capacidades operativas alcanzables utilizando este tipo de vehículos es necesario maximizar el

desempeño de todos los sistemas involucrados. Entre estos sistemas se encuentra el sistema de

adquisición imagen. La optimización de este tipo de sistemas de imagen cobra cada vez más

importancia debido a la exigencia de las nuevas aplicaciones, así como de las características cada

vez más específicas de las plataformas utilizadas, con las que se pretende reducir en gran medida los

costes, principalmente operativos, pero alcanzando prestaciones cada vez más exigentes. Entre estas

plataformas se encuentran drones de pequeño tamaño (peso máximo al despegue inferior a 150 kg

de acuerdo con la clasificación de la OTAN) que se ven muy afectados por las turbulencias u otros

efectos atmosféricos (viento, lluvia, etc.), drones que durante el cumplimiento de sus misiones se

mueven a gran velocidad y cuyas cargas de pago están muy limitadas en cuanto al peso máximo. Por

todo ello, es esencial desarrollar sistemas de imagen que permitan alcanzar el mejor compromiso

coste-prestaciones.

Por un lado, el análisis realizado en este trabajo muestra que la estabilización de la imagen, en este

caso mediante técnicas de postprocesado, ofrece mejoras significativas en las prestaciones de los

sistemas de teledetección.

Por otro lado, para que los sistemas de estabilización se ajusten correctamente a las características

de las nuevas aplicaciones y, en definitiva, para ayudar a la toma de decisiones y a la preselección y

adquisición de sistemas, en un sector con cada vez más alternativas comerciales, es esencial conocer

con precisión el efecto de todos los factores que intervienen en el emborronado de la imagen. En este

trabajo se ha tenido en cuenta el efecto de la velocidad de movimiento del dron y de las vibraciones

principalmente inherentes a la estructura del dron (motor, fuselaje, cavidades, etc.) sobre la

adquisición de imágenes mediante sensores electro-ópticos embarcados. En base a medidas

publicadas sobre el espectro de vibración de estas plataformas, se ha propuesto un modelo teórico

basado en estudios y trabajos realizados hasta la fecha.

A partir del modelo propuesto se han analizado dos casos de estudio, haciendo una distinción entre

plataformas de ala fija y de ala rotatoria. Además, para evaluar la mejora que conlleva la

estabilización, se ha combinado el uso de algoritmos de estabilización en las imágenes emborronadas

a partir del modelo propuesto, con algoritmos de detección automática.

El análisis realizado en este trabajo muestra que la estabilización de la imagen, incluyendo técnicas

de postprocesado, ofrece mejoras significativas en las prestaciones de los sistemas de teledetección.

Por otro lado, para ayudar a la toma de decisiones y a la preselección y adquisición de sistemas, en

un sector con cada vez más alternativas comerciales, es esencial conocer el efecto de la estabilidad

de la plataforma sobre las capacidades de detección de blancos en las imágenes adquiridas. Por este

motivo, se ha propuesto una extensión del Criterio de Johnson que tiene en cuenta la degradación

producida por las vibraciones y movimiento de la plataforma durante el tiempo de exposición. Esta

extensión permite, en base a una serie de especificaciones de los sistemas de estabilización e imagen

y de los requisitos operativos que se definan (distancia máxima del blanco y velocidad lineal de

operación del dron), estimar si el sistema se comportará adecuadamente en la realización de la tarea

para la que se requiera, facilitando la toma de decisiones y a la preselección y adquisición de sistemas.

Page 39: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

37

Octubre 2019 – Octubre 2020

Bibliografía

[1] R. P. Higgins, “Automatic event recognition for enhanced situational awareness in UAV

video,” Proc. - IEEE Mil. Commun. Conf. MILCOM, Atlantic City, NJ, USA, Oct. 2005, pp.

1-6.

[2] M. Erdelj, E. Natalizio, K.R. Chowdhury, and I.F. Akyildiz, “Help from the Sky: Leveraging

UAVs for Disaster Management,” IEEE Pervasive Comput., vol. 16, no. 1, pp. 24–32, Jan.

2017.

[3] K. Themistocleous, “The Use of UAV Platforms for Remote Sensing Applications: Case

Studies In Cyprus,” Second International Conference on Remote Sensing and Geoinformation

of the Environment (RSCy2014), Paphos, Cyprus, Aug. 2010, pp. 1-9.

[4] I. Colomina and P. Molina, “Unmanned aerial systems for photogrammetry and remote

sensing: A review,” ISPRS Journal of Photogrammetry and Remote Sensing, vol. 92, pp. 79-

97, Apr. 2014.

[5] K. Dalamagkidis, “Classification of UAVs,” in Handbook of Unmanned Aerial Vehicles, K.

P. Valavanis and G. J. Vachtsevanos (Eds.), New York: Springer, 2015, ch. 5, pp. 83-91.

[6] Joing Air Power Competence Center, “Strategic Concept of Employment for Unmanned

Aircraft Systems in NATO”, 2010.

[7] FLIR, “Black Hornet PRS” [Online]. Retrieved from: https://www.flir.com/

products/black-hornet-prs/ [Accessed 21/05/2020].

[8] DJI, “Phantom 4” [Online]. Retrieved from: https://www.dji.com/es/phantom-4 [Accessed

21/05/2020].

[9] Boeing, “ScanEagle” [Online]. Retrieved from: https://www.boeing.com/defense/

autonomous-systems/scaneagle/index.page [Accessed 21/05/2020].

[10] UAS Vision, “Elbit Upgrades Hermes 90”, 2014 [Online]. Retrieved from: https://

www.uasvision.com/2014/09/04/elbit-upgrades-hermes-90/ [Accessed 21/05/2020]

[11] IAI, “Heron TP MALE Unmanned Aerial System (UAS)” [Online]. Retrieved from:

https://www.iai.co.il/p/heron-tp [Accessed 21/05/2020].

[12] U.S. Air Force, “MQ-9 Reaper”, 2009 [Online]. Retrieved from:

https://www.af.mil/News/Photos.aspx?igphoto=2000398487 [Accessed 21/05/2020].

[13] Ministerio de Defensa de España, “Monografías del SOPT 15: Proyecto RAPAZ y tecnologías

anti-RPAS,” 2017.

[14] C. Powers, D. Mellinger, and V. Kumar, “Quadrotor Kinematics and Dynamics,” in Handbook

of Unmanned Aerial Vehicles, K. P. Valavanis and G. J. Vachtsevanos (Eds.), New York:

Springer, 2015, ch. 16, pp. 307-328.

[15] M.A. Boon, A.P. Drijfhout, and S. Tesfamichael, “Comparison of a fixed-wing and multi-

rotor UAV for environmental mapping applications: a case study”. The International Archives

of Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. 42, Aug. 2017,

pp. 47-54.

[16] Embetion, “HADA-Helicóptero Adaptativo Avión” [Online]. Retrieved from:

Page 40: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

38

Octubre 2019 – Octubre 2020

https://www.embention.com/es/project/hada-helicoptero-adaptativo-avion/ [Accessed

23/05/2020].

[17] Wingtra, “WingtraOne – Mapping Drone for High-Accuracy Aerial Surveys” [Online].

Retrieved from: https://wingtra.com/mapping-drone-wingtraone/ [Accessed 23/05/2020].

[18] Cátedra Isdefe-UPM, “Horizonte Defensa y Seguridad” [Online]. Retrieved from:

http://www.horizontesdefensayseguridad.net/ [Accessed 23/05/2020].

[19] J. Donohue, “Introductory review of target discrimination criteria. Final Report,” Dynamics

Research Corporation, Dec. 1991.

[20] Nikon, “Zoom 700VR / 700VR QD” [Online]. Retrieved from: https://imaging.

nikon.com/lineup/filmcamera/compact/zoom700vr_700vr_qd/index.htm [Accessed

23/05/2020].

[21] Y.Y. Shih, S.F. Su, and I. Rudas, “Fuzzy based hand-shake compensation for image

stabilization,” 2012 International Conference on System Science and Engineering (ICSEE),

Dalian, China, Jul. 2012, pp. 40-44.

[22] Canon, “How to master shutter speed” [Online]. Retrieved from: https://www.canon-

europe.com/get-inspired/tips-and-techniques/how-to-use-shutter-speed/ [Accessed

23/05/2020]

[23] B. Golik, "Development of a test method for image stabilizing systems," Diploma’s Thesis,

Cologne University of Applied Sciences, Oct. 2006.

[24] F. La Rosa, M.C. Virzì, F. Bonaccorso, and M. Branciforte, “Optical Image Stabilization

(OIS),” STM white paper, 2011, pp. 1–26.

[25] S.B. Rudraswamy, A.A. Bannadabhavi, A. Kumar, and J. Bapu, “MEMS based Optical Image

Stabilization,” in 2015 International Conference on Emerging Research in Electronics,

Computer Science and Technology (ICERECT), Mandya, India, Dec. 2015, pp. 104-107.

[26] ROHM Semiconductor, “Optical Image Stabilization (White Paper),” 2013, pp. 1–13.

[27] T.H.S. Li, and C.C. Chen, “Extended Kalman filter based hand-shake detector for optical

image stabilization using a low cost gyroscope,” IEEE Transactions on Consumer Electronics,

vol. 59, no. 1, pp. 113-121, Apr. 2013.

[28] D. Sachs, S. Nasiri, and D. Goehl, “Image stabilization technology overview,” Inven.

Whitepaper, vol. 95054, no. 408, pp. 1–18, 2006.

[29] Imaging Resource, “Minolta DiMAGE A1”, 2003 [Online]. Retrieved from: https://

www.imaging-resource.com/PRODS/A1/A1P.HTM [Accessed 23/05/2020].

[30] T. Morita, H. Murakami, T. Yokose, and H. Hosaka, "A miniaturized resonant-type smooth

impact drive mechanism actuator," Sensors and Actuators A: Physical, vol. 178, pp. 188-192,

Feb. 2012.

[31] MEMSDrive, “MEMSDrive Word’s 1st 5-Axis OIS in Smartphone Puts on Strong Showing

at CES”, 2018 [Online]. Retrieved from: http://memsdrive.com/

news/25.html [Accessed 23/05/2020].

[32] P. Skoglar, “Modelling and Control of IR/EO-gimbal for UAV Surveillance Applications”,

Linköpings Universitet, 2002.

Page 41: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

39

Octubre 2019 – Octubre 2020

[33] D. Bereska, K. Daniec, S. Fraś, K. Jędrasiak, M. Malinowski, and A. Nawrat, “System for

multi-axial mechanical stabilization of digital camera” in Vision Based Systems for UAV

Applications, A. Nawrat and Z. Kus (Eds.), Heidelberg: Springer, 2013, pp. 177-189.

[34] Ascent Vision Technologies, “CM142 – ISR & Target Acquisition” [Online]. Retrieved from:

https://ascentvision.com/cm142/ [Accessed 23/05/2020]

[35] R. Chereau and T. P. Breckon, “Robust motion filtering as an enabler to video stabilization

for a tele-operated mobile robot,” Electro-Optical Remote Sensing, Photonic Technol. Appl.

VII; Mil. Appl. Hyperspectral Imaging High Spat. Resolut. Sens., Dresden, Germany, vol.

8897, p. 88970I, 2013.

[36] B. Golik and D. Wueller, “Measurement method for image stabilizing systems,” Digital

Photography III, San Jose, CA, USA, vol. 6502, p. 65020O, 2007.

[37] W.G. Carrara, R.S. Goodman, and R.M. Majewski, Spotlight Synthetic Aperture Radar Signal

Processing Algorithms, Artech House, 1995.

[38] V. Dobrokhodov, “Kinematics and Dynamics of Fixed-Wing UAVs,” in Handbook of

Unmanned Aerial Vehicles, K. P. Valavanis and G. J. Vachtsevanos (Eds.), New York:

Springer, 2015, ch. 14, pp. 243-277.

[39] W.C. Kao and S.Y. Lin, “An Overview if Image / Video Stabilization Techniques,” in Single-

Sensor Imaging: Methods and Applications for Digital Cameras, R. Lukac (Ed.), Boca Raton

FL: CRC Press, 2009, ch. 20, pp. 535-561.

[40] H. Kusaka, Y. Tsuchida, and T. Shimohata, “Control technology foroptical image

stabilization,” SMPTE Motion Imaging Journal, vol. 111, no. 12, pp. 609-615, Dec. 2002.

[41] J.H. Moon and S.Y. Jung, “Implementation of an Image Stabilization System for a Small

Digital Camera,” IEEE Transactions on Consumer Electronics, vol. 54, no. 2, pp. 206-212,

Jul. 2008.

[42] T.H. S. Li, C.C. Chen, and Y.T. Su, “Optical Image Stabilizing System Using Fuzzy Sliding-

Mode Controller for Digital Cameras,” IEEE Transactions on Consumer Electronics, vol. 58,

no. 2, pp. 237-245, Jul. 2012.

[43] C.W. Chiu, P.C.P. Chao, and D.Y. Wu, “Optimal Design of Magnetically Actuated Optical

Image Stabilizer Mechanism for Cameras in Mobile Phones via Genetic Algorithm,” IEEE

Transactions on Magnetics, vol. 43, no. 6, pp. 2582-2584, May 2007.

[44] S.K. Kjenstad, “Stabilized Camera for a Nano-UAV”, Master’s Thesis, Norwegian University

of Science and Technology, 2010.

[45] J.M. Hilkert, M.L. Bowen, and J. Wang, “Specifications for image stabilization systems”,

Tactical Infrared Systems, vol. 1498, pp. 24-38, Oct. 1991.

[46] C.P. Lau, Y.H. Lai, and L.M. Lui, “Restoration of atmospheric turbulence-distorted images

via RPCA and quasiconformal maps”, Inverse Problems, vol. 35, no. 7, pp. 74002-74033, Jun.

2019.

[47] R.L. Lagendijk and J. Biemond, “Basic Methods for Image Restoration and Identification”,

in Handbook of Image and Video Processing, A.C. Bovik (Ed.), Academic press, 2000, pp.

125-139.

[48] FLIR, “High Speed Thermal Cameras – the Need for Speed”, 2016.

Page 42: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

40

Octubre 2019 – Octubre 2020

[49] H. Ma and J. Wu, “Analysis of positioning errors caused by platform vibration of airborne

LiDAR system,” 2012 8th IEEE International Symposium on Instrumentation and Control

Technology (ISICT) Procedings, London, UK, 2012, pp. 257–261.

[50] S.A. Nundal and E. Skjong, “Tracking objects with fixed-wing UAV using model predictive

control and machine vision”, Master’s Thesis, Norwegian University of Science and

Technology, Jun. 2014.

[51] J. Verbeke and S. Debruyne, “Vibration analysis of a UAV multirotor frame,” Proceedings of

ISMA 2016 International Conference on Noise and Vibration Engineering, Leuven, Belgium,

2016, pp. 2329-2337.

[52] Z. Li, M. Lao, S.K. Phang, M.R.A. Hamid, K.Z. Tang, and Feng Lin, “Development and

Design Methodology of an Anti-Vibration System on Micro-UAVs,” International Micro Air

Vehicle Conference and Flight Competition (IMAV), Toulouse, France, 2017, pp. 223-228.

[53] C. Li and F. Tan, “Effect of UAV vibration on imaging quality of binary optical elements,”

2018 IEEE International Conference on Mechatronics and Automation (ICMA), Changchun,

China, 2018, pp. 1693-1698.

[54] A. Stern and N.S. Kopeika, “Analytical method to calculate optical transfer functions for

image motion and its implementation in vibrated image restoration,” Proceedings of the 19th

Convention of Electrical and Electronics Engineers in Israel, Jerusalem, Israel, 1996, pp. 379-

382.

[55] G. D. Boreman, Modulation Transfer Function in Optical and Electro-Optical Systems,

Bellingham, WA: SPIE Press, 2001.

[56] J. Haghshenas, “Effects of satellite platform’s vibrations on the image quality of a remote

sensing payload: system level design and challenges,” Optical Systems Design 2015: Optical

Design and Engineering, vol. 9626, no. 74, p. 96262P, 2015.

[57] Z. Caratao, K. Gabel, A. Arun, B. Myers, D. Swartzendruber, and C.W. Lum, “MicaSense

aerial pointing and stabilization system: Dampening in-flight vibrations for improved

agricultural imaging,” 2018 AIAA Inf. Syst. Infotech Aerospace, Kissimmee, FL, USA, Jan.

2018, pp. 1-16.

[58] D. Wulich and N. Kopeika, “Image resolution limits resulting from mechanical vibrations”,

Optical Engineering, vol.26, no. 6, pp. 529-533, Jun. 1987.

[59] S.O. Rudoler, O. Hadar, M. Fisher, and N.S. Kopeika, “Image resolution limits resulting from

mechanical vibrations, part II: Experiment”, Optical Engineering, vol. 30, no. 5, pp. 577-589,

May 1991.

[60] O. Hadar, M. Fisher, and N.S. Kopeika, “Image resolution limits resulting from mechanical

vibrations, part III: Numerical calculation of modulation transfer function”, Optical

Engineering, vol. 31, no. 3, pp. 581-589, Mar. 1992.

[61] DJI, “Phantom 4 Pro V2.0 – Especificaciones” [Online]. Retrieved from:

https://www.dji.com/es/phantom-4-pro-v2/info [Accessed 01/06/2020].

[62] E.R. Davies, "Image Transformations and Camera Calibration", in Computer and machine

vision: theory, algorithms, practicalities, 4th Ed., Waltham, MA: Academic Press, 2012, pp.

478-504.

[63] A.N. Rajagopalan and R. Chellappa (Eds.), Motion Deblurring: Algorithms and Systems,

Page 43: Sistemas de estabilización de...el alcance de los sistemas para la discriminación de objetos. Por ello, a pesar de que las cámaras embarcadas en plataformas aéreas disponen de

Estado del arte de las Tecnologías, Modelado y Análisis

41

Octubre 2019 – Octubre 2020

Cambridge, UK: Cambridge University Press, 2014.

[64] Y. W. Tai, N. Kong, S. Lin, and S. Y. Shin, “Coded exposure imaging for projective motion

deblurring,” 2010 IEEE Computer Society Conference on Computer Vision and Pattern

Recognition, San Francisco, CA, USA, Jun. 2010, pp. 2408-2415.

[65] Flir, “Duo Pro R” [Online]. Retrieved from: https://flir.netx.net/file/asset/8136/

original [Accessed 05/06/2020].

[66] D. Krishnan, T. Tay, and R. Fergus, “Blind deconvolution using a normalized sparsity

measure” 2011 IEEE Conference on Computer Vision and Pattern Recognition, Providence,

RI, USA, 2011, pp. 233-240.

[67] J. Zhang, S. Sclaroff, Z. Lin, X. Shen, B. Price, and R. Mech, “Minimum barrier salient object

detection at 80 FPS,” 2015 IEEE International Conference on Compiter Vision (ICCV),

Santiago, Chile, Dec. 2015, pp. 1404-1412.