Post on 21-Mar-2020
RECONOCIMIENTO BIOMÉTRICO DEL IRIS (REBDI) 2.0
DANIEL STEPHEN RUIZ OVALLE
COD: 20152383007
UNIVERSIDAD DISTRITAL “FRANCISCO JOSÉ DE CALDAS”
FACULTAD TECNOLÓGICA
INGENIERÍA EN CONTROL
BOGOTÁ D.C.
2018
RECONOCIMIENTO BIOMÉTRICO DEL IRIS (REBDI) 2.0
DANIEL STEPHEN RUIZ OVALLE
COD: 20152383007
MONOGRAFIA PARA OPTAR POR EL TÍTULO DE INGENIERO EN
CONTROL
DIRECTOR:
ING. MIGUEL RICARDO PEREZ PEREIRA
UNIVERSIDAD DISTRITAL “FRANCISCO JOSÉ DE CALDAS”
FACULTAD TECNOLÓGICA
INGENIERÍA EN CONTROL
BOGOTÁ D.C.
2018
Nota de aceptación
__________________________________________________
__________________________________________________
__________________________________________________
__________________________________________________
__________________________________________________
__________________________________________________ __________________________________________________
__________________________________________________
__________________________________________________
__________________________________________________
______________________________________
Tutor
______________________________________
Jurado 1
______________________________________
Jurado 2
1. TABLA DE CONTENIDO
1. TABLA DE CONTENIDO ............................................................................................ 4
2.ÍNDICE DE TABLAS ....................................................................................................... 6
3. LISTA DE FIGURAS....................................................................................................... 7
4. INTRODUCCIÓN ............................................................................................................. 8
4.1. Planteamiento del problema ............................................................................... 9
4.2. Justificación ..........................................................................................................11
4.3 Objetivos..................................................................................................................12
4.3.1 Objetivo general ..............................................................................................12
4.3.2 Objetivos Específicos. ..................................................................................12
5. MARCO DE REFERENCIA .........................................................................................13
5.1. Estado del arte ......................................................................................................13
5.2. Marco teórico.........................................................................................................16
5.2.1 Patrones ............................................................................................................16
5.2.2 Fisiología del ojo ............................................................................................17
5.2.3 Inseguridad Informática................................................................................19
5.2.4 Adquisición de la imagen .............................................................................21
5.2.5 Segmentación del iris....................................................................................22
5.2.6 Procesamiento digital de imágenes ..........................................................23
5.2.7 Funcionamiento de la cámara .....................................................................31
6. METODOLOGIA............................................................................................................33
6.1. Captura de la Imagen ..........................................................................................35
6.2 Segmentación de la imagen. ..............................................................................38
6.3 Normalización de la imagen. ..............................................................................40
6.4 Extracción de características. ...........................................................................44
6.4.1 Filtros de imagen. ...........................................................................................45
6.4.2 Histograma de una imagen. .........................................................................48
6.5 Base de Datos. .......................................................................................................53
6.5.1 Proceso adquisición y manejo base de datos........................................53
6.6 Implementación de Algoritmo............................................................................56
6.6.1 Funcionamiento y descripción de la interfaz de usuario. ...................59
7. ANALISIS DE RESULTADOS ....................................................................................63
7.1. Prueba de captura ................................................................................................63
7.1.2 Prueba de Comparación ...............................................................................66
7.1.3 Prueba Realizada con algoritmo de comparación.................................68
7.2. Relación de costos ..............................................................................................69
7.3. Alcance ...................................................................................................................70
7.4. Desarrollo Futuro .................................................................................................75
8. CONCLUCIONES .........................................................................................................77
10. RECOMENDACIONES ..............................................................................................80
11. BIBLIOGRAFIA ...........................................................................................................81
2.ÍNDICE DE TABLAS
Tabla 1. Relación de Funcionamiento ........................................................................68
Tabla 2. Costo dispositivos de reconocimiento de iris .........................................69
3. LISTA DE FIGURAS
Figura 1. Anatomía del ojo ............................................................................................17
Figura 2. Desarrollo del modelo Flom y Aran. [19] .................................................22
Figura 3.Identificacion de bordes internos y externos del iris [33] ...................23
Figura 4.Representacion de la matemática morfológica (dilatación) [39]. ......25
Figura 5.Representación de la matemática morfológica (Erosión) [39] ..........26
Figura 6.Representación de la matemática morfológica (Apertura) [39] ........27
Figura 7. Representación de la matemática morfológica (Cierre) [39]..............27
Figura 8. Diagrama de bloques de la solución propuesta....................................34
Figura 9. Diagrama de flujo de solución....................................................................35
Figura 10. Cámara Iriscopio [48]..................................................................................37
Figura 11. Detección de círculos .................................................................................39
Figura 12.Normalización del iris [10] ..........................................................................40
Figura 13. Imagen normalizada del iris ......................................................................42
Figura 14. Imagen normalizada del iris con recorte de selección ......................43
Figura 15. Resultado de los filtros aplicados a la imagen normalizada. ..........46
Figura 16. Resultado de la aplicación de filtros de imagen al proceso de
detección de círculos .....................................................................................................48
Figura 17. Histograma del iris normalizado..............................................................50
Figura 18. Histograma del iris usuario 1 ...................................................................51
Figura 19. Histograma del iris usuario 2 ...................................................................51
Figura 20. Histograma del iris usuario 3 ...................................................................52
Figura 21. Recuadro captación imagen del ojo. ......................................................54
Figura 22. Interfaz de usuario REDBI 2.0...................................................................60
Figura 23. Imagen tomada de usuarios prueba. ......................................................64
Figura 24. Imagen falla a la toma del iris..................................................................65
Figura 25. Lámpara de hendidura ...............................................................................71
Figura 26. Falla en la captación de iris ......................................................................73
Figura 27. Gafas de realidad aumentada ...................................................................74
Figura 28. Dispositivos de hardware ..........................................................................81
4. INTRODUCCIÓN
El reconocimiento biométrico es el estudio de la aplicación y uso de las
características físicas y comportamentales del ser humano, como
medio de identificación veraz y contundente de cada individuo,
buscando su implementación en la seguridad, tomando una
característica eficiente de cada individuo, de manera rápida y sin
afectar su integridad [1]. El reconocimiento biométrico del iris ha sido
estudiado a lo largo del desarrollo de la biometría, por ser de las
características físicas más importantes que sufren menor variación a lo
largo del tiempo de la vida del ser humano, y ser de las características
propias de la persona con menor posibilidad de copiar, según el
método que se use para su clasificación, siendo un estudio realizado
por numerosos científicos a lo largo del tiempo, entre los cuales se
encuentra y destaca J. Daugman, quien propone una técnica basada
en la captura de la imagen del iris para su posterior normalización a
través de una conversión a coordenadas polares[2].
Para realizar este desarrollo se obtiene una imagen del iris de cada
persona , realizando el proceso de manejo de imágenes, como lo es
cambio a escala de grises, reducción, selección, segmentación,
recorte, detectando así los círculos internos y externos de la imagen
para su posterior segmentación mediante la transformada de
Hough[3], que proporcionan coordenadas para la normalización, al
momento de obtener estas coordenadas se realiza su conversión a
polar[4],se recorta la imagen respectiva, para la separación y
clasificación de las características adecuadas para el reconocimiento,
como lo pueden ser los patrones de la imagen binarizada, el
histograma que genera la imagen, los promedios tomados de los
histogramas entre otros.
Siendo todo integrado en una interfaz de usuario desarrollada en
software libre, capaz de ser implementada en cualquier dispositivo que
permita el uso de este, y el uso de una cámara diseñada para la
captación de imágenes del iris, denominada iriscopio.
4.1. Planteamiento del problema
El desarrollo de un aplicativo que permitiera el reconocimiento
biométrico de una persona mediante el uso del iris se había planteado
en el proyecto REDBI (RECONOCIMIENTO BIOMETRICO DEL IRIS),
mediante un algoritmo que incorporaba el procesamiento de
imágenes, realizando el proceso de captura de la imagen obteniendo
así datos respectivos para hallar las variables de funcionamiento,
como lo son el radio del iris y la pupila procediendo al proceso de
normalización y selección de características, lo cual permite su
posterior comparación con una imagen seleccionada, dando así un
resultado de comparación efectivo siempre del 100% por el tipo de
muestras tomadas para la base, y la imagen que se quisiera verificar.
El desarrollo del proyecto REDBI permitió obtener una base de
conocimiento a los métodos de procesamiento de imágenes aplicado a
las imágenes de una base de datos, implementando el software
Matlab y sus herramientas permitiendo así realizar un análisis de
imágenes con una comparación efectiva, limitándose a su diseño y la
manera en la que fue planteado su uso generando inconvenientes
como lo es la falta de una forma de captar imágenes nuevas y
diferentes de un mismo usuario, así como la falta de una base de
datos dinámica que permitiera una comparación coherente entre
imágenes. El uso del software matlab aunque tiene la ayuda de las
herramientas de algoritmos para la captación de características y
normalización, impide un uso comercial por costos asociados a la
licencia del mismo, así como la vinculación a dispositivos
computacionales de baja gama para la realización de un prototipo
eficiente, tomando en cuenta las limitaciones buscamos comprobar si
se puede realizar un software que permita la implementación del
método de análisis biométrico del iris en software de libre distribución,
con un método de captura de imágenes y posibilidad de desarrollo
futuro.
4.2. Justificación
Al momento de la creación de un prototipo de seguridad o un algoritmo
de protección de archivos, la implementación de los patrones
adecuados de reconocimiento ayuda a mejorar la eficiencia de la
seguridad, permitiendo así un desarrollo claro sobre los aplicativos y
prototipos que se realizan. En el proyecto REDBI realizado por el autor
en tecnología electrónica que se desarrolló en el software MATLAB, un
algoritmo con interfaz de usuario, capaz de realizar el proceso de
análisis y comparación de imágenes para tomar una decisión acerca
de la identidad de un usuario, este proyecto tenía como finalidad dejar
una base de conocimiento en el análisis de imágenes vinculado con un
proceso especifico como lo es el reconocimiento de personas, el uso
del software para su distribución estaba condicionado por la licencia
de desarrollo asociada al software MATLAB, así como la falta de
imágenes en tiempo real por la falta de un medio de captación de
imágenes, sea cámara o iriscopio.
Teniendo en cuenta las características propias del iris, su invariancia
en el tiempo, y la base de conocimiento planteada en el proyecto
REDBI, se busca hacer un dispositivo que permita la captura de
imágenes en tiempo real de una persona específica, realizando el
análisis y la comparación respectiva de la imagen con una base de
datos, en un software libre que permita la distribución del dispositivo
sin costos asociados a licencia, y desarrollos futuros que permitan
expandir el conocimiento propio del software y mejorarlo.
4.3 Objetivos
4.3.1 Objetivo general
Diseñar un sistema portátil de reconocimiento biométrico del iris,
utilizando algoritmos de clasificación de características
implementados en software y hardware libre.
4.3.2 Objetivos Específicos.
I. Determinar y evaluar las características necesarias que permitan
el reconocimiento biométrico de personas por medio del iris.
II. Diseñar el algoritmo que permita el reconocimiento biométrico
del iris que pueda ser implementado en hardware y software
libre.
III. Realizar pruebas objetivas del sistema para determinar su
eficiencia con mínimo 4 usuarios.
IV. Desarrollar una interfaz gráfica para la ejecución del aplicativo.
5. MARCO DE REFERENCIA
5.1. Estado del arte
Para el desarrollo de este proyecto se debe tener en cuenta los
conceptos de verificación, identificación, morfología, biometría, como
bases de conocimiento para la obtención de características específicas
que permiten el funcionamiento del aplicativo diseñado y la creación
de un prototipo de la manera más adecuada, abordando los problemas
de seguridad informática e identificación efectiva de personas.
Biometría: el concepto hace referencia a la capacidad que se tiene
para medir e identificar alguna característica propia de un ser humano,
la biometría es una tecnología basada en reconocer una característica
física, haciéndola única e intransferibles en una persona.
Los sistemas biométricos incluyen un sistema de captación y un
software propio que es el encargado del análisis que interpreta la
muestra física y la procesa según se halla programado [6] , Una de las
partes más importantes a tomar en cuenta son los cambios físicos que
pueden sufrir las personas debido al proceso natural de
envejecimiento de las células por el cual los órganos comienzan con
un pequeño deterioro de sus capacidades, a medida que se pierde
colágeno la piel comienza su proceso de envejecimiento y la cara
comienza a arrugarse por lo cual delimita el reconocimiento facial.
Las cuerdas vocales comienzan con otro proceso de deterioro y
cambio a lo largo de tiempo y es variable a enfermedades externa
como gripas, catarros, enfermedades pulmonares; por lo cual también
es delimitado por muchos factores, Al contrario de estos dos la huella
dactilar no se altera tanto por los cambios en las células y su
envejecimiento natural, pero si es alterable por los factores externos
como lo son: cortadas, quemaduras, o enfermedades como dermatitis
[7].
Por su parte el ojo consta de partes que no varían o cambian tan
fácilmente con factores externos o enfermedades, pueden permanecer
exactamente iguales a lo largo de la vida de la persona y no alterarse
a menos que se presenten enfermedades y algunas de estas no lo
alteran del todo tales como terigios, por lo cual su uso biométrico
podría ser fundamental, además una herida de un ojo no es tan fácil
de ser causada a menos que sea intencional o producto de un enorme
descuido [8], [9]. A continuación, se verán los conceptos de
verificación e identificación haciendo énfasis en el que se usara, Este
proceso consta de la comprobación de la veracidad de alguna
información.
La identificación es el proceso base del desarrollo, ya que se busca
demostrar que un cierto, acción, objeto es igual a otro, mediante la
comparación de una base de datos contra una muestra actual,
utilizando las características morfológicas como proceso mismo de
identificación para la realización del proceso; Siendo que el estudio
morfológico del ser humano es quien determina los cambios y formas
que se presentan en los órganos de los mismos, así como sus
características únicas, como lo son las huellas, el iris, la voz entre
otros.
En cuanto a programación se habla de buscar una corrección y un
resultado más exacto a la captación y segmentación de imágenes que
pueden tener pixeles mal clasificados, bordes imprecisos o imágenes
sopladas, que implica que antes de extraer más información de la
imagen se debe hacer una etapa de post procesamiento donde se
emplea el procesamiento morfológico buscando la geometría de los
objetos y su forma basándose en la teoría matemática de los
conjuntos, que puede ser aplicado a una señal en escala de grises o
binarizadas[10].
5.2. Marco teórico
5.2.1 Patrones
Los patrones que se emplearon para establecer las respectivas
magnitudes de nuestro proyecto se describen a continuación:
Verificación
La verificación es el proceso por el cual se obtiene un patrón, una
característica o un rasgo propio de un objeto o persona y se compara
con otros para comprobar su similitud y repetitividad en un lapso de
tiempo o circunstancias controladas.
Morfología
La morfología es la rama de la biología que se encarga del estudio de
la estructura o forma de los seres vivos, tomando en cuenta su
desarrollo y características físicas.
Biometría del iris
La textura visual del iris se va formando desde la etapa de gestación y
se estabiliza hasta aproximadamente los dos primeros años de vida
[14]. El diámetro del iris es de 12mm, pero el tamaño de la pupila
puede variar entre el 10% y el 80% del diámetro [15], el iris está
formado por varias capas. Una de ellas puede ser la capa epitelio que
contiene células que están pigmentadas y se encuentran ubicadas
entre la retina neural y la coroides [16]. La capa estromas se
encuentra por encima de la del epitelio, esta contiene, vasos
sanguíneos, células pigmentos y dos músculos del iris, haciendo que
la apariencia aleatoria del iris humano un órgano con un gran uso en
los análisis biométricos [17]
5.2.2 Fisiología del ojo
La Figura 1 es un esquema del ojo humano que viene a ser un cuerpo
esférico de 2.5cm de diámetro; el orificio donde entra la luz se llama
pupila y tiene un diámetro entre 2 y 8 mm esta puede autor regularse
según el enfoque que se tenga frente a la luz, la siguiente capa se
llama esclerótica la cual contiene a la córnea la cual produce casi
toda la convergencia de los haces de luz incidentes , de ahí comienza
a refractarse de varias maneras mientras procesa la luz que entra
actuando como una lente biconvexa que provoca una segunda
convergencia que realiza los ajustes para la percepción y las
distancias.
Figura 1. Anatomía del ojo
IRIS Ubicado en la parte anterior del globo oculares, es la estructura
coloreada que se ve a través de la córnea y el musculo ciliar, está
formado por cinco capas dos de las cuales son músculos (epitelio
pigmentado, musculo dilatador, musculo esfínter, estroma, epitelio
anterior), según la pigmentación se generan colores y rasgos
diferentes que hacen que difieran de persona a persona [2], sus
funciones son dar color al ojo y controlar el tamaño de la pupila
reduciendo o expandiendo sus músculos.
Cambios y alteraciones del iris:
Iris de niño: Su observación es muy compleja puesto que hasta
los 5 años presentan la primera pigmentación siendo en su
mayoría clara y después de esta edad adquieren una
pigmentación definitiva [2].
Iris senil: En la edad adulta el tono neurovegetativo suele ser
débil manifestado por una tendencia a la contracción pupilar
(miosis) y debilidad de los reflejos pupilares lo cuales pueden
estar casi acabados, su tonalidad suele ser mate perdiendo el
brillo que se observa en personas jóvenes.
Cataratas: Es la perdida de transparencia del cristalino del ojo
causando una disminución gradual de la vista, cuando esta lente
esta opaca la luz no pasa de forma adecuada y la visión
disminuye volviéndose borrosa, el cristalino se encuentra detrás
del iris y la pupila formando enfocando la luz [2].
Retinopatía diabética: Es una complicación ocular de la
diabetes causada por el deterioro de vasos sanguíneos que
irrigan el fondo de la retina del ojo, al estar debilitados estos
vasos pueden dejar salir liquido o sangre, formar ramas frágiles
en forma de cepillo y agrandarse en ciertos lugares; al salir
sangre o liquido lesiona o forma tejidos fibrosos que afectan la
vista [3].
5.2.3 Inseguridad Informática
En la época actual el transporte y manejo de la información presenta
grandes fallas de funcionamiento, como lo es el porte de documentos
personales en dispositivos volátiles o de almacenamiento tales como
USB, discos duros entre otros. El uso de las contraseñas para
verificación de acceso, el uso de las cámaras web para la
comunicación directa entre personas que no tienen seguridad ante la
activación de terceros, que a través de softwares maliciosos pueden
encender y grabar en cualquier momento sin que el dueño del equipo
lo identifique.
Se debe observar cual es la información más buscada entre la red
como lo es datos bancarios, emails, teléfonos, contraseñas, o
información personal que se va agrupando sin un fin específico [11].
Hay que tener en cuenta la definición de seguridad informática como
medio de protección, esta consta de un método de proteger
información de los ordenadores individuales; uno de los métodos de
protección seria el quemar o cortar la información impresa de modo
que resulte más difícil su uso para quien no debe conocerlo, mantener
claves de usuario exclusivas, y mantener fuera de las áreas de uso los
documentos sensibles,
Hay métodos de protección como lo son: tolerante a fallos donde dos o
más ordenadores funcionan a la vez y si uno falla la otra toma el
control, todos los procesos tienden a mejorarse e implementarse con
dispositivos biométricos basados en características personales únicas
[12].
Al hablar de sistemas biométricos modernos es posible hacer una
referencia a dispositivos que detectan características tales como la
huella dactilar de una persona en los que se reconocen por patrones u
otras características predefinidas [13].
5.2.4 Adquisición de la imagen
La toma o captura de la imagen inicial del ojo humano es la parte más
importante en el desarrollo biométrico, sea por reconocimiento facial o
reconocimiento del iris, el resultado final y el proceso depende
enteramente de este detalle, la resolución e iluminación de la imagen
teniendo en cuenta que la dilatación de la pupila depende enteramente
del método de captura, dando un desarrollo acertado al algoritmo
implementado.
Se debe identificar que apartados se buscan en la imagen para definir
el medio de captura, se debe tener en cuenta la resolución, la agudeza
y un buen nivel de contraste en el modelo del iris interior con una
iluminación que no afecte al usuario [18]. Los esquemas de
adquisición de imágenes tradicionales datan de Leonard Flom y Aran
Safir quienes lo patentaron en 1987, consistía en un sistema que
controlaba la iluminación mediante 4 puntos de enfoque 3 de ellos que
formaban 120 grados alrededor del ojo y el restante frontal al mismo la
reflexión producida por el ojo daba la imagen deseada. [19], [20], [21],
[22], [23], en la Figura 2 se observa el funcionamiento grafico de la
captación de los 4 puntos de enfoque.
5.2.5 Segmentación del iris
La buena selección de algoritmos para segmentar la imagen es muy
importante ya que si el iris no se ubica correctamente las siguientes
etapas tomarían datos falsos [19].
Hay varios algoritmos que se encargan de hacer esto, como lo puede
ser el algoritmo de Daugman, este puede ser el más estudiado y
conocido a fondo [24].
Hay otras formas similares para realizar la segmentación del iris [27]
como la propuesta por Camus y Wildis [28] este método es usado para
encontrar los bordes de la imagen es un método muy similar a el
Daugman.
Figura 2. Desarrollo del modelo Flom y Aran. [19]
La metodología propuesta en este también opera de forma similar a la
de Daugman, este recibe la imagen en escala de grises, aplica el
histograma máximo el promedio de intensidades en cinco círculos
consecutivos. [29]
La determinación de los bordes de la pupila y el iris en un nivel de
representación gráfica, que se describen en GAC (Geodesic Active
Contours), basándose en el cálculo de los contornos activos y cálculos
geodésicos (longitud mínima) pueden verse en la Figura 3. [30][31][32]
Figura 3.Identificacion de bordes internos y externos del iris [33]
5.2.6 Procesamiento digital de imágenes
Al obtener la imagen mediante el proceso de captura, puede verse
afectada por ruidos que deterioran la calidad de la misma [34]. El
método tradicional para eliminar estos ruidos es la aplicación filtros
pasa-bajos o pasa-bandas [35] el inconveniente es que la señal puede
presentarse borrosa después de la aplicación de los filtros, por esto
existe una contradicción entre la eliminación de ruidos o la
identificación de los bordes. Mientras que el análisis de Wavelet ha
demostrado ser una gran herramienta para el procesamiento de
imágenes ya que este aplica varias frecuencias al filtro pasa-banda,
este análisis puede ser utilizado en muchos otros procesos como la
compresión de imágenes, eliminación de ruido [36], etc.
Después del proceso de filtrado, el siguiente proceso se puede realizar
de muchas maneras, la detección de bordes [24], por cuantificación
bien sea de un solo color o por R.G.B (rojo, verde, azul) [37] por este
método la imagen se divide en líneas horizontales y luego en puntos o
pixeles. Por histograma este método permite ver si la imagen se puede
comprimir, comparar contrastes e intensidades entre imágenes, este
es utilizado para binarizar la imagen es decir convertirla a blanco y
negro de tal manera que conserve las características iníciales de la
misma [38], este último siendo el método utilizado tras las pruebas
realizadas.
Método para el procesamiento de las imágenes
Para poder tomar una imagen se debe poder acceder a sus principales
características y analizarla matemáticamente para hacer en algunos
casos más factible su análisis de ciertos puntos y no toda la imagen en
conjunto que puede llevar a cabo un proceso más engorroso u/o
complicado, En la Figura 4 se muestra unos de los procesos para
abordar este concepto, como lo es la descripción de la Matemática
morfológica.
Figura 4.Representacion de la matemática morfológica (dilatación) [39].
La morfología matemática representa la forma y la estructura de un
objeto, está basada en teoría de conjuntos:
1. Imágenes binarias. Sub conjuntos Z²
2. Imágenes grises. Coordenadas Z³
La manera de construcción es simplificar la imagen y tomar las
principales características de forma de los objetos, extrayendo los
componentes útiles de la imagen para representar y describirlas. Los
procesos morfológicos son descritos a continuación:
Dilatación: agregar pixeles a un objeto haciéndolo más grande, como
se observa en la Figura 4.
Erosión: extrae los outlayers del objeto reduciéndolo, como se observa
en la siguiente Figura 5.
Apertura:
Aplica una erosión seguida de una dilatación permitiendo abrir
pequeños huecos, la cual apreciamos en la Figura 6.
Figura 5.Representación de la matemática
morfológica (Erosión) [39]
Figura 6.Representación de la matemática morfológica (Apertura) [39]
Clausura: aplica una dilatación seguida de una erosión permitiendo
cerrar huecos, como se ve en la Figura 7.
Sus aplicaciones varían desde el pre-procesamiento de imágenes que
puede suprimir ruidos y simplificar formas; destacar la estructura de
los objetos como detección de objetos, ampliación, reducción; y la
descripción del objeto tales como área y perímetro [39], [40].
Figura 7. Representación de la matemática morfológica
(Cierre) [39]
Análisis de imagen
El análisis de imágenes hace referencia a la implementación de
transformaciones, restauraciones y mejoramiento de las imágenes;
consiste en extraer las propiedades y características de la imagen así
como la clasificación, identificación y su respectivo reconocimiento de
patrones, una imagen digital puede considerarse como una matriz
cuyos índices de fila y de columna identifica un punto de la imagen y
el valor correspondiente de la matriz indica el nivel de gris de ese
punto; a cada uno de estos puntos o también conocidos como niveles
se les denomina pixeles[4].
Aplicación de algoritmos de clasificación.
Los algoritmos de clasificación, permiten de una manera jerárquica
analizar un dato, mediante diferentes procesos como lo son:
acondicionamiento, segmentación, extracción de características y
clasificación; Cada uno de los algoritmos pueden ser usados para
diferentes propósitos específicos según el tipo de característica que se
elige seleccionar para su posterior análisis. El procesamiento se lleva
a cabo por algoritmos de varios tipos entre los que se encuentran: [1]
Algoritmos no supervisados (algoritmos de clasificación sin
aprendizaje): permiten identificar de forma automatizada clases o
agrupaciones de datos.
Algoritmos supervisados (algoritmos de clasificación con aprendizaje):
tienen una base sobre la cual se define a cuál algoritmo
pertenece [51].
Cada algoritmo de reconocimiento puede apoyarse en una
herramienta de análisis, clasificación u/o extracción de características
como lo son Weka, Prtools entre muchos otros que son de gran ayuda
para el análisis.
WEKA: Es una librería de algoritmos de maquina desarrollados por la
universidad waikato (nueva Zelanda) capaces de ser implementados
en java, útiles para aplicarlos en interfaces o usarlos en una
aplicación, permitiendo realizar transformaciones de los datos,
clasificaciones, regresión, clustering, asociación y visualización [52].
PRTOOLS: Permite tomar un conjunto de objetos ofreciendo rutinas
para la generalización de los mismos creando funciones para el
mapeo y la clasificación, cuenta con más de 250 rutinas de patrones
específicos, alrededor de 400 rutinas de soporte y más de 25
clasificadores diferentes [53]
Comparación y base de datos
Se busca verificar un dato teniendo en cuenta que se quiere reconocer
a una persona identificándola con la mayor exactitud posible, para ello
se debe tener claridad de la información previamente guardada y
almacenada de la mismas puesto que este es el único recurso que se
tiene para analizar.
Se debe buscar la imagen adecuada y buscar la alineación adecuada
de los parámetros a localizar, visualizar si la extracción de
características tiene la exactitud que se requiere, evaluar la bondad de
la comparación (su similitud) y por último se tomara una decisión de si
se acepta o no la imagen.
El uso individual del aplicativo es una condición primaria para su
desarrollo puesto que el tener más de cierto número de usuarios,
significa una base de datos que no puede ser albergada en un
dispositivo portátil de uso corriente, haciendo que el proceso de
análisis tarde más por la búsqueda entre los archivos
correspondientes a todos los usuarios, que en condiciones ideales
debe ser constantemente realimentada y monitoreada, tomando así
los cambios que puede sufrir la estructura del ojo con el paso del
tiempo.
Se busca que cada usuario tenga un archivo visual de al menos un ojo
en la base de datos para poder asociarlo con el algoritmo de
comparación y con la capacidad del mismo de extraer las
características requeridas para la base de datos que consigan
diferenciar a cada persona [18], [41], [42], [43], [44].
5.2.7 Funcionamiento de la cámara
Las características propias de la cámara que se usara para el
desarrollo del aplicativo, permite definir la resolución adecuada que se
necesita para obtener la información necesaria para el procesamiento,
almacenamiento y tratamiento de la imagen, definiendo la manera en
que se debe captar (tomar la foto). Se debe encontrar el formato
adecuado y el formato que nos puede brindar la cámara como lo son:
raw, tiff, jpg ; la resolución más baja nos permite manejar un
procesamiento más rápido pero la calidad puede que no sea la
indicada, se puede comprimir la imagen pero se perdería información
que es vital , también se puede organizar más datos para tener la
mejor información tales como nitidez, saturación, contraste con la
mejor adecuación de estos datos la información captada puede ser
más eficiente .
Hay maneras de generar ruido y daños a la imagen que impiden que
sea buena por lo cual el tomar la foto de la mejor manera garantiza lo
mejor, en las cámaras baratas se encuentran resoluciones de 256x256
que resulta de una resolución tan baja que es casi inaceptable en
muchos casos (65000 pixeles) , hasta cámaras con 4064x2704 que
pueden generar imagen de gran tamaño sin perder la calidad llegando
las cámaras profesionales hasta unos 20millones de pixeles lo cual
para este uso ya es una imagen demasiado pesada para un
procesamiento normal, tal vez sea estética o no pero se debe tomar en
cuenta que tomar una buena foto que sirva requiera un proceso
adecuado, buscar la fuente de luz eficaz , la dirección y las difusiones
entre otras[45],[46],[47],[48],[49],[50].
El Pixel: al tomar una imagen con una cámara fotográfica, al
aumentarle el zoom se puede observar que las imágenes están
divididas en líneas y cada línea tiene una serie de puntos que se
superponen unos a otros y están compuestos por 3 colores (rojo,
verde, azul) combinando esas intensidades se pueden obtener
millones de colores diferentes; con su máxima luminosidad obteniendo
el blanco y su mínima el negro.
Resolución: La resolución de las pantallas viene dada por #1*#2
donde #1 es el número de pixeles en horizontal y el segundo #2 indica
el número de pixeles en vertical; Las cámaras digitales poseen
sensores matriciales que permiten captar la luz y luego almacenarla en
memorias o tarjetas extraíbles para su posterior reproducción, la
resolución se mide en mega pixeles (1.048.576pixeles) donde se
puede concluir que cada mega pixel es una unidad de medida de
superficie. [5]
6. METODOLOGIA
Se realizó un dispositivo de reconocimiento de personas mediante el
uso de la biometría del iris y el respectivo análisis de las
características únicas de cada persona, mediante la captura,
acondicionamiento, procesamiento de la imagen, selección de
características y la comparación con su base de datos. Comparando a
su vez funcionamiento de REDBI 2.0 con el REDBI, verificando las
respectivas mejoras.
Figura 8. Diagrama de bloques de la solución propuesta.
En la Figura 8 se puede observar el diagrama de bloques de
funcionamiento general del proyecto REDBI 2.0, en la Figura 9 se ve el
proceso iniciando en la captura, procesamiento, clasificación
explicados paso a paso en la continuación del documento.
Figura 9. Diagrama de flujo de solución
6.1. Captura de la Imagen
El primer paso en el desarrollo del software base consta en la captura
de la imagen, con las condiciones requeridas para su posterior
procesamiento, condiciones como:
La resolución de la cámara, debe ser lo suficientemente alta
para poder capturar todos los detalles del iris y de manera
correcta.
El usuario debe colocarse siempre en la misma posición, siendo
un proceso mecánico que permita el análisis más acertado
posible.
Al ser cada usuario diferente se debe asegurar que la imagen
capturada coincida con los diámetros especificados de la
imagen para hallar el centro de la misma, siendo que el usuario
se pueda alejar o acerca un poco enfocando la cámara.
Se crea un cuadro de captura de imagen para darle al usuario
la posibilidad de recordar la posición en la que estaba al
momento de tomar la imagen y ayudar al proceso.
Al realiza el desarrollo y pruebas específicas el problema sobre el
dispositivo de captura se solvento realizando pruebas con usuarios
específicos y bases de datos de imágenes de iris.
Se debe entrar a solucionar otro de los grandes problemas de este
proceso, la iluminación, ya que por la textura natural de la córnea tiene
una alta capacidad de reflexión por sus características propias, lo cual
afecta la imagen que se toma,[6] Para mejorar este proceso se puede
obtener una cámara de iridologia[7], esta cámara ya cuenta con todos
las especificaciones y con las adecuaciones necesarias para facilitar
una captura adecuada de la imagen del iris.
La cámara o iriscopio es usado en procesos de análisis de iris para
verificar el estado físico y fisiológico de las personas mediante el
análisis del mismo y la esclerótica, detectando manchas o posibles
alteraciones en las formas del ojo, tiene un costo aproximado de 300
USD (dólares), se buscó usar una cámara que tuviera la capacidad de
captura y verificación del iris como funcionamiento principal, ya que al
usar un microscopio común no se tiene la lente ni la manera de
captura especifica por lo que el diseño físico entraría a ser un
problema en el planteamiento, sin dejar de lado la opción del
microscopio ya que por costo y beneficio puede mejorar un futuro
desarrollo o una etapa posterior de funcionamiento, así como la
Figura 10. Cámara Iriscopio
[48]
vinculación de cámaras especiales en el hardware como la cámara de
la raspberry pi 3.
La cámara es un dispositivo de verificación del iris de 5MP, con
conexión USB, 2 LEDs de iluminación y un software propio de análisis
de patrones médicos del iris, y un activador de funcionamiento.
6.2 Segmentación de la imagen.
Después de haber dado solución a la captura de imágenes del iris, el
paso a seguir fue la segmentación de la imagen; este proceso divide la
imagen en regiones u objetos cuyos pixeles poseen características
similares. Este proceso es una de las partes más importantes en un
sistema de visión artificial ya que esto permite la separación de objetos
para su posterior análisis. Para realizar este proceso se inició con la
detección de círculos, usando la función de la librería cv
“HoughCircles” esta función usa la transformada de círculos de
Hough, basado en el algoritmo de detección de centros y radios de
una imagen circular. Este método es usado por que este algoritmo es
muy inmune a la presencia de ruido y a la variación de la
iluminación[9]. Para el uso de esta función se necesitan los valores
aproximados de los radios mínimos, máximos del iris y la pupila,
mediante la transformada circular de Hough, se procede a encontrar
los círculos como se muestra en la Figura 11.
La detección y grafica de los círculos no es un proceso que determine
el funcionamiento final del algoritmo ya que no es necesario mostrar el
circulo de la pupila o el iris para su funcionamiento, La variable a
considerar es el centro de la imagen, sabiendo por las pruebas
realizadas que al hallar el centro de la imagen, siempre y cuando se
detecte un circulo que corresponda a los umbrales de la pupila o el iris,
la imagen normalizada resultante será una que permitirá la
continuación del proceso, de lo contrario lo interrumpirá, de allí que
cada usuario debe realizar un número de pruebas para identificar el
punto exacto en el que funciona su iris, y memorizarlo.
Figura 11. Detección de círculos
6.3 Normalización de la imagen.
Después de encontrar los círculos del iris y la pupila se pasa a la
normalización, este proceso también es muy importante ya que si no
se hace una correcta normalización de la imagen mucha información
se perderá, Este proceso facilita el reconocimiento biométrico ya que
las imágenes pueden venir en varios tamaños que dependen de la
distancia a la cámara, la posición del ojo o la dilatación de la pupila, lo
que hace esta función es tomar esas imágenes y pasarlas de
coordenadas rectangulares a polares haciendo así que la imagen del
iris tome un tamaño constante[10] como se muestra en la Figura 12.
Figura 12.Normalización del iris [10]
Esta función está basado en el Ruber Sheet Model (imagen3) de J.
Daugman.
A cada punto de la región del iris se le asigna un par de coordenadas
polares [r,θ], donde r está en el intervalo [0,1] y θ es el ángulo que está
entre [0,2π] con estas coordenadas se convierte cualquier imagen del
iris en un rectángulo constante[11].
A cada par de puntos se le asignan un par de coordenadas de la como
se ve a continuación:
( ( ) ( )) ( ) (1)
Donde:
( ) ( ) ( ) ( )
( ) ( ) ( ) ( ) (2,3)
Siendo:
( ) La región del iris.
( ) Las coordenadas cartesianas
originales.
( ) Las coordenadas polares normalizadas.
La función de normalización recibe como parámetros iniciales la
imagen a escala de grises que se va a normalizar, el radio mínimo que
es el de la pupila y el radio máximo que es el del iris, también pide los
valores de salida de la imagen normalizada del iris Figura 13.
El indicador amarillo Señala el iris del usuario
El indicador de color verde señala la pupila del usuario
El indicador de color rojo señala la parte de la esclerótica del ojo.
La imagen normalizada del iris resultante muestra todo el componente
de la misma, siendo la esclerótica, y la pupila tomadas aparte y parte
de las pestañas vinculadas al iris de comparación, se realizara un
recorte de la imagen tomando la parte menos afectada por la
iluminación interna y externa, así como la que tenga menos
vinculación de las partes del ojo, el resultado de esta imagen depende
de la captura inicial, ya que se tiene un tamaño fijo para el circulo a
capturar sea de la pupila o el iris siendo que si no se toman esas
medidas la imagen resultante producirá una falla y el reconocimiento
será nulo, al momento de realizar la captura de la imagen del ojo, se
tiene una dimensión especifica de la ventana de funcionamiento, se
Figura 13. Imagen normalizada del iris
especifican las coordenadas del iris y se realiza un recorte de la
imagen por medio de la función “rezise” el recorte de la imagen
normalizada en la Figura 13 el resultado se aprecia en la Figura 14.
Figura 14. Imagen normalizada del iris con recorte de selección
El tamaño de la imagen del iris normalizado puede variar según la
toma de la misma, así como el resultado de su comparación, según se
ve en la Figura 14 obteniendo más datos de funcionamiento.
6.4 Extracción de características.
Después de realizar la normalización de la imagen del iris se pasa a la
extracción de características, a partir de estas se realiza la
comparación y posterior clasificación. Por la naturaleza del iris y su
apariencia aleatoria hace de este órgano perfecto para el
reconocimiento biométrico. Con el fin de lograr la mayor f idelidad de
este programa se procede a conseguir la mayor cantidad de
información posible, de manera que puedan realizarse comparaciones
confiables entre plantillas, Los procesos para realiza la comparación
depende de la toma de la imagen, sabiendo que se tiene una base de
datos por cada usuario presente en el aplicativo, se tiene en cuenta
que aun cuando el usuario tenga clara la posición para la toma de la
imagen esta no será igual, y puede que tampoco sea parecida, la
imagen puede moverse un poco a la derecha o a la izquierda, un poco
arriba o abajo y de esta manera ya habría tomado nuevas
características o nueva información que harían que la fiabilidad de la
imagen disminuyera, por lo cual se debe tomar características que
estén presentes de manera general en el análisis y no de manera
particular.
La extracción de características depende de los filtros o métodos
utilizados para administrar o aprovechar la información de nuestra
imagen normalizada, véase la Figura 14, a continuación se muestra el
tipo de filtros y formas realizadas en las pruebas para analizar los
componentes de cada imagen y obtener una selección y método
adecuado para la captación de características.
6.4.1 Filtros de imagen.
Los filtros en las imágenes permiten obtener características
específicas mediante la segmentación, la creación de umbrales, la
verificación de puntos para rellanar o vaciar dejando formas
específicas, tomando un resultado para una comparación final, en el
proceso de análisis de la imagen del iris se verifico el funcionamiento
de los filtros y el resultado de las imágenes, así como la comparación
respectiva entre una y obteniendo así el mejor método para el análisis
respectivo.
Entre los filtros de prueba se encuentra el filtro de líneas de Hough con
umbrales del filtro de Canny, filtros de erosión y dilatación, usados
comúnmente para la limpieza de imágenes binarizadas con ruido que
limitan la comparación de formas específicas, filtros matemáticos
como el filtro de gradiente que permite distorsionar la imagen en
escala de grises según un respectivo umbral de funcionamiento, el
filtro de sombre (Tophat) y sombrero negro (Blackhat) que procesan la
imagen con un umbral dejando sus colores oscuros resaltados para un
análisis posterior de las imágenes con sombras, se puede ver el
resultado de los filtros a partir de una imagen normalizada y recortada
del iris en la Figura 14.
Se puede ver en la Figura 15 el resultado de los filtros y el tratamiento
que realiza a las imágenes respectivas, el proceso de prueba para
cada filtro se realizó de la siguiente manera.
1) Se toma cada coordenada de la imagen y se almacena en un
arreglo, según el número de 1 o ceros lógicos y se guarda para
su posterior comparación.
2) Se toma de los filtros de Canny, Tophat, Blackhat el número
correspondiente a líneas o datos diferentes que ya arroja de
Figura 15. Resultado de los filtros aplicados a la imagen normalizada.
manera automática el filtro respectivo y se guarda su valor para
su respectiva comparación.
3) Se realiza la mezcla de filtros, tomando el filtro de erosión o
dilatación respectivamente y binarizado su información, tomando
los 1 lógicos, las partes blancas de la imagen y los ceros lógicos
y adquiriendo un promedio resultante.
4) Se guardan los datos directos de filtros como el Canny, el
Tophat, la binarizacion con acumulación de puntos y se guarda
como datos de comparación, asumiendo que la cantidad de
datos no se presentara de la misma manera en dos usuarios.
Estos métodos de filtrado permiten darle a la imagen del iris una
claridad al momento de su captura eliminando los posibles ruidos que
se pudieron obtener al momento de la captura, por el movimiento o los
índices de luz dejando como resultado el uso del filtro de dilatación
aplicado a la imagen para la mejora de la textura, como se ve en la
Figura 16 que apoya al algoritmo de detección de círculos.
Para en análisis de la imagen y la toma de muestra de características
se determinó que los filtros no permitían obtener la información
adecuada tras las pruebas, ya que los métodos de uso no daban una
respuesta adecuada que permitiera aprovechar los métodos
propuestos, por lo cual se planteó la idea del análisis del histograma
de la imagen.
6.4.2 Histograma de una imagen.
Una de las maneras de analizar la información que puede tener una
imagen es por medio de la herramienta de histograma la cual permite
analizar la intensidad de una imagen y representarlo como una trama
Figura 16. Resultado de la aplicación de filtros de imagen al proceso de
detección de círculos
o gráfico con una serie de datos que van de un umbral respectivo de 0
a 255 en el eje x y el número de pixeles correspondiente en el eje y, al
mirar el histograma de una imagen se puede extraer características
propias como el brillo, el contraste , la intensidad y su respectiva
distribución, a partir de análisis respectivo de la imagen se pueden ver
las regiones más oscuras y claras con el fin de limpiar las sombras,
analizar y comparar los colores, para el caso de REDBI 2.0 se usó el
histograma como método de comparación de imágenes, tomando un
análisis estadístico en el resultado del respectivo histograma, para
este proceso se toma una imagen recortada de la normalización como
lo es la Figura 14. Y se aplica el filtro CalcHist, de python el cual pide un
rango definido para trazar la respectiva gráfica, el cual se toma por
defecto de 0 a 256, y un dato para la acumulación dentro de un array,
por defecto se toma la imagen en 256 Como se observa en las
siguientes líneas de código.
Teniendo en cuenta que la imagen sobre la cual se va a aplicar el filtro
es una imagen a escala de grises, se busca que el resultado sea la
cantidad de intensidad de fondo y sombras en la respectiva imagen
obteniendo el siguiente resultado.
Figura 17. Histograma del iris normalizado
En la Figura 18 se observa el resultado del cálculo del histograma de la
imagen normalizada del iris con un previo recorte, obteniendo así una
gráfica de intensidad entre las sombras de la imagen a escala de
grises, siendo que el promedio de la imagen da un valor
correspondiente a un usuario especifico, de lo cual se realizaron
pruebas para verificar los promedios así como las representaciones
visuales de los diferentes iris analizados durante las pruebas y el
desarrollo el resultado fue el siguiente:
Figura 18. Histograma del iris usuario 1
Figura 19. Histograma del iris usuario 2
El resultado del análisis con diferentes usuarios visto en las figuras
anteriores muestra la intensidad de las sombras en cada una de las
imágenes normalizadas del iris respectivamente, asumiendo que las
partes más oscuras del iris serán los rasgos más profundos y las
partes más claras serán los rasgos sobresalientes que se mezclan con
el color natural del iris, dando así una gráfica de número total de
pixeles contra la intensidad de las sombras.
Figura 20. Histograma del iris usuario 3
6.5 Base de Datos.
El proceso de comparación de los respectivos usuarios viene
condicionado a una base de archivos de imagen tomada al momento
de su vinculación con el dispositivo, generando una serie de
imágenes, se tiene en cuenta que las imágenes de los usuarios no
serán las mismas aunque cada usuario memorice y mecanice el
proceso de captura para comparación, por lo cual se toma una
cantidad de imágenes asociadas al número de identificación del
usuario, su nombre y su apellido, siendo datos adquiridos para la
selección especifica al momento de su comparación, se tiene en
cuenta que el desarrollo de una base de datos implica el guardar en
archivo planos o extraíbles una información asociada al ID del usuario,
al tener una comparación dinámica con los histogramas el proceso a
realizar es el siguiente.
6.5.1 Proceso adquisición y manejo base de datos.
1) Se realiza un posicionamiento de la imagen del iris del usuario,
en la cual un recuadro le permite al usuario verificar la parte más
cómoda para la captura de la imagen.
Figura 21. Recuadro captación imagen del ojo.
En la Figura 21 se ve un cuadro color naranja, creado para delimitar la
zona de captura de la imagen de muestra, en el lugar donde se tiene
una mejor precisión en la captura y posterior análisis de las imágenes.
2) Se presiona el botón de captura de imagen, en este caso se
tiene un botón de captura de imagen el cual abre la imagen que
se puede ver en la Figura 21 en la cual el usuario se posiciona y
un botón del teclado, por defecto con la tecla „a‟ minúscula
ejecuta la toma de la imagen.
3) Al momento de la toma de la imagen el usuario debe
permanecer a lo largo de 30 segundos promedio mirando fijo al
punto seleccionado, cumpliendo con las características de
diámetro del iris, en lo cual el software toma una cantidad N de
imágenes del iris que se guardan en una sub carpeta de la
imagen.
4) La captura y separación de las imágenes se lleva a cabo
mediante el código, el cual toma la imagen del usuario, las
imágenes de los ojos del usuario y las guarda en sub carpetas.
5) Las imágenes de los ojos del usuario son procesadas y se toma
de cada una el iris normalizado y recortado y se guarda en una
sub carpeta que contiene los iris de todos los usuarios asociados
a su ID ingresado al momento de la inscripción en el aplicativo.
6) El manejo de la base de datos es un manejo dinámico, al no
almacenar los respectivos valores de cada uno de los iris en una
base de datos estática siempre que se proceda al proceso de
comparación el software tomara todas y cada una de las
imágenes en la base de datos relacionadas a un respectivo
usuario, realizara el cálculo de histogramas, promediara cada
uno y hará un promedio con esos resultados, el cual comparara
con la muestra o la imagen actual que se busca identificar, este
tratamiento permite que el usuario tenga una serie de imágenes
que se pueden parecer a su iris pero habrá un número mayor
que cumplan con la condición de promedio de su iris.
6.6 Implementación de Algoritmo
Los algoritmos de reconocimiento biométrico manejan un proceso
general de captura, selección, segmentación, segregación, extracción,
comparación, y muestra de la identificación respectiva, siendo que se
realice una identificación de persona o patrón respectivo, tienen la
posibilidad de ejecutarse como clases o scripts de códigos
independientes según la forma de uso y tomar los resultados de cada
una de esas clases creando una interfaz de proceso final que solo
implementa el llamado de datos y comparación, dando un resultado.
Se puede vincular un proceso continuo uniendo cada una de las
clases o script en uno mayor que vincula todo el proceso de manera
jerárquica permitiendo analizar paso a paso el resultado mediante la
muestra de cada uno o el análisis final y la comparación de resultados
así como la muestra de imágenes, de estos métodos se tiene el
problema de la generación de una interfaz así como la generación de
scripts en paralelos, el software matlab tiene un procesador que
permite un desarrollo paralelo en su construcción de su interfaz gráfica
GUI, mientras que python usa una vinculación serial y cíclica para la
generación de una interfaz y para la generación de un proceso,
siendo que si se quiere realiza una toma de muestra de datos, una
captura y una comparación, así como una interfaz se haría mediante
un proceso cíclico lo cual hacer que la interfaz de usuario sea lo último
en generarse y se recargue nuevamente con cada nueva ejecución,
para un proceso de reconocimiento biométrico es funcional, pero se
buscó la mejora del proceso para optimizar el software dando uso de
paralelismos, el software matlab tiene diferentes maneras de usar
paralelismo o ejecución de software al tiempo, el método de uso fue la
vinculación de la función Multiprocessing que permite realizar un
proceso en paralelo a la ejecución de una interfaz ampliando la
posibilidad de una mejor funcionalidad del dispositivo, así como la
introducción a un uso más avanzado del software.
Se observa el funcionamiento en paralelo del código implementado en
donde cada una de las clases de captura, comparación y base están
definidas como funciones independientes que se ejecutaran al
momento de realizar la obturación deseada sea con botón de interfaz
o con el botón predeterminado de funcionamiento y al final la creación
de la interfaz gráfica, con las respectivas cajas de texto y los botones,
así como sus dimensiones, esta interfaz se crea en el „if‟ de la parte
final que esta igualado a una cadena de string con el mensaje
„”__main__”, como método común de funcionamiento, el no usar este
main o incorporarlo a la respectiva interfaz limita o impide el
funcionamiento completo del script cíclico.
El proceso paralelo toma las variables creadas al inicio como medio de
funcionamiento, una variable que asocia la clase Multiprocessing para
vincular un proceso y la variable p seleccionada o igualada a un vacío,
su funcionamiento se basa en el uso de dos clases una que cuenta
con el desarrollo de la información o el aplicativo a ejecutar y el otro
que lo ejecuta en el momento que se desee, sea desde la creación de
la interfaz o mediante la obturación o ejecución de un botón, o la
secuencia respectiva de una gráfica.
6.6.1 Funcionamiento y descripción de la interfaz de
usuario.
La interfaz de usuario es el proceso y resultado final de las pruebas
realizadas para la vinculación y verificación de funcionamiento y
comprobación del reconocimiento de una persona mediante el uso de
las características procesadas del iris, se tiene en cuenta que los script
y clases asociadas se ejecutaran de manera automática en la
ejecución y no serán visibles para el usuario, siendo que el usuario
tendrá una autonomía sobre la aplicación en la cual pueda ver su
resultado e interpretarlo y el aplicativo tome decisiones al respecto.
F
i
g
u
r
a
2
3
.
La interfaz de usuario en la Figura 22 presenta 3 cajas de texto y 3
botones que permiten un funcionamiento fácil y amigable con el
usuario final, sin que este necesite un conocimiento en programación,
bases de datos, o algoritmos de procesamiento de imagen. Las cajas
de texto piden datos específicos para crear un ID de usuario que se
acopla a la base de datos de manera automática.
El aplicativo no requiere rutas de extensión especiales o instalaciones,
se puede activar de manera típica al abrir un archivo con doble clic o
desde el desarrollador de python. Permite su uso en cualquier sistema
Figura 22. Interfaz de usuario REDBI 2.0
operativo de libre distribución derivado de Linux y en Windows que
tenga los respectivos controladores de Python, y librerías de
procesamiento de imagen.
El usuario debe asignar una carpeta donde se guardará el archivo y
darle ejecutar y el programa guardará automáticamente en la carpeta y
sub carpetas los archivos correspondientes, en la distribución de un
dispositivo con el aplicativo correspondiente el usuario tendrá una
pantalla de indicación para los usuarios así como el ejecutable y solo
tendrá que ejecutar el procedimiento e indicar la memorización de la
posición y la mecanización de cada nuevo usuario de la toma para
hacer más pronta y mejor la toma y reconocimiento de personas.
BOTON CAPTURA
El botón de captura tiene como función tomar la imagen del usuario
nuevo, en este caso una imagen de su rostro para asignarle un ID que
se mostrara al momento del reconocimiento del mismo.
BOTON NUEVO
Tiene como función tomar la base de datos del ojo de usuario nuevo,
este proceso es posterior a la captura de la imagen del rostro y la
asignación del ID y permite tener siempre en la base dinámica y en las
subcarpetas la información respectiva a cada uno de los usuarios.
BOTON COMPARAR
El botón comparar busca tomar una foto nueva del usuario y comparar
con la base de datos dando una respuesta efectiva al reconocimiento
de la persona, cada vez que el usuario necesite reconocerse o
identificarse según sea la aplicación designada para el dispositivo.
CAJAS DE TEXTO
Las cajas de texto solicitan del administrador del dispositivo los datos
del usuario para la creación del ID correspondiente.
7. ANALISIS DE RESULTADOS
La prueba de funcionamiento del aplicativo (software y cámara) se
llevó a cabo en un computador con el sistema operativo Ubuntu 16.0
con los driver de la librería opencv, tk, scipy, numpy, os que permiten
el funcionamiento de la creación de la interfaz gráfica, el uso de
periféricos y la generación de paralelismos en el desarrollo de mismo
aplicativo. Se tomó una muestra de 4 usuarios para realizar la
respectiva comparación y verificación de funcionamiento, se le indico a
cada usuario donde ubicar el ojo y la cantidad de fotos que se debían
tomar.
7.1. Prueba de captura
(a. (b.
(c. (d.
Figura 23. Imagen tomada de usuarios prueba.
La muestra de tomas de iris de cada uno de los usuarios vista en la
Figura 23 está limitada a la dilatación y contracción de la pupila, si la
pupila o el iris no es de un tamaño admisible del código de usuario la
imagen presenta fallas y no permite su procesamiento, para solventar
el problema el usuario debe acercarse o alejarse de allí que algunas
imágenes normalizadas tienen ciertas curvaturas en la parte posterior
como se observa en la figura b y d, mientras que las imágenes más
cercanas al diámetro de funcionamiento especifico del iris tiene un iris
normalizado que presenta menor deformación como se puede ver en
la imagen a y c .
Este proceso tiene que realizarse en varias ocasiones hasta que el
usuario pueda ser reconocido en el software y tomar una base de
datos específicos por lo que se debe realiza un proceso mecanizado.
Figura 24. Imagen falla a la toma del iris
La falla que se presenta al no estar en rango del iris seleccionado es la
que se puede observar en la Figura 24, no permite tener una
información clara de clasificación, hace inútil el proceso de
identificación y tiene que repetirse o desecharse la asignación de
usuario.
7.1.2 Prueba de Comparación
La comparación del dispositivo se realiza mediante la verificación del
número de usuarios en la base de datos, creando un arreglo de la
misma dimensión y asignando un valor correspondiente a cada
promedio registrado en la resta y acumulación de los promedios, el
cual compara al final el valor más cercano a 0 e indica o selección el
ID del usuario que se acerque más a él, las diferencias entre
promedios pueden variar del 5% al 80% siendo que si el valor del
promedio del histograma de un usuario es 20, con usuarios con un iris
de color parecido y rasgos asociados el promedio se encontrara entre
el valor 25 y el valor 125, con lo cual la cercanía a cero o el menor
valor que identifica a la persona, depende en este caso de la cantidad
de imágenes tomadas permitiendo así que personas con el iris
parecido, siendo por rasgos o color amplié su número en promedio,
teniendo en cuenta que al tomar mayor cantidad de imágenes el
procesamiento que se realiza es mucho mayor.
En las líneas de código se muestra la diferencia que tiene la imagen
nueva con los ojos del usuario „2‟ y el usuario „1‟, siendo que los dos
ojos son de la misma persona la diferencia será aproximadamente la
misma, la cual corresponde a „7.22868061‟, indicando que no toda
persona con el iris de ciertos rasgos, sea familiares o cercanos
tendrán la posibilidad de encajar y ser reconocidos sin estar en la base
de datos.
El tiempo de operación y funcionamiento del aplicativo bajo un
procesador de 4 núcleos dos físicos y dos virtuales con una velocidad
de 2.5Ghz es de 1 a 10 segundos de respuesta, teniendo en cuenta
que el sistema operativo permite la ejecución de los recursos del
sistema de una manera más adecuada y pronta, en la raspberry pi 3,
cubeboard A20, o Cubietruck kit, que cuentan con procesadores de
1GHz a dos núcleos con una RAM menos así como un procesador de
gráficos menor hace que el proceso de funcionamiento y
reconocimiento tarde un poco más y dependa más de la memoria y la
mecanización del usuario, o del dispositivo de capitación directamente.
7.1.3 Prueba Realizada con algoritmo de comparación
Se realizaron una serie de pruebas de funcionamiento con el algoritmo
implementado, utilizando una mezcla de base de datos de usuarios, 4
usuarios falsos, 2 usuarios captados con la cámara y el dispositivo, 20
usuarios tomados de base de datos de iris gratuita tomada de internet,
teniendo en cuenta que para cada usuario se crearon 30 imágenes
base, comparado con una imagen nueva y diferente 40 veces y luego
26.
En la tabla 1 se muestran los resultados de las pruebas indicando:
Porcentaje de aciertos en la identificación
Porcentaje de errores en la identificación
Porcentaje de identificación sin error pero no correcta.
40 Pruebas
aciertos errores persona diferente total
34 3 3 40
85,00% 7,50% 7,50% 99,00%
26 Pruebas
22 2 2 26
84,6154 7,6923076 7,69231 99,00%
Tabla 1. Relación de Funcionamiento
7.2. Relación de costos
DISPOSITIVOS
Iris Recognition Device PIER
2.4 3M™ CSD330 Single-digit Optical Scanner
SAMSUN
GALAXY S9
COSTOS US $974.33 US $2.500.00 US $900.00
Tabla 2. Costo dispositivos de reconocimiento de iris
Los dispositivos que se encuentran en el mercado tienen costos
alrededor de los $800 a $5.000 mil dólares, su método de captura y su
algoritmo se basa en cámaras con iluminación infrarroja, procesadores
dedicados para el reconocimiento especifico y en análisis de la imagen
sin tener que sobre cargar el procesador de desarrollo de interfaz
propia del dispositivo, realizando ejecuciones en segundos, con
tamaños medianos con capacidad de ubicación cómoda según el uso.
La mayoría de las compañías venden el software aparte del dispositivo
así como el soporte del dispositivo y el mantenimiento de base de
datos del software todo con costos incluidos directamente en la
compra o costos adquiridos por la compra que no viene con el
dispositivo ni software, a pesar que el software puede ser vinculado en
diferentes equipos de desarrollo y computo.
El dispositivo REDBI 2.0 toma los aprendizajes de REDBI mejorando
sus costos, eliminando el costo de licencia, siendo que la licencia de
uso y distribución del software MATLAB tiene un costo aproximado de
3.000 dólares, como primera instancia es un ahorro inmediato.
El uso del software libre permite el acceso al desarrollador de
compartir parcial o completamente en la web su algoritmo si lo desea y
si no encriptarlo de la manera que considere adecuada, siendo que si
no lo patenta como producto intelectual no puede tomar acciones
legales al respecto.
El desarrollo del dispositivo tiene un costo aproximado de 300 dólares
por compra de cámara y del dispositivo de computo sea raspberry, sea
computador, su ventaja radica en la expansión del uso, puede usarse
para identificar usuarios para una aplicación de recepción y
vinculación empresarial, para apertura de puertas y vigilancia de
hogares o empresas, para generar control de ingresos mediante el uso
de correos con bases de datos de ingreso tomando horas y recepción,
mejora en el método de captura usando cámaras de bajo costo e
iluminaciones infrarrojas con pruebas respectivas verificadas que
permitan el menor o nulo daño a la retina.
7.3. Alcance
El método de funcionamiento de REDBI y REDBI 2.0 se basa en la
transformada de Daugman, vista en el capítulo 6.3 descrito en la Figura
12.Normalización del iris [10]Figura 12 , el cual se obtiene mediante un
análisis de la imagen, obteniendo el centro y el área de los círculos de
la pupila y el iris para hallar el centro de la imagen, teniendo en cuenta
que usa para su funcionamiento datos estáticos para el posible radio
mínimo y el radio máximo, limita el funcionamiento a cierta cantidad de
individuos o usuarios con diámetros de iris y pupilas similares.
Teniendo en cuenta que la dilatación de la pupila depende de las
condiciones físicas de cada individuo, el método propuesto para la
normalización sufre constantes fallas de funcionamiento entre
usuarios, al realizar el procedimiento tomando en cuenta la base de
datos de imágenes URIBIS desarrollada en la universidad Beira
Interior de Portugal, el funcionamiento del aplicativo tiene una
respuesta y eficacia del 90% al 100% tomando un radio minino y
máximo estático para su verificación, teniendo en cuenta que las
imágenes adquiridas se tomaron con una lámpara de hendidura como
la mostrada en la Figura 25.
Figura 25. Lámpara de hendidura
El diámetro utilizado para su verificación fue el del bombillo de
iluminación, como se puede apreciar en la Figura 3 se tiene un circulo
de la pupila y uno del iris, para el funcionamiento en el aplicativo
REBDI 2.0 se tomó el radio mínimo y máximo de la luz que se puede
observar en el centro de la pupila, dando como resultado un
funcionamiento del proceso en 19 de 20 imágenes, donde la imagen
que no funciono presentaba contrastes diferentes por luces externas
teniendo en cuenta esta base de datos.
Cuando se realiza el proceso de captura de imagen con el iriscopio
(véase la Figura 10) se trata de tomar el led propio de la cámara como
base para el procesamiento, pero al ser tan pequeño el método
presenta fallas como las que se ven en la Figura 26 generando
múltiples círculos en la imagen lo cual afecta el proceso de
normalización generando mucho centros para una sola imagen dando
como resultado el que se puede observar en la Figura 25 haciendo que
el proceso posterior de análisis de características sea nulo y limitado y
no funcione de la manera adecuada.
El uso del dispositivo está condicionado a las pruebas de verificación,
al depender de las condiciones lumínicas del dispositivo, se genera un
daño al usuario en el método de captura al tener que usar el
dispositivo en repetidas ocasiones para hacer las respectivas pruebas,
el daño a corto plazo en la pupila se observa después de un tiempo de
verificación de 5 minutos, al finalizar este periodo de tiempo la pupila
comienza a dilatarse menos haciendo que el proceso de captura sea
ineficaz, el uso de la base de datos permite un desarrollo claro del
funcionamiento pero no real del dispositivo siendo que su
funcionamiento con la base de datos es del 100% pero con imágenes
reales puede bajar al 50% o inferior teniendo en cuenta el método de
análisis de imágenes basado en la normalización de Daugman y en las
condiciones de ubicación del usuario, siendo que se realizó un
prototipo basado en gafas parecidas a las que se ven en la Figura 27,
Figura 27. Gafas de realidad aumentada
No se puede asegurar que en las capturas de verificación el usuario
recuerde exactamente el punto donde estaba al momento de la
captura de sus imágenes base, o abra de manera correcta el ojo
respectivo, siendo que si el método de normalización funciona y el
usuario no se posiciona de la manera adecuada el reconocimiento
fallara, teniendo en cuenta que se tiene un umbral de reconocimiento
con respecto de las imágenes base que se le tomaron al usuario al
principio de la verificación si las condiciones físicas cambian de
manera drástica el reconocimiento fallara, condiciones como la
apertura de parpados, dilatación por condiciones externa o
enfermedades adquiridas recientemente.
7.4. Desarrollo Futuro
El funcionamiento de un dispositivo de reconocimiento biométrico
depende de las condiciones físicas, los problemas presentados en
REBDI 2.0 son la ubicación de los individuos, teniendo en cuenta la
apertura del ojo, y la ubicación del mismo, siendo que aunque se usen
siempre las mismas gafas el usuario sube o baja según crea que están
bien ubicadas. La realización de un soporte físico, sujeto a una
estructura física que no vinculara al usuario en su postura ayudaría a
mejorar el método de captura en el problema de ubicación, teniendo
en cuenta que el usuario aún se puede ubicar un poco diferente,
según el diámetro del rostro, y puede cerrar los ojos más de lo
adecuado.
La vinculación de cámaras NIR (Near Infrared) usadas en la captación
de imágenes en el espectro infrarrojo, permitiría que la vinculación de
luces led, o lámparas de hendiduras fuese reemplazada, permitiendo
así la captación de las características del iris sin el daño o la incidencia
directa de la luz, realizando las pruebas específicas de funcionamiento
del algoritmo.
Tomando en cuenta la utilidad que tiene la incidencia lumínica en el
proceso de normalización y toma de características el uso de una
cámara con tecnología ultra pixel o una resolución mayor o igual a los
12Mpx permitiría generar un dispositivo que le dé al usuario un punto
exacto de funcionamiento a una cierta distancia del dispositivo,
permitiendo así un diámetro fijo de funcionamiento tomando el radio
del iris, teniendo que cuenta que a más de 5 cm su diámetro puede en
la mayoría de los casos ser más común en la mayoría de individuos,
no afectado sus ojos con luces incidentes, dándole una indicación
exacta con una apertura del ojo normal, permitiendo realizar las
pruebas de extracción de características, tomando como ejemplo el
uso de este reconocimiento biométrico del iris en dispositivo Samsung
Galaxy s9.
Por último la verificación de la forma de captación de características
del iris depende en la mayoría de sus desarrollos de la normalización
basada en el tratamiento de Daugman con posteriores algoritmos de
captación, extracción y segmentación para su posterior clasificación,
basándose en los diámetros de la pupila y el iris, buscando obtener la
información entre estos dos, el método ha probado su funcionamiento
en imágenes con características muy similares, siendo de diferentes
usuarios y con contrastes de luz y sombras diferentes aplicados a
bases de datos estáticas, la mejora o cambio de este algoritmo como
método de obtención de características permitiría un desarrollo sin las
fallas de funcionamiento por luminosidad o radios variables en la
imagen del iris, el acople de algoritmos de suavizado de imagen,
binarizacion, y eliminación de ruido tienen antecedentes de
funcionamiento con imágenes tomadas de bases de datos, que se
deben probar en imágenes reales.
8. CONCLUCIONES
El desarrollo de un dispositivo que permita el reconocimiento de
características biométricas de una persona mediante el uso de
dispositivos de adquisición está limitado al medio de captura y su
histéresis, que nunca es igual y nunca es constante según el medio y
el entorno, que presenta falla de diseño, aunque todo puede ir
mejorando con el paso del desarrollo y la vinculación de diferentes
dispositivos , la mejora de la técnica y el ensayo y repetición de los
diferentes archivos, el primer dispositivo o los dispositivos previos a su
desarrollo final presentarán fallas que deben ser corregidas tomando
en cuenta las características físicas y la manera en la que se
comportan frente a los método de captura, en el caso de las
condiciones biométricas se toma como ejemplo la captura de la huella
digital, el empañamiento del dispositivo genera fallas, la captura del iris
presenta problemas si no se ajusta al usuario a una toma especifica de
la imagen o si no se le permite una foto de fácil mecanización
vinculando su uso y ejecución en actividades repetitivas que permitan
la prueba constante de su funcionamiento, el mejoramiento respectivo
de este tipo de capturas es vinculado directamente al desarrollo del
software usado , siendo las mejoras del algoritmo y su anális is
constante la más importante de las etapas de los desarrollos
posteriores que llevan a la creación de un dispositivo de desarrollo
fiable y con capacidad de comercialización.
Para REDBI 2.0 los problemas de captación de la imagen se mejoran
con respecto a REDBI , como por ejemplo el uso de licencia, la
captura de diferentes imágenes que permiten un reconocimiento
dinámico de personas involucradas en una respectiva base de datos,
siendo que sean personas vinculadas con el uso del dispositivo o
personas tomadas para la base de datos y las pruebas respectivas de
verificación, la toma de las imágenes se ve sesgada por la dilatación
de la pupila y el tamaño del iris, puede aumentar o disminuir su radio
dependiendo de las personas y sus respectivas reacciones a la luz, así
como antecedentes patológicos o médicos que procedan en
enfermedades visuales, estas características se pueden solventar
alejando o acercando el iris de la persona hasta que el radio deseado
sea capturado permitiendo el desarrollo, la limitación de pruebas
debido a la molestia visual por la iluminación limita el atronamiento o
caracterización de los promedios de los iris tomados de cada persona,
son pruebas que requieren tiempo y el daño o el malestar puede
afectar al ojo, por la exposición prolongada a luces directas sin la
mayor protección posible, el desarrollo posterior de la comparación es
un proceso que es susceptible a mejoras según el medio de captura,
los filtros que pueden usarse en el desarrollo de las imágenes tienen la
capacidad de mejora en su análisis, vinculado mejor resolución y
captura, siendo las líneas de hough un valor a tomar y el filtro de gabor
wavelet un posible desarrollo.
El dispositivo funciona para determinados valores de radios mínimos y
máximos del iris y la pupila, realizando un análisis respectivo del iris de
cada usuario y una comparación adecuada en un tiempo aceptable
para un reconocimiento de personas y su verificación, la interfaz
presenta una manera de uso versátil y eficiente para la vinculación en
cualquier tipo de uso, y tiene la posibilidad de un desarrollo a futuro
produciendo un dispositivo de bajo costo y gran eficiencia.
10. RECOMENDACIONES
El desarrollo del dispositivo se realizó en un computador portátil, con
una capacidad de procesamiento propio y procesamiento grafico
extendido, permitiendo que el proceso de apertura de la cámara y
funcionamiento de la interfaz fuera dinámico y rápido, siendo un
dispositivo portátil en su conjunto, el uso de dispositivos que cuentan
con desarrollo de software libre, conexión a periféricos y un menor
tamaño permite el desarrollo futuro final de un dispositivo de menor
tamaño, que puede ser vinculado de manera más sencilla a cualquier
proceso que se requiera o designe, dispositivos como se ven en la
Figura 28. Se debe tener en cuenta la capacidad del procesador, la
capacidad de la RAM y el uso de procesadores gráficos para tener una
mejor velocidad de proceso.
Se recomienda su uso para creación de dispositivos de menor tamaño,
que se puedan vincular mejor a los espacios de uso y aplicación del
software, con un consumo de energía menor.
11. BIBLIOGRAFIA
[1] Centro de Enseñanza
Secundaria de la ciudad de
Alicante, “Fisiología del ojo.” [Online]. Available:
http://intercentres.edu.gva.es/iesleonardodavinci/Fisica/Vision/Luz
-vision08.htm.
[2] J. GUIDONI, “Iridologia.”
[3] Anónimo, “Diabetes: cómo afecta al ojo.” [Online]. Available:
http://opticamendez.es.tl/DIABETES-d--Cmo-afecta-al-ojo.htm.
[4] R. De Rosa, “Procesamiento de imágenes digitales,” pp. 1–5,
2007.
[5] Anónimo, “Análisis de las imágenes digitales.” [Online]. Available:
http://personales.upv.es/rmullor/Digitales.html.
[6] Http: //www.homini.com/new_page_5.htm, “Plataforma Biométrica
Homini.” [Online]. Available:
http://www.homini.com/new_page_5.htm.
[7] D. M. Queralt, E. en M. de F. y Geriatría, and M. C. de A. Medical,
“Cambios biológicos en personas mayores.” [Online]. Available:
Figura 28. Dispositivos de hardware
http://www.mapfre.com/salud/es/cinformativo/cambios-bilogicos-
introduccion.shtml.
[8] Shauntelle Hamlett, “Las causas de la decoloración del ojo.”
[Online]. Available: http://www.ehowenespanol.com/causas-
decoloracion-del-ojo-lista_117026/.
[9] D. G. Rowe, “Ojos envejecidos impiden reconocimiento por el
iris.” [Online]. Available:
http://www.losandes.com.ar/notas/2012/7/1/ojos-envejecidos-
impiden-reconocimiento-iris-652125.asp.
[10] C. Platero, “Procesamiento morfológico,” pp. 163–189.
[11] http: //www.ocu.org, “Chema Alonso: „El futuro es hackear la
sociedad‟.”[Online]. Available:
http://www.ocu.org/tecnologia/antivirus/noticias/entrevista-hacker.
[12] “Definición de Seguridad Informática.” [Online]. Available:
http://www.mastermagazine.info/termino/6638.php.
[13] “Cámaras Y Sistemas Biométricos Para Reconocimiento Del Iris.”
[Online]. Available: http://sistemasbiometricos.co/blog/camaras-y-
sistemas-biometricos-para-reconocimiento-del-iris-2.
[14] S. Prabhakar, A. Ivanisov, and A. Jain, “Biometric Recognition:
Sensor Characteristics and Image Quality,” no. June, 2011.
[15] L. Masek, “Recognition of Human Iris Patterns for Biometric
Identification,” 2003.
[16] R. D. Universitaria, “El epitelio pigmentario retiniano como
componente de la barrera hemato-retiniana : implicación en la
retinopatía diabética,” pp. 1–13, 2011.
[17] A. Thomas and A. Theodore, “An Iris Biometric System for Public
and Personal Use The human iris promises to deliver a level of
uniqueness to identification,” 2000.
[18] J. O. García, A. De Imagen, L. Iris, C. D. P. De Iris, L. Estructura,
and F. Iris, “Reconocimiento Automático de Patrones de Iris.”
[19] R. D. E. L. Iris, U. N. D. E. Trujillo, and T. Perú, “Reconocimiento
del iris,” pp. 1–12, 2006.
[20] 14/abril/2013 http: //redyseguridad.fi-
p.unam.mx/proyectos/biometria/clasificacionsistemas/capturairis.
html, “Captura de la imagen del iris.”
[21] V. E. Duró, “Evaluación de Sistemas de Reconocimiento
Biométrico,” pp. 58–61.
[22] Da. S. Ortega, “RECONOCIMIENTO BIOMÉTRICO.
RECONOCIMIENTO FACIAL.” [Online]. Available:
http://www.borrmart.es/articulo_seguritecnia.php?id=2166&numer
o=357.
[23] J. Manuel, P. Gaspar, V. Dirigida, and M. Fa, “Tesis doctoral : Uso
de la Firma Manuscrita Dinámica para el Reconocimiento
Biométrico de Personas en Escenarios Prácticos.”
[24] Z. He, T. Tan, Z. Sun, and X. Qiu, “Toward accurate and fast iris
segmentation for iris biometrics.,” IEEE transactions on pattern
analysis and machine intelligence, vol. 31, no. 9, pp. 1670–84,
Sep. 2009.
[25] R. P. Wildes, “Iris recognition: an emerging biometric technology,”
Proceedings of the IEEE, vol. 85, no. 9, pp. 1348–1363, 1997.
[26] Q. Tjan, “FAST ALGORITHM AND APPLICATION OF HOUGH
TRANSFORM IN IRIS,” no. August, pp. 26–29, 2004.
[27] H. Proenc and L. A. Alexandre, “Iris segmentation methodology
for non-cooperative recognition,” pp. 199–205.
[28] T. A. Camus and R. Wildes, “Reliable and Fast Eye Finding in
Close-up Images,” 2002.
[29] D. D. M. - Roche, E. E. S. A, D. S. Engineering, and C. Ombu,
“Iris Recognition for Biometric Identification using Dyadic Wavelet
Transform Zero-Crossing I „.”
[30] R. Malladi, J. A. Sethian, and B. C. Vemuri, “Shape Modeling with
Front Propagation : A Level Set Approach,” vol. 17, no. 2, 1995.
[31] J.A. Sethian, “HYPERSURFACES MOVING WITH CURVATURE-
DEPENDENT SPEED: HAMILTON-JACOBI EQUATIONS,
CONSERVATION LAWS AND NUMERICAL ALGORITHMS,”
1989.
[32] R. Kimmel, “Geodesic Active Contours,” pp. 694–699, 1995.
[33] “Iris recognition by fusing different representations of multi-scale
Taylor expansion.”
[34] F. Cui and L. Zou, “Edge Feature Extraction Based on Digital
Image Processing Techniques,” no. September, pp. 2320–2324,
2008.
[35] C. Pinilla and A. A. F. J. Ariza, “Filtrado de imágenes en el
dominio de la frecuencia,” pp. 1–5, 1997.
[36] Z. Xizhi, “The Application of Wavelet Transform in Digital Image
Processing,” 2008 International Conference on MultiMedia and
Information Technology, pp. 326–329, Dec. 2008.
[37] Anonimo, “Introducción a las imágenes digitales Primera parte.”
[38] C. E. Hernandez Sosa, “FUNDAMENTOS EN LA
DIGITALIZACIÓN Y PROCESAMIENTO DE UNA IMAGEN,”
2007.
[39] Anonimo, “Introduccion al procesamiento de imágenes.” [Online].
Available: http://www.slideshare.net/balfier/operaciones-
morfologicas.
[40] T. De Hough, “Segmentación. Transformada de Hough.”
[41] “Reconocimiento biométrico: la nueva revolución tecnológica.”
[Online]. Available: http://www.diariosigloxxi.com/texto-
diario/mostrar/90112/reconocimiento-biometrico-la-nueva-
revolucion-tecnologica. [Accessed: 14-Jul-2013].
[42] “UMANICK: EFECTIVIDAD Y EFICACIA DE LOS SISTEMAS
BIOMÉTRICOS.” [Online]. Available:
http://www.umanick.com/index.php/tecnologia/efectividad-y-
eficacia. [Accessed: 14-Apr-2013].
[43] “SISTEMAS BIOMÉTRICOS: MATCHING DE HUELLAS
DACTILARES MEDIANTE TRANSFORMADA DE HOUGH
GENERALIZADA.” [Online]. Available:
http://www2.ing.puc.cl/~iing/ed429/sistemas_biometricos.htm.
[Accessed: 14-Apr-2013].
[44] I. Ocular, C. Autom, J. G. Daugman, F. Rechazo, and F.
Aceptación, “El Iris Ocular como parámetro para la Identificación
Biométrica,” 2000.
[45] “El uso de la cámara fotográfica.” [Online]. Available:
http://www.foto13.com/funcionamiento_camara.htm. [Accessed:
14-Apr-2013].
[46] “Como funciona la cámara digital: Funciones y ajustes.” [Online].
Available:
http://www.digitalfotored.com/imagendigital/menucamaradigital.ht
m.
[47] “Cómo ajustar la cámara para disparar en RAW (I).” [Online].
Available: http://altfoto.com/2012/10/como-ajustar-la-camara-
para-disparar-en-raw-i. [Accessed: 14-Apr-2013].
[48] Anonimo, “Resolución cámara digital - funcionamiento básico.”
[Online]. Available: http://www.electronica-basica.com/resolucion-
camara-digital.html. [Accessed: 14-Apr-2013].
[49] Anonimo, “Adiós cámaras de seguridad de baja resolución, hola
vídeo vigilancia en HD a 29 MP.” [Online]. Available:
http://www.xatakahome.com/seguridad-en-el-hogar/adios-
camaras-de-seguridad-de-baja-resolucion-hola-video-vigilancia-
en-hd-a-29-mp. [Accessed: 14-Apr-2013].
[50] Anonimo, “Cómo Conseguir una Buena Fotografía en tan solo
Tres Pasos.” [Online]. Available: http://www.dzoom.org.es/noticia-
14338.html. [Accessed: 14-Mar-2013].
[51] Sergio Bernabé García, “Escuela Politécnica MÁSTER
UNIVERSITARIO EN COMPUTACIÓN GRID Y PARALELISMO
Trabajo Fin de Máster disponibles en la herramienta Google
Maps Sergio Bernabé García Septiembre, 2010,” 2010.
[52] D. G. Morate, “Manual de Weka.”
[53] Prtools, “PRTools.” [Online]. Available: http://prtools.org/.
[54] G. S. Pérez and I. R. González, “Leyes de protección de datos
personales en el mundo y la protección de datos biométricos –
Parte I.”
[55] “DIGITI - sistemas digitales inteligentes.” [Online]. Available:
http://201.234.78.173:8080/gruplac/jsp/visualiza/visualizagr.jsp?nr
o=00000000004801.