“EVALUACIÓN DE LA FALLA TECNOLÓGICA MEDIANTE ANÁLISIS DE
RIESGOS SOPORTADO EN TÉCNICAS DE INTELIGENCIA ARTIFICIAL”
Introducción
La industria biomédica ha crecido vertiginosamente en los últimos años. De acuerdo a la
Oficina de Control de Drogas y Alimentos (FDA), en la actualidad existen más de 50000
tipos diferentes de equipos médicos y cada año se agregan a este arsenal 5000 nuevos
productos. Todo esto es gracias a la actual relación entre la ingeniería y la medicina que ha
dado origen, en los países industrializados, a un gran complejo médico-industrial cuya
producción alcanzó un mercado para 1990 por la cantidad de 62.5 miles de millones de
dólares. Siendo esta la industria de mayor crecimiento proporcional y la que más porcentaje
de sus ventas invierte en Investigación y Desarrollo [1]. Sin embargo, mientras ha avanzado
el desarrollo tecnológico de equipo médico, éste ha generado consecuencias visibles en el
aumento de riesgos hospitalarios y es por eso que al mismo tiempo, la ingeniería
biomédica contribuye a la prevención, protección o disminución de los mismos en el medio
hospitalario.
El término falla es subjetivo, ya que en algunos casos un individuo puede considerar que
existe falla de un elemento, mientras que otro puede considerar que no. En la práctica esto
depende de qué tanto se está afectando la operación satisfactoria de un equipo debido a la
evolución en alguno de sus elementos de algún mecanismo de daño como el desgaste, el
agrietamiento o la corrosión. Para poder determinar el tipo y mecanismo de falla se debe
analizar cada caso teniendo en cuenta que cada modo de falla deja una pista característica;
no obstante, es común en fases de daño avanzadas que se den combinaciones de dos o más
mecanismos, lo cual dificulta su identificación. Cuando ocurre una falla en un elemento
mecánico se debe realizar un análisis minucioso (aplicación del método científico) para
determinar su causa (diseño inapropiado, deficiencias del material, problemas de
manufactura, condiciones de servicio fuera de especificación, mantenimiento inadecuado,
etc.). Este proceso se conoce como análisis de falla (AF). Una vez que la causa es
determinada, deben tomarse medidas correctivas para prevenir recurrencias futuras.
La falla tecnológica representa un punto de referencia para el desarrollo de estrategias que
coadyuven a la mejora en la calidad del servicio clínico.
Una falla se debe a una conjunción de variables que no se pueden controlar con facilidad,
por lo que su análisis mediante la aproximación por inferencias proporciona elementos para
tener claridad respecto de las causas de su aparición y enfocar los esfuerzos para su control
y eventual eliminación [2]. La falla de un equipo médico también puede provocar retrasos
en la aplicación de procedimientos a los pacientes, degradando la calidad en el servicio y
provocando un gasto imprevisto para su corrección.
En este proyecto se propone abordar el análisis de riesgos a partir de la consideración de las
fallas tecnológicas que se presentan en el medio hospitalario. Para tal fin se utilizarán dos
técnicas de la inteligencia artificial (redes neuronales y árboles de decisión) con el afán de
obtener un sistema que permita tener una clara la relación de causa-falla.
Objetivo general
Desarrollar un método de análisis de riesgos para evaluar la falla tecnológica dentro de una
institución de salud soportado en técnicas de inteligencia artificial.
Objetivos específicos
• Identificar las causas de las fallas más recurrentes del uso de la tecnología médica
que generan un riesgo hospitalario.
• Generar una base de datos con información de las principales fallas relacionadas con
la tecnología médica que ocurren en el medio hospitalario.
• Desarrollar el análisis de riegos a partir de dos métodos de inteligencia artificial
(árboles de decisión y redes neuronales) a fin de identificar la relación causa-efecto.
• Desarrollar un método de análisis en donde se complementen los componentes más
importantes de cada una de las técnicas.
• Evaluar el método final de complementación entre técnicas en situaciones de riesgo
conocidas y definidas previamente.
Antecedentes
La falla hospitalaria ha sido objeto de algunos estudios como inferencias para relacionar la
falla que presenta un equipo médico con la causa que la origina [3]. Sin embargo, el estudio
de las fallas dentro de una institución de salud no ha tenido un seguimiento sistemático
como para determinar con certeza las causas reales que la ocasionan.
El manejo de riesgos aborda el concepto de falla y propone estrategias para el control de las
mismas [3]. Sin embargo, éste se enfoca principalmente en los equipos médicos y con
frecuencia de manera aislada por lo que es necesario integrar los factores que puedan
relacionarse con la ocurrencia de fallas, tales como el usuario o el entorno.
Actualmente existe un método que ha sido utilizado por las industrias automotrices,
llamado análisis del modo y efecto de falla (AMEF). [4]
Este es un proceso sistemático para la identificación de las fallas potenciales del diseño de
un producto o de un proceso antes de que éstas ocurran, con el propósito de eliminarlas o de
minimizar el riesgo asociado a las mismas. Generalmente éste es aplicable para la
detección y bloqueo de las causas de fallas potenciales en productos y procesos de
cualquier clase de empresa. Algunos Hospitales también empezaron a utilizar AMEF para
prevenir la posibilidad de errores y fallas relacionados con una cirugía o administración de
medicamentos incorrectos. El uso es impulsado por la "Joint Comisión of Accreditation of
Health Care Organizations" [5]. Con base en lo anterior, el método podría aplicarse a la
parte de tecnología médica porque tiene elementos que podemos utilizar.
Con lo que respecta a metodologías basadas en redes neuronales, se ha utilizado para la
estratificación de riesgo de mortalidad hospitalaria, en donde los sistemas de ajuste de
riesgos para estratificar la gravedad de los pacientes respecto a un resultado clínico, se
construyen, en general, a partir de variables asistenciales y utilizando técnicas estadísticas
basadas en la regresión logística.[6]
También podemos observar este tipo de metodologías aplicadas a otras áreas como lo es en
Diagnóstico de fallas en procesos químicos mediante redes neuronales [7] en el que se
hacen reconocimientos de trayectorias el cual nos dice que cuando un proceso es afectado
por una falla, las variables del proceso evolucionan siguiendo trayectorias (secuencias
temporales de datos) que pueden ser utilizadas para identificar la falla que las originan.
Existen actualmente aplicaciones informáticas que son los llamados: Sistemas de Gestión
Integrados de Servicios Técnicos asistidos por Computadoras (FSMS). Tienen el objetivo
de llevar un control más estricto y rapidez del procesamiento de la información, además de
ofrecer diagnóstico remoto el cual se entiende como una estrategia o metodología de uso de
la información para adquirir datos e identificar, aislar y finalmente diagnosticar fallos en
equipos. El objetivo final de este tipo de servicio es mejorar los niveles de funcionamiento
de la tecnología instalada y hacer el servicio más productivo. [1]
Marco teórico
Los riesgos hospitalarios se componen de dos tipos:
• Riesgos asistenciales (o clínicos): el concepto de riesgo asistencial incluye cualquier
situación no deseable o factor que contribuye a que se produzca, relacionado con la
atención sanitaria recibida y que puede tener consecuencias negativas. Comprende
condiciones como sucesos adversos, errores, casi-errores, accidentes, incidentes,
efectos adversos de medicamentos, negligencias y litigios.
• Riesgos relacionados con el entorno hospitalario: el concepto de riesgo relacionado
al entorno hospitalario incluye cualquier situación no deseable o factor que
contribuye a que se produzca, relacionado con la presencia del paciente en el
hospital y que puede tener consecuencias negativas. [5]
Uno de los principales problemas en el medio hospitalario es la falla tecnológica la cual se
define como todo evento en el cual un equipo médico ha dejado de funcionar correctamente
y por lo tanto se le asocia una probabilidad de ocasionar daño al paciente u operador.
Debido a esto se ha hecho necesario analizar la falla tecnológica cuando existen principios
éticos que obligan a la Ingeniería Biomédica a cuidar los efectos iatrogénicos sobre el
paciente que difícilmente se pueden controlar por la existencia de normas, estándares y
certificación burocrática de hospitales.
Sobre el proceso de análisis se puede comentar que dependiendo de la naturaleza de la falla,
varia la profundidad del estudio y la secuencia de investigación para identificar las
diferentes causas que la provocan. Los procesos de examen siguen una serie de etapas y los
resultados en cada una determinan la manera en la cual proceden las siguientes fases. Con
base en la información obtenida en cada etapa, es posible a partir de un aspecto simple de la
investigación, plantear hipótesis sobre los mecanismos de falla como puede ser la
inspección visual de una superficie fracturada.
El AF es un tema complejo e involucra diferentes campos del conocimiento tales como
mecánica, metalurgia, química y electroquímica, procesos de manufactura, análisis de
esfuerzos, diseño y mecánica de la fractura. Se puede señalar que en la empresa nacional no
existe una cultura del AF; actualmente en la práctica, si una pieza sufre daño o deterioro,
debe repararse en el menor tiempo posible. Cuando las fallas se presentan con frecuencia
relativa, lo más común es modificar la parte o sistema a partir de la percepción particular
del técnico encargado, por lo que al corregir el problema, lo convierte en procedimiento
común. En algunas ocasiones, las empresas se deciden por contactar a expertos en AF,
incurriendo en inconvenientes de costos, mismos que se reducirían si se contara con
personal capacitado en el área. En muy pocos casos, existen ingenieros en la empresa con la
experiencia para realizar AF de un sistema o componente. Por consecuencia, es necesario
contar con una mayor cantidad de expertos. [8]
Una de las ramas más interesantes de la ingeniería por su inherente valor académico e
industrial es la mecánica forense. Esta se encarga de establecer e investigar las causas de
fallas o accidentes en componentes mecánicos y civiles de todo tipo, que van desde agujas
para coser hasta componentes utilizados en la industria aeroespacial y biomédica. Dichos
análisis de fallas son importantes para poder establecer de una manera adecuada y
sistemática las causales de fallas y poder tomar los correctivos necesarios para evitar la
repetición de accidentes, que además de causar pérdidas materiales pueden conllevar a
pérdidas humanas irreparables.[9] En la investigación de fallas intervienen ramas de la
ingeniería tan variadas como ingeniería de materiales, mecánica del medio continuo,
mecánica de la fractura, metalurgia, procesos de manufactura, termodinámica y
transferencia de calor, tribología, corrosión y fractografía entre otras. En la ejecución de un
análisis de fallas se deben tener en cuenta factores tales como la historia previa del
elemento a analizar, tipo de material y estructura, temperaturas de trabajo, planes de
mantenimiento y hasta la hoja de vida de los operarios del equipo o máquina llegan a ser
importantes en algunos casos. La documentación y reporte de análisis de fallas es de gran
valor técnico y científico dado que estos brindan conocimiento sobre las causas que pueden
ser reducidas en ocurrencia hasta llegar a ser eliminadas totalmente.
Concepto de falla tecnológica:
Evento en el que se presentan errores de un sistema, que afectan su desempeño y
funcionamiento al no realizarse de manera óptima debido algún desajuste, deterioro o
desgaste de sus partes integrales, y se le atribuye una probabilidad de producir algún riesgo
al personal.
Elementos que forman parte en la generación de una falla tecnológica
Los elementos que forman parte en la generación de una falla tecnológica son:
• El operario o usuario: debido al uso incorrecto por parte de la persona que utiliza el
equipo.
• El desgaste: presenta pérdida de material en la superficie del elemento; puede ser
abrasivo, adhesivo y corrosivo.
• Mal diseño: No se considera adecuadamente los efectos de las entallas. Insuficientes
criterios de diseño por no tener la información suficiente sobre los tipos y
magnitudes de las carga.
• Mala selección del material: Datos poco exactos del material. Empleo de criterios
erróneos en la selección del material o darle mayor importancia al costo del material
que a su calidad.
• Imperfecciones, proceso y/o de su fabricación: Segregaciones, porosidades,
incrustaciones, grietas (generadas en el proceso del material) que pueden conducir a
la falla del material.
• Errores en mantenimiento: Existen cuatro tipos reconocidos de operaciones de
mantenimiento, los cuales están en función del momento en el tiempo en que se
realizan, el objetivo particular para el cual son puestos en marcha, y en función a los
recursos utilizados, éstos son el correctivo, preventivo, proactivo y predictivo
• Errores en montaje: existe cuando al instalar equipo en su lugar final de utilización,
este no es instalado conforme a los requerimientos del fabricante.
• Errores en calibración: Conjunto de operaciones con las que se establece, en ciertas
condiciones especificas, la correspondencia entre los valores indicados en un
instrumento, equipo o sistema de medida, o por los valores representados por una
medida materializada o material de referencia, y los valores conocidos
correspondientes a una magnitud de medida o patrón, asegurando así la trazabilidad
de las medidas a las correspondientes unidades básicas y procediendo a su ajuste o
expresando esta correspondencia por medio de tablas o curvas de corrección.
• Factores ambientales: Todos aquellos factores derivados del efecto ambiente en el
que opera el equipo.
• Sobrecarga: un equipo tiene un tiempo útil y no debe de trabajar más del tiempo
indicado.
• Fractura: Se puede presentar del tipo fragil o ductil, su huella debe ser analizada
para encontrar el motivo de la falla.
• Fatiga superficial: Debido a los esfuerzos presentes en la superficie y subsuperficie
del material.
• Documentación (manuales): Ocurre cuando no se cuentan con los manuales en el
idioma nativo donde es instalado el equipo y al ser interpretado o traducido no se
hace de la manera correcta. [10]
Tipos de Fallas más Comunes
Fallas de Operario o usuario: Ocurren debido al uso incorrecto por parte de la persona
que utiliza el equipo. Uno de los motivos es la falta de conocimiento adecuado del
funcionamiento del equipo, que en ocasiones lleva a suponer que opera incorrectamente.,
cuando en realidad no existen problemas de funcionamiento como tal. Tales situaciones son
de ocurrencia frecuente y deben ser una de las primeras instancias que se verifiquen.
Errores en la construcción: Bajo esta categoría se agrupan todos aquellos problemas
relacionados con el diseño y la implementación de la primera unidad o prototipo.
Fallas en el suministro de potencia: Es una de la fallas mas frecuente, proviene de la
fuente de potencia. En esta parte se manejan corrientes y voltaje apreciables, además de
temperaturas elevadas, los componentes de la fuente están sujetos a esfuerzos eléctricos y
térmicos que pueden conducir a fallas en sus componentes. Cuando la fuente de potencia
esta averiada, el equipo deja de operar por completo.
Falla de componentes del circuito: Estos problemas son de fácil diagnóstico y reparación.
Por lo general, deben buscarse primero reguladores de voltaje defectuoso, diodos
rectificadores abiertos o en corto, condensadores del filtrado dañados y por ultimo el
transformador defectuoso.
Problemas de temporización: Es uno de los problemas más difícil de diagnosticar se
relaciona con la correcta temporización de los circuitos. Parámetros como la frecuencia del
reloj, los retrasos de propagación y otras características relacionadas, son de mucha
importancia para la adecuada operación de los equipos digitales.
Problemas debidos a Ruidos: El ruido eléctrico es una fuente potencial importante de
problemas en los circuitos digitales. Ruido: Es toda señal extraña que dentro del equipo
puede ser causa de operación incorrecta. Las señales de ruido pueden provenir de
transitorios en las líneas de corriente alterna o de campo magnético o eléctrico originados
en equipos aledaños, así como de interferencias debidas a transmisiones de radio o de
televisión.
También es factible que exista ruido generado internamente, el cual puede provenir de
suministro de potencia mal filtrados o de componentes mecánicos defectuosos que
ocasionen contactos deficientes o intermitentes.
Efectos ambientales: A esta clase pertenecen todos aquellos problemas derivados del
efecto ambiente en el que opera el equipo. Por ejemplo, es posible que la temperatura del
recinto o sitio donde se ubica el equipo exceda los límites permisibles fijados por el
fabricante. Por otra parte, la acumulación de grasas, polvo, químicos o abrasivos en el aire
puede ocasionar fallas de funcionamiento. Las vibraciones excesivas también puede ser
causa frecuente de problemas. Todo lo anterior puede introducir defectos mecánicos tales
como corrosión de conectores, alambres quebrados o contactos de interruptores con exceso
de acumuladores que impiden su accionamiento normal.
Problemas mecánicos: Son todos aquellos que surgen debido a desperfectos en
componentes de tipo mecánico tales como: Interruptores, conectores, relevos y otros. Esto
por lo general, es mucho más susceptible de aparecer que la falla misma de componentes
electrónicos, tales como los circuitos integrados.
Metodología
En este proyecto se propone abordar el análisis de riesgos a partir de la consideración de las
fallas tecnológicas que se presentan en el medio hospitalario. Para tal fin se utilizarán dos
técnicas de la inteligencia artificial; redes neuronales y árboles de decisión a fin de obtener
un sistema que permita tener clara la relación causa-falla.
Esto se va a lograr mediante el diseño de un cuestionario que tiene como objetivo recabar
información relacionada a la ocurrencia de fallas tecnológicas, para posteriormente
desarrollar un análisis con las respuestas obtenidas y poder establecer una base de datos
para el entrenamiento de las técnicas de inteligencia artificial.
Perfil de la población a encuestar
La población a la que se le aplicará la encuesta comprende únicamente a los ingenieros y
técnicos biomédicos que realizan los servicios y/o procedimientos de mantenimiento en los
departamentos de ingeniería biomédica de diversos hospitales en México y otros países de
Latinoamérica.
Además de lo anterior, para facilitar el llenado de las encuestas, también estará disponible
en internet. Quedan excluidos el personal médico y enfermería ya que la redacción de las
preguntas contiene términos ingenieriles y no tienen un enfoque hacia el área usuaria o que
manipula el equipo médico.
Tipo de personal a encuestar
Ingenieros Biomédicos o Técnicos:
A éste tipo de personal se les aplica este cuestionario porque como ya se había mencionado,
son los encargados de realizar mantenimientos preventivos y correctivos en equipo médico
y su información es valiosa para identificar fallas.
Cuestionarios
El cuestionario contiene 37 preguntas de las cuales 30 tienen tres opciones de respuesta y
cada una de éstas tiene asociado un valor numérico dependiendo del nivel de riesgo que se
detecta. Las 7 preguntas restantes son abiertas y están destinadas a complementar las de
opción múltiple para verificar una concordancia entre ellas. Además, el cuestionario está
agrupado en 7 bloques que hacen referencia a las fallas más comunes, las cuales se
muestran en el diagrama causa-efecto.
Interpretación del cuestionario
Como se mencionó anteriormente, cada una de las preguntas tiene 3 respuestas y se le
asignará un valor numérico el cual es de forma ascendente, es decir, el valor más alto
significa que hay un riesgo mayor, el valor más bajo nos muestra un riesgo menor. Todo
esto con el propósito de construir una matriz, la cual será la base de datos para el
entrenamiento de las técnicas artificiales mencionadas.
Para el inciso a)…. 3
Para el inciso b)….2
Para el inciso c)….1
Diagrama causa-efecto
Objetivos de aplicación de cuestionarios
I. En base a las respuestas obtenidas, recabar información de los efectos de una falla en un
equipo médico.
II. Obtener información acerca de las causas que generan una falla en la tecnología
médica.
Cuestionario.
1. ¿Los equipos son probados con simuladores o alguna otra herramienta para conocer su exactitud?
a) A ninguno de los equipos
b) Sólo a algunos
c) A todos los equipos
2. De toda la capacidad tecnológica instalada, ¿Cuántas cuentan con información en manuales?
a) Todas
b) Ninguna
c) Sólo las tecnologías más complejas
3. ¿Es fácil conseguir los suministros de los equipos adquiridos?
a) No
b) Si
c) Son proporcionados por el procedor de un contrato
4. ¿Qué tipo de capacitación proporcionan los provedores de los equipos?
a) Capacitación técnica
b) Capacitación operativa
c) No se brinda
5. ¿Los mantenimientos los hacen respetando su calendarización?
a) No tenemos calendario
b) Cuando se puede
c) Si
6. Describa brevemente cual es el procedimento para dar mantenimiento a un equipo
7. ¿Se hacen revisiones de la estabilidad de la línea eléctrica y nivel de voltaje?
a) Si (analizadores de seguridad eléctrica)
b) Sólo en las áreas más críticas
c) No
8. ¿El hospital cuenta con tierra física?
a) No sé
b) Algunas áreas especializadas
c) Si
9. ¿Existe algún procedimiento para evaluar el aislamiento de los equipos médicos instalados?
a) No
b) El procedimiento es diferente para cada tecnología
c) Si
10. ¿Cuál es la incidencia de falla en el suministro de energía eléctrica?
a) Frecuente (2 a 3 veces a la semana)
b) Muy rara vez (cada mes)
c) En ocasiones (cada quince días)
11. ¿Utiliza alguna tira multicontactos?
a) Si
b) En ocasiones
c) Nunca
12. ¿Usted sabe que hace cuando se presenta algún tipo de riesgo eléctrico?
13. ¿Cómo calificaría la interfaz del equipo con el usuario?
a) Fácil de manejar
b) Difícil de manejar
c) No existe
14. ¿Cuántos equipos médicos cuentan con algún tipo de soporte para poderse instalar?
a) Todos
b) Algunos
c) Ninguno
15. ¿Sabe manipular todas las funciones que tiene el equipo?
a) No
b) Algunas
c) Si
16. ¿Cuántos equipos se pueden adaptar a las necesidades de ciertos tipos de paciente (cuestiones de peso, talla, etc)?
a) Todos
b) Algunos
c) Ninguno
17. ¿Se dan capacitaciones para el uso adecuado del equipo médico adquirido?
a) Sí
b) En ocasiones
c) No
18. ¿Cuáles son los problemas que usted identifica debidos solo al diseño del equipo?
19. ¿Qué hace cuando llega a tener dificultades con algún equipo?
a) Contacto al fabricante
b) Se resuelve en el departamento de Ing. Biomédica
c) Se da de baja temporal
20. ¿Le cuesta trabajo configurar su equipo para poder operarlo?
a) Si
b) En ocasiones
c) No
21. Cuando ocurre alguna falla, ésta es documentada en alguna bitácora?
a) No contamos con bitácora
b) Sólo es comentada
c) Si, se registra en la bitácora
22. En una aproximación, ¿cuántas horas manipula equipo médico al día?
a) De 6-8 horas
b) De 4-6 horas
c) De 2-4 horas
23. ¿Cuál es su opinión acerca de la interacción con los equipos que opera?
24. Se tiene conocimiento de algún problema relacionado con el calentamiento excesivo en el uso de un equipo
a) Si, muchos
b) En algunos
c) No
25. ¿Cómo considera la velocidad de respuesta del equipo ante los cambios en su operación?
a) Rápida
b) Media
c) Lenta
26. ¿Cómo establecen el grado de exactitud de los equipos?
a) No tengo manera de garantizar exactitud
b) Mediante tecnología específica para evaluación no certificada
c) Mediante tecnología específica para evaluación certificada
27. En base a sus mantenimientos, ¿Con qué frecuencia falla la fuente de potencia de los equipos?
a) Alto
b) Medio
c) Bajo
28. ¿Cuál es la situación que se presenta con más frecuencia cuando falla su equipo?
29. ¿Cómo considera el lugar donde opera el equipo?
a) Reducido
b) Incómodo
c) Adecuado
30. Con respecto a la ventilación del lugar donde se encuentra la tecnología ¿Cómo la evalúa?
a) No adecuada
b) No requiere
c) Adecuada
31. ¿Los equipos se encuentran cerca de aparatos que trabajen con ondas electromagnéticas o de radiofrecuencia?
a) Si
b) Si pero normalmente están apagados
c) No
32. ¿Verifica que las condiciones ambientales bajo las cuales opera el equipo son las establecidas por el fabricante?
a) No
b) En ocasiones
c) Si
33. ¿Qué propondría para mejorar el rendimiento de la operación de las tecnologías médicas con respecto al entorno donde operan?
34. ¿Con qué frecuencia tiende a renovar los consumibles del equipo?
a) Cuando falla el equipo
b) Conforme a la calendarización
c) La que especifica el fabricante
35. ¿Ha llegado a detectar corrosión en los equipos médicos?
a) Si
b) Algunos
c) No
36. ¿El material con que esta elaborada la cubierta del equipo es resistente o durable?
a) No
b) Poco
c) Si
37. ¿Qué tan resistente al desgaste es el material con que se contruye la tecnología médica?
Recurrencia de fallas.
Para identificar y analizar las fallas, se requiere de un profundo conocimiento del sistema,
las operaciones, el personal y los métodos de trabajo.
La gran mayoría de las fallas de elementos de equipos son repetitivas. La identificación de
los mecanismos presentes y la cuantificación de los parámetros que los gobiernan son ítems
principales en un análisis de fallas.
Para la realización del trabajo es necesaria la identificación de las fallas con mayor
recurrencia haciendo uso del método más adecuado del diagrama causa-efecto que se
menciona anteriormente, en combinación con la información recabada en Instituciones de
Salud que cuentan con un Departamento de Ingeniería Biomédica.
Sin lugar a dudas y en base a la información recabada, podemos decir que la falla
operatoria de equipo médico por parte del personal de enfermería y médico es la que se
presenta con mayor frecuencia Si analizamos particularmente esta causa podemos dividirla
en dos aspectos:
a) Calificación deficiente del personal
En general los operadores de equipos de izaje se forman a través de la transmisión de
conocimientos realizados por operadores más antiguos y no por ello más expertos.
Esto es el primer riesgo que se debe minimizar a través de sumar a la capacitación practica,
los conocimientos técnicos necesarios para evaluar desde el punto de vista de la seguridad
las situaciones de riesgo que se le presentan al operador.
b) Formación incompleta
La capacitación brindada a los operadores solo cumple los requisitos de la operación
intrínseca del equipo.
La tendencia actual muestra que es imprescindible que el operador tenga conocimientos de
diagnostico de fallas, mantenimiento, y seguridad e higiene, a manera de desarrollar
actividades preventivas, que le permitan decidir en situaciones criticas.
Simulación y análisis
El análisis de riesgos de fallas tecnológicas mediante el uso de redes neuronales, requiere
de simulaciones, para las cuales es necesario una base datos. Para facilitar y llevar a cabo
esta tarea, es necesario contar con una herramienta que coadyuve en el entrenamiento de las
redes. La herramienta elegida para entrenar las redes neuronales en este proyecto fue la
plataforma de Matlab, la cual cuenta con un toolbox de redes neuronales.
Este toolbox nos permite entrenar redes de forma supervisada y no supervisada, con las
herramientas nntool y nctool respectivamente. Los pasos para utilizar esta herramienta se
encuentran y detallan en el anexo de este documento.
La base de datos elaborada para las simulaciones se realizó con el objetivo de que al
introducir los datos obtenidos de las encuestas, el entrenamiento tenga el comportamiento
esperado. La base de datos simulada es una matriz de tamaño 50 x 37, la cual representa 50
muestras (respuestas) de los 37 elementos de la matriz o preguntas planteadas en el
cuestionario. Como se mencionó anteriormente el rango de valores de entrada posibles para
cada una de las preguntas es el siguiente:
• Entrada “1”, es el valor que representa el menor riesgo de falla
• Entrada “2”, representa el valor intermedio
• Entrada “3” representa el valor con mayor riesgo de falla
Finalmente con la ayuda de estas simulaciones se podrá ajustar propiedades o
características de la red supervisada (nntool) o no supervisada (nctool) y analizar los
resultados de los datos reales. Para las simulaciones se creó una matriz de la misma
dimensión pero manipulando los datos de entrada.
Las simulaciones serán realizadas en el orden y forma siguiente:
1. Se va a simular que el tipo de falla eléctrica es la falla más recurrente y con mayor
riesgo en nuestra encuesta. Por lo anterior, se elaborará una matriz en la cual el
valor de entrada para cada una de las preguntas de este bloque será “3” en las 50
muestras. Las preguntas restantes se les asignará un “1” como valor de entrada.
2. La segunda simulación se realizará con las mismas características que la primera,
pero en esta ocasión se agregará la falla de componentes electrónicos con un grado
intermedio de ocurrencia y riesgo, es decir, el valor de entrada para cada una de las
preguntas de este bloque será el “2”. Las preguntas restantes tendrán valor “1”
3. La tercera simulación será retomada de la segunda, pero los valores de entrada para
el bloque de preguntas correspondientes a la falla de componentes electrónicos
serán la combinación de los valores “1” y “2” asignados aleatoriamente.
4. Posteriormente se hará una cuarta simulación, la cual tendrá las mismas
características de la tercera, pero los valores de las entradas correspondientes al
bloque de falla por usuario serán los números “1” y “2”.
5. Se efectuará una última o quinta simulación en la cual se tomarán los mismos
valores de la matriz de la cuarta simulación y se agregarán los valores de entrada
con los números “1” y “2” para la sección correspondiente a falla por
mantenimiento. Las preguntas restantes se les asignará el valor “1”.
Gráficas
Las gráficas obtenidas para cada una de las simulaciones se muestran en la tabla 1.1. Se
presentan dos graficas para cada simulación, una correspondiente a la distancia de pesos
entre vecinos y la otra que corresponde a los niveles de pesos de cada una de las preguntas.
Se eligieron estas dos gráficas de cuatro que ofrece la plataforma de Matlab, ya que son
más útiles para el análisis de los datos del proyecto y debido a que nos permiten observar
de manera más clara la relación y agrupamiento de los mismos.
Simulación Distancias de Pesos entre vecinos Niveles de pesos
1
2
3
4
5
Tabla 1.1. Gráficas de las simulaciones
Con base en las gráficas se obtuvieron los siguientes análisis para cada simulación:
Simulación 1
En la grafica correspondiente a la distancia de pesos entre vecinos, la cual representa la
integración de todas las preguntas, se observan algunos cambios drásticos en las
tonalidades a la salida de la red. El color nos indica la intensidad de la vecindad, es decir, la
distancia entre datos vecinos, por lo que se distinguen varios grupos en toda el área. Los
cambios drásticos en color marrón-negro presentes en la gráfica podrían deberse a las
entradas de valores extremos (1 y 3), los cuales reflejan la mayor distancia entre los pesos y
por consiguiente la pobre relación entre estos datos de salida existente en las vecindades de
los mismos, por lo que se observa una segmentación notoria y bien definida en la grafica.
Las agrupaciones de datos en color naranja podrían deberse a las entradas con valor “3”, los
cuales son un grupo aislado y reducido de números correspondientes al bloque de falla
eléctrica a los que se les asignó el riesgo más alto y por lo que se observa en la gráfica están
teniendo un efecto regular en las salidas de la red. Por el contrario, los datos de salida que
poseen tonalidades en amarillo representan una agrupación o clasificación de datos en los
que existe una correlación media, lo que podría representar el balance entre de la
correlación alta y baja. Este grupo representa la mayoría de los datos. En la mayor parte de
la grafica se observa claramente la predominancia de esta última agrupación mencionada,
por lo que el riesgo medio es el predominante en esta simulación.
En la gráfica de niveles de pesos para cada una de las preguntas, se observa que en las
entradas 1 a la 6 y de la 13 a la 37, los colores y ubicación espacial de los pesos son
exactamente las mismas para todas, lo que significa que se repite el mismo patrón en todas
y por lo tanto existe una gran correlación entre estos bloques de entradas. Esta relación hace
referencia a que para todas estas entradas la distancia entre los pesos es extrema, ya que en
todas solo se presentan dos grupos de datos, unos en color amarillo y otros en naranja. Esto
podría deberse a que la mayoría de las muestras poseen los mismos valores de entrada
(número 1) y solo un grupo reducido o aislado posee un valor diferente (número 3). La
predominancia del color naranja podría indicar el fuerte efecto que tiene la categoría de
falla eléctrica en cada una de las preguntas.
Es posible observar también un pequeño punto negro (riesgo bajo) en cada una de las
entradas el cual estaría representando la gran distancia entre los datos. La suma o
contribución de este punto negro se observa en la gráfica de distancia de pesos entre
vecinos donde se ve la integración de los mismos.
Para las gráficas correspondientes al bloque de preguntas de la 7 a la 12, se observa que la
mayoría de los datos presentan el color amarillo de manera más uniforme en toda la gráfica
y en las mismas zonas, y un grupo de datos menor en color naranja, lo cual podría
indicarnos que para este bloque el grado intermedio de riesgo tiene un efecto determinante.
Esto debido a que el grado de riesgo alto se ve contrarrestado por la presencia o
predominancia de la mayoría de datos en grado bajo de riesgo y se da un balance entre
niveles lo que da como resultado el nivel medio de riesgo. Los puntos negros distribuidos
en cada una de las entradas podrían estar representando los cambios drásticos de un valor a
otro.
Simulación 2
En la primera grafica se observan segmentaciones con cambios drásticos más variados en
las salidas, en comparación con la simulación anterior. Esto podría deberse a que se está
interrelacionando la nueva información con la que se tenía anteriormente, por lo que un
cambio de color perceptible puede indicar un grado de interacción entre preguntas, es decir,
se están generando vínculos con las preguntas anteriores. Los sesgos realizados en la
primera simulación aunados a la simulación actual, nos pueden decir que tan fuertes o que
tan correlacionadas están estas dos categorías en función de las preguntas que se realizaron.
La simulación 2 se realizó de esta manera ya que se espera que estas dos categorías
(eléctrica y componentes electrónicos) tengan una relación fuerte o importante.
En la gráfica se observa una cantidad importante de vecindades en color amarillo los cuales
representan un riesgo medio, esto podría deberse al balance entre las correlaciones. El
algoritmo trabaja conforme al orden en que se van metiendo los datos, este va
reacomodando pesos y haciendo las sumas, es decir, de acuerdo a como se van
incorporando las preguntas va reacomodando las salidas y va dando una cierta formación
que está determinando la correlación de los datos actuales con los nuevos. Como se observa
en la gráfica las correlaciones de riesgo alto se dan en casos esporádicos y la incorporación
de los datos de las graficas individuales no es lineal, ya que el algoritmo como tal lo que
hace es ir relacionando el cluster actual con el siguiente mediante la distancia del centroide,
aunque pareciera que esa relación nos daría un comportamiento lineal no es así, es decir, en
donde se esperaría ver el comportamiento consecuente o en la misma manera en las gráficas
similares. Hay que recordar que se está usando un mapeo en 2D de una base de datos de 37
dimensiones, por lo que se observa un mapeo muy limitado.
La franja negra fácilmente observable en la gráfica, podría estar representando el riesgo
bajo, y en comparación con los datos vecinos, la gran distancia existente entre ellos.
En las gráficas de niveles de pesos se observa la uniformidad de 3 colores bien marcados y
definidos en todas las entradas de las preguntas, a excepción del bloque de entradas
correspondiente a falla eléctrica, donde además es posible identificar un pequeño punto en
color rojo. En este bloque los colores amarillo y naranja se encuentran invertidos con
respecto a los demás. Para el bloque de falla eléctrica el color amarillo es predominante y el
naranja es reducido, esto podría indicar el efecto de las demás categorías sobre esta, que
contrarrestan el mismo. El grupo de datos en color negro puede estar representando la
contribución del riesgo bajo.
En las entradas o preguntas restantes, se observa el efecto predominante de la correlación
media-alta de riesgo.
Simulación 3
En la gráfica de distancias de pesos entre vecinos se distinguen dos agrupaciones
predominantes bien marcadas en toda la gráfica (amarillo y rojo). El color naranja-rojo
puede estar representando la contribución debida a la integración de cada una de las
entradas correspondientes a las graficas de niveles de pesos (derecha). Como se observa en
esa gráfica, son la mayoría de las entradas.
El color amarillo estaría representando entonces la contribución de cada una las entradas
correspondientes en mayor medida a las que se encuentran en el bloque o categoría de falla
por componente eléctrico.
En general, se puede deducir que hay una contribución separada de los riesgos alto y
medio, por lo que se distinguen dos correlaciones casi de igual proporción en
predominancia.
En la gráfica de niveles de pesos, la mayoría de las entradas tiene predominancia del color
rojo, a excepción de las entradas correspondientes a falla de componentes eléctricos. Este
color rojo en la mayoría de las entradas, podría indicar el fuerte efecto que tiene el riesgo
alto en el bloque concerniente a seguridad eléctrica.
El bloque de entradas 24 a la 28, se distingue claramente la predominancia de dos grupos
de datos (color amarillo y negro) y en menor medida los datos en color rojo. Esta
segmentación puede deberse a que para este bloque se introdujeron los valores numéricos
“1”y “2” en forma aleatoria, por lo que la predominancia de las correlaciones medias y
bajas se hace presente.
Simulación 4
En la gráfica a la izquierda, se observa una distribución de colores rojo-naranja
relativamente uniforme y solo algunas pequeñas zonas con cambios ligeramente bruscos en
color amarillo y negro. Este resultado indica que existe una gran relación entre la mayoría
de los datos de salida y la distancia de pesos entre ellos es mínima. Los cambios
ligeramente bruscos podrían deberse a que la distribución de los datos de entrada en las
preguntas no es siempre la misma. Los cambios más bruscos de colores representan los
datos vecinos con diferencias de valores grandes entre ellos (1 y 3).
La uniformidad de los datos en esta gráfica, nos dice que la categoría agregada, en este caso
la falla de usuario, tiene un importante efecto y contribución de riesgo alto.
En la gráfica correspondiente a los niveles de pesos, se observa uniformidad del color
amarillo para las preguntas 1 a la 6, 13 a la 18 y 29 a la 37, lo que significa que existe una
gran relación entre estos datos, debido a que todos los valores de datos introducidos en
estas entradas fueron “1”. Estos bloques de preguntas son a los que no se les hizo ningún
cambio en los valores de las entradas y se refleja en ellos una correlación media. En las
preguntas 7 a la 12, el color predominante es el rojo y solo se observan pequeñas áreas en
color amarillo. Este bloque de entrada corresponde a la categoría de falla eléctrica y se
observa la predominancia del nivel alto de riesgo. En las entradas 19 a la 23, se distinguen
dos grupos de datos, el color negro y el amarillo. Existe mayor predominancia de la
agrupación de datos en color negro que en amarillo, estas agrupaciones pueden deberse a
que los valores nuevos asignados para estas entradas fueron “1” y “2” y los que se tenían
anteriormente eran “1”, por esta razón podría haber predominado y prevalecido el color
negro, el cual corresponde al riesgo bajo. Por el contrario, el color con mayor cubrimiento
del área gráfica en las entradas 24 a la 28, es el amarillo y no el negro. Para este bloque
predomino el color amarillo que corresponde al riesgo medio, lo cual podría deberse a que
los datos anteriores tenían predominancia de riesgo media (valores 1 y 2) y los nuevos
valores agregados para esta categoría fueron los mismos, por lo que prevaleció más el
color amarillo correspondiente a la correlación media.
Simulación 5
Al igual que en la simulación anterior, la coloración roja y naranja es casi uniforme en toda
la gráfica. Se localizan pequeñas zonas con cambios de color drásticos y una pequeña
agrupación en color amarillo. Las distancias entre pesos es muy poca, lo que nos dice que
hay gran relación entre la mayoría de las salidas y algunos bloques.
La correlación predominante es la de alto riesgo
Las entradas 13 a la 18 y 29 a la 37 de la gráfica de niveles de pesos, presentan una
coloración totalmente uniforme del color rojo. Estas entradas son a las que no se les hizo
ningún cambio en todas las simulaciones. La correlación alta podría deberse al fuerte efecto
correspondiente a la falla eléctrica, componentes eléctricos y usuario. En las entradas 1 a la
6, se distinguen tres grupos. El color negro es el más predominante y el amarillo y rojo se
encuentran en menor medida. La correlación predomínate en estas entradas es la baja. Este
efecto podría deberse a que en la simulación anterior los valores de entrada eran “1” y los
valores nuevos asignados en esta simulación son “1” y “2”, por lo que existe un nivel de
riesgo de bajo a medio. Esto nos dice que esta falla no esta teniendo un importante efecto
en la simulación. Para las entradas 7 a la 12, predomina el color negro en mayor medida. El
color de este bloque cambió de acuerdo a la simulación anterior de rojo a negro. Esto
podría deberse a que la nueva variable introducida está generando un efecto reductivo en
este bloque, es decir, esta contrarrestando el nivel de riesgo alto para este bloque. En las
entradas 19 a la 23, se observa un efecto similar que en la simulación anterior, donde
predominaba el color negro sobre el amarillo y rojo. Esto podría deberse a que no se realizó
ningún cambio en este bloque y la nueva variable no causó ningún efecto importante en
este. El bloque correspondiente a falla por componente electrónico tampoco sufrió algún
cambio importante, ya que se sigue conservando la misma predominancia del color
amarillo.
Los bloques correspondientes a fallas de mantenimiento, eléctricos, componentes
electrónicos y usuario, establecen en cierta forma una relación entre sus datos, la cual es
observable en las gráficas, ya que poseen los mismos colores, aunque en diferentes
proporciones.
Se realizaron algunas otras simulaciones con el fin de observar el comportamiento de las
redes al introducir diferentes combinaciones de valores de entrada.
6. Se va a simular que el tipo de falla en usuario es la falla más recurrente y con mayor
riesgo en nuestra encuesta. Se elaborará una matriz en la cual el valor de entrada
para cada una de las preguntas de este bloque será “3”. Las preguntas restantes se
les asignará un “1” como valor de entrada.
7. La siguiente simulación se realizará con las mismas características que la primera,
pero en esta ocasión se agregará la falla riesgo eléctrico con un grado de ocurrencia
entre valores de “3 y 2” Las preguntas restantes tendrán valor “1”.
8. La simulación número ocho será retomada de la siete, pero los valores de entrada
para el bloque de preguntas correspondientes a la falla de componentes electrónicos
serán la combinación de los valores “3” y “2” asignados aleatoriamente.
9. Posteriormente se realiza una simulación, la cual tendrá las mismas características
de la simulación número siete, pero los valores de las entradas correspondientes al
bloque de componentes electrónicos serán “1” y “2”.
10. Finalmente se efectuará una última simulación que dará por terminado el ejercicio
de aprendizaje de la red, en la cual se tomarán los mismos valores de la matriz de la
octava simulación y se agregarán los valores de entrada con los números “3” y “2”
para la sección correspondiente a falla por mantenimiento. Las preguntas restantes
se les asignará el valor “1”.
Las gráficas obtenidas para cada una de las simulaciones se muestran en la tabla 1.2. Se
presentan dos graficas por cada simulación, igual que en las primeras 5 simulaciones una
correspondiente a la distancia de pesos entre vecinos y la otra que corresponde a los niveles
de pesos de cada una de las preguntas.
Simulación Distancias de Pesos entre vecinos Niveles de pesos
6
7
8
9
Tabla 1.2. Gráficas de las simulaciones
10
Simulación 6
En la grafica correspondiente a la distancia de pesos entre vecinos, se observan algunos
cambios drásticos en las tonalidades a la salida de la red. Los cambios drásticos en color
marrón-negro presentes en la gráfica podrían deberse a las entradas de valores extremos (1
y 3), los cuales reflejan la mayor distancia entre los pesos y por consiguiente la pobre
relación entre estos datos de salida existente en las vecindades de los mismos, por lo que se
observa una segmentación notoria y bien definida en la grafica. Este color corresponde a
una correlación baja. Las agrupaciones de datos en color naranja podrían deberse a las
entradas con valor “3”, los cuales son un grupo aislado y reducido de números
correspondientes al bloque de falla de usuario a los que se les asignó el riesgo más alto. Por
el contrario, los datos de salida que poseen tonalidades en amarillo representan una
agrupación o clasificación de datos en los que existe una correlación media, lo que podría
representar el balance entre la correlación alta y baja y que podría deberse en gran parte a la
integración de las entradas 19 a la 23 correspondientes a la falla de usuario en la grafica de
niveles de pesos. Este grupo representa la mayoría de los datos y nos habla del efecto
contundente que está teniendo la falla de usuario. En la mayor parte de la grafica se observa
claramente la predominancia de esta última agrupación mencionada, por lo que el riesgo
medio es el riesgo prevaleciente en la simulación.
En la gráfica de niveles de pesos para cada una de las preguntas, se observa que en las
entradas 1 a la 18 y de la 24 a la 37, los colores y ubicación espacial de los pesos son
exactamente las mismas para todas, lo que significa que se repite el mismo patrón en todas
y por lo tanto existe una gran relación entre estos bloques de entradas. En estas entradas de
distinguen claramente 3 grupos de colores. El grupo de datos en color naranja, el cual es el
más abundante, representa la correlación media-alta, la cual está teniendo una participación
importante en todas estas entradas. El grupo en color negro, representaría el riesgo o
correlación más baja y el cluster de datos en amarillo indicaría la correlación media, la cual
es menor en todas las entradas. La predominancia del color naranja podría indicar el fuerte
efecto que tiene la categoría de falla de usuario con riesgo medio-alto en cada una de las
preguntas.
Para las gráficas correspondientes al bloque de preguntas de la 19 a la 23, se observa que la
mayoría de los datos presentan el color amarillo de manera más uniforme en toda la gráfica
y en las mismas zonas, y un grupo de datos menor en color naranja y negro, lo cual podría
indicarnos que para este bloque el grado medio de riesgo tiene un efecto determinante. Esto
debido a que el grado de riesgo alto se ve contrarrestado por la presencia o predominancia
de la mayoría de datos en grado bajo de riesgo y se da un balance entre niveles lo que da
como resultado el nivel medio de riesgo. Los grupos en color negro distribuidos en cada
una de las entradas podrían estar representando los cambios drásticos.
Simulación 7
En la gráfica de distancias de pesos entre vecinos se distinguen dos agrupaciones
predominantes bien marcadas en toda la gráfica (amarillo y rojo). El color naranja-rojo el
cual es el más predominante puede estar representando la contribución debida a la
integración de las entradas correspondientes a las graficas de niveles de pesos para los
bloques de entradas de las categorías de falla de usuario y eléctrica. El color amarillo, el
cual es muy poco, estaría representando entonces la contribución de las entradas restantes,
que a pesar de que son la mayoría en la gráfica de la derecha, el color predominante en la
gráfica de distancias de pesos es el rojo. Esto podría deberse a la suma de los pesos
anteriores con los nuevos, lo cual da como resultado la predominancia del color naranja-
rojo en esta gráfica. Este resultado no habla del efecto importante que está teniendo la
nueva variable introducida (falla eléctrica). Comparando estas 2 simulaciones con el grupo
de simulaciones 1-5, se observa que el cambio de color amarillo a rojo se dio en este caso
mucho más rápido, lo que nos dice que las fallas de usuario y eléctrica son las categorías
con mayor impacto en el riesgo y las cuales podrían considerarse como el punto de partida
para la elaboración de un árbol de decisiones.
En la gráfica de niveles de pesos, la mayoría de las entradas tiene predominancia del color
amarillo el cual representa una correlación media, a excepción de las entradas
correspondientes a falla eléctrica y usuario. Este color amarillo en la mayoría de las
entradas, podría indicar el efecto contundente que tienen las categorías de falla eléctrica y
usuario sobre las demás.
El bloque de entradas 7 a la 12, se distingue claramente la predominancia de tres grupos de
datos bien definidos. Esta segmentación puede deberse a que para este bloque se
introdujeron los nuevos valores numéricos “3” y “2” en forma aleatoria, y los cuales
aunados a los valores anteriores con valor único de “1” dieron como resultado las
correlaciones bajas, medias y atas casi en la misma proporción.
El bloque de entradas correspondiente a la categoría de falla de usuario, posee de manera
bastante predominante el color rojo. Este resultado podría deberse a los nuevos valores
altos introducidos y en parte a la contribución de la categoría de falla eléctrica.
Simulación 8
La gráfica de distancias de pesos entre vecinos es muy similar a la anterior simulación ya
que se distinguen dos agrupaciones predominantes bien marcadas en toda la gráfica
(amarillo y rojo) y relativamente en la misma proporción que la anterior.
Los nuevos valores de la variable de falla de componentes electrónicos perecen no haber
causado un gran efecto y diferencia visible en esta gráfica. Tan solo se observa un pequeño
aumento apenas perceptible en la coloración de más salidas en rojo.
En la gráfica de niveles de pesos, no hubo un cambio considerable en todas las entradas, a
excepción de las correspondientes a la categoría de falla de componentes electrónicos. En
estas entradas se observan claramente tres grupos de colores bien definidos. El bloque de
entradas 7 a la 12, se distingue claramente la predominancia de tres grupos de datos bien
definidos en color negro, amarillo y rojo. El color rojo es apenas un poco más abundante
que los demás. Esta segmentación puede deberse a que para este bloque se introdujeron los
nuevos valores numéricos “3” y “2” en forma aleatoria, y los cuales aunados a los valores
anteriores con valor único de “1” dieron como resultado las correlaciones bajas, medias y
altas casi en la misma proporción.
Simulación 9
La gráfica de distancias de pesos entre vecinos es muy similar a la anterior simulación ya
que presenta la misma coloración con la única diferencia que en esta gráfica el tono rojo
disminuyo un poquito a naranja. Esto podría deberse a que los nuevos valores que se
introdujeron para la variable de falla de componentes electrónicos disminuyeron, los cuales
fueron “1” y “2”.
En la gráfica de niveles de pesos, no hubo un cambio considerable en las entradas, a
excepción de las correspondientes a la categoría de falla de componentes electrónicos. En
estas entradas se observan claramente la disminución del color rojo, por lo que ahora el
color amarillo y negro son más abundantes. Esta disminución se pudo haber dado debido a
que para este bloque se introdujeron los nuevos valores numéricos “1” y “2” en forma
aleatoria, lo que como resultado las correlaciones baja y media en mayor proporción.
Simulación 10
En la gráfica de distancias de pesos entre vecinos no se dio un cambio importante ya que es
muy similar a la gráfica de la simulación anterior. Se distinguen dos agrupaciones
predominantes bien marcadas en toda la gráfica. El color naranja-rojo es mucho más
abundante y uniforme que el color amarillo. Los colores se encuentran casi en la misma
proporción que en la gráfica de la simulación anterior, con la ligera diferencia que el tono
rojo bajo a un tono naranja en algunas salidas.
Los nuevos valores de la variable de falla de mantenimiento perecen no haber causado un
gran efecto y diferencia visible en esta gráfica.
En la gráfica de niveles de pesos, no hubo un cambio considerable en las entradas, a
excepción de las correspondientes a la categoría de falla de mantenimiento. En estas
entradas se observan claramente tres grupos de colores bien definidos en color negro,
amarillo y rojo. El color rojo es apenas un poco más abundante en algunas entradas. Esta
segmentación puede deberse a que para este bloque se introdujeron los nuevos valores
numéricos “3” y “2” en forma aleatoria, y los cuales aunados a los valores anteriores con
valor único de “1” dieron como resultado las correlaciones bajas, medias y altas casi en la
misma proporción.
Las entradas correspondientes a falla de componentes electrónicos, aumentaron la
coloración rojo que había disminuido en la simulación anterior. La nueva variable
introducida parce haber afectado un poco a esta variable, aumentado los datos con
correlación alta.
Simulación de redes neuronales supervisadas
Con lo que respecta a las redes neuronales supervisadas, se utilizará la herramienta nntool
de Matlab , la cual podemos llamar desde la ventana principal con el comando nntool.
El primer paso en la construcción de una red supervisada multicapa, entrenada con
Backpropagation, es crear dos vectores columna de entrada que definan, por un lado, los
patrones de entrada a la red y por otro, los valores esperados a la salida, denominados
comúnmente “targets”.
Con la herramienta nntool se necesitan introducir datos esperados o “targets” y los datos de
entrada llamados “inputs” tomados de la matriz creada con las respuestas del cuestionario.
Para obtener los datos de entrada, se utiliza una matriz de 37x50 en la que el 37 representa
las filas y el 50 representa las columnas y es tomado de esta forma para obtener los valores
de los targets.
Para poder obtener los valores de los targets de la simulación se toma en cuenta que las
preguntas de la encuesta se encuentran distribuidas en grupos los cuales representan cada
tipo de falla es decir:
Pregunta 1 a 6…… falla de mantenimiento
Pregunta 7 a 12….. falla eléctrica
Pregunta 13 a 18… falla de diseño
Pregunta 19 a 23… falla de usuario
Pregunta 24 a 28… falla de componentes electrónicos
Pregunta 29 a 33… falla de entorno
Pregunta 34 a 37… falla de materiales
Entonces, cada valor del target, es el resultado de primero, obtener un promedio de los
valores de las preguntas por cada clase, obteniendo así 7 promedios y posteriormente se
elige el más alto de esos mismos. Esto es para cada uno de los cuestionarios respondidos,
por lo tanto obtenemos una matriz de 1X50. En este caso, los valores de entrada y los target
irán cambiando conforme a cada simulación.
Una vez explicada la forma en que se utilizarán las matrices de entrada podemos hacer las
simulaciones.
La primera simulación se asignan valores altos a las preguntas 1 a 5, las cuales representan
un tipo de falla en mantenimiento y por lo tanto a las demás preguntas se les asignan
valores aleatorios de “1” y “2”. Los targets son el resultado del promedio de cada pregunta
de las clases de la encuesta.
Una vez introducidos los datos, las matrices son importadas desde la ventana de trabajo de
nntool (Figura 2) y se crea la red Backpropagation con dos capas, en la capa 1, que es la
única que se puede modificar se le asignan 15 neuronas para evitar una memorización de la
red.
Una vez que es creada la red, se les asigna una vez más los inputs y targets para lograr el
entrenamiento de la red y la simulación de las salidas (Figura 2.1).
Figura 2. Ventana de importación y creación de redes neuronales mediante nntool de Matlab.
Figura 2.1 Ventana para modificar parámetros de entrenamiento y simulación de redes neuronales
Figura 2.2 Ventana en la cual podemos ver el progreso del entrenamiento de la red neuronal y nos da
diferentes opciones de graficación.
Si se hace click sobre el botón Performance se puede ver una gráfica de la evolución del
EMC (Error Cuadrático Medio) con relación al número de iteraciones realizadas por el
algoritmo de entrenamiento (Figura 2.3)
En la gráfica se puede observar como el error cuadrático medio va disminuyendo, es decir,
como la red neuronal va aprendiendo el comportamiento a seguir. El gráfico muestra 3
líneas, esto se debe a que los patrones de entrada son divididos en 3 conjuntos. El 60% de
las muestras se emplean para realizar el entrenamiento y un 20% son empleadas para
validar “que tan buena” es la red entrenada. El entrenamiento de la red continua mientras se
consiga reducir el EMC de los vectores de validación. El 20% restante de los vectores
sirven para realizar un test, independiente del proceso de generalización de la red, con datos
que nunca han sido usados.
Figura 2.3 Evolución del Error Cuadrático Medio con relación al número de iteraciones realizadas por el
algoritmo de entrenamiento.
El botón de Training State podemos la figura 2.4 la cual nos muestra la evolución del error,
pero ahora a lo largo del entrenamiento.
Figura 2.4 Evolución del EMC durante el estado del entrenamiento de la red
Como podemos observar en la figura 2.5 la red simulada cae dentro de los valores de
tolerancia establecidos para decir que la simulación es aceptable.
Aquí es donde podemos observar lo que se mencionó anteriormente, cuando el 60% de las
muestras se emplean para realizar el entrenamiento, el 20% son empleadas para validar la
red entrenada y el 20% restante de los vectores sirven para realizar un test,
Figura 2.5 Gráfico en donde se puede observar el nivel de confiabilidad durante el entrenamiento (azul), la
validación (verde), el test de la red (rojo) y por último un promedio de los tres anteriores (negro).
Por último, si nos regresamos a la ventana de administración de nntool podemos ver que en
el apartado de salidas nos ha creado un documento el cual lo podemos comparar con la
matriz de targets (valores esperados). A continuación se muestra la comparación de los
primeros 10 targets contra las primeras 10 salidas.
Targets
2.33 2.50 2.17 2.67 2.33 2.00 2.50 2.00 1.67 2.00
Salidas 2.36 2.54 2.14 2.64 2.33 1.81 2.46 1.99 1.68 2.00
Puede observarse que se aproximan de manera significativa a los targets.
Para la segunda simulación las entradas fueron cambiadas y por lo tanto también se
cambiaron las valores esperados.
La matriz de las entradas ahora esta determinada para que obtengamos un tipo de falla
eléctrica y es por eso que los valores de las preguntas 6 a 10 son mas altas y es por eso que
también los targets se han modificado.
10 primeros valores esperados 2.00 2.17 1.83 2.33 2.00 2.00 2.17 1.50 1.50 1.83
Figura 3. Como podemos observar en la figura, ahora aumentaron el número de iteraciones aunque el número
de “epoch” es el mismo. Esto sucedió porque hubo otra condición de parada que hizo que la red no continuará
el entrenamiento sin embargo esto hizo que la disminuyera el error.
Figura 3.1 Evolución del EMC con respecto al número de iteraciones, más iteraciones dan como resultado una
disminución del error.
En la gráfica se puede observar como el error cuadrático medio va disminuyendo de manera
considerable, ya que el entrenamiento, la validación y el test con mas cercanos a obtener
una valor de uno lo cual significa un mejor resultado, es decir, la red neuronal va
aprendiendo el comportamiento a seguir.
Figura 3.2 Nivel de aceptación de la red en entrenamiento, validación y test.
Comparación entre targets y salidas
Targets 2.00 2.17 1.83 2.33 2.00 2.00 2.17 1.50 1.50 1.83
Salidas
1.99 2.17 1.71 2.36 2.00 2.11 2.22 1.54 1.63 1.91
Es posible tener un mayor control sobre el entrenamiento de nuestra red neuronal , para así
obtener mejores resultados.
Una primera idea es reiniciar la red y volver a entrenarla (obteniendo así resultados
diferentes, ya que, por ejemplo, los valores iniciales de las ganancias y las matrices de
pesos, usados como punto de partida, son diferentes, ofreciendo el método del gradiente
descendiente otra convergencia.)
Una segunda opción es incrementar el número de neuronas en la capa oculta, esto puede
permitir obtener mejores resultados en la simulación, pues se cuenta con más parámetros
para obtener una mejor optimización. Sin embargo, existe una cota superior para el número
de neuronas en las capa ocultas, demasiadas neuronas podrían conseguir que los patrones
de entrada fueran memorizados (“overfitting”), de manera que ningún tipo de
generalización fuera posible, haciendo que la red fuera inútil con nuevos datos de entrada.
Aunque el EMC obtenido es muy pequeño, para los patrones de entrenamiento, resulta muy
grande cuando nuevos datos son presentados a la red. Nuestra red ha memorizado las
muestras de entrenamiento, pero no ha aprendido el comportamiento a seguir en situaciones
nuevas.
Los valores obtenidos, al igual que en la primer simulación, se asemejan mucho a los
esperados (targets).
Para concluir con las simulaciones, se muestra una última en la que ahora las matriz está
manipulada de tal forma que podamos observar recurrencia de fallas en el diseño de equipo
médico y los resultados obtenidos fueron los que a continuación se muestran.
La creación y entrenamiento de la red esta basada en una matriz que nos debería conducir a
revelar fallas en el diseño de equipo y los targets son el promedio de los valores de cada
una de esas preguntas correspondientes a esa clase.
En la figura 4 podemos observar la ventana de entrenamiento de la red en donde hay 7
iteraciones solamente pero la condición de parada ahora es la validación de la red.
El error cuadrático medio (Figura 4.1), se comporta muy similar a las dos simulaciones
anteriores y tiende a ser una valor muy pequeño. Ahora la capa contienes solo 10 neuronas
y sin embargo no se nota diferencia alguna.
Figura 4. Ventana de progreso de entrenamiento de la red supervisada.
Figura 4.1 EMC a lo largo de las iteraciones de la red, igual comportamiento hacia la disminución.
Figura 4.2 Es una de los mejores entrenamientos que se han obtenido a lo largo de éste documento ya que el
error es mínimo tanto en el entrenamiento, validación y el en test.
Al igual que en las simulaciones anteriores, podemos ver las salidas y comparar con los
valores esperados
Targets 1.67 1.83 1.67 2.00 1.83 1.67 2.00 1.50 1.50 1.67
Salidas
1.59 1.78 1.61 2.01 1.80 1.61 1.92 1.55 1.55 1.64
Existen varias condiciones para que la red deje de entrenar y entre ellas podemos
mencionas algunas otras:
epochs: determina el número máximo de iteraciones que llevará a cabo el algoritmo, si no
se cumple alguna de las condiciones de parada antes.
goal: si el error cuadrático medio (ECM) cae por debajo del valor de “goal” (ejemplo: 1e-
5 ), ya no se llevan a cabo más iteraciones.
mingrad: si la magnitud del gradiente es menor que “mingrad”, termina el entrenamiento.
time: si el algoritmo no encuentra la convergencia en el tiempo expresado en segundos por
“time” finaliza el entrenamiento.
Otro punto importante a analizar en cada una de las simulaciones de perceptrón es calcular
el porcentaje de clasificación correcta el cual no es otra cosa sino el porcentaje de qué tan
diferentes son los valores de salidas respecto a los targets. Además, en función del
porcentaje de clasificación correcta para cada una de las clases nos dice que tan linealmente
separables son nuestras categorías. En la siguiente tabla se muestra esos porcentajes, pero
solo de las primeras preguntas. (ver tabla completa en excel).
% DE CLASIFICACIÓN CORRECTO
Simulación1 98.7% 98.2% 98.7% 98.9% 99.7% 90.3% 98.5% Simulación2 99.5% 99.7% 93.2% 98.9% 100.0% 94.7% 97.7% Simulación3 95.5% 97.0% 96.5% 99.6% 98.2% 96.6% 96.1%
Como podemos observar en la tabla completa, el porcentaje arrojado se encuentra arriba del
90% y con esto podemos sustentar que podemos agrupar por paquetes a las preguntas, sin
olvidar que cada paquete es una de las 7 categorías propuestas. Todo esto con la finalidad
de construir un árbol heurístico y mejorar nuestro sistema.
Resultados y análisis
Para las redes supervisadas, con la herramienta nntool de matlab se obtuvieron los
resultados que se muestran a continuación, no sin antes mencionar los datos y parametros
de entrada para el entrenamiento.
La encuesta esta clasificada en clases de acuerdo a las preguntas establecidas, es por eso
que tenemos la siguiente distribución:
Pregunta 1 a 6 …… Falla de mantenimiento
Pregunta 7 a 12….. Falla eléctrica
Pregunta 13 a 18… Falla de diseño
Pregunta 19 a 23… Falla de usuario
Pregunta 24 a 28… Falla de componentes electrónicos
Pregunta 29 a 33… Falla de entorno
Pregunta 34 a 37… Falla de materiales
La matriz de entrada (Figura 5) es un tomada de las puntuaciones que se les dieron a cada
una de las 37 preguntas de la encuesta, las cuales fueron contestadas por 41 Ingenieros
Biomédicos relacionados al ambiente hospitalario, es decir, se cuenta con una matriz de
37x41. El número 37 representa a las preguntas establecidas en la encuesta y el 41
representa a el número de encuestas contestadas.
ENCUESTAS CONTESTADAS
P R E G U N T A S D E L A E N C U E S T A
1 2 2 2 2 2 2 1 2 2 1 2 2 1 1 1 1 1 2 1 1 1 2 1 2 2 2 1 2 1 2 2 2 2 2 2 2 2 1 2
1 1 1 2 1 1 1 1 1 2 1 1 2 2 1 2 1 1 1 1 2 1 1 1 2 1 1 2 2 1 2 1 2 2 1 2 1 2 1 1
2 1 2 1 2 2 2 3 1 2 3 1 1 1 1 1 2 1 1 1 2 2 1 2 2 1 1 1 1 1 1 1 2 1 1 2 1 1 1 1
1 1 1 1 1 1 1 1 1 2 2 1 1 1 1 1 1 2 1 1 1 2 1 1 2 2 2 1 1 1 1 2 1 1 2 2 1 2 2 1
1 2 1 2 1 1 1 1 2 2 1 1 1 1 1 1 1 2 1 1 1 1 1 1 1 1 2 1 2 1 2 1 1 1 1 2 2 1 1 1
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 3 2 1 1 1 1 1 1 1 1 1 1
1 3 1 3 1 3 2 2 3 2 1 3 2 3 1 1 2 2 1 2 1 2 1 2 1 1 2 3 2 1 3 1 3 3 2 2 2 1 2 3
1 3 1 1 1 1 2 2 1 1 1 2 2 2 1 1 1 1 1 1 1 1 1 2 1 1 1 1 2 1 3 1 1 1 1 1 2 2 3 1
3 1 1 3 2 1 3 3 1 2 2 2 1 2 1 2 1 1 1 1 2 3 1 1 3 1 1 3 3 1 3 1 1 3 2 2 3 1 1 3
1 3 2 1 1 3 1 3 1 1 2 3 2 2 1 1 1 1 1 1 2 1 2 1 1 2 3 1 1 1 2 1 2 1 3 2 3 1 2 2
1 3 1 3 2 3 1 2 2 1 2 1 3 3 3 2 3 3 2 2 1 1 2 2 2 3 3 2 3 1 3 2 3 2 1 1 2 1 1 1
1 1 2 2 3 3 1 1 2 2 2 3 1 1 1 1 1 3 1 1 1 2 2 1 1 1 1 1 1 2 2 2 2 3 1 3 3 2 2 3
2 3 1 2 2 1 1 1 1 1 1 1 2 3 3 3 1 3 1 1 1 2 1 1 1 1 1 1 3 1 2 1 3 1 1 1 3 3 1 3
2 1 2 2 2 2 1 2 1 2 2 2 2 3 3 2 2 3 2 2 2 2 3 1 1 2 2 2 2 1 2 2 2 2 2 2 2 2 1 2
1 2 2 2 2 1 2 2 1 2 1 1 2 3 3 3 1 2 2 1 1 1 1 2 2 1 1 1 2 1 2 2 2 2 2 1 2 1 2 2
2 2 1 2 2 2 1 2 2 2 2 3 3 3 3 3 3 2 2 2 1 2 2 2 2 2 2 1 2 1 2 2 2 3 2 2 2 2 2 2
1 2 1 2 1 1 2 1 1 3 1 2 2 2 1 2 1 1 1 1 1 1 1 1 1 1 2 2 1 1 2 1 1 2 1 1 2 1 1 2
1 2 1 1 2 2 2 2 2 3 1 1 2 2 2 2 2 3 3 3 3 3 3 3 2 1 2 2 2 2 2 1 1 1 1 1 1 2 1 2
2 2 2 1 2 2 2 3 2 3 2 3 3 2 2 3 3 3 2 3 3 3 3 3 1 1 2 1 3 2 1 1 2 3 1 3 3 2 1 3
3 3 3 2 3 3 2 2 3 2 3 2 2 2 1 2 3 3 3 2 3 3 3 3 2 2 3 2 2 1 2 2 3 3 2 2 3 2 3 3
2 3 1 3 3 3 1 3 3 3 1 3 3 3 3 3 3 3 3 1 3 2 3 2 1 1 3 1 2 1 3 3 1 2 1 1 3 3 3 1
1 2 3 3 2 2 3 2 3 3 3 2 3 2 2 3 3 2 3 3 3 2 3 3 3 3 1 2 2 2 3 3 2 3 2 2 3 3 2 3
2 2 3 3 3 1 1 3 3 2 1 3 1 3 3 3 3 3 3 3 3 3 3 3 3 2 3 3 3 3 3 3 3 3 3 3 3 2 3 2
1 2 2 2 2 1 2 1 1 2 1 1 2 2 2 1 2 2 1 1 2 2 1 2 1 2 2 1 2 1 2 2 2 1 2 1 2 1 1 1
1 1 2 2 3 1 2 1 2 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 1 1 1 2 2 1 1 2 1 1 2
1 1 1 3 1 3 1 1 1 1 1 2 2 1 1 1 1 2 1 1 1 1 1 1 3 2 1 1 2 1 3 1 3 3 1 1 2 1 1 1
1 1 1 1 2 1 1 3 1 1 1 2 3 1 1 1 2 2 1 1 1 1 1 1 1 1 3 2 1 1 1 2 2 1 1 2 2 1 2 2
3 1 1 1 1 1 1 1 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 1 1 1 2 2 1 1
1 3 3 3 1 1 2 2 2 3 1 2 2 1 2 2 3 3 3 2 1 1 1 2 1 1 1 1 2 1 3 1 1 3 3 1 3 2 1 1
1 3 3 1 1 1 1 1 1 3 1 3 3 2 3 2 1 3 2 1 1 2 1 1 1 1 3 1 1 1 1 1 3 3 1 1 1 3 1 3
1 1 1 1 2 3 3 1 3 1 1 3 1 2 1 1 1 1 1 2 1 1 2 1 1 2 1 1 1 3 1 2 1 3 3 1 1 1 1 1
1 2 1 1 2 1 2 2 1 1 1 3 2 2 2 1 1 2 1 1 1 2 1 1 1 1 2 1 1 1 2 1 2 1 2 2 2 1 2 2
1 2 1 1 2 2 1 2 1 1 1 1 1 1 2 1 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 1 1
1 3 3 3 2 2 1 1 2 3 3 2 2 3 2 1 2 1 1 1 2 1 2 1 2 2 3 2 3 1 1 2 3 2 1 2 2 3 1 2
1 2 2 1 1 1 2 1 3 2 3 1 1 1 1 1 2 1 1 1 1 1 1 2 2 2 3 3 3 1 2 3 1 2 2 2 2 2 1 2
1 1 1 1 1 1 1 2 1 1 1 1 1 1 1 1 2 1 1 1 1 1 2 1 1 1 1 1 1 1 2 1 1 1 1 1 2 1 1 1
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 3 1 1 1 1 1 1 1 1 1 1 1 2 2 1 1 1 1
Figura 5. Matriz de entrada de la red neuronal supervisada
Para encontrar los valores esperados (Figura 5.1)se realiza un promedio de las preguntas
contenidas en cada clase, después ese valor es comparado con el resto de los promedios y
es elegido el valor más alto para así obtener una matriz de 1x41.
2 2.4 2.4 2.4 2.6 2.2 1.8 2.6 2.8 2.6 2 2.6 2.4
Figura 4.1 Matriz de targets o valores esperados de la red neurona supervisada (13 primeros)
Una vez establecidas las dos matrices mencionadas anteriormente (targets e inputs),
procedemos a importarlos a la ventana de gestión de nntool y se crea una red neuronal, en
donde nos pide que introduzcamos los datos con los que se van a trabajar. Podemos
manipular el número de neuronas con las contará nuestras capas de la red pero, como ya se
había mencionado, no debemos darle un valor muy alto porque corremos el riesgo de que
haya memorización y no funcione con otros datos de entrada.
Posteriormente, se da el entrenamiento a la red y nos aparece una ventana como la de la
figura 5.2 en la que nos muestra en general, los avances del entrenamiento y las
condiciones por las que puede detenerse el mismo. La ventana que se ve al fondo nos
muestra los parámetros que se pueden modificar para un entrenamiento y la simulación de
la red.
Figura 5.2 Ventana de entrenamiento de la red supervisada.
Si oprimimos el botón de Performance nos aparece la figura 5.3 en la que podemos
observar la evolución del Error Cuadrático Medio conforme nuestra red realiza las
iteraciones. Hay que recordar que mientras una condición de parada no se cumpla, nuestra
red sigue iterando y por lo tanto el EMC disminuye. El EMC es pequeño lo que garantiza
que nuestra red se esta comportando de una manera adecuada.
Figura 5.3 Evolución del EMC durante las iteraciones de la red supervisada.
Otra alternativa para visualizar el comportamiento de la red entrenada es con el botón
“Progression” la cual no arrojará la Figura 5.4 en la cual podemos observar el
comportamiento de los datos que son tomados para el entrenamiento (color azul), en los
que son tomados para la validación (color verde) y en los que son utilizados para ejecutar
un test de la red (color rojo). Estamos considerando a nuestra red como muy aceptable ya
que los valores son muy cercanos a 1. Hay que mencionar que se consideran como
aceptables a valores que se encuentran entre 0.7 y 1.
Figura 5.4 Comportamiento de los datos usados en el entrenamiento, en la validación y en el test.
Si nos movemos por las pestañas de la ventana de entrenamiento, podemos ver la de
simulación en la cual nos creará un archivo en el cual podremos ver las salidas (outputs) de
la red entrenada y podemos comparar con los datos esperados.
Es así como obtenemos las siguientes 11 salidas de un total de 41: 1.94 2.79 2.34 2.42 2.59 2.56 1.81 2.63 2.88 2.96 2.06
Si realizamos una comparación entre entradas y salidas, podemos decir que son muy
similares y nos indican un buen entrenamiento de la red.
Porcentaje de correlación de las primeras entradas y salidas. REALES 97.0% 85.9% 97.4% 99.3% 99.4% 85.8% 99.2%
Como podemos observar en la tabla completa, el porcentaje arrojado se encuentra arriba del
90% y con esto podemos sustentar que podemos agrupar por paquetes a las preguntas, sin
olvidar que cada paquete es una de las 7 categorías propuestas. Todo esto con la finalidad
de construir un árbol heurístico y mejorar nuestro sistema.
Para el caso de las redes no supervisadas se obtuvieron los siguientes resultados.
En la tabla 6, se muestran las gráficas correspondientes al entrenamiento de los datos reales de la encuesta.
Simulación Gráfica de distancia entre pesos Gráfica de niveles de pesos
1
Tabla 6. Gráficas del entrenamiento de los datos reales
En la gráfica de distancias de pesos entre vecinos, se observa una gran uniformidad y
homogeneidad en la distribución de los colores rojo y naranja. La excepción se encuentra
en algunas pequeñas zonas o grupos de salidas en las cuales se distingue el color amarillo y
cambios drásticos. Cabe señalar, que la gráfica no muestra una gran segmentación de la
distribución de datos, por lo que se puede apreciar como un grupo grande de datos que
comparten características y solo una pequeña porción que no comparte similaridad.
Los resultados obtenidos, indican que las distancias entre pesos en la mayoría de las salidas
es estrecha o poca, lo cual significa, que existe una gran relación entre la mayoría de los
datos de salida. Las zonas aisladas de datos en color amarillo y negro, nos dicen que hay
dos grupos de datos que no comparten buena relación entre el resto de la distribución y
entre ellos.
La gráfica de niveles de pesos muestra en la distribución de datos, cierta predominancia del
color amarillo , rojo y naranja en la mayoría de las entradas, pero en mayor proporción en
las entradas 7, 9, 11, 12, 13, 19, 20, 21, 22, 23, 24, 29 y 34, lo que indica que existe gran
relación entre estas entradas principalmente. Las entradas que comparten mayor relación de
este grupo por los colores rojo-amarillo pertenecen al bloque correspondiente a la falla de
usuario. El grupo de datos con mayor semejanza y alta relación corresponden a las entradas
6, 28 36 y 37.
Las entradas 3, 15, 17, 25, 27 y 32 muestran una distribución con dominancia del color rojo
y negro, por lo que establecen también grandes relaciones.
Propuesta para de un árbol de jerarquías
Los árboles nos proveen un método efectivo para la toma de decisiones debido a que
claramente plantean el problema para que todas las opciones sean analizadas. Permiten
analizar los posibles caminos a seguir en este caso en base al grado de agrupación que se
presente al realizar los entrenamiento de la red neuronal. Nos conduce además a mejorar el
sistema planteado con redes neuronales no supervisadas, generando así una estrategia para
analizar gradualmente la fallas que más afectan a equipos médicos.
Una vez obtenidos los resultados en las redes neuronales por medio del clustering, éstos
datos se utilizarán como base para construir un árbol de jerarquías, heurístico el cual nos
permita mejorar el sistema.
El árbol contemplará las 7 categorías de fallas mencionadas en el documento en, donde
cada categoría o clase contempla un cierto número de preguntas de determinada falla, tal
como se dividió en las encuestas. Esta clasificación de clases la podemos hacer por que los
resultados arrojados en las redes neuronales de perceptrón nos lo garantizan, debido a que
el porcentaje de clasificación correcta es alto.
Primero que nada comenzaremos por decidir cual será nuestra raíz, y esto lo haremos con la
ayuda de los SOM, se harán entrenamientos con cada una de las fallas por separado, es
decir, pondremos los resultados obtenidos de un tipo de falla y las demás las dejaremos en
1, y así con cada una de ellas y observaremos cual de los tipos de falla es la que más
agrupa, tomándola como base del árbol, como falla principal.
Entonces con esto obtenemos los siguientes resultados y tenemos que el usuario es la que
más agrupa.
Agrupación de falla eléctrica Agrupación de falla de usuario
Una vez que ya conocemos la falla que más agrupa, ésta va a ser nuestra raíz, y ahora
tomamos éste entrenamiento y le agregamos dos posibles combinaciones, una va a ser a la
de componentes electrónicos y otra la de falla eléctrica, pero cada una por separado,
obteniendo lo siguiente:
A la derecha se puede observar la agrupación de las fallas de usuario mas la de componentes electrónicos y
al lado izquierdo podemos se observa la falla de usuario más la falla eléctrica
La agrupación de éstos dos tipos de fallas son prácticamente la misma, pero en base a la
investigación teórica que hemos realizado podemos sustentar que la falla eléctrica es una de
las principales causas de que se genere un riesgo, además ésta puede ser la causa de que un
componente electrónico falle y es por esa razón por la cual nuestro siguiente nivel
jerárquico es la combinación de usuario y falla eléctrica y no la de usuario y componentes
electrónicos.
Ahora que ya determinamos nuestro último nivel jerárquico, este será nuestra base para
otras posibles combinaciones de fallas, se agregarán la falla por componentes electrónicos
y la falla por mantenimiento, cada una por separado, los resultados de agrupación son los
siguientes:
La parte izquierda muestra la agrupación de falla de usuario, mas eléctrica, mas componentes electrónicos. A
la derecha, se muestra la agrupación de falla de usuario, más eléctrica, más mantenimiento
La decisión de cual será el siguiente nivel no es clara, ya que la distribución del
agrupamiento no es diferencial entre las dos gráficas, tal como nos ocurrió en el nivel
anterior, solo que ahora éstos dos tipos de fallas las podemos distribuir en un mismo nivel y
podemos observar una agrupación mínima pero si la comparamos con la anterior es mayor
que las dos fallas por separado.
Agrupación de falla de usuario, más eléctrica, más componentes electrónicos y se agrega falla por
mantenimiento.
Una vez más, este último nivel será nuestra base para armar el siguiente nivel, ahora se
agregarán los datos obtenidos en las fallas de materiales por una parte y por la otra se
agregarán los datos de falla de diseño.
La parte izquierda muestra la agrupación de falla de usuario, más eléctrica, más componentes, más
electrónicos y falla por mantenimiento, pero ahora se agrega falla por entorno. A la derecha, se muestra la
agrupación de las mismas fallas pero en el lugar de entorno, se sustituye por falla de materiales.
Podemos observar que la agrupación es casi la misma, sin embargo apoyándonos y
analizando detenidamente la información proporcionada por las encuestas, podemos
sustentar que el nivel de jerarquía siguiente corresponde a fallas por materiales mas que por
fallas en entorno.
Por último, nos quedan solo dos posibles combinaciones las cuales son la de agregar falla
de diseño y falla de entorno en la cual la obtención es una mayor agrupación en la primera
de ellas y por lo tanto es la elección tomada o camino a seguir.
La primer agrupación de falla de usuario, más eléctrica, más componentes, más electrónicos, más falla por
mantenimiento, y falla de material, ahora se agrega falla de diseño. A la derecha, se sustituye la de diseño por
la de entorno.
Con todo lo anterior podemos construir el siguiente árbol de jerarquías en el cual
mostramos que la falla por el usuario tiene un mayor impacto, aún más que el eléctrico, sin
embargo el entorno, es el que menos influye.
Discusión
La relación estrecha en la mayoría de los datos correspondientes a la gráfica de distancias
de pesos entre vecinos se debe a que, la mayoría de las entradas de la red en casi todas las
muestras son muy similares, ya que los valores de entrada de la matriz se encuentran
distribuidos en una proporción semejante para casi todos los niveles de riesgo. Por ello, se
puede decir que en gran parte de la preguntas, los ingenieros respondieron o acertaron en
forma proporcional en los tres valores de niveles de riesgo, es decir, que al menos para cada
pregunta se contesto con algún valor de riesgo alto, bajo o medio para el total de las
muestras. Es por ello que las distancias entre pesos son pequeñas y la red no sesga o
segmenta de forma marcada la distribución de datos de salida de la red. Cabe mencionar,
que existe un grupo de datos que posee una distancia de pesos alejada con respecto al de la
mayoría mencionada anteriormente. Este grupo de datos representa las respuestas de las
preguntas en las cuales se obtuvo valores similares en casi todas las muestras. El color
amarillo en esta área, nos indica de acuerdo a los resultados de las simulaciones, que este
grupo o clase de datos posee en mayor cantidad el valor “1”, correspondiente al riesgo bajo.
Así también se observa un pequeño grupo de datos que tampoco comparten relación con las
demás clases de datos, los cuales son coloreados en color negro en la gráfica y que indican
un grupo con alto nivel de riesgo.
Resumiendo, en la distribución de la gráfica se observan tres clases de datos bien definidos.
La mayor distribución corresponde a la clase de datos que poseen un nivel intermedio de
riesgo los cuales son marcados en color rojo-naranja. Las dos restantes clases representan
un grupo pequeño de datos con alto nivel de riesgo en color amarillo y un grupo de datos
con un bajo nivel de riesgo en color negro. Cabe mencionar que el nivel alto de riesgo se da
principalmente en los cambios de rojo a amarillo. Con esta primera gráfica, no es suficiente
para discernir que bloques de preguntas corresponden o están asociados a cada uno de los
niveles de riesgo.
Para identificar las preguntas que obtuvieron un valor de riesgo alto, medio o bajo y
asociarlas en bloques o clases, fue necesario, observar y analizar la gráfica de niveles de
pesos correspondiente a cada una de las entradas.
Las preguntas con el menor nivel de riesgo pertenecen a las secciones de falla por
mantenimiento, componentes y materiales. Este resultado se obtuvo a partir de las entradas
6, 28, 36 y 37, que presentan la relación más estrecha de todas las entradas y las cuales
presentan el color negro en mayor predominancia.
Las entradas 1, 2, 4, 5 y 33 por sus colores predominantes en negro-amarillo, se ubican en
las entradas con niveles de riesgo de bajo a intermedio.
El grupo de entradas 3, 8, 14, 15, 17, 25, 27 y 32 establecen relaciones similares y
presentan por su color predominante rojo-negro, un nivel intermedio de riesgo. Estas
preguntas pertenecen a los bloques de falla por mantenimiento, eléctrica, diseño,
componentes y entorno.
El bloque de entradas que presenta mayor nivel de riesgo es el correspondiente a falla de
usuario, ya que la relación entre los pesos en todas las entradas es muy similar y los colores
rojo-amarillos predominan en los mismos.
Finalmente se encontró un grupo de datos que por su semejanza comparten una relación
estrecha y poseen en mayor medida los colores amarillo, rojo y naranja y menor medida el
negro. Estas entradas son las siguientes: 7, 9, 10, 11, 12, 13, 19, 20, 21, 22, 23, 24, 29,30 y
34. Por sus colores característicos se puede decir que este grupo de datos poseen niveles
intermedios a altos de riesgo. Debido a que representan la mayoría de las entradas, esto nos
indica que son los niveles que se presentan con mayor recurrencia en las entradas. Estas
pertenecen a los bloques de falla eléctrica y usuario en mayor medida y a falla por diseño,
entorno y materiales en menor número.
Los pesos nos están representando el aprendizaje de las neuronas, es por ello, que si las
salidas presentan en su mayoría un peso similar, quiere decir, que la red está obteniendo y
aprendiendo a clasificar los valores de entrada con mayor recurrencia. Los colores entre las
salidas representan las distancias entre los pesos.
Hemos obtenido resultados muy satisfactorios durante la implementación de las redes
neuronales y hemos visto una cierta tendencia hacia las fallas por parte del usuario y a
fallas eléctricas, pero en el desarrollo de este proyecto encontramos ventajas y desventajas,
aciertos y errores que podrían haber ocasionado un mejor resultado.
Una vez obtenidos los datos y haber entrenado las redes neuronales supervisadas no sin
antes haber realizado simulaciones para constatar que la red funciona adecuadamente nos
encontramos con que la cantidad de encuestas contestadas es deficiente y por lo tanto nos
puede conducir a sesgos en el entrenamiento de la red neuronal ya que debemos recordar
que estas entradas son los ejemplos que nuestra red va a tomar para validar, entrenar y
realizar el test. Otro punto importante que también puede afectar a la red radica en la forma
en que se realizó la distribución de las clases ya que no todas contienen el mismo número
de preguntas y éstas últimas tienen el mismo peso al momento de analizar las fallas.
Los usuarios que no están familiarizados con Matlab se enfrentarán a muchas dificultades
en el diseño, pruebas, validación y procesos de capacitación. Lo que pudimos darnos cuenta
es que existen dificultades para mantener los datos, la elección de los modelos de red que
desee y otros procesos que participa en el diseño de redes neuronales ya que el uso de la
interfaz nntool es intrincada.
En consecuencia, esto nos obligó a utilizar métodos de prueba y error durante estos
procesos lo cual provoca un retraso en realizar las simulaciones y el entrenamiento pero que
al mismo tiempo nos ayudó a constatar que la red funciona de manera adecuada, y esto se
puede ver en las simulaciones porque es allí donde introdujimos datos conocidos y ya
sabíamos cuales serían las salidas y nuestra red trabaja de forma efectiva.
Así también en la interfaz de nntool no podemos mirar los procesos o actividades que se
han ejecutado y por tal razón, se tiene que repetir el mismo proceso de nuevo para el
próximo diseño de las RNA.
Habíamos mencionado que para el entrenamiento de la red supervisada, Matlab divide los
datos en 3 conjuntos. El 60% de las muestras se emplean para realizar el entrenamiento y
un 20% son empleadas para validar “que tan buena” es la red entrenada y 20% restante de
los vectores sirven para realizar un test, independiente del proceso de generalización de la
red, con datos que nunca han sido usados.
Por lo general, bajo la supervisión de redes neuronales un determinado insumo conduce a
un objetivo de producción específico. En general, los métodos de entrenamiento
supervisado se utilizan comúnmente en la solución de los problemas.
La idea básica detrás de la red neuronal es permitir que la máquina simule la forma en que
aprende el cerebro humano, que es a través de la experiencia o ejemplos. Las redes
neuronales se componen de elementos computacionales que funcionan en paralelo y los
arreglos son una reminiscencia de la neurona biológica del cerebro.
Con lo que respecta a el mejoramiento del sistema mediante un híbrido, se elaboró una
estructura propuesta de jerarquías o niveles de importancia para análisis de riesgos como
una herramienta para mejorar y complementar el método realizado con la técnica de redes
neuronales. También se propuso con el objetivo, de crear y establecer un árbol que nos
diera una primera aproximación, con el cual, por medio de los datos obtenidos, saber hacia
donde están orientándose los tipos de riesgos, desde la rama que más separa a la que menos
separa.
Se realizó de forma heurística, debido a que hicieron falta más datos, además de que las
bases de obtención de la información, como lo son las encuestas, necesitaban ser más
extensas, es decir, con mayor número de salidas y distinta puntuación, para que se
obtuviera una mayor distribución y por lo tanto se clasificara mejor.
En el árbol de jerarquías se propuso como punto de partida, es decir, en la primera rama de
nuestro árbol de arriba hacia abajo, la categoría de falla de usuario. La razón o el sustento
de este fundamento se hizo en base a la información teórica y los resultados obtenidos de
las encuestas realizadas, los cuales nos decían que esta falla era la más común y la que se
presentaba con mayor recurrencia en los hospitales.
De la misma manera, el resto de la estructura del árbol de categorías se desarrollo y guió
con base en la información teórica investigada, las encuestas realizadas y la categoría que
agrupaba más datos. Con la ayuda de las redes neuronales se fueron entrenando los datos
reales en cada una de las ramas.
En algunas ramas se juntaron o se unieron dos categorías debido a que no se tenía un
agrupamiento claro o no se apreciaba un agrupamiento de datos en cada una de ellas. Esto
podría deberse a que el riesgo no se puede evaluar de manera aislada. También en alguno
de estos casos se eligió de acuerdo a la literatura investigada, la cual nos mostraba
evidencia contundente acerca de cuál es la categoría que mejor iba.
Durante la realización de las simulaciones para cada una de estas ramas, se presentaron
resultados inconvenientes, ya que algunas categorías introducían ruido a los resultados
esperados en las gráficas de muestreo de Hits, lo que dificultó la elección de la mejor rama.
Conclusiones
En este trabajo se presentó un nuevo método para la evaluación de la falla tecnológica
mediante el análisis de riesgos soportado en técnicas de inteligencia artificial. Para tal
efecto, se implementó en Matlab mediante las herramientas de redes neuronales incluidas
en su paquetería por medio de nntool y nctool. Los resultados demuestran la fortaleza del
método al poder detectar fallas incipientes. Para poder determinar el tipo y mecanismo de
falla se analizó cada caso teniendo en cuenta que cada modo de falla deja una pista
característica; no obstante, es común que se den combinaciones de dos o más mecanismos,
lo cual dificulta su identificación pero con la ayuda de este método es posible identificarlo
por medio de la distribución de colores en los resultados obtenidos.
El proyecto que realizamos ha contribuido a identificar y resaltar los puntos que hay que
cubrir y considerar para llevar acabo un entrenamiento de redes neuronales artificiales tanto
supervisadas y no supervisadas. Nos deja muchas cosas importantes que reflexionar y
muchas otras las ha reforzado para llevar a cabo una buena simulación e implementación.
Dentro de los puntos que consideramos tienen más importancia dentro de un proyecto de
esta naturaleza son el dar un enfoque adecuado a las preguntas de la encuesta diseñada y
aplicada para detectar cuáles son las fallas con mayor recurrencia y así lograr obtener
respuestas mas objetivas que nos acerquen a cumplir nuestros objetivos planteados. Otro
punto que consideramos clave de los resultados obtenidos del proyecto consiste en dar una
buena capacitación a los usuarios de los equipos médicos, si hacemos todo correctamente
para desarrollar e implementar los sistemas pero no le damos herramientas a la gente que
manipula el equipo para que trabaje con ellos es muy probable que todo el trabajo realizado
se venga abajo.
Conforme realizamos este proyecto nos fuimos percatando de muchas cosas que antes no
habíamos considerado, que ignorábamos. Pudimos percatarnos como lo hemos venido
mencionando de la importancia de dar el enfoque adecuado a las preguntas aplicadas al
personal del Departamento de Ingeniería Biomédica de los Hospitales y detectar
objetivamente las causas de las fallas de equipo médico, pero también pudimos detectar
algunos puntos clave para afianzar muchos procesos, sobre todo del tiempo que un
Ingeniero Biomédico utiliza en encontrar información para poder resolver problemas o
tomar cierto tipo de decisiones.
Pudimos ver lo importante que es dar un mantenimiento a los equipo médicos de Hospitales
y que hay veces que se requiere de inversiones para poder tener la seguridad y confianza de
que los sistemas van a funcionar correctamente y no van a generar caos. Llevar a cabo un
análisis detallado como el que se realizó en este proyecto incrementa en gran proporción las
probabilidades de tener éxito ya que de ante mano se conoce lo que se quiere lograr y cómo
se va a hacer para lograrlo.
ANEXO
SISTEMAS DE INTELIGENCIA ARTIFICIAL
El progreso sorprendente experimentado por el uso de los medios informáticos durante los
últimos años constituye un indicador del nivel de integración, la utilidad y el papel
excepcional que desempeñan las computadoras en el mundo contemporáneo y en particular,
en la esfera médica. Una simple revisión de un tema conexo: la ingeniería biomédica, basta
para apreciar el resultado de las aplicaciones realizadas.
Los sistemas expertos o basados en el conocimiento, típicos del campo de la IA, no son más
que programas para computadoras que simulan las cadenas de razonamiento que realiza un
experto para resolver un problema de su dominio. Para conseguirlo, se dota al sistema de un
conjunto de principios o reglas que infieren nuevas evidencias a partir de la información
previamente conocida.
Principios de Funcionamiento
REDES NEURONALES ARTIFICIALES
Definición
Las redes neuronales son modelos que intentan reproducir el comportamiento del cerebro.
Tal modelo realiza una simplificación, averiguando cuales son los elementos relevantes del
sistema, bien porque la cantidad de información de que se dispone es excesiva o bien
porque es redundante. Una elección adecuada de sus características, más una estructura
conveniente, es el procedimiento convencional utilizado para construir redes capaces de
realizar una determinada tarea. [15]
Una red neuronal es un modelo computacional con un conjunto de propiedades específicas,
como son la habilidad de adaptarse o aprender, generalizar u organizar la información, todo
ello basado en un procesamiento eminentemente paralelo.
Cualquier modelo de red neuronal consta de dispositivos elementales de proceso: las
neuronas.
Los componentes más importantes de una red neuronal son:
• Unidades de procesamiento (la neurona artificial)
• Estado de activación de cada neurona
• Patrón de conectividad entre neuronas
• Regla de propagación
• Función de transferencia
• Regla de activación
• Regla de aprendizaje
Estados de Activación
Todas las neuronas que componen la red se hallan en cierto estado. Podemos decir que hay
dos posibles estados, reposo y excitado, a los que denominaremos estados de activación y a
cada uno de los cuales se le asigna un valor. Los valores de activación pueden ser continuos
o discretos. Además pueden ser limitados o ilimitados. Si son discretos, suelen tomar un
conjunto pequeño de valores o bien valores binarios. En notación binaria, un estado activo
se indicaría por un 1, y se caracteriza por la emisión de un impulso por parte de la neurona
(potencial de acción), mientras que un estado pasivo se indicaría por un 0. En otros
modelos se considera un conjunto continuo de estados de activación, en cuyo caso se asigna
un valor entre [0,1] o en el intervalo [-1,1], generalmente siguiendo una función Sigmoidal.
El estado de activación estará fuertemente influenciado por tales interacciones ya que el
efecto que producirá una neurona sobre otra será proporcional a la fuerza, peso de la
conexión entre ambas.
La señal que envía cada una de las neuronas a sus vecinas dependerá de su propio estado de
activación.
Función de salida o de transferencia
Asociada a cada unidad (neurona) hay una función de salida, que transforma el estado
actual de activación en una señal de salida. En algunos modelos, esta salida es igual al nivel
de activación de la unidad.
Existen cuatro funciones de salida o de transferencia típicas que determinan distintos tipos
de neuronas:
• Función escalón
• Función lineal y mixta
• Sigmoidal
• Función gaussiana
La función escalón únicamente se utiliza cuando las salidas de la red son binarias. La salida
de una neurona se activa sólo cuando el estado de activación es mayor o igual a cierto valor
umbral. La función lineal o identidad equivale a no aplicar función de salida. Las funciones
mixta y sigmoidal son las más apropiadas cuando queremos como salida información
analógica.
Neurona de función escalón
La función escalón se asocia a neuronas binarias en las cuales cuando la suma de las
entradas es mayor o igual que el umbral de la neurona, la activación es 1, si es menor, la
activación es 0 (ó –1). Las redes formadas por este tipo de neuronas son fáciles de
implementar en hardware, pero sus capacidades están limitadas.
Neurona de función lineal o mixta
La función lineal o mixta corresponde a la función F(x) =x. En las neuronas con función
mixta si la suma de las señales de entrada es menor que un límite inferior, la activación se
define como 0 (ó –1). Si dicha suma es mayor o igual que el límite superior, entonces la
activación es 1. Si la suma de entrada está comprendida entre ambos límites, la activación
se define como una función lineal de suma de las señales de entrada.
Neurona de función continua (Sigmoidal)
Cualquier función definida simplemente en un intervalo de posibles valores de entrada, con
un incremento monotónico y que tengan ambos limites superiores e inferiores (por ejemplo
las funciones sigmoidal y arco tangente), podrá realizar la función de activación o
transferencia de forma satisfactoria.
Con la función sigmoidal, para la mayoría de los valores del estímulo de entrada, el valor
dado por la función es cercano a uno de los valores asintóticos. Esto hace posible que en la
mayoría de los casos, el valor de salida esté comprendido en la zona alta o baja del
sigmoide. De hecho cuando la pendiente es elevada, esta función tiende a la función
escalón. La importancia de ésta función es que su derivada es siempre positiva y cercana a
cero para los valores grandes positivos o negativos; además toma su valor máximo cuando
x es cero. Esto hace que se puedan utilizar las reglas de aprendizaje definidas para la
función escalón, con la ventaja respecto a esta función, que la derivada está definida para
todo el intervalo. La función escalón no podía definir la derivada en el punto de transición y
esto no ayuda a los métodos de aprendizaje en los cuales se usan derivadas.
Función de transferencia gaussiana
Los centros y anchura de estas funciones pueden ser adaptados, lo cual las hace más
adaptativas que las funciones sigmoidales.
Formas y Conexiones entre neuronas
Las conexiones que unen las neuronas que forman una RNA tienen asociado un peso que es
el que hace que la red adquiera conocimiento. Consideremos como el valor de salida de
una neurona i en un instante dado. Una neurona recibe un conjunto de señales que le dan
información del estado de activación de todas las neuronas con las que se encuentra
conectada. Cada conexión (sinápsis) entre la neurona i y la j está ponderada por un peso .
Normalmente, como simplificación, se considera que el efecto de cada señal es aditivo, de
tal forma que la entrada neta que recibe una neurona , es la suma de cada señal
individual por el valor de la sinapsis que conecta ambas neuronas:
Esta regla muestra el procedimiento a seguir para combinar los valores de entrada a una
unidad con los pesos de las conexiones que llegan a esa unidad y es conocida como regla de
propagación.
La conectividad entre los nodos de una red neuronal está relacionada con la forma en que
las salidas de las neuronas están canalizadas para convertirse en entradas de otras neuronas.
La señal de salida de un nodo puede ser una entrada de otro elemento de proceso, o incluso
de sí mismo (conexión auto-recurrente).
Cuando ninguna salida de las neuronas es entrada de neuronas del mismo nivel o de niveles
precedentes, la red se describe como propagación hacia delante. Cuando las salidas pueden
estar conectadas como entradas de neuronas de niveles previos o del mismo nivel,
incluyéndose ellas mismas, la red es de propagación hacia atrás. Las redes de propagación
hacia atrás que tienen lazos cerrados son sistemas recurrentes. En la siguiente figura (Figura
1.0) se muestran ejemplos de conexiones.
Figura 1.0. Tipos de conexiones.
a) Conexiones hacia delante.
b) Conexiones laterales.
c) Conexiones hacia atrás (o recurrentes).
Función o regla de activación
Así como es necesaria una regla que combine las entradas de una neurona con los pesos de
las conexiones, también se requiere una regla que combine las entradas con el estado actual
de la neurona para producir un nuevo estado de activación. Esta función F produce un
nuevo estado de activación en una neurona a partir del estado que existía y la
combinación de las entradas con los pesos de las conexiones ( ).
Dado el estado de activación de la unidad Ui y la entrada total que llega, , el
estado de activación siguiente, , se obtiene aplicando una función F, llamada
función de activación.
Estructura y organización de las redes
La estructura u organización de una red neuronal artificial está en función de:
• Número de niveles o capas (entrada, ocultas, salida)
• Número de neuronas por nivel
• Patrones de conexión
• Flujo de información
Niveles o capas de neuronas
La distribución de neuronas dentro de la red se realiza formando niveles o capas de un
número determinado cada una. Se pueden distinguir tres tipos de capas:
• Entrada: es la capa que recibe directamente la información proveniente de las
fuentes externas de la red.
• Ocultas: son internas a la red, no tiene contacto directo con el exterior. El número
de niveles ocultos puede ser de cero a un número elevado. Las neuronas de las capas
ocultas pueden estar interconectadas de distintas maneras, lo que determina junto a
su número, las distintas topologías.
• Salida: transfieren información de la red hacia el exterior.
Se dice que una red es totalmente conectada si todas las salidas desde un nivel llegan a
todos y cada uno de los nodos del mismo nivel siguiente.
Existen cuatro aspectos que caracterizan una red neuronal: su topología, el mecanismo de
aprendizaje, tipo de asociación realizada entre la información de entrada y de salida, y por
último, la forma de representación de estas informaciones.
La topología o arquitectura de las neuronas consiste en la organización o disposición de las
neuronas en la red formando capas o agrupaciones de neuronas más o menos alejadas de la
entrada y salida de la red. En este sentido los parámetros fundamentales de la red son: el
número de capas, el número de neuronas por capa, el grado de conectividad y el tipo de
conexiones entre neuronas.
Cuando se realiza una clasificación de las redes en términos topológicos, se distinguen dos
tipos de redes:
• Redes monocapa:
Son redes con una sola capa o nivel de neuronas y se utilizan típicamente en tareas
relacionadas con lo que se conoce como auto asociación, por ejemplo para regenerar
informaciones de entrada que se presentan distorsionadas o incompletas.
• Redes multicapa:
Son aquellas que disponen las neuronas agrupadas en varias capas.
Aprendizaje
El aprendizaje es el proceso por el cual una red neuronal modifica sus pesos en respuesta a
una información de entrada. Los cambios que se producen durante el proceso de
aprendizaje se reducen a la destrucción, modificación y creación de conexiones entre las
neuronas. En los modelos de redes neuronales artificiales, la creación de una nueva
conexión implica que el peso de la misma pasa a tener un valor distinto de cero. De la
misma forma, una conexión se destruye cuando su peso pasa a ser cero.
El proceso de aprendizaje ha terminado (la red ha aprendido) cuando los valores de los
pesos permanecen estables ( ).
Cada liga tiene un peso numérico asociado. Los pesos son el medio principal para
almacenamiento a largo plazo en una red neuronal, y el aprendizaje normalmente se hace
sobre la actualización de pesos.
Un aspecto importante respecto al aprendizaje es conocer cómo se modifican los valores de
los pesos; cuáles son los criterios para cambiar el valor asignado a las conexiones cuando se
pretende que la red aprenda una nueva información. Estos criterios determinan la regla de
aprendizaje.
De acuerdo a la regla de aprendizaje, se suelen considerar dos tipos de reglas:
• Aprendizaje Supervisado (Aprendizaje por corrección de error,
Aprendizaje por refuerzo, Aprendizaje estocástico)
• Aprendizaje No Supervisado (Aprendizaje Hebbiano, Aprendizaje
competitivo o cooperativo)
Redes con Aprendizaje Supervisado
El proceso de aprendizaje se realiza mediante un entrenamiento controlado por un agente
externo (supervisor o maestro) que determina la respuesta que debería generar la red a
partir de una entrada determinada. El supervisor comprueba la salida de la red y en caso de
que ésta no coincida con la deseada, se procederá a modificar los pesos de las conexiones,
con el fin de que la salida obtenida se aproxime a la deseada.
Las redes de aprendizaje no supervisado suelen realizar:
• Clusterización (clustering) o establecimiento de categorías
• Codificación de los datos de entrada
• Mapeo de características (feature Mapping)
Se suelen considerar tres formas de llevar a cabo el aprendizaje:
a) Aprendizaje por corrección de error
b) Aprendizaje por refuerzo
c) Aprendizaje estocástico.
Aprendizaje por corrección de error
Consiste en ajustar los pesos de las conexiones de la red en función de la diferencia entre
los valores deseados y los obtenidos en la salida de la red; es decir, en función del error
cometido en la salida.
Aprendizaje por refuerzo
Es un aprendizaje más lento que el anterior, que se basa en la idea de no disponer de un
ejemplo completo del comportamiento deseado; es decir, de no indicar durante el
entrenamiento exactamente la salida que se desea que proporcione la red ante una
determinada entrada.
Aprendizaje estocástico
Este tipo de aprendizaje consiste básicamente en realizar cambios aleatorios en los valores
de los pesos de las conexiones de la red y evaluar su efecto a partir del objetivo deseado y
de distribuciones de probabilidad.
Redes con Aprendizaje No Supervisado
Las redes con dicho aprendizaje no requieren de influencia externa para ajustar los pesos
de las conexiones entre sus neuronas. La red no recibe ninguna información por parte del
entorno que le indique si la salida generada en respuesta de una entrada es o no correcta.
Suele decirse que estas redes son capaces de autoorganizarse.
Estas redes deben encontrar las características, regularidades, correlaciones o categorías
que se pueden establecer entre los datos que se presentan en su entrada.
En algunos casos, la salida representa el grado de familiaridad o similitud entre la
información que se le está presentando en la entrada y las que se le han mostrado en el
pasado.
Se suelen considerar dos formas de llevar a cabo el aprendizaje:
a) Aprendizaje Hebbiano
b) Aprendizaje Competitivo o Cooperativo
Aprendizaje Hebbiano
Este tipo de aprendizaje se basa en el postulado formulado por Donald O. Hebb en 1949:
"Cuando un axón de una celda A está suficientemente cerca como para conseguir excitar a
una celda B y repetida o persistentemente toma parte en su activación, algún proceso de
crecimiento o cambio metabólico tiene lugares en una o ambas celdas, de tal forma que la
eficiencia de A, cuando la celda a activar es B, aumenta. Por celdas, Hebb entiende un
conjunto de neuronas fuertemente conexionadas a través de una estructura compleja. La
eficiencia podría identificarse por la intensidad o magnitud de la conexión, es decir, con el
peso.
Se puede decir que el aprendizaje consiste en el ajuste de los pesos de las conexiones de
acuerdo con la correlación (multiplicación en el caso de valores binarios +1 y –1) de los
valores de activación (salidas) de las neuronas conectadas.
Aprendizaje Competitivo y Cooperativo
En dicho aprendizaje suele decirse que las neuronas compiten (y cooperan) unas con otras
con el fin de llevar a cabo una tarea dada.
La competición ente neuronas se realiza en todas las capas de la red, existiendo en estas
neuronas conexiones recurrentes de autoexcitación y conexiones de inhibición por parte de
neuronas vecinas. Si el aprendizaje es cooperativo, estas conexiones con las vecinas serán
de excitación. El objetivo de este aprendizaje es clusterizar los datos que se introducen en la
red.
Tipos de Asociación
Entre los tipos de asociación de las informaciones de entrada y salida están:
• Redes heteroasociativas
• Redes autoasociativas
Representación de la Información
Finalmente también se pueden clasificar las redes neuronales artificiales según sean
capaces de procesar información de distinto tipo (representación de informaciones de
entrada y las respuestas o datos de salida) en:
a) Redes analógicas: procesan datos de entrada con valores continuos y,
habitualmente, acotados.
b) Redes discretas: procesan datos de entrada de naturaleza discreta; habitualmente
valores lógicos booleanos.
La Red Backpropagation
El funcionamiento de la red backpropagartion (BPN) consiste en el aprendizaje de un conjunto predefinido de pares de entradas-salidas dados como ejemplo: primero se aplica un patrón de entrada como estímulo para la primera capa de las neuronas de la red, se va propagando a través de todas las capas superiores hasta generar una salida, se compara el resultado en las neuronas de salida con la salida que se desea obtener y se calcula un valor de error para cada neurona de salida. A continuación, éstos errores se transmiten hacia atrás, partiendo de la capa de salida hacia todas las neuronas de la capa intermedia que contribuyan directamente a la salida, recibiendo de error aproximado a la neurona intermedia a la salida original. Este proceso se repite, capa por capa, hasta que todas las neuronas de la red hayan recibido un error que describa su aportación relativa al error total. Basándose en el valor del error recibido, se reajustan los pesos de conexión de cada neurona, de manera que en la siguiente vez que se presente el mismo patrón, la más salida esté cercana a la deseada.
La importancia de la red backpropagation consiste en su capacidad de autoadaptar los pesos de las neuronas de las capas intermedias para aprender la relación que existe ente un conjunto de patrones de entrada y sus salidas correspondientes. Es importante la capacidad de generalización, facilidad de dar salidas satisfactorias a entradas que el sistema no ha visto nunca en su fase de entrenamiento. La red debe encontrar una representación interna que le permita generar las salidas deseadas cuando se le dan entradas de entrenamiento, y que pueda aplicar, además, a entradas no presentadas durante la etapa de aprendizaje para clasificarlas.
Ventajas de las Redes Neuronales
Debido a su constitución y a sus fundamentos, las redes neuronales artificiales un gran
número de características semejantes a las del cerebro, como son: la capacidad de aprender
de la experiencia, generalizar de casos anteriores a nuevos casos, abstraer características
esenciales a partir de entradas que representan información irrelevante, etc. Esto hace que
ofrezcan numerosas ventajas y que este tipo de tecnología se esté aplicando en múltiples
áreas. Estas ventajas incluyen:
• Aprendizaje adaptativo. Capacidad de aprender a realizar tareas basadas en un
entrenamiento o experiencia inicial.
• Autoorganización. Una red neuronal puede crear su propia organización o
representación de la información que recibe mediante una etapa de aprendizaje.
• Tolerancia a fallos. La destrucción parcial de una red conduce a una degradación de
su estructura; sin embargo, algunas capacidades de la red se pueden retener, incluso
sufriendo un gran daño.
• Operación en tiempo real. Los computadores neuronales pueden ser realizados en
paralelo, y se diseñan y fabrican máquinas con hardware especial para obtener esta
capacidad.
• Fácil inserción dentro de la tecnología existente. Se pueden obtener chips
especializados para redes neuronales que mejora su capacidad en ciertas tareas. Ello
facilitara la integración modular en los sistemas existentes.
Aplicaciones de las redes Neuronales
Hay muchos tipos diferentes de redes neuronales, cada uno de los cuales tiene una
aplicación particular más apropiada. Las disciplinas en las que se ha hecho uso de redes
neuronales son: biología, empresa, medio ambiente, finanzas, manufacturación, medicina y
militares.
Las aplicaciones más comunes consisten en realizar un reconocimiento de patrones: buscar
un patrón en una serie de ejemplos, clasificar patrones, completar una señal a partir de
valores parciales o reconstruir el patrón correcto partiendo de uno distorsionado.
Las aplicaciones más importantes para las cuales los computadores neuronales, en general,
se están utilizando o pueden ser utilizados son los siguientes:
• Reconocimiento de patrones
• Bases de datos de conocimiento para información estocástica
• Control de Robots
• Toma de decisiones
• Filtrado de señales
• Segmentación, compresión y fusión de datos
• Interfaces adaptativas para sistemas hombre/máquina
Implementaciones
En la búsqueda de sistemas inteligentes en general se ha llegado a un importante desarrollo
del software (en la actualidad ya existen lenguajes de procesamiento simbólico de la
información), sin embargo, generalmente estos lenguajes s apoyan en arquitecturas
convencionales de ordenadores.
Actualmente se ha buscado nuevas arquitecturas más adecuadas para este tipo de tareas, en
esta línea se encuentran algunos de los neurocomputadores más conocidos.
Existe la implementación de redes neuronales por medio de uno o varios circuitos
integrados específicos. Las diferencias con respecto a los neurocomputadores, cabría
resaltar el menor número de neuronas de los chips neuronales, debido a que dentro del
propio chip se incluyen todas las interconexiones y por ello su velocidad resulta varios
órdenes de magnitud superior que para los neurocomputadores. En la actualidad, estos
chips se utilizan para aplicaciones en las que la red neuronal ya se ha diseñado y probado
por otros métodos y lo que se requiere es una mayor velocidad para poder trabajar en
tiempo real.
Otra tecnología que podría ser apropiada en la implementación de las redes neuronales es la
tecnología electroóptica, con la ventaja de utilizar la luz como medio de transporte de la
información, permitiendo la transmisión masiva de datos.
PERCEPTRON MULTICAPA
REGLA DELTA GENERALIZADA (BACKPROPAGATION)
La Regla Delta o LMS era una regla de aprendizaje que se utilizaba para entrenar un
elemento de proceso (PE) o una capa de PE, pero es posible que para resolver ciertos
problemas sea necesario añadir a la estructura alguna capa oculta. En ese caso, la Regla
Delta no serviría para el entrenamiento de la estructura:
• Conocemos la salida deseada para cada patrón de entrenamiento.
• No conocemos la salida deseada para los PE de las capas ocultas.
La Regla Delta Generalizada o Backpropagation fue creada para generalizar la Regla Delta
sobre Redes Neuronales de múltiples capas y funciones de transferencia no lineales y
diferenciables. [14]
El aprendizaje es también Supervisado. Su utilización consiste en ajustar pesos y tendencias
tratando de minimizar la suma del error cuadrático. Esto se realiza de forma continua,
cambiando dichas variables en la dirección contraria a la pendiente del error. Esto se
denomina Técnica del Gradiente Descendente.
Redes Neuronales entrenadas mediante esta regla, dan razonables respuestas cuando al
sistema se le presentan entradas que no ha visto nunca. Típicamente a una nueva entrada, le
hará corresponder una salida similar a la salida obtenida para un patrón de entrenamiento,
siendo éste similar al patrón presentado a la red. Una de las grandes propiedades de este
tipo de estructuras es su capacidad de Generalización.
Funcionamiento Básico
1. Se aplica un vector de entrada y se calculan sus correspondientes salidas.
2. Se determina una medida de error.
3. Se determina en qué dirección se deben cambiar los pesos para minimizar dicho
error.
4. Se determina la cantidad en que es preciso cambiar cada peso.
5. Se modifican los pesos.
6. Se repiten los pasos del 1 al 5 con todos los patrones de entrenamiento, hasta que el
error para todos los vectores del conjunto de entrenamiento quede reducido a un
valor aceptable.
Características
• Entrenamiento supervisado: Corrección de error.
• Aprendizaje Off Line.
• Capacidad de generalización
Notación:
pjh
jih
i
n
pi
pjh
jh
pjh
pj jo
pjo
neta w x
i f netao f neta
=
=
=
=∑0
( )
( )
n- número de entradas de cada patrón.
h- indica la capa.
p- indica el patrón.
j- PE j.
Wji- conexión PE i (capa h-1) con PE j (capa h).
Opj- salida PE j en la capa de salida.
Estructura y aprendizaje de la red Backpropagation
En una red Backpropagation existe una capa de entrada con n neuronas y una capa de
salida con m neuronas y al menos una capa oculta de neuronas internas. Cada neurona de
una capa (excepto las de entrada) recibe entradas de todas las neuronas de la capa anterior y
envía su salida a todas las neuronas de la capa posterior (excepto las de salida). No hay
conexiones hacia atrás feedback ni laterales entre las neuronas de la misma capa.
La aplicación del algoritmo tiene dos fases, una hacia delante y otra hacia atrás. Durante la
primera fase el patrón de entrada es presentado a la red y propagado a través de las capas
hasta llegar a la capa de salida. Obtenidos los valores de salida de la red, se inicia la
segunda fase, comparándose éstos valores con la salida esperada para obtener el error. Se
ajustan los pesos de la última capa proporcionalmente al error. Se pasa a la capa anterior
con una retropropagación del error, ajustando los pesos y continuando con este proceso
hasta llegar a la primera capa. De esta manera se han modificado los pesos de las
conexiones de la red para cada patrón de aprendizaje del problema, del que conocíamos su
valor de entrada y la salida deseada que debería generar la red ante dicho patrón.
La técnica Backpropagation requiere el uso de neuronas cuya función de activación sea
continua, y por lo tanto, diferenciable. Generalmente, la función utilizada será del tipo
Sigmoidal. A continuación se muestran los pasos para aplicar el algoritmo de
entrenamiento:
Paso 1:
Inicializar los pesos de la red con valores pequeños aleatorios.
Paso 2:
Presentar un patrón de entrada y especificar la salida deseada que debe generar la red.
Paso 3:
Calcular la salida actual de la red. Para ello presentamos las entradas a la red y vamos
calculando la salida que presenta cada capa hasta llegar a la capa de salida, ésta será la
salida de la red. Los pasos son los siguientes:
1. Se calculan las entradas netas para las neuronas ocultas procedentes de las neuronas
de entrada. Para una neurona j oculta:
En donde el índice h se refiere a magnitudes de la capa oculta; el subíndice p, al p-ésimo
vector de entrenamiento, y j a la j-ésima neurona oculta. El término puede ser opcional,
pues actúa como una entrada más.
2. Se calculan las salidas de las neuronas ocultas:
3. Se realizan los mismos cálculos para obtener las salidas de las neuronas de salida:
Paso 4:
Calcular los términos de error para todas las neuronas.
Si la neurona k es una neurona de la capa de salida, el valor de la delta es:
La función f debe ser derivable. En general disponemos de dos formas de función de salida:
La función Lineal:
La función Sigmoidal:
La selección de la función depende de la forma que se decida representar la salida: si se
desea que las neuronas de salida sean binarias, se utiliza la función sigmoidal, en otros
casos, la lineal.
Para una función lineal, tenemos:
Mientras que la derivada de una función sigmoidal es: por lo
que los términos de error para las neuronas de salida quedan:
para la salida lineal.
para la salida sigmoidal.
Si la neurona j no es de salida, entonces la derivada parcial del error no puede ser evaluada
directamente, por tanto se obtiene el desarrollo a partir de valores que son conocidos y otros
que pueden ser evaluados.
La expresión obtenida en este caso es: donde observamos que el
error en las capas ocultas depende de todos los términos de error de la capa de salida. De
aquí surge el término propagación hacia atrás.
Paso 5:
Actualización de los pesos: para ello utilizamos un algoritmo recursivo, comenzando por
las neuronas de salida y trabajando hacia atrás hasta llegar a la capa de entrada, ajustando
los pesos de la siguiente forma:
Para los pesos de las neuronas de la capa de salida:
Para los pesos de las neuronas de la capa oculta:
En ambos casos, para acelerar el proceso de aprendizaje se puede añadir un término
momento.
Paso 6:
El proceso se repite hasta que el término de error resulta aceptablemente
pequeño para cada uno de los patrones aprendidos.
Este tipo de estructuras se introducen para resolver problemas que no son linealmente
separables.
Datos de entrada (entrenamiento)
En general se pueden emplear todos los datos disponibles para entrenar la red. Con cierta
frecuencia, lo único que se necesita es un pequeño subconjunto de datos que cubran todo el
espacio de los mismos.
La BPN admite bien la Generalización: Dados varios vectores de entrada, pertenecientes a
la misma clase, aprenderá la similitud existente entre ellos.
Por otro lado, la BNP no extrapola bien es decir, que si la red se entrena mal o
insuficientemente, las salidas pueden ser imprecisas. Hay que asegurarse que los datos de
entrenamiento cubran todo el espacio de entradas esperadas. La red se debe de entrenar
seleccionando patrones de manera aleatoria, es mala técnica de entrenamiento presentar
primero los patrones de una clase y luego los de otra: la red se olvidaría del entrenamiento
inicial.
La elección de la función de transferencia para los diferentes elementos de una red es un
aspecto importante a tener en cuenta para el funcionamiento correcto de la red.
Dimensionamiento de la Red
No se pueden dar reglas concretas para determinar el número de neuronas o número de
capas de una red para resolver un problema concreto.
Respecto al número de capas de la red, en general tres capas son suficientes (entrada -
oculta-salida). Sin embargo, hay veces que un problema es más fácil de resolver con más de
una capa oculta. El tamaño de las capas, tanto de entrada como de salida, suelen venir
determinado por la naturaleza de la aplicación. En cambio, decidir cuántas neuronas debe
tener una capa oculta no suele ser tan evidente.
El número de neuronas ocultas interviene en la eficiencia de aprendizaje y de
generalización de la red. No hay ninguna regla que indique el número óptimo, en cada
problema se debe ensayar.
Control de Convergencia
En las técnicas de gradiente descendente es conveniente avanzar por la superficie de error
con incrementos pequeños de los pesos. Esto se debe a que tenemos una información local
de la superficie y no se sabe lo lejos o lo cerca que se está del punto mínimo. Con
incrementos grandes, se corre el riesgo de pasar por encima del punto mínimo sin conseguir
estacionarse en él. Con incrementos pequeños, aunque se tarde más en llegar, se evita que
ocurra esto.
El elegir un incremento adecuado influye en la velocidad con la que converge el algoritmo.
Sabemos que este control lo podemos realizar mediante el parámetro denominado
ganancia. Normalmente se le asigna un valor pequeño (0,05-0,25) para asegurar que la red
llegue a asentarse en una solución.
Otra manera de incrementar la velocidad de aprendizaje, consiste en utilizar otro parámetro
llamado Momento, cuando se calcula el cambio de peso se le añade una fracción del cambio
anterior. Con ello también se trata de que la red no se estabilice en un mínimo local, aunque
esto algunas veces no puede ser conseguido.
kjo
kjo
pko
pko
p kjow w i wt t t( ) ( ) ( )+ = + + −−1 11µ αδ Δ
Un último aspecto a tener en cuenta es la posibilidad de convergencia hacia alguno de los
mínimos locales que pueden existir en la superficie de error del espacio de pesos. No se
puede asegurar en ningún momento que el mínimo que se encuentre sea global. Una vez
que la red se asienta en un mínimo, sea local o global, cesa el aprendizaje, aunque el error
siga siendo demasiado alto, si se ha alcanzado un mínimo local (Figura 1.1)
Figura 1.1. Mínimos Locales y Globales
Si se alcanza un mínimo local y el error es satisfactorio, el entrenamiento ha sido un éxito,
si no sucede así, pueden realizarse varias acciones para solucionar el problema:
• Cambio de arquitectura (más capas ocultas o más PE)
• Modificación de parámetros de aprendizaje.
• Emplear un conjunto de pesos iniciales diferentes.
• Modificar el conjunto de entrenamiento o presentar los patrones en distinta
secuencia.
Consideraciones sobre el algoritmo de aprendizaje
El algoritmo encuentra un valor mínimo de error (local o global) mediante una aplicación
de pasos (gradiente) descendentes. Cada punto de la superficie de la función corresponde a
un conjunto de valores de los pesos de la red. Con el gradiente descendente, siempre que se
realiza un cambio en todos los pesos de la red, se asegura el descenso por la superficie del
error hasta encontrar el valle más cercano, lo que puede hacer que el proceso de aprendizaje
se detenga en un mínimo local de error.
Uno de los problemas del algoritmo es que en busca de minimizar la función de error,
puede caer en un mínimo local o en algún punto estacionario, con lo cual no se llega a
encontrar el mínimo global de la función de error. Sin embargo, no tiene porqué alcanzarse
el mínimo global en todas las aplicaciones, sino que puede ser suficiente con un error
mínimo preestablecido.
Aplicaciones
Actualmente, este tipo de redes se están aplicando en distintas clases de problema debido a
la naturaleza general del proceso de aprendizaje. Algunos de los campos generales de
aplicación son:
• Codificación de la Información.
• Traducción de texto en lenguaje hablado. (Sejnowski y Rosenbegrg)
• Reconocimiento de Lenguaje Hablado.
• Reconocimiento Óptico de Caracteres.
• Aplicaciones en Cardiología.
• Compresión y Descompresión de datos
• Software de Redes neuronales
HERRAMIENTA “MATLAB”
Aplicaciones y métodos sobre las redes neuronales existen muchas en la actualidad y en
casi todos los lenguajes de programación. Se eligió usar Matlab versión 7.8, ya que trae
dentro de sí elementos de manejo de redes neuronales y clasificación de datos. Matlab
cuenta con un Toolbox de redes neuronales artificiales, herramienta que facilita mucho el
uso del mismo.
Aprendizaje No Supervisado
Para simular el aprendizaje no supervisado, se utilizó la herramienta de establecimiento de
categorías (clustering) del toolbox de Matlab.
En problemas de clusterización o establecimiento de categorías (clustering), se requiere una
red neuronal para agrupar datos por similaridad. La herramienta de redes neuronales por
establecimiento de categorías nos ayuda a seleccionar los datos, crear y formar una red y
evaluar su desempeño usando una variedad de herramientas de visualización.
Un mapa de auto-organización consiste en una capa competitiva que puede clasificar un
conjunto de datos de vectores con cualquier número de dimensiones en tantas clases como
la capa tiene neuronas. Las neuronas se organizan en una topología 2D, que permite a la
capa formar una representación de la distribución y una aproximación de dos dimensiones
de la topología del conjunto de datos. La red se entrena con el algoritmo de proceso por
lotes SOM.
Al iniciar Matlab, abrimos la herramienta de establecimiento de categorías o clustering
Tool (nctool), la cual se encuentra en el toolbox de Matlab (Figura 1.1).
Figura 1.1. Selección de la herramienta clusterización en el Toolbox de Matlab.
Para trabajar esta herramienta se muestran enseguida los siguientes pasos:
Paso 1: Selección de los datos
Se seleccionan las entradas que definen nuestro problema. El grupo de datos que se
seleccione debe ser una matriz de X muestras por Y elementos o viceversa, la cual puede
ser construida en Excel.
Se seleccionan las muestras de la matriz como columna o renglón según convenga o sea el
caso (Figura 1.2).
Figura 1.2. Selección de los datos de entrada.
Paso 2: Tamaño de la red
Se establece el número de neuronas en el mapa de la red auto-organizativa. El número
mínimo de neuronas que se puede elegir es 1 (Figura1.3). Se puede volver al panel y
cambiar el número de neuronas si la red no logra buenos resultados después del
entrenamiento.
Figura 1.3. Selección del número de neuronas de la red.
Paso 3: Entrenamiento de la red
Se entrena la red para aprender la topología y la distribución de las entradas de las
muestras. Se da click en el botón “Train” (entrenamiento) para poner en marcha el tren de
proceso por lotes utilizando algoritmo de SOM para entrenar la red (Figura 1.4). El
entrenamiento se detiene automáticamente cuando el número total de las épocas se han
producido (Figura 1.5).
Al realizar el entrenamiento varias veces, se generan resultados diferentes debido a las
diferentes condiciones iniciales y toma de muestras.
Figura 1.4. Entrenamiento de la red.
Figura 1.5. Progreso durante el entrenamiento.
Los resultados son mostrados en cuatro diferentes graficas, las cuales pueden ser
seleccionadas dando click en el botón de cada una de ellas (Figura 1.6). Las cuatro graficas
disponibles son (Figura 1.7):
• Grafico SOM de distancias entre vecinos
• Grafico SOM de hit o acierto de muestras
• Grafico SOM de planos de pesos
• Grafico SOM de posición de pesos
Figura 1.5. Selección de las cuatro gráficas mostradas por Matlab.
Figura 1.7. Despliegue de las cuatro gráficas.
En cada entrenamiento se puede modificar el intervalo del grafico aumentando o
disminuyendo el número de épocas.
Aprendizaje Supervisado
Para trabajar con el aprendizaje supervisado, se utiliza la herramienta de entrenamiento de
redes neuronales (nntool), que se encuentra en el toolbox de matlab. El uso de esta
herramienta se describe en los siguientes pasos:
Paso1: Selección de los datos
Se da click en el botón “import” (importar) de la ventana de inicio de la herramienta
(Figura 1.8).
Figura 1.8. Ventana Inicial.
Se seleccionan los datos de entrada y destino (Objetivo). Se elige primero la fuente de la
que provienen los datos, matlab nos muestra dos posibles fuentes a elegir para importar los
datos:
• A partir del área de trabajo o workspace de matlab
• Cargarlo de un archivo existente en el disco duro
Una vez elegido el archivo, se selecciona el destino, para ello matlab nos muestra seis
posibles destinos:
• Datos de entrada
• Datos de destino
• Estados iniciales de entrada
• Estados iniciales de la capa
• Datos de salida
• Datos de error
Seleccionamos como primer destino de la importación de datos la opción de datos de
entrada, la cual tiene que corresponder al archivo cargado con los datos de entrada
seleccionado en la fuente. Se da click en el botón “import”. Posteriormente agregamos los
datos de destino realizando el mismo procedimiento. (Figura 1.9).
Figura 1.8. Selección de fuente y destinos.
Paso 2: Creación de la Red o Datos
Agregados los datos de entrada y de destino, se da click en el botón “new” (nuevo) para
crear una nueva red y configurar todas sus características.
Se comienza escribiendo el nombre de la red. Enseguida configuramos las propiedades de
la red, las cuales son las siguientes:
• Tipo de red (Feed-forward backpropagation, regresión generalizada etc.)
• Datos de entrada
• Datos de destino
• Función de entrenamiento
• Función de adaptación de aprendizaje
• Función de desempeño
• Numero de capas
• Propiedades mencionadas anteriormente para la capa1 o la capa2
• Numero de neuronas
• Función de transferencia
Por último se da click en el botón “create” (crear), (Figura 2.0).
Figura 2.0. Configuración de las propiedades de la red.
Paso 3: Simulación
Creada la red, se puede visualizar en la ventana del administrador de red/datos en la
sección de redes. Finalmente se abre la red seleccionado la palabra “network” y dando click
en el botón “open” (abrir). Se abrirá una ventana en la que se puede visualizar la estructura
de la red, configurar el entrenamiento, simulación, datos de adaptación, reinicializar pesos
y vista/edición de pesos (Figura 2.1).
Figura 2.1. Ventana de características de la red creada.
En la pestaña correspondiente al entrenamiento, se seleccionan la entrada y destino
existentes y se da click en el botón “entrenar” (Figura 2.2).
Figura 2.2. Entrenamiento de la red.
Se mostrara una ventana en la cual se pueden seleccionar tres gráficos a visualizar (Figura
2.3):
• Gráfico de Rendimiento o Desempeño
• Gráfico de Estado de Entrenamiento
• Gráfico de Regresión
Figura 2.3. Progreso del entrenamiento y botones de graficas.
Se puede seleccionar también el número de épocas del intervalo del gráfico.
Figura 2.4. Despliegue de graficas disponibles.
ÁRBOLES DE DECISIÓN
Técnica que permite analizar decisiones secuenciales basada en el uso de resultados y
probabilidades asociadas. [11]
Los árboles de decisión se pueden usar para generar sistemas expertos, búsquedas binarias
y árboles de juegos.
Se llama árbol de decisión a un árbol de preguntas.
• Cada nodo del árbol es una pregunta.
• Cada nodo tiene tantos hijos como posibles respuestas haya para esa pregunta.
• Las hojas del árbol corresponden a las distintas clases o categorías en las que las
instancias son clasificadas por el concepto objetivo de acuerdo a las respuestas
obtenidas desde la raíz hasta la hoja.
• El espacio de hipótesis es entonces una disyunción de conjunciones sobre las
características (es decir, permitiría representar el mayor conjunto de hipótesis sin
sesgo inductivo).
Las ventajas de un árbol de decisión son:
• Resume los ejemplos de partida, permitiendo la clasificación de nuevos casos
siempre y cuando no existan modificaciones sustanciales en las condiciones bajo las
cuales se generaron los ejemplos que sirvieron para su construcción.
• Facilita la interpretación de la decisión adoptada.
• Proporciona un alto grado de comprensión del conocimiento utilizado en la toma de
decisiones.
• Explica el comportamiento respecto a una determinada tarea de decisión.
• Reduce el número de variables independientes.
• Es una magnifica herramienta para el control de la gestión empresarial.
Los árboles de decisión generalmente son binarios, es decir que cuentan con dos opciones,
aunque esto no significa que no puedan existir árboles de tres o más opciones.
Árboles De Decisión Utilizados En Sistemas Expertos
Los árboles de decisión se usan en los sistemas expertos por que son mas precisos que el
hombre para poder desarrollar un diagnóstico con respecto a algo, ya que el hombre puede
dejar pasar sin querer un detalle, en cambio la maquina mediante un sistema experto con un
árbol de decisión puede dar un resultado exacto.[12]
Una deficiencia de éste es que puede llegar a ser mas lento pues analiza todas las
posibilidades pero esto a su vez es lo que lo vuelve mas preciso que al hombre.
Terminología
i. Nodo de decisión: Indica que una decisión necesita tomarse en ese punto del
proceso. Está representado por un cuadrado
ii. Nodo de probabilidad: Indica que en ese punto del proceso ocurre un evento
aleatorio (estado de la naturaleza). Está representado por un círculo
iii. Rama: Nos muestra los distintos posibles caminos que se pueden emprender dado
que tomamos una decisión u ocurre algún evento aleatorio.
ID3
El algoritmo de aprendizaje de árbol de decisión ha sido utilizado con éxito en sistemas
expertos de captación del conocimiento. La principal tarea a realizar en estos sistemas es
que utilizando métodos inductivos a los valores dados de los atributos de un objeto
desconocido para determinar la clasificación apropiada de acuerdo a las normas de árbol de
decisión. Los árboles de decisión clasificar los casos por recorrer desde el nodo raíz al nodo
hoja.
Para decidir que algoritmo de árboles de decisión se debe utilizar se consideran los
siguientes aspectos:
1. La instancia se representa como valor de pares de atributos. Por ejemplo, el
atributo«Temperatura» y su valor 'caliente', 'suave', 'cool'. Estamos también en relación a
ampliar atributo-valor a los valores de los datos continuos (valor del atributo numérico).
2. La función objetivo tiene valores de salida discretos. Es fácil hacer frente a
instancia que se asigna a una decisión booleano, como «verdadero» y «falso»,
'P (positivo) y' n '(negativo).
El ID3 fue desarrollado por J. Ross Quinlan en 1983. ID3 significa Induction Decision
Trees y pertenece a la familia TDIDT (Top-Down Induction of Decision Trees).
El algoritmo ID3 es utilizado dentro del ámbito de la inteligencia artificial. Su uso se
engloba en la búsqueda de hipótesis o reglas en él, dado un conjunto de ejemplos.
El conjunto de ejemplos deberá estar conformado por una serie de tuplas de valores, cada
uno de ellos denominados atributos, en el que uno de ellos, ( el atributo a clasificar ) es el
objetivo, el cual es de tipo binario ( positivo o negativo, si o no, válido o inválido, etc.
).[13]
De esta forma el algoritmo trata de obtener las hipótesis que clasifiquen ante nuevas
instancias, si dicho ejemplo va a ser positivo o negativo.
ID3 realiza esta labor mediante la construcción de un árbol de decisión.
Los elementos son:
▪ Nodos: Los cuales contendrán atributos.
▪ Arcos: Los cuales contienen valores posibles del nodo padre.
▪ Hojas: Nodos que clasifican el ejemplo como positivo o negativo.
Los datos que debe contener un árbol de decisión son:
• Atributos: Son los factores que influencian la clasificación o decisión. La selección de
atributos debe basarse en el conocimiento acumulado por la experiencia.
• En este algoritmo cada atributo forma un nodo intermedio en un árbol cuyas hojas o
nodos terminales son las clases o decisiones.
• Clase: Posibles valores de solución
• Ejemplos: Es el conjunto de combinaciones de atributos dados. Dado el conjunto de
ejemplos, el ID3 selecciona el atributo que subdivide los ejemplos de la mejor manera.
Procedimiento
• El árbol de decisión se recorre desde la raíz y tanto en ella como en cada uno de los demás
nodos se decide cuál rama tomar basándonos en el valor de algún atributo del ejemplar que
se esté clasificando, hasta llegar a un nodo terminal (hoja), que corresponde a la clase en
que queda clasificado el ejemplar.
• Los árboles de decisión se adaptan especialmente bien a ciertos tipos de problemas.
Básicamente, los casos para los que son apropiados son aquellos en los que:
• Los ejemplos pueden ser descritos como pares valor-atributo.
• La función objetivo toma valores discretos.
• Podemos tomar hipótesis con disyunciones.
• Posible existencia de ruido en el conjunto de entrenamiento.
• Los valores de algunos atributos en los ejemplos del conjunto de entrenamiento pueden
ser desconocidos.
El aspecto central en el algoritmo ID3, es la elección del atributo a testear en cada nodo del
árbol.
Uno querría seleccionar el atributo que es más útil para clasificar los ejemplos.
Supongamos por el momento que nuestra intensión es lograr árboles de decisión tan
pequeños como sea posible, y que clasifiquen adecuadamente los ejemplos. Si observamos
el algoritmo de la figura 3, podemos observar que es un algoritmo recursivo cuyo punto de
parada principal se produce cuando todos los ejemplos de entrenamiento tienen el mismo
valor para el atributo objetivo. En este caso, podríamos decir que el conjunto de ejemplos
de entrenamiento es totalmente impuro(u homogéneo). Dado que nosotros deseamos
obtener árboles pequeños, la idea en este caso, sería detener el proceso recursivo lo antes
posible. Para ello, deberíamos arribar a particiones del conjunto de entrenamiento que sean
totalmente puras, de la manera más rápida posible. Si tuviéramos una medida de la pureza
de cada nodo, deberíamos elegir el atributo que produce los nodos hijos más puros. [13]
Figura 3 Algoritmo de aprendizaje ID3
Bibliografía
1. Senra Gutiérrez J., Broche Cristo E., “Sistema de Gestión Tecnológica
Hospitalaria”, Instituto Superior Politécnico, Centro de Bioingeniería.
2. Martínez Licona F., Azpiroz Leehan J., Cadena Méndez M., Coronel J., Rechy E.,
“Clasificación de fallas tecnológicas en el hospital”, Tercer Congreso Colombiano
de Bioingeniería e Ingeniería Biomédica, Pereira, Colombia 4-6 junio de 2008, pp.
45-50.
3. Armoni A. Use of neural networks in medical diagnosis. MD Computing
1998;15:100-4.
4. Helman Horacio, Pereira Paulo, “Análisis de fallas”, Manual AMEF Ford Motor
Company, Escuela de Ing. UFMG Brasil 1995.
5. Ministerio de Sanidad y Consumo; Informes, estudios e investigación,
“Benchmarking de buenas prácticas en la gestión de riesgos y políticas de
reordenación del gobierno clínico en el ámbito hospitalario”. 2008, Disponible e
http://www.msc.es/organizacion/sns/planCalidadSNS/docs/BenchmarkingGestionRi
esgosGobiernoClinico.pdf, consultado el 9 de Noviembre de 2009.
6. J. Trujillanoa, J. Marchb, M. Badiaa, A. Rodrígueza, A. Sorribas, “Application of
artificial neural networks for risk stratification of hospital mortality”, Unidad de
Cuidados Intensivos. Hospital Universitario Arnau de Vilanova de Lleida.
Departamento de Ciencias Médicas Básicas. Universidad de Lleida. Lleida. España.
Gac Sanit 2003;17(6):504-11
7. Eduardo Tarifa Enrique, Martínez, Sergio Luis, “Diagnóstico de fallas con redes
neuronales. Parte 1: Reconocimiento de trayectorias”, Revista Ingeniería e
Investigación Vol. 27 no.1, abril de 2007, pp. 68-76.
8. Villada Fernando, Cadavid Diego R., “The 7-step problem solving method”, Center
for quality of management., 1996.
9. Universidad de Antioquia, “Diagnóstico de Fallas en Motores de Inducción
mediante la Aplicación de Redes Neuronales Artificiales”, Facultad de Ingeniería,
Departamento de Ing. Eléctrica.
10. Armendariz, V. Jacobo, Ortiz-prado A., Schouwenaars-franssens, R. Seafem,
“Herramienta computacional para la determinación de causas de falla en elementos
mecánicos metálicos.”, Ingeniería en investigación y tecnología., México 2007.
11. Aprendizaje de árboles de decisión Curso: Aprendizaje Automático y Minería de
Datos Departamento de Informática Universidad Nacional de San Luis (UNSL) San
Luis. Argentina Octubre de 2006.
12. Juan A. Botía Blaya., “Árboles de decisión”, Departamento de Ingeniería de la
Información y las Comunicaciones, Universidad de Murcia.
13. An Implementation of ID3. Decision Tree Learning Algorithm Wei Peng, Juhua
Chen and Haiping Zhou Project of Comp: Machine Learning University of New
South Wales, School of Computer Science & Engineering, Sydney, NSW 2032,
Australia.
14. James A. Freeman, David M. Skapura, Redes neuronales: algoritmos, aplicaciones y
técnicas de programación, Addison-Wesley Iberoamericana, 1993, 431pp.
15. José Ramón Hilera González, Redes neuronales artificiales: fundamentos, modelos
y aplicaciones, RA-MA, 1994, 390pp.
16. Howard Demuth, Mark Beale, “Neural Network Toolbox”, For Use with
MATLAB®., User’s Guide, Version 4, Disponible en: www.mathworks.com
Top Related