Post on 11-May-2015
FEBRERO DE 2003 M en C. José Luis Calderón O. 1
FEBRERO DE 2003 M en C. José Luis Calderón O. 2
¿Qué es una Asociación? • Es cualquier relación entre la
entrada de un sistema y su salida de tal forma que cuando el patrón A se presenta al sistema este responderá con un patrón B.
FEBRERO DE 2003 M en C. José Luis Calderón O. 3
Estimulo / Respuesta
• Cuando dos patrones son relacionados por una asociación, el patrón de entrada es conocido como estimulo y el patrón de salida referido como respuesta.
FEBRERO DE 2003 M en C. José Luis Calderón O. 4
Estímulo• Los pensamientos son activados
por estimulación externa• El mismo pensamiento es
estimulado por un infinito numero de factores
• Si existe suficiente estimulación se piensa en un concepto
FEBRERO DE 2003 M en C. José Luis Calderón O. 5
Estímulos /Respuesta
Just Do it...
Soy totalmente Soy totalmente Palacio...Palacio...
A que no puedes comer solo una...
En su cuenta se va dar cuenta...
Duermes o descansas...
Con toda confianza es...
FEBRERO DE 2003 M en C. José Luis Calderón O. 6
Estímulos/ Respuesta
FEBRERO DE 2003 M en C. José Luis Calderón O. 7
Los Pensamientos
• Los pensamientos permanecen aun después de que la estimulación se ha ido...
• El factor olvido comienza a operar...
FEBRERO DE 2003 M en C. José Luis Calderón O. 8
Condicionamiento Clásico
• Ivan Petrovich Pavlov (1849-1936)
• Fisiología, Psicopatología animal,
• Reflejos condicionados.
• Premio novel en fisiología (1904)
FEBRERO DE 2003 M en C. José Luis Calderón O. 9
Aprendizaje Asociativo Pavloviano/clasico
Condicionamiento– comida (E. No
Condicionado)– Salivación a la comida
(Respuesta)– campana (E.
Condicionado)– Salivación al oír la
campana (Respuesta)
FEBRERO DE 2003 M en C. José Luis Calderón O. 10
Condicionamiento• C. Observacional: copiar acciones de otros,
“lo que el mono vee, es lo que hace”
• C. Operacional: Involucra una acción y una respuesta. “aprieta el boton y obten comida”.
• C. Clasico: Involucra un estímulo y una respuesta (I. Pavlov)
FEBRERO DE 2003 M en C. José Luis Calderón O. 11
Reglas del Aprendizaje Asociativo
•Regla de Hebb–Regla de Hebb con degradación
•Regla de la Red INSTAR•Regla de la red OUTSTAR•Regla de Kohonen
FEBRERO DE 2003 M en C. José Luis Calderón O. 12
Aprendizaje Hebbiano
• Donald O. Hebb (1904-1985)
• Padre de Psicobiologia Cognoscitiva
• The Organization of Behaviour (1942)
FEBRERO DE 2003 M en C. José Luis Calderón O. 13
Postulado de Hebb
• “Cuando un axón de una neurona A esta suficientemente cerca para excitar a una neurona B, y toma parte en su activación repetidamente o persistentemente, ocurre un crecimiento o cambio metabólico en una o en ambas celdas, de tal forma que la celda A se vuelve mas eficiente al disparar B”
The Organization of Behavior (1949)
FEBRERO DE 2003 M en C. José Luis Calderón O. 14
Lo que se traduce en ...• Si dos neuronas en ambos lados de una
sinapsis (conexión) son activadas simultáneamente, entonces la fuerza de la sipnasis es selectivamente incrementada (el peso w aumenta).
• Si dos neuronas en ambos lados de una sinapsis son activadas asincronamente, entonces la sinapsis es selectivamente debilitada o eliminada.
FEBRERO DE 2003 M en C. José Luis Calderón O. 15
– Hebb propuso la primera regla de aprendizaje neuronal en 1943. Su idea fue que dos neuronas cuya salida fuere alta al mismo tiempo deberían desarrollar una fuerte conexión entre ellas.
• Limitaciones
– Esta regla no tiene un mecanismo para decrementar los pesos o hacerlos estables. El resultado es que los pesos crecen indefinidamente.
Descripción
FEBRERO DE 2003 M en C. José Luis Calderón O. 16
Regla de Hebb No supervisada
• Incrementa justamente el peso Wij entre la entrada de la neurona Pj y la salida ai en proporción a su producto.
Donde: Es la razón de aprendizaje
Toldnew apWW
FEBRERO DE 2003 M en C. José Luis Calderón O. 17
Red Asociativa Simple
p1 stimulus0 no stimulus
=
a1 response0 no response
=
)( bwphardlima
FEBRERO DE 2003 M en C. José Luis Calderón O. 18
Asociador de Frutas (Bananas)
p0 1 shape detected0 shape not detected
= p1 smell detected0 smell not detected
=
Estimulo No condicionado Estimulo Condicionado
FEBRERO DE 2003 M en C. José Luis Calderón O. 19
Regla de Hebb Autosupervisada
Forma Vectorial:
Secuencia de entrenamiento:
)()()1()( qpqaqWqW Tjiijij
)()()1()( qpqaqWqW T
)(,),2(),1( Qppp
FEBRERO DE 2003 M en C. José Luis Calderón O. 20
Ejemplo 1: Reconocimiento de Frutas
Pesos Iniciales:
Secuencia de Entrenamiento:
= 1
0)0(,10 ww
1)1(,0)1(0 pp
1)2(,1)2(0 pp
)()()1()( qpqaqwqw
FEBRERO DE 2003 M en C. José Luis Calderón O. 21
Limitantes en la Regla de Hebb
• Los pesos crecen arbitrariamente grandes
• No tiene algún mecanismo para disminuirlo.
0 10 20 300
10
20
30
FEBRERO DE 2003 M en C. José Luis Calderón O. 22
– La regla de Hebb pura permite construir asociaciones. Sin embargo, esta no proporciona algún mecanismo para olvidar o para limitar el tamaño de los pesos.
– Al agregar la razón de degradación a la regla de Hebb ambos efectos son logrados.
Regla de Hebb con degradación
FEBRERO DE 2003 M en C. José Luis Calderón O. 23
– La degradación se implementa agregando un termino extra en la ecuación de la actualización de pesos.
– El termino es negativo y proporcional a los actuales pesos sinapticos.
– Este parámetro toma valores entre cero y uno.
Regla de Hebb con degradación
FEBRERO DE 2003 M en C. José Luis Calderón O. 24
Regla de Hebb con Degradación
• Esta regla mejora a la anterior al degradar W.
• Donde: es la razón de degradación; constante positiva con valores entre 0 y 1. Esta constante evita que W crezca sin limite.
)()()1()1()( qpqaqWqW T
FEBRERO DE 2003 M en C. José Luis Calderón O. 25
Razón de Degradación • Si tiende a 1; La ley de aprendizaje
olvida rápidamente las entradas anteriores y recuerda los patrones más recientes
• El valor máximo de la matriz de pesos es:
Se requiere que el estimulo sea repetido o la asociación se ira perdiendo
max
ijWEsta impide que la matriz de pesos crezca sin limite
FEBRERO DE 2003 M en C. José Luis Calderón O. 26
Regla de Hebb con Degradación
0 10 20 300
2
4
6
8
10
FEBRERO DE 2003 M en C. José Luis Calderón O. 27
Ejemplo 2: Asociador de Bananas
Primera Iteración (falla la señal):
w 1 w 0 a 1 p 1 0.1w 0 –+ 0 0 1 0.1 0 –+ 0= = =
w 2 w 1 a 2 p 2 0.1w 1 –+ 0 1 1 0.1 0 –+ 1= = =
= 0.1 = 1
)5.0)1()0()1(()1( 00 pwpwhardlima
0)5.01001()1( hardlima
No responde :(
FEBRERO DE 2003 M en C. José Luis Calderón O. 28
Ejemplo 2: Asociador de Bananas
• Segunda Iteración (señal activa):
Responde :)
w 1 w 0 a 1 p 1 0.1w 0 –+ 0 0 1 0.1 0 –+ 0= = =
)5.0)2()1()2(()2( 00 pwpwhardlima
1)5.01011()2( hardlima Banana
)1(1.0)2()2()1()2( wpaww
1)0(1.0110)2( w
FEBRERO DE 2003 M en C. José Luis Calderón O. 29
El Problema de la regla de Hebb con degradación
Si ai = 0, entonces
Si = 0, se transforma
0 10 20 300
1
2
3
La asociación se anulara si el estimulo nos se presenta ocasionalmente
Por lo tanto el el peso decae en 10% en cada iteración cuando no hay estimulo
)1()9.0()( qwqw ijij
)1()1()( qwqw ijij
FEBRERO DE 2003 M en C. José Luis Calderón O. 30
Regla INSTAR
FEBRERO DE 2003 M en C. José Luis Calderón O. 31
Red INSTAR
• Reconocimiento de patrones
• Similar arquitectura al perceptrón
• Realiza distintas funciones con diferente análisis
FEBRERO DE 2003 M en C. José Luis Calderón O. 32
Regla INSTAR• Un problema con la regla de Hebb
con degradación es que requiere que el estimulo se repita o la asociación se ira perdiendo.
• La regla INSTAR minimiza el olvido
• Proporciona vectores de pesos normalizados si los vectores de entrada están normalizados
In this configuration the to neuron responds to a pattern of the from neuron
FEBRERO DE 2003 M en C. José Luis Calderón O. 33
• La regla INSTAR permite a una neurona aprender un nuevo vector mediante el ajuste de sus pesos equivalente a la entrada actual con una razón proporcional a la salida de la neurona.
• Asi, cualquier circunstancia que cause que una INSTAR tenga un alto resultado de salida en el aprendizaje de la INSTAR del vector actual en sus entradas.
Descripción
FEBRERO DE 2003 M en C. José Luis Calderón O. 34
• Posteriormente, la presentación de la misma entrada causara que la instar tenga una salida significativa. Notese que esto causara que el aprendizaje se incremente de nuevo pero que los pesos serán re entrenados al mismo vector de entrada.
• De esta manera el aprendizaje es estable.
FEBRERO DE 2003 M en C. José Luis Calderón O. 35
Regla INSTAR
• La regla solo modifica W cuando la neurona esta activa
• Si ai(q) = 1
)1()()()1()( qWqpqaqWqW T
)()1()1()( qpqWqW
Se considera
FEBRERO DE 2003 M en C. José Luis Calderón O. 36
Representación Gráfica de la Regla INSTAR
• Cuando la INSTAR esta activa el vector de pesos se mueve hacia el vector de entrada.
• La distancia en que se mueve el vector de pesos depende de
FEBRERO DE 2003 M en C. José Luis Calderón O. 37
Representación Gráfica de la Regla INSTAR
• Si = 0 ; el nuevo vector de pesos es igual al anterior (no se mueve)
• si = 1 ; el nuevo vector de pesos es igual al vector de entrada (máximo movimiento)
FEBRERO DE 2003 M en C. José Luis Calderón O. 38
Representación Gráfica de la Regla INSTAR
• Si = 0.5 el vector de pesos se encuentra al mitad entre el vector anterior de pesos y el vector de entrada.
FEBRERO DE 2003 M en C. José Luis Calderón O. 39
Ejemplo 1: INSTAR
p0 1 orange detected visually
0 orange not detected
=
pshapetex ture
weight
=
Clasificador de Frutas
FEBRERO DE 2003 M en C. José Luis Calderón O. 40
Diagrama de la red
FEBRERO DE 2003 M en C. José Luis Calderón O. 41
Regla de KOHONEN
FEBRERO DE 2003 M en C. José Luis Calderón O. 42
Regla de Kohonen
)]1()([)1()( qWqpqWqW
La regla de Kohonen permite a una neurona almacenar los vectores de entrada de tal forma que este pueda ser reconocido después. Mediante el ajuste de los pesos de una neurona equivalente a su vector de entrada actual.
FEBRERO DE 2003 M en C. José Luis Calderón O. 43
–Note que para una capa de neuronas con salidas restringidas a uno o cero, el aplicar la regla INSTAR es equivalente a aplicar la regla de Kohonen a neuronas con salida uno. En estos casos, la regla de Kohonen es mas eficiente.
FEBRERO DE 2003 M en C. José Luis Calderón O. 44
Regla OUTSTAR
FEBRERO DE 2003 M en C. José Luis Calderón O. 45
RED OUTSTAR
In this configuration the from neuron activates a pattern of the to neurons
FEBRERO DE 2003 M en C. José Luis Calderón O. 46
Regla OUTSTAR
• Regla OUTSTAR
)()]1()([)1()( qpqWqaqWqW
FEBRERO DE 2003 M en C. José Luis Calderón O. 47
• Los pesos de una capa OUTSTAR se pueden pensar como una memoria a largo plazo de tantos vectores como entradas tenga la capa . A menudo las capas OUTSTAR son lineales. Si Este es el caso, el ajuste de una sola entrada de la capa OUTSTAR a uno resulta en que la entrada a la red (y por lo tanto la salida) de la capa se haga equivalente a los pesos de la entrada activada.
Descripción
FEBRERO DE 2003 M en C. José Luis Calderón O. 48
• Así, el vector almacenado en los pesos de entrada puede ser regresado al activar esa entrada. La regla de aprendizaje de la OUTSTAR permite a los pesos de entrada aprender el vector en la capa lineal de salida, cada vez que la entrada tome un valor grande.
FEBRERO DE 2003 M en C. José Luis Calderón O. 49
Ejemplo 1: OUTSTAR
W0
1 0 0
0 1 00 0 1
=
p0
shape
tex tureweight
=p
1 if a pineapple can be seen0 otherwise
=ppi neap ple
1–1–
1
=
)( 00 WppWsatlinsa
FEBRERO DE 2003 M en C. José Luis Calderón O. 50
Red OUTSTAR del ejemplo
FEBRERO DE 2003 M en C. José Luis Calderón O. 51
Funciones del Aprendizaje Asociativo
MATLAB / NEURAL NETWORK TOOLBOX
FEBRERO DE 2003 M en C. José Luis Calderón O. 52
Regla de Aprendizaje Hebbiana
• dW = learnh (p, a, lr);
• W = W + dW;
• donde:
• lr es la razón de aprendizaje ()
FEBRERO DE 2003 M en C. José Luis Calderón O. 53
Regla de Aprendizaje Hebbiana con Degradación
• dW = learnhd (W, p, a, lr, dr);• W = W + dW;
• donde:
• lr es la razón de aprendizaje ()
• dr es la razón de degradación ()
FEBRERO DE 2003 M en C. José Luis Calderón O. 54
Regla de Aprendizaje INSTAR
• dW = learnis (W, p, a, lr);
• W = W + dW;
• donde:
• lr es la razón de aprendizaje
FEBRERO DE 2003 M en C. José Luis Calderón O. 55
Regla de Aprendizaje de KOHONEN
• a = comp (-dist (W,p));
• dW = learnk (W, p, a, lr);
• W = W + dW;
• donde:
• lr es la razón de aprendizaje
FEBRERO DE 2003 M en C. José Luis Calderón O. 56
Regla de Aprendizaje OUTSTAR
• a = purelin (w*p);
• dW = learnos (W, a, p, lr);
• W = W + dW;
• donde:
• lr es la razón de aprendizaje
FEBRERO DE 2003 M en C. José Luis Calderón O. 57
Dudas ???
FEBRERO DE 2003 M en C. José Luis Calderón O. 58
Hasta la próxima !!!