Post on 11-May-2018
2AAC
5.1. Introducción a los sistemas neuronales
Cuestión : ¿Por qué existen tareas que las máquinas no han logrado resolver con eficacia, a pesar del espectacular desarrollo tecnológico?
Arquitectura de Von Neumann: máquinas simbólicas
Neurocomputación y sistemas borrosos: forman parte de la IA; pretenden incorporar cierto tipo de inteligencia en sistemas de procesamiento y control
3AAC
Cerebro frente a computador convencional
La neurona: un procesador sencillo, lento y poco fiableLa potencia de cálculo reside en la cohabitación de millones de ellas, sus interconexiones y su procesamiento en paralelo.
CentralizadoAutoorganizadoTipo de control del proceso
10-9 s (1 GHz)10-2 s (100 Hz)Velocidad de proceso
Direcciones fijasDistribuidoAlmacenamiento del conocimiento
Muy escasaAmpliaTolerancia a fallos
10-6 J10-16 JEficiencia energética
Pocas104 por procesadorConexiones
Pocos1011 – 1014Número de procesadores
SecuencialParaleloEstilo de procesamiento
ComputadorCerebro
5.1. Introducción a los sistemas neuronales
4AAC
Sistemas neuronales artificiales (ANS): réplicas aproximadas de la estructura hardware del cerebro.No se pretende crear un cerebro artificial.El objetivo es mejorar el rendimiento en tareas propias de organismos biológicos: percepción, reconocimiento de formas, control, etc.Área multidisciplinar: Electrónica, Física, Matemáticas, Biología, etc.Excelentes resultados en ciertos ámbitos.
5.1. Introducción a los sistemas neuronales
5AAC
Modelo biológico
Una neurona se activa si la influencia combinada de sus entradas supera cierto umbral (hay sinapsis potenciadoras y otras inhibidoras).Las conexiones sinápticas poseen cierta plasticidad (la influencia de las sinapsis varía y se crean otras); esto es la base del aprendizaje y la memorización.
5.1. Introducción a los sistemas neuronales
Dendritas
Soma(10-80 µm)
Núcleo
Axón (100 µm–1 m)
Sinapsis
Presináptica Postsináptica
6AAC
Estructura jerárquica de un ANS:
5.2. Sistemas neuronales artificiales
ΣΣ
Σ
Σ
Σ
Neurona Capa Red Sistema neuronal
Parte algorítmica
Entr
adas S
alidas
7AAC
5.2. Sistemas neuronales artificiales
Modelo estándar de neurona artificial:
Σ f()
x1
x2
xj
xn -1
.
.
.
...
wi1
wi2
wij
winθi
Neurona i Entradas xj(t) Pesos sinápticos wij
Regla de propagación hi(t) = σ(wij , xj(t))yi
Función de activación (filtro) yi(t) = fi [ hi(t) ]
Umbral = θi : nível mínimo de disparo de la neurona (todo-nada)
Si hacemos wi0 = θi , x0 = -1, entonces)θxw(f(t)yj
jjijii ∑ −= )xw(f(t)yn
0jjijii ∑
=
=
Peso sináptico negativo: conexión inhibidora; positivos: conexión excitadora
Capa de entrada (sensorial): capa de neuronas que no poseen sinapsis de entrada
Capa de salida: capa de neuronas que no poseen sinapsis de salida
Capa oculta: capa que posee neuronas que no son de entrada ni de salida (mayor riqueza)
Pueden existir conexiones intercapa e intracapa (o laterales)
8AAC
Diferentes tipos de arquitecturas neuronales:Redes monocapa y multicapa (layered).Redes unidireccionales (feedforward) y recurrentes(feedback)Redes autoasociativas (A + ruido ⇒ A) y heteroasociativas (A ⇒ B)
Funciones de activación habituales:
5.2. Sistemas neuronales artificiales
[-1,+1]
{-1, +1}{0, +1}
[-∞,+∞]
Rango
y=xIdentidad
Lineal a tramos
y=signo(x)y=H(x)
Escalón (Heaviside)
GráficaFunción
Lx si 1,1LxL - si ,x
L- x si ,1- y
>++≤≤
<
⎪⎩
⎪⎨
⎧=
-L L
9AAC
5.2. Sistemas neuronales artificiales
Funciones de activación habituales:
2BxAey −=
[-1,+1]
[0,+1]
[0,+1]
[-1,+1]
Rango
y=A e-Bx2Gaussiana
y=A sen(ωx+ϕ)Sinusoidal
Sigmoidea
GráficaFunción
xx
xx
x
e-eee
y
e11
y
−
−
−
+=
+=
10AAC
Aprendizaje (entrenamiento): proceso, generalmente iterativo, que consigue el ajuste de los parámetros libres de la red neuronal, a partir de la estimulación por el entorno.
Se sigue una regla de aprendizaje basada en la optimización de una función de error o costeNiveles de aprendizaje:
1. Modelado de las sinapsis: ∆wij (t+1) = wij (t) +∆wij (t)
2. Creación/destrucción de neuronas.Tipos de aprendizaje (I):
1. Supervisado. Se proporciona a la red una serie de patrones junto con la salida deseada u objetivo; la red ajusta iterativamente los pesos hasta que su salida tiende a la deseada (estimación de relaciones entrada-salida).
2. No supervisado. Se proporciona a la red una serie de patrones sin adjuntar la respuesta deseada; la red estima regularidades en elconjunto de entradas, extrae rasgos comunes o agrupa patrones.
5.2. Sistemas neuronales artificiales
11AAC
AprendizajeTipos de aprendizaje (II):
3. Híbrido. Coexisten los tipos anteriores, normalmente en distintas capas (Ejemplo: redes de contra-propagación).
4. Reforzado. La salida deseada simplemente es un índice global del rendimiento de la red.
Recuerdo (ejecución): Una vez que el sistema ha sido entrenado, sus pesos y su estructura han quedado definidos, por lo que la red está preparada para procesar datos.
5.2. Sistemas neuronales artificiales
12AAC
Redes supervisadas: El PerceptrónModelo unidireccional, con una capa sensorial de n neuronas y otra de salida con m neuronas.
Las neuronas de entrada sólo envían información ({0, +1}) a las de salida.La función de activación es de tipo escalón
Una neurona tipo perceptrón permite discriminar entre dos clases linealmente separables.
5.2. Sistemas neuronales artificiales
mi1 i, ),θ-xw(f(t)y i
n
1jjijii ≤≤∀= ∑
=
mi1 i, ),θ-xwH(y i
n
1jjiji ≤≤∀= ∑
=
θ)-xwxH(wy 2211 +=⎩⎨⎧
<+≥+
=θxwxw si ,0θxwxw si ,1
y2211
2211
13AAC
Redes supervisadas: El PerceptrónUna neurona tipo perceptrón permite discriminar entre dos clases linealmente separables.
Ejemplo: Si w1 = w2 = -2, θ = -3, la función implementada es la NAND.Problema: Un simple perceptrón no puede representar funciones no separables linealmente (XOR).
5.2. Sistemas neuronales artificiales
⎩⎨⎧
<+≥+
=θxwxw si ,0θxwxw si ,1
y2211
2211
21
2
122211 w
θx
ww
x0θ-xwxw +−
=⇒=+
x2
x1
≥ θ (0 NAND)
x2
x1
<θ<θ
<θ
(0,0)
(1,1)
(0,1)
(1,0)
14AAC
Redes supervisadas: El PerceptrónAlgoritmo de aprendizaje por corrección de errores: los pesos se ajustan en proporción a la diferencia entre la salida actual de la red y la salida deseada.
Se basa en la regla de Hebb: “Cuando un axón presináptico causa la activación de cierta neurona postsináptica, la eficacia de la sinapsis que las relaciona se refuerza”.
∆wij = ε yi xj
ε = ritmo de aprendizaje ∈ (0, 1)
Conjunto p de patrones xµ, µ = 1, ..., p y salidas deseadas tµ
Entradas y salidas discretas {-1, 1} (ó {0, 1}).
∆wij (t) = εwij (t µi - y µi) x µj = εwij δ x µj
5.2. Sistemas neuronales artificiales
15AAC
Redes supervisadas: La AdalinaAdaline = Adaptive Linear NeuronSimilar el perceptrón pero de activación lineal; las entradas pueden ser continuas.
Utiliza la regla de Widrow-Hoff (o LMS –Least Mean Square).
Las actualizaciones de los pesos son continuas (discretas en el perceptrón)
La regla LMS se acerca asintóticamente a la solución (número finito de iteraciones en el perceptrón).
Se utiliza como filtro adaptativo para cancelar ruido en la transmisión de señales (satélite).
Madalina (Madaline = Many adalines): versión multicapa de la adalina.
5.2. Sistemas neuronales artificiales
mi1 i, ,θ-xw(t)y i
n
1jjiji ≤≤∀=∑
=
16AAC
El Perceptrón multicapa (MLP = Multi-Layer Perceptron)Surge al añadir capas ocultas a un perceptrón simple.Entradas a la red = xi ; salidas de la capa oculta = yi ; salidas de la capa final = zk ; salidas objetivo = tk
La función de activación es de tipo sigmoideoSe entrena mediante el algoritmodenominado Back Propagation (BP)o retropropagación de erroresLa idea del algoritmo es determinar cuál es la contribución de cada neurona al error global, y propagar dicho error hacia atrásactualizando los pesos entre las distintas capas de neuronas.Un MLP con una única capa oculta es un aproximador universal de funciones.
5.2. Sistemas neuronales artificiales
θ’k
wjiw’kj
θj
kjj
ji
jikjk θ'-)θ-xw( fw'z ∑ ∑=
17AAC
El Perceptrón multicapa (MLP = Multi-Layer Perceptron)Aproximación al algoritmo de retropropagación:
Inicializar pesos de la redMientras no_parar hacer
Para cada patrón de entrenamiento p hacerPara cada neurona de capa c en [2ª_capa .. última_capa]
yi = f(neti)
Para cada neurona de última_capa hacer
δi = (ti - yi) f ’(neti)Para cada neurona j de capa c en [última_capa - 1 .. 1ª_capa]
δj = f’(netj) Σ δiwji
Para cada neurona i de capa c+1wji = wji + ε δi yj
FinParaFinMientras
5.2. Sistemas neuronales artificiales
Bi i, ,xw(t)netA j
jjii ∈∀= ∑∈
18AAC
Redes neuronales no supervisadasSe proporciona a la red una serie de patrones sin adjuntar la respuesta deseada; la red estima regularidades en el conjunto deentradas, extrae rasgos comunes o agrupa patrones. Por tanto, las neuronas han de ser capaces de autoorganizarse.En general, son redes competitivas, en las que sólo una neurona o un grupo de vecinas consiguen activarse. La neurona más activa logrará inhibir a las demás (se les llama también redes WTA – Winner Takes All). La representación de la información en la corteza cerebral aparece con frecuencia organizada espacialmente (área somato-sensorial, mapas tonotópicos para los sonidos, etc.).
5.2. Sistemas neuronales artificiales
19AAC
Redes no supervisadas: Mapas Autoorganizados (SOM)Las neuronas se organizan de forma unidireccional de dos capas:Capa sensorial: m neuronas, una por cada entrada; cada neurona se etiqueta con un índice k (1 ≤ k ≤ m).La segunda capa realiza el procesamiento; consiste en general enuna estructura rectangular (a veces, uni- o tridimensional) de nxx ny neuronas que operan en paralelo. Cada neurona se etiqueta con un par de índices i = (i, j) (1 ≤ i ≤ nx , 1 ≤ j ≤ ny) que determina su localización espacial.Cada neurona k está conectada a cada neurona (i, j) con el peso sináptico wijkLas entradas son muestras del espacio sensorial, x(t) ∈ ℜm .
5.2. Sistemas neuronales artificiales
x(t)
wijk
Neurona k
Neurona (i,j)
20AAC
Redes no supervisadas: Mapas Autoorganizados (SOM)Cada neurona posee un vector de pesos o referencia wij(t) ∈ ℜm . En el modo normal, se calcula la similitud entre el vector de entradas x y el vector de referencia wij de cada neurona, declarando ganadora aquella que proporcione la mayor similitud. Dicha neurona indica el tipo de rasgo o patrón detectado.En el modo de aprendizaje, la neurona vencedora modifica sus pesos para que se asemejen más a x(t).Además, existe una función de vecindad h(), de modo que las neuronas en el entorno alrededor de la ganadora también actualizan sus pesos.
5.2. Sistemas neuronales artificiales
Gaussiana RectangularPipaSombrero mejicano
21AAC
Redes no supervisadas: Mapas Autoorganizados (SOM)Aproximación al algoritmo de entrenamiento:
Inicializar pesos sinápticosMientras no_parar hacer
Para cada patrón de entrenamiento x(t) hacerPara cada neurona i=(i, j) calcular distancia en paralelo:
FinParaDeterminar neurona ganadora g con menor distanciaActualizar pesos de g y de sus vecinas
wijk(t+1) = wijk(t) + α(t)·h(|i-g|, t)·(xk(t) - wijk(t))FinPara
FinMientras
El radio de vecindad y el ritmo de aprendizajeα(t) son monótonos decrecientes con t.
5.2. Sistemas neuronales artificiales
∑=
=n
1k
2kijkij
2 )x-(w),(d xw
22AAC
Redes no supervisadas: Mapas Autoorganizados (SOM)Variantes de los SOM:
Mapas de Fritzke y Growing Neural Gas: se empieza con un mapa de tamaño pequeño y se van añadiendo neuronas a medida que avanza el entrenamiento.Red de contrapropagación: modelo híbrido con tras capas (sensorial, oculta no supervisada y supervisada de salida).LVQ (Learning Vector Quantization): modelo supervisado con una capa de neuronas tipo SOM, sin vecindad; se premia las neuronas que clasifican correctamente un determinado patrón (aumentar peso) y castigar en sentido contrario (disminuir).
Aplicaciones de los SOM: Reconocimiento del habla; control de robots; monitorización de procesos industriales; ayuda al diseño de circuitos integrados; reconocimiento de patrones financieros, etc.
5.2. Sistemas neuronales artificiales
23AAC
Redes no supervisadas: Mapas Autoorganizados (SOM)Ejemplos gráficos:
Mapa fonético del finés Mapa semántico
5.2. Sistemas neuronales artificiales
24AAC
Otros tipos de redesRed de Hopfield.
Se trata de una red realimentada, no supervisada, con una única capa de neuronas y conectividad total entre ellas.
Funciona como memoria asociativa que puede almacenar patrones internamente para reconstruirlos si se presentan incompletos o con ruido. Las entradas y salidas son binarias ({0, 1} ó {-1, +1})
Supervisadas: Máquina de Boltzmann, BSB (Brain State in a Box), etc.No supervisadas: ART 1, 2, 3 (Adaptive Resonance Theory), BAM (Bidirectional Associative Memory), Neocognitrón, etc.
5.2. Sistemas neuronales artificiales
x1 xi xn
y1 yi yn
… …
1AAC
Soportes para la realización de redes neuronales:Simulación software. Económica pero de bajo rendimiento.Emulación hardware. Sistemas expresamente diseñados para emular ANS (basados en RISC, DSP, etc.): neuroaceleradores o neurocomputadores de propósito general.Implementación hardware. Realización física de la red neuronal: neurocomputadores de propósito específico. Basados en FPGA o mediante integración microelectrónica (ASIC llamados chips neuronales).
5.3. Neurocomputadores
Neurocomputadores
Chips estándar
Secuencial + acelerador
Neurochips
DigitalesMultiprocesador AnalógicosHíbridos
2AAC
Aspectos del soporte hardware:El sistema debe soportar un gran número de conexiones y un flujo elevado de transmisión de datos.Principalmente se utiliza tecnología electrónica; se comienza a experimentar con tecnologías optoelectrónicas y bioquímicas.Se realizan ASIC o bien se utilizan FPGA (diferencia en cuanto al ciclo de desarrollo y a la densidad de puertas) con lenguajes HDL.Los pesos se almacenan en registros o memorias.Inconveniente: se debe optimizar la representación de los datos y el almacenamiento de los pesos, pues una precisión elevada requeriría un área también muy elevada.Se estima que el aprendizaje requiere pesos con precisión de 14-18 bits mientras que el recuerdo requiere pesos de 6-10 bits.
Ejemplo: L-Neuro 1.0 de Philips usa pesos de 16 bits en el aprendizaje y de 4 u 8 bits en el recuerdo.
5.3. Neurocomputadores
3AAC
Aspectos del soporte hardware:Actualmente, el diseño digital VLSI es el predominante:
Inconveniente: los EP deben disponerse en un área limitada 2D y se conectan mediante un número limitado de capas.Ventajas:
Simplicidad.Alta relación señal-ruido (comparado con analógico).Circuitos fácilmente escalables (idem).Flexibilidad.Coste reducido.Aplicaciones CAD disponibles.Fiabilidad.Sumas fácilmente implementables.Funciones no lineales implementablesmediante circuitos o tablas.Elementos de almacenamiento.Generadores de números aleatorios.
5.3. Neurocomputadores
4AAC
Aspectos del soporte hardware:Dificultad en la clasificación de las implementaciones hardware:
Clasificación de Flynn. Muchos neurocomputadores son de tipo SIMD (arrays sistólicos, arrays de procesadores y procesadores vectoriales segmentados).Clasificación “cuántos y cuán complejos” EP:
Moderadamente paralelos (16-256 procesadores).Altamente paralelos (256-4096 procesadores).Masivamente paralelos (más de 4096 procesadores).La complejidad del EP se mide en base a la longitud de la palabra.
División en neuroaceleradores y neurocomputadores.Clasificación basada en 3 criterios:
Evidencia biológica (réplica de un sistema biológico; réplica de un nivel superior; sin réplica).Mapeado sobre hardware (orientado a red; orientado a neurona; orientado a sinapsis).Tecnología de implementación (digital; analógica; híbrida).
5.3. Neurocomputadores
5AAC
Aspectos del soporte hardware:Rendimiento del sistema:
La fase de recuerdo se evalúa en cuanto al número de conexiones procesadas por segundo (CPS).La fase de aprendizaje se evalúa en cuanto al número de conexiones actualizadas por segundo (CUPS).Son índices globales y muy poco representativos de distintos tipos de redes.Miden básicamente el tiempo de una MAC (básica en DSP) sin otros factores como la transferencia de datos.Otras unidades:
CPSPW: CPS Por Pesos; normalización de CPS por el número de pesos de la red.CPPS: Primitivas de Conexión Por Segundo; se multiplica CPS por los bits de precisión y por los bits de las entradas.
5.3. Neurocomputadores
6AAC
Aspectos del soporte hardware:Tipo de aprendizaje para el caso de redes multicapa:
Off-chip. El aprendizaje se realiza por medio de un computador con alta precisión, tras el cual los pesos se transfieren al chip. Éste sólo lleva a cabo la etapa de propagación hacia adelante (forward) del modo recuerdo.Chip-in-the-loop. El hardware neuronal se utiliza en el aprendizaje sólo en la propagación hacia adelante. El recálculo de los pesos se realiza off-chip, tras el cual se transfieren al chip tras cada iteración.On-chip. El aprendizaje se realiza por completo en el propio chip. El problema es la precisión empleada.
5.3. Neurocomputadores
7AAC
Emulación hardware: neuroaceleradores.Utilización de arquitecturas paralelas para trabajar con ANS.Se trata de diseñar un acelerador o coprocesador dependiente de un host, construido a partir de micros RISC, DSP, etc.Se utiliza un software de simulación apropiado para evaluar un ANS o desarrollar una aplicación práctica compleja.Permite trabajar prácticamente con cualquier tipo de red.Se trata de sistemas flexibles, pero que no explotan al máximo la capacidad de la red neuronal.La velocidad suele rondar los 10M CPS.Ejemplos:
SIGMA-1 de SAIC (1989) alcanza 11 MCUPS y 3.1M de EPsvirtuales e interconexiones. El host es un PC.ANZA Plus de HNC (1989); alcanza 1,8 MCUPS y 6 MCPS, 1M de EPs virtuales, 1.5M de interconexiones. Un PC actúa como host. Posee micro y coprocesador PF de Motorola.
5.3. Neurocomputadores
8AAC
Emulación hardware: neuroaceleradores.Ejemplos:
Balboa 860 de HNC (1991), basada en el micro Intel i860. Disponible para PC y para estaciones SUN. Alcanza 25 MCPS y 9 MCUPS.Serie NT6000 de NT (1993). Pueden conectarse a sistemas E/S tanto analógicos como digitales. El NT6000st y el -hs usan el PC como host y están equipados con un DSP TMS320 y un NISP (Neural Instruction Set Processor); alcanzan 2 MCPS. Los modelos neuronales implementables son el BP y los Mapas Autoorganizativos.NEP de IBM (1987). El Network Emulation Processor es un entorno de emulación, cuyo hardware es un DSP TMS320, memoria estática y dinámica e interfaz con el PC; es un sistema modular de forma que se pueden conectar hasta 256 tarjetas. Cada NEP simula hasta 2000 EPs virtuales y 16000 conexiones, con 30-50 CUPS.
5.3. Neurocomputadores
9AAC
Emulación hardware: neuroaceleradores.Ejemplos:
NBS de Micro Devices (1990). El Neural Bit Slice MD1220 contiene 8 nodos, cada uno con 15 entradas sinápticas cableadas, ampliables hasta 256 con hardware adicional. Los pesos se almacenan externamente, con lo cual el aprendizaje es off-chip. Se pueden interconectar directamente varias tarjetas, y todas ellas a su vez al bus de la CPU del PC. Alcanza 10 MCPS.Neuro Turbo I del Nagoya Institute of Technology (1989). Contiene 4 DSP y se conecta a un ordenador personal NEC PC98.
5.3. Neurocomputadores
10AAC
Neurocomputadores construidos a partir de procesadores de propósito general:
Nunca alcanzarán la máxima eficiencia, pero son relativamente baratos y flexibles. Se suelen utilizar DSP o RISC.Ejemplos:
Mark III y IV de TRW-HNC (1989). La arquitectura es BBA ó de bus de difusión (broadcast). El Mark III utiliza 8 micros 68010 de Motorola; implementa 8000 EPs y 480000 conexiones, y alcanza 380000 CPS.El Mark IV puede implementar 262144 EPs, 5.5M conexionesy alcanza 5 MCPS; incluye DSP de 16 bits TMS32020.
5.3. Neurocomputadores
. . .
ALU
Reg
istr
os
Peso
s
ALU
Reg
istr
os
Peso
s
ALU
Reg
istr
os
Peso
s
11AAC
Neurocomputadores construidos a partir de procesadores de propósito general:
Ejemplos:Sandy/8 de Fujitsu (1990). Es un prototipo para un arquitectura sistólica en array (SSAA –Systolic Square Array Architecture). Posee256 DSPs TMS320C30; se estima que alcanza 13 MCUPS en BP. Elprototipo se conecta a un SUN-3.GigaConNection (GCN, 1990) de Sony. Consta de 128 PE basadasen el Intel i860, en una malla 2D.Se estima que llega a 1 GCUPS.BSP400 (1991) de Brain StyleProcessor. Utiliza micros MC68701 de 8 bits; la baja velocidad de éstos hace que sólo se alcance 6.4 MCUPS con 400 procesadores.
5.3. Neurocomputadores
Memoria de pesos externa
12AAC
Neurocomputadores construidos a partir de procesadores de propósito general:
Ejemplos:Ring Array Processor (RAP, 1990) de ICSI. Consta de 4-40 DSPsTMS320C30 conectados en anillo a través de PGA de Xilinx. Cada placa puede conectarse a un host, y puede alcanzar 57 MCPS en la propagación hacia adelante en un perceptrónmulticapa, mientras que en la fase BP llega a 13.2 MCPS.Multiprocessor System with Intelligent Communication(MUSIC, 1992), del SwissFederal Institute ofTechnology. Cada placa consta de 3 DSP 96002 de Motorola, pudiendo conectarhasta 21 de ellas. Para un perceptrón de dos capas se consigue 817 MCPS y 330 MCUPS.
5.3. Neurocomputadores
Memoria de pesos externa
FIFO externa
13AAC
Neurocomputadores construidos a partir de neurochips:Se diseñan circuitos específicos para implementar las funciones neuronales.La velocidad aumenta en dos órdenes de magnitud.Ejemplos:
SYNAPSE-I y SYNAPSE-X (SYnthesis of Neural Algorithms on a Parallel Systolic Engine, 1990) de Siemens. Es una matriz sistólica 2x4 de chips MA16; éstos implementan operaciones típicas de diversos modelos neuronales (producto matriz-vector, búsqueda de máximo, etc. La configuración estándar consta de 8 MA16, y alcanza 5100 MCPS y 133 MCUPS.
5.3. Neurocomputadores
14AAC
Neurocomputadores construidos a partir de neurochips:Ejemplos:
CNAPS (Connected Network of Adaptive Processors, 1991) de Adaptive Solutions. Es un array 1D SIMD de nodos, conectados a través de buses broadcast. El chip elemental es el X1, que soporta aprendizaje on-chip, y 80 de ellos (64 útiles) se agrupan en el N64000. El sistema estándar consta de 4 chips y un secuenciador de microcódigo; alcanza 5700 MCPS y 1460 MCUPS. Los autores dicen que es el más veloz y que todos los modelos neuronales testeados pudieron ser mapeados.
5.3. Neurocomputadores
15AAC
Neurocomputadores construidos a partir de neurochips:Ejemplos:
SNAP (SIMD Neurocomputer Array Processor, 1991) de HNC. Toma como chip básico el HNC 100 NAP, que consta de 4 células aritméticas en anillo con aritmética PF IEEE de 32 bits. Cada placa SNAP consta de 4 chips.El SNAP-32 posee dos placas (32 EPs), y puede alcanzar 500 MCPS y 128 MCUPS; el SNAP-64 posee 4 placas (64 EPs).
5.3. Neurocomputadores
16AAC
Neurocomputadores construidos a partir de neurochips:Ejemplos:
LNeuro 1.0 (Learning Neurochip, 1991) de Philips. El chip implementa 32 neuronas de entrada y 16 de salida; posee aprendizaje on-chip. Se pueden conectar modularmente varios chips. Una configuración con 4 placas y 16 chips alcanza 19 MCPS y 4.2 MCUPS.Su sucesor es el LNeuro 2.3, que consta de 12 DSP, un procesador RISC y unidades para proceso escalar y vectorial. El rendimiento máximo estimado es de 1380 MCUPS y 1925 MCPS. Puede implementar distintos modelos neuronales: BP, mapas autoorganizativos, etc.Mantra I (1991) del Swiss Federal Institute of Technology. Estáconstruido con chips GENES (Generic Element for Neuro-Emulator Systolic arrays) que realizan productos vector-matriz. La configuración en array de 40x40 chips alcanza 500 MCPS y 160 MCUPS.
5.3. Neurocomputadores
17AAC
Neurocomputadores construidos a partir de neurochips:Ejemplos:
WSI (Wafer Scale Integration, 1991) de Hitachi. Un wafer posee 144 neuronas, y 8 de éstos se agrupan para lograr 1152 nodos que permiten aprendizaje on-chip. Alcanza 2300 MCUPS en red multicapa con BP.ZISC (Zero Instruction Set Computer, 1992) de Intel. Posee 36 neuronas con 64 entradas de 8 bits, y permite aprendizaje on-chip. Se pueden conectar modularmente varios chips. Están diseñados especialmente para reconocimiento y clasificación en tiempo real y a bajo coste.HANNIBAL (Hardware Architecture for Neural NetworksImplementating Backpropagation Algorithm Learning, 1991) de British Telecom. Cada chip contiene 8 EP y alcanza 160 MCPS.
5.3. Neurocomputadores
18AAC
Neurocomputadores a partir de neurochips analógicos:ETANN (Electrically Trainable Analog Neural Network, 1991) de Intel. Cada chip contiene 64 neuronas y 10240 sinapsis. Alcanza 2 GCPS, y pueden conectarse hasta 8 de éstos.Otros: Mod2, Fully Analog Chip,etc.
Neurocomputadores híbridos:ANNA (Analog Neural NetworkArithmetic and logic unit, 1992) de AT&T. Alcanza entre 1000 y 2000 MCPS.
5.3. Neurocomputadores
19AAC
5.4. Aplicaciones de los SNA
Finanzas.Predicción de índices Detección de fraudes. Riesgo crediticioPredicción de la rentabilidad de acciones
NegociosMarketing Venta cruzada Campañas de venta
Tratamiento de textos y procesamiento de formasReconocimiento de caracteres impresos mecánicamente. Reconocimiento de gráficos. Reconocimiento de caracteres escritos a mano. Reconocimiento de escritura manual cursiva.
20AAC
5.4. Aplicaciones de los SNA
AlimentaciónAnálisis de olor y aroma. Perfilamiento de clientes en función de la compra. Desarrollo de productos. Control de Calidad.
Energía.Predicción consumo eléctrico Distribución recursos hidráulicos para la producción eléctrica Predicción consumo de gas ciudad
Industria manufacturera.Control de procesos. Control de calidad. Control de robots.
21AAC
5.4. Aplicaciones de los SNA
Medicina y saludAyuda al diagnostico. Análisis de Imágenes. Desarrollo de medicamentos. Distribución de recursos.
Ciencia e Ingeniería.Ingeniería Química. Ingeniería Eléctrica. Climatología.
Transportes y ComunicacionesOptimización de rutas. Optimización en la distribución de recursos
……….