Slide 1

Slide 1 text

Red Adaline Adaptive Linear Neuron

Slide 2

Slide 2 text

Historia • A finales de los 50’s Bernard Widrow empezaba a trabajar en redes neuronales, en el tiempo en el que Frank Rosenblatt desarrollo la regla de aprendizaje del perceptron. • En 1960 Widrow y su asesorado Marcian Hoff, presentaron la red ADALINE (Adaptive Linear Neuron), y una regla de aprendizaje la cual denominaron algoritmo LMS (least mean square).

Slide 3

Slide 3 text

Introducción • La red ADALINE es muy similar al perceptron, excepto que su función de transferencia es linear, en vez de escalón. • Tanto el ADALINE como el perceptron sufren de la misma limitación: solo pueden resolver problemas linealmente separables.

Slide 4

Slide 4 text

Diferencias Entre La Regla Del Perceptron Y El Algoritmo LMS • El algoritmo LMS es más poderoso que la regla de aprendizaje del Perceptron. • El algoritmo LMS ha encontrado muchos más usos que la regla de aprendizaje del perceptron. En esencia en el área del procesamiento digital de señales.

Slide 5

Slide 5 text

Diferencias Entre La Regla Del Perceptron Y El Algoritmo LMS PERCEPTRON ADALINE Función de Transferencia ESCALON LINEAL Resolución de problemas Linealmente Separables Linealmente Separables Comportamiento con respecto al RUIDO Sensible al Ruido Minimiza el Ruido Algoritmo de aprendizaje Regla de aprendizaje Del Perceptron LMS

Slide 6

Slide 6 text

Arquitectura de ADALINE X0 =1 X1 W0 XN X2 X3 W1 W2 W3 WN S s Salida Lineal Salida binaria y Combinador Adaptativo Lineal Conmutador Bipolar s y -1 1

Slide 7

Slide 7 text

Arquitectura de ADALINE • Formada por un elemento denominado: Combinador Adaptativo Lineal (ALC). • La salida lineal obtenida del ALC se aplica a un Conmutador Bipolar. • El Umbral de la F. de T. se representa a través de una conexión ficticia de peso Wo (b)

Slide 8

Slide 8 text

Red ADALINE a p u r e l i n W p b + ( ) W p b + = = a i p u r e l i n n i ( ) p u r e l i n w T p b i + ( ) w T p b i + = = =  w i w i 1  w i 2  w i R  =

Slide 9

Slide 9 text

ADALINE de dos entradas a p u r e l i n n ( ) p u r e l i n w T p b + ( ) w T p b + = = = a w T p b + w 1 1  p 1 w 1 2  p 2 b + + = =

Slide 10

Slide 10 text

Algoritmo de Aprendizaje Aprendizaje OFF-LINE con Supervisión Least Mean Square (LMS). LMS trata de minimizar una diferencia entre el valor obtenido y el deseado; como en el PERCEPTRON, sólo que ahora la salida considerada es la salida obtenida al aplicar una función de activación lineal.

Slide 11

Slide 11 text

Algoritmo de Aprendizaje El entrenamiento de la red consiste en adaptar los pesos a medida que se vayan presentando los patrones de entrenamiento y salidas deseadas para cada uno de ellos. Para cada combinación E/S se realiza un proceso automático de pequeños ajustes en los valores de los pesos hasta que se obtienen las salidas correctas.

Slide 12

Slide 12 text

Ecuaciones Importantes en el Algoritmo LMS En Forma de Matriz Donde : l max: es el eigenvalor más grande de la matriz Hessiana R W k 1 + ( ) W k ( ) 2 a e k ( ) p T k ( ) + = b k 1 + ( ) b k ( ) 2 a e k ( ) + = R E p p T [ ] 1 2 - - - p 1 p 1 T 1 2 - - - p 2 p 2 T + = = a es la velocidad de aprendizaje determinada por 0 a 1 l m a x  < <

Slide 13

Slide 13 text

Algoritmo de Aprendizaje en ADALINE 1. Se aplica un patrón de entrada P. 2. Se obtiene la salida del ALC y se calcula la diferencia con respecto a la deseada (error). 3. Se actualizan los pesos. 4. Se repiten pasos 1 a 3 con todos los vectores de entrada. 5. Si el Error es un valor aceptable, detenerse, si no repetir algoritmo.

Slide 14

Slide 14 text

Función de Error Para un ALC con solo dos pesos, la superficie de error es un paraboloide. Los pesos que minimizan el error se tienen en el fondo de la superficie paraboloidal.

Slide 15

Slide 15 text

Ejemplo p1 1 – 1 1 – t1  1 – = =           p2 1 1 1 – t2  1 = =           R E ppT [ ] 1 2 - - -p1 p1 T 1 2 - - -p2 p2 T + = = R 1 2 -- - 1 – 1 1 – 1 – 1 1 – 1 2 - - - 1 1 1 – 1 1 1 – + 1 0 0 0 1 1 – 0 1 – 1 = = l1 1.0 l2 0.0 l3 2.0 =  =  = a 1 lmax -- -- -- -- -- - - < 1 2.0 - -- -- - - 0.5 = = Banana Manzana