Adaline-Madaline-Gadaline

Adaline (ADAptative LINear Element) y Madaline (Multiple ADALINE), fueron desarrolladas por Bernard Widrow y Marcian Edward Hoff en 1.960.

Bernard Widroff
Widroff
Marcian Edward Hoff
Hoff

Adaline, anteriormente llamada Adaptive Lineal Neuron, fue la primera red neuronal aplicada a un problema real, la eliminación de ecos en líneas telefónicas, después fue utilizada en aplicaciones de reconocimiento de voz, caracteres y predicción del tiempo.

 

Su estructura es muy similar a la del Perceptrón, tiene dos capas de neuronas, una capa de entrada (la entrada puede ser continua) y otra de salida, esta capa tiene solo un nodo/neurona que proporciona un número real obtenido de la suma de las entradas por sus pesos más el umbral, y = w1 x1 +…+ wn xn + Φ.

 

ADALINE

La función de activación es lineal o sigmoidal y al igual que el Perceptrón, solo resuelve problemas linealmente separables. El aprendizaje es supervisado utilizando la regla Delta o de Widrow – Hoff , la regla delta nos da el conjunto de pesos que minimiza la función de error. El algoritmo aplicado es el LMS (Least Mean Square, Reglas del mínimo error cuadrado medio). El error cuadrático corresponde a la suma de los cuadrados de la diferencia entre la respuesta deseada y la salida real para cada patrón. 

 

Dentro de la neurona existe una división llamada ALC (Adaptive Linear Combiner, Combinador Adaptativo Lineal), es la responsable de obtener una salida lineal que pueda ser aplicada a otro elemento de conmutación bipolar, de forma que si la salida del ALC es > 0, la salida será 1 y si el valor es < 0  la salida será -1.

 

 

 

 

 

Las primeras MADALINES, llamadas MADALINE I, estaban formadas por dos capas, la primera tenía ADALINES y en la segunda funciones lógicas fijas ( AND, OR y MAJ -Majority-Vote-Taker). El método de aprendizaje se denominaba MRI (MADALINE Rule I) y los pesos iniciales eran valores aleatorios pequeños.

 

 

GADALINE (Generalized ADaptive LiNear Element). Es una red lineal recurrente basada en ADALINE, donde el sesgo ha sido eliminado y hay n + m entradas. Las primeras m entradas se han obtenido al retrasar la entrada del sistema de 1 a m períodos y el resto de las n entradas también se obtienen retrasando la salida del sistema de 1 a n periodos respectivamente.

 

Además, añade un término denominado “impulso” para ajustar el peso en el aprendizaje adaptativo. El impulso solo está activado durante el período de convergencia, una vez que el error de aprendizaje está dentro de un determinado umbral “pequeño”, se apaga y se activa la curva de aprendizaje.

 

La baja complejidad computacional hace que este método sea adecuado para sistemas de identificación en línea y control adaptativo en tiempo real.