En 1.982 Teuvo Kohonen presentó un modelo de red denominado mapas auto-organizados o SOM (Self-Organizing Maps), pero antes hubo otros intentos de avanzar en las redes auto organizadas, uno fue el dado por Shun-ichi Amari en 1.967 con “A theory of adaptive pattern classifiers”, posteriormente Christoph von der Malsburg en 1.973 con “Self-organization of orientation sensitive cells in the striate cortex” y en 1.975
How patterned neural connections can be set up by self-organization”.
Kohonen demostró que una información de entrada única, en función de determinadas condiciones, era suficiente para forzar la formación de mapas topológicos (características), estos mapas organizan la información de entrada clasificándola automáticamente. Surgió con la intención de reconocer la voz y lo transformaron posteriormente en una herramienta de conversión de voz a texto.
Es uno de los modelos más utilizados aunque tenga la deficiencia de tener que volver a repetir completamente el proceso de aprendizaje cuando debe aprender datos nuevos, su aprendizaje es: No supervisado competitivo, ¡Aprende sin que le digan lo que se supone que está aprendiendo!.
El SOM se puede usar para detectar características inherentes al problema, por ello también se lo ha llamado SOFM, Mapa de funciones autoorganizadas.
La red tiene una capa de entrada (formada por N neuronas, una por cada variable de entrada) que distribuye las entradas a cada neurona de la segunda capa, oculta-competitiva, con M neuronas, cada una de las neuronas en esta capa actúa como una neurona de salida y además está conectada a otras neuronas de su barrio-adyacentes (tienen conexiones activadoras para las neuronas vecinas y conexiones inhibitorias para neuronas más distantes) y la retroalimentación se restringe a los vecinos a través de conexiones laterales.
A medida que se presenta un patrón de entrada, algunas de las neuronas se activan lo suficiente para producir resultados que retroalimentan a otras neuronas vecinas. La influencia que una neurona ejerce sobre las demás es función de la distancia entre ellas, siendo muy pequeña cuando están muy alejadas. La neurona con el vector de ponderación más cercano al vector de patrón de entrada, llamada “ganadora”, produce el mejor rendimiento. Durante el entrenamiento los pesos de entrada de la neurona ganadora y sus vecinas se ajustan para que se asemejen más al patrón de entrada.
El modelo tiene muchas variantes, las principales son:
- LVQ (Learning Vector Quantization). La versión original (LVQ) consta de dos capas con N neuronas de entrada y M de salida. Cada una de las N neuronas de entrada se conecta a las M de salida a través de conexiones hacia adelante (feedforward). Entre las neuronas de la capa de salida existen conexiones laterales de inhibición (peso negativo) implícitas. Cada una de estas neuronas va a tener cierta influencia sobre sus vecinas. El valor que se asigne a los pesos de las conexiones feedforward entre las capas de entrada y salida durante el proceso de aprendizaje de la red va a depender precisamente de esta interacción lateral.
- TPM (Topology-Preserving Map). Es una red neuronal de una sola capa, donde las neuronas se establecen a lo largo de una cuadrícula n-dimensional (uno, dos, tres o más espacios). Sus formas de penden de las dimensiones, las más comunes son las de dos dimensiones yforma rectangular o las hexagonales.
Por experiencia, la primera vez que los nuevos universitarios ven este modelo y tienen que luchar con él, lo nombran de la siguiente forma, ”tuvo cojones”.
Resumen | |
TIpo | feedforward / feedback |
Capas de neuronas | 1 capa de entrada y 1 capa de proceso |
Valor de entrada | Binario, Real |
Función de activación | Sigmoide |
Método de aprendizaje | No supervisado |
Algoritmo de aprendizaje | Auto organización |
Usos | Clasificación de patrones, simulación, optimización |