RNR SORN

Es una arquitectura propuesta por Andreea Lazar, Gordon Pipa y Jochen Triesch en el artículo publicado en 2.009 y titulado “SORN: self-organizing recurrent neural network”.

 

Se basan en el funcionamiento de la Neo corteza de los mamíferos que es la parte del cerebro en la cual se tienen las funciones cognitivas más elevadas y donde también se encuentra una gama de diferentes mecanismos de adaptación/plasticidad.

 

Combina tres formas distintas para aprender patrones espacio-temporales. Aprende a codificar información en forma de trayectorias a través de su espacio de estado que es similar a los recientes descubrimientos biológicos sobre la codificación cortical. Los autores hacen hincapié en que la adaptabilidad de la red permite:

 

  • Aprender a representar efectivamente la estructura espacio-temporal de sus entradas.
  • Mantener dinámicas que hacen un uso eficiente de todos los recursos de la red.
  • Funcionan mucho mejor en tareas de predicción en comparación con redes aleatorias sin plasticidad.
SORN
SORN

 

El modelo está formado por neuronas excitadoras NE e inhibidoras NI, con una proporción NI = 0,2 x NE. La conexión de unidad j a unidad i es ponderada por Wij (con i ? j), pero con las siguientes reglas:

 

  • Existen todas las conexiones posibles desde a , (WIE)
  • Existen todas las conexiones posibles desde a , (WEI)
  • Las conexiones de las neuronas excitadoras a las excitadoras ( ) son dispersas y aleatorias: es el número de conexiones entrantes, así como las conexiones salientes por neurona
  • No existen conexiones desde neuronas inhibidoras a inhibitorias