Red de Hopfield

John J. Hopfield Red neuronal
John Hopfield

La Red Hopfield surge en la década de 1.980 en base al trabajo de John J. Hopfield sobre neurofisiología en invertebrados y basado en el modelo de McCulloch y Pitts, pero fue descrita anteriormente, en 1.974, por William A. Little en su trabajo «The Existence of Persistent States in the Brain», es una formulación de un modelo de red neuronal asociativa.

 

Es una red mono capa (ocasionalmente bicapa) de neuronas cuyas salidas son números binarios-bipolares, donde existe realimentación entre ellas. Es parecida al modelo del Perceptrón, pero con el añadido de que las neuronas en la capa oculta tienen conexiones de salida con cada neurona de la misma capa, aprenden usando la regla de Donald Hebb. Es por tanto recurrente, completamente interconectada y consta de un número simétrico de neuronas, con la salvedad de que una neurona no puede estar conectada así misma.

 

Características del modelo:

  • Es probabilístico
  • Al ser un modelo recurrente todas las neuronas están conectadas entre sí, cada neurona recibe señal de todas las demás y emite hacia todas ellas, pero no a sí misma.
  • Consta de una matriz de pesos fija (W), simétrica y de diagonal nula (0).

    Red Hopfield
    Red Hopfield

  • Cada neurona puede tomar dos valores distintos (binarios-bipolares).

Al introducir un patrón de entrada, la información se propaga hacia adelante y hacia atrás. La convergencia a uno de los patrones no está garantizada, esta situación puede provocar que no se alcance la estabilidad del sistema y que la red nunca se detenga.

 

A lo largo del tiempo se ha tomado este modelo como base para nuevas versiones:

  1. Red discreta, DHN “Discrete Hopfield Net». Es discreta, es decir, la red solo funciona con vectores binarios, pero mayoritariamente se utilizan números bipolares. Es casi lo mismo, pero en lugar de 0 se usa -1 para decodificar un estado negativo. Existen dos razones importantes para ello:
    1. Los ceros reducen la información del peso de la red.
    2. Es más complejo porque depende de la naturaleza de los vectores bipolares, es más probable que sean ortogonales entre sí, que es un factor crítico para la red.
  2. Red continua, CHN «Continous Hopfield Net», las entradas y salidas son analógicas y las funciones de las neuronas se activan de forma sigmoidal. Este método es muy sensible a las condiciones iniciales y requiere mucho tiempo de cómputo para instancias de tamaño mediano o grande.
  3. Quantized Hopfield Network (QHN).
  4. Competitive Continuous Hopfield Neural Network (CCHNN).
  5. Hysteretic Hopfield Neural Network (HHNN).
  6. Fuzzy Hopfield Neural Networks (FHNN). Es un procedimiento numérico para reducir la función de energía y encontrar el grado de afinidad de los miembros.
  7. Competitive Hopfield Neural Network (CHNN).
  8. Discrete Competitive Hopfield Neural Network (DCHNN).
  9. Penalized Fuzzy Hopfield Neural Networks (PFHNN).
  10. Compensated Fuzzy Hopfield Neural Networks (CFHNN). Es una ampliación propuesta por Shao-Han Liu y Jzau-Sheng Lin para mejorar la compresión de imágenes, utiliza una modificación de FCM (Fuzzy c-means) que es computacionalmente más eficiente. La estructura de la red se construye como una matriz bidimensional completamente interconectada con las columnas que representan el número de vectores de código (agrupaciones) y las filas que representan los vectores de entrenamiento en la imagen dividida.
  11. Annealed Chaotic Hopfield Neural Networks (ACHNN).

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

14 + quince =