Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz - 1 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Índice 1. Problema a resolver.................................................................................................... 3 2. Estudio teórico de las redes de Hopfield................................................................... 4 Introducción........................................................................................................................................4 Estructura ...........................................................................................................................................5 Regla de aprendizaje.........................................................................................................................11 Identificación de Sistemas No Lineales.............................................................................................14 Capacidad de almacenamiento e interés práctico ............................................................................17 3. Resolución ................................................................................................................. 19 Creación de patrones........................................................................................................................19 Configuración del SNNS ...................................................................................................................23 4. Resultados y análisis................................................................................................. 25 5. Conclusiones.............................................................................................................. 33 6. Bibliografía................................................................................................................ 34 Libros................................................................................................................................................34 Webs..................................................................................................................................................34 - 2 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz 1. Problema a resolver En esta práctica se nos plantea la recuperación de caracteres alfanuméricos ruidosos utilizando la red de Hopfield. Para ello tendremos que crear inicialmente un conjunto entrenamiento formado por 6-11 de patrones originales, sin ruido, que serán los que la red aprenda. Después habrá ir presentándole los mismos patrones pero con ruido añadido para observar como la red es capaz de eliminar dicho ruido. Además le presentaremos también patrones incompletos para comprobar si la red es capaz de identificarlos. - 3 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz 2. Estudio teórico de las redes de Hopfield Introducción Una de las mayores contribuciones al área de las redes neuronales fue realizada en los años 1980 por John Hopfield, quien estudió modelos aoutoasociativos que presentaban algunas similaridades con los perceptrones, pero incluía también grandes diferencias. Las redes de Hopfield son redes de adaptación probabilística, recurrentes, funcionalmente entrarían en la categoría de las memorias autoasociativas, que aprenden a de reconstruir los patrones de entrada que memorizaron durante el entrenamiento. Son arquitecturas de una capa con interconexión total, funciones de activación booleana de umbral (cada unidad puede tomar dos estados, 0 o 1, dependiendo de si la estimulación total recibida supera determinado umbral), adaptación probabilística de la activación de las unidades, conexiones recurrentes y simétricas, y regla de aprendizaje no supervisado. Mientras que las redes en cascada (no recurrentes) dan soluciones estables, los modelos recurrentes dan soluciones inestables (dinámicas), lo que no siempre es aconsejable. La principal aportación de Hopfield consistió precisamente en conseguir que tales redes recurrentes fueran así mismo estables. Imaginó un sistema físico capaz de operar como una memoria autoasociativa, que almacenara información y fuera capaz de recuperarla aunque la misma se hubiera deteriorado. El concepto de memoria asociativa es bastante intuitivo: se trata simplemente de asociar dos patrones. Dentro de este concepto definiremos diferentes tipos de memorias asociativas: Memoria heteroasociativa: Establece una correspondencia F entre dos vectores X,Y de tal manera que F(xi)=yi, y si un x arbitrario está más próximo a xi que a cualquier otro xj, entonces F(x)=yi. En esta definición, el estar más próximo quiere decir con respecto a la Distancia De Hamming. Memoria asociativa interpoladora: Establece una correspondencia F entre X e Y de tal manera que F(x)=yi, pero si el vector de entrada difiere de uno de los ejemplares en el vector d, de tal modo que x=xi+d, entonces la salida será yi+d. Memoria autoasociativa: Supóngase que Y=X, y apliquemos lo que se dijo en la primera definción. - 4 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Estructura En búsqueda de una implementación practica, Hopfield presentó su modelo básico como un circuito eléctrico, el cual se muestra en la figura 2, donde cada neurona se representa por un amplificador operacional y una red asociada formada por una capacitancia y una resistencia, la entrada a cada amplificador es la suma de las corrientes Ii mas las realimentaciones provenientes de otros amplificadores, por ejemplo el segundo amplificador realimenta al amplificador S a través de la resistencia RS2, en caso de necesitarse realimentaciones con signo negativo, estas se hacen por medio de la salida inversora de cada amplificador; la ecuación para el modelo de Hopfield basado en las leyes de Kirchhoff se muestra en la ecuación 1. Figura 2: Circuito Eléctrico red Hopfield Ecuación 1 Donde ni es el voltaje de entrada a cada amplificador y ai =f(ni) su salida, con característica de amplificación f la cual es generalmente de tipo sigmoidal, . - 5 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Multiplicando a ambos lados de la ecuación 1 por Ri y definiendo ∈ =RiC, ω ij=RiTij y bi=RiIi, esta puede reescribirse en la ecuación 2 la cual describe el comportamiento de cada una de las neuronas dinámicas que componen el circuito eléctrico de la red de Hopfield. Ecuación 2 Utilizando la ecuación 2 y escribiéndola en su forma matricial con a(t)=f(n(t)), se obtiene la ecuación 3, en esta ecuación se describe el comportamiento de la red de Hopfield Ecuación 3 La red de Hopfield en notación compacta se muestra en la figura 3, en donde el vector de p no se considera como la entrada a la red sino como la condición inicial de la red Figura 3: Notación compacta red de Hopfield - 6 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Como se observa, la red de Hopfield esta compuesta de neuronas dinámicas altamente interconectadas gobernadas por ecuaciones diferenciales no lineales, esta red funciona como una memoria asociativa no lineal que puede procesar patrones presentados de forma incompleta o con ruido, siendo útil como una poderosa herramienta de optimización En el libro "Neural Network Design" [Hagan-96], se muestra que una de las principales contribuciones de Hopfield fue la aplicación de la teoría de estabilidad de Lyapunov al análisis de las redes recurrentes, la teoría de estabilidad de Lyapunov se aplica a través del teorema de LaSalle y para su utilización el primer paso es escoger una función de Lyapunov, para lo cual Hopfield sugirió la siguiente función: Ecuación 4: Lyapunov Donde a es la salida de la red, W es la matriz de pesos y b es el vector de ganancias. La escogencia de esta particular función, fue clave en el desarrollo de Hopfield, pues el primer y el tércer termino de esta ecuación conforman una función cuadrática, las cuales pueden aproximar gran cantidad de funciones en un pequeño intervalo, especialmente cerca de puntos donde se encuentre un mínimo local. Para usar el teorema de LaSalle se necesita evaluar la derivada de la ecuación 4, por claridad se evaluará cada uno de los tres términos de forma independiente, tomando la derivada del primer término de la ecuación 4 se obtiene: Ecuación 5 Derivando el segundo termino de la ecuación 4, el cual consiste de una sumatoria de integrales y considerando una de estas integrales se obtiene: Ecuación 6 - 7 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Tomando en consideración todas las integrales, en forma matricial la derivada del segundo termino es: Ecuación 7 Derivando el tercer término de la ecuación 4 y apoyándose en las propiedades de las funciones cuadráticas se obtiene la ecuación 8: Ecuación 8 La derivada total de la ecuación 8 se obtiene al unir los resultados de las ecuaciones 5, 7 y 8: Ecuación 9 comparando con la ecuación 3 del modelo eléctrico de Hopfield, se tiene que: Ecuación 10 Esto permite reescribir la ecuación 2.6.9 así como sigue: Ecuación 11 ya que ni = f- –1(ai), es posible expandir la derivada de ni de la siguiente forma: - 8 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Ecuación 12 Con esto la ecuación 11 puede ser reescrita como: Ecuación 13 si se asume que f- –1(ai) es una función incremental, como sucede en los amplificadores operacionales, entonces: Ecuación 14 Este resultado implica en la ecuación 12 que: Ecuación 15 - 1 De esta manera, si f – (ai) es una función incremental, todos los valores propios de la función dV(a)/dt son no positivos lo cual implica que la red sea estable, entonces V(a) es una función de Lyapunov valida. Los atractores de Hopfield son puntos estacionarios de la función de Lyapunov que satisfacen la ecuación 16: Ecuación 16 - 9 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Estos puntos estacionarios son puntos donde se encuentra un mínimo de la función V(a) descrita en la ecuación 4, en estos puntos el gradiente de la función V(a) igual a cero. Ecuación 17 La función de Lyapunov descrita por la ecuación 4 puede simplificarse si se considera que la ganancia es grande, como sucede en los amplificadores con los que se implementa la red, una función de transferencia típica para estos amplificadores no lineales se muestra a continuación: Ecuación 18 Para evaluar el segundo termino de la función de Lyapunov se requiere el calculo de f- –1(u). Ecuación 19 Si la ganancia es muy grande y la salida de la red se mantiene en el rango 1>a>–1, el segundo termino de la función de Lyapunov tiende a cero y puede definirse la función de alta ganancia de Lyapunov como: Ecuación 20 - 10 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Regla de aprendizaje La red de Hopfield no tiene una ley de aprendizaje asociada, esto significa que la red no es entrenada ni realiza un proceso de aprendizaje, sin embargo es posible determinar la matriz de pesos por medio de un procedimiento basado en la función de alta ganancia de Lyapunov descrita por la ecuación 20. Ecuación 21 El procedimiento consiste en escoger la matriz de pesos W y el vector de ganancias b tal que V toma la forma de la función que se quiere minimizar, convirtiendo el problema que se quiere resolver, en un problema de minimización cuadrática, puesto que la red de Hopfield minimizará a V . Una red de Hopfield puede diseñarse como una memoria asociativa, en este caso es llamada memoria de contenido direccionable, porque la memoria recupera la información almacenada con base en parte de su contenido, en contraste con las memorias estándar de computo, donde la información se recupera con base en sus direcciones, por ejemplo si se tiene una base de datos de contenido direccionable que contiene nombres y direcciones de los empleados de una empresa, la información completa se recupera por ejemplo suministrando el nombre (o parte de él), este tipo de memoria es la misma memoria autoasociativa excepto que en este caso se utilizará la red recurrente de Hopfield en vez del asociador lineal. Cuando se le presenta un patrón de entrada a la red de Hopfield, el estado inicial de la salida será el mismo patrón de entrada y luego la red convergerá al patrón prototipo almacenado que se encuentre más cercano (o que más se parezca) al patrón de entrada, para que la red memorice un patrón prototipo, este debe ser un mínimo de la función de Lyapunov. - 11 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Asumiremos que los patrones prototipo son y que cada uno de estos vectores se compone de S elementos, al asumir que Q<<S, el espacio de estado es amplio y los patrones prototipo se encuentran bien distribuidos y por lo tanto no están cercanos uno de otro. Para garantizar que los patrones prototipo a almacenar son mínimos de la función de Lyapunov, se propone la siguiente función para evaluar el error en la aproximación. Ecuación 22 Si los elementos de a son restringidos a valores de ± 1, la función es minimizada en los patrones prototipo como se mostrara a continuación: Asumiendo que los patrones prototipo son ortogonales, y evaluando el error en uno de ellos, se tendrá que Ecuación 23 La segunda igualdad de la ecuación 23 se debe a la ortogonalidad de los patrones prototipo y la ultima igualdad a que todos los elementos de pj son ± 1, evaluando el error del patrón aleatorio de entrada, el cual presumiblemente no esta cercano a ningún patrón prototipo, cada elemento de la sumatoria en la ecuación 22 es el producto punto entre un patrón prototipo y la entrada, el producto punto se incrementara cuando la entrada se mueva cerca del patrón prototipo, sin embargo, si la entrada no se encuentra cerca de algún patrón prototipo, todos los términos de la sumatoria serán pequeños y por lo tanto J(a) será la mayor (menos negativa) y cuando a sea igual a alguno de los patrones prototipo J(a) será mas pequeña (mas negativa). - 12 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz La ecuación 22 es una función cuadrática que indica con precisión el desempeño del contenido de la memoria direccionable, el próximo paso es escoger la matriz de pesos W y ganancias b, tal que la función de Lyapunov de Hopfield V sea equivalente al desempeño de la función cuadrática J. Si se utiliza la regla de aprendizaje supervisado de Hebb para calcular la matriz de pesos (con patrones objetivo iguales a los patrones de entrada) entonces y b=0 Ecuación 24 entonces la función de Lyapunov será: Ecuación 25 y puede ser reescrita como: Ecuación 26 Podemos observar que la función de Lyapunov es igual al desempeño del error del contenido de la memoria direccionable, la salida de la red de Hopfield tendera a converger a los patrones prototipo almacenados, en el caso que todos los patrones prototipo sean ortogonales, cada uno será un punto de equilibrio de la red; la red puede tener muchos otros puntos de equilibrio indeseables, una regla práctica para evitarlos consiste en que cuando se utilice la regla de Hebb, el número de patrones almacenados no debe superar el 15% del número de neuronas de la red. - 13 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Identificación de Sistemas No Lineales El comportamiento dinámico de las redes recurrentes hace que sean una poderosa herramienta en la identificación de sistemas dinámicos no lineales. En la forma estándar una neurona dinámica esta regida por la siguiente ecuación y se muestra en la figura 4: (2.6.27) Figura 4: Neurona dinámica o en forma matricial: Ecuación 28 donde , , ,y En la figura 5 se observa una red neuronal dinámica recurrente, donde cada unidad de procesamiento es una neurona dinámica y cada punto es un peso. Como vemos, es muy parecido a la figura 2, donde se mostraba el circuito eléctrico de la red de Hopfield. - 14 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Figura 5: Red neuronal dinámica recurrente Para garantizar la estabilidad de las redes dinámicas recurrentes en el proceso de identificación de sistemas no lineales, se formularon condiciones estrictas para los pesos la red y su desarrollo se basa en la función de Lyapunov. Para el entrenamiento de la red de Hopfield en identificación de sistemas, se utiliza el algoritmo de Chemotaxis (figura 6), el cual permite entrenar redes neuronales de cualquier tipo sin calcular el gradiente del error, este algoritmo fue formulado considerando el movimiento de una bacteria en un medio donde hay un gradiente de solución alimenticia; la bacteria se mueve inicialmente al azar hasta detectar un aumento en la concentración de la solución y luego continua en esa dirección. El algoritmo de Chemotaxis toma los pesos iniciales al azar con distribución Gaussinana, cuando una iteración es exitosa (disminuye el valor de la función de error) el algoritmo continua en esta dirección hasta que la función de error J no muestra cambios. - 15 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Figura 6: Algoritmo de Chemotaxis it_max: Numero máximo de iteraciones ω 2: Antigua matriz de pesos it: Contador de iteraciones Δ ω : Perturbacion en la matriz de pesos i_s: Contador de iteraciones exitosas gauss( i_f: Contador de iteraciones no exitosas aleatorios con distribución Gaussiana α : Rata de aprendizaje Ji: Indice de la función de error ω 1: Antigua matriz de pesos correspondiente a la matriz de pesos ω i. ): Generador de números La función de error Ji relaciona la salida del sistema a aproximar con la salida de la red dinámica entrenada con NP patrones de entrenamiento. Ecuación 29 dk: Salida deseada para el patrón de entrenamiento k. yk: Salida actual de la red ante el patrón de entrenamiento k. - 16 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Capacidad de almacenamiento e interés práctico Esta capacidad se refiere a la cantidad de información que puede ser guardada sin error, esta puede medirse como: C = (No de patrones guardados)/(No de Neuronas) La capacidad depende de los pesos de la conexión, los patrones almacenados y la diferencia entre los patrones de entrada y los guaradados Dado el conjunto de entrenamiento P, donde se escogen aleatoriamente los vectores i 1,..,ip donde cada ip Œ { 1,-1}, estos vectores son almacenados usando los pesos de conexión: ¿Cuanto debe ser de grande P, de tal forma que la red responda a cada il de manera correcta? La capacidad máxima de una RN Hopfield (Con n nodos) está acotada en una cantidad cercana a: n/(4*ln(n)) Las redes de Hopfield pueden usarse desde un enfoque psicofisiológico, como un modelo sencillo para explicar como ocurren las asociaciones entre ideas. Las ideas parciales serían estados de activación en la zona de atracción de ideas más generales (puntos fijos o puntos de equilibrio), de forma que al introducir la idea parcial se puede llegar a alcanzar la idea general. A su vez, debido a que las áreas de atracción indican sólo una probabilidad (generalmente diferente de 1), este modelo permite explicar también la incertidumbre que se produce en las asociaciones: una idea parcial, a pesar de tener alta probabilidad de desembocar en la idea general, puede llevar a otras ideas diferentes que también actúan como puntos de equilibrio. Una posible aplicación informática de las redes de Hopfield es el desarrollo de memorias direccionadas por contenido: los elementos de la memoria no estarían ordenados según índices numéricos, sino según parte de su contenido. En las memorias actuales es necesario conocer la dirección de memoria de un dato para poder recuperarlo, mientras que en las memorias direccionadas por contenido se pueden recuperar datos completos (puntos de equilibrio) a partir de datos parciales (que formen parte de su área de atracción). - 17 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Las redes de Hopfield se han aplicado a campos como la percepción el reconocimiento de imágenes y optimización de problemas, mostrando gran inmunidad al ruido y robustez. Incluso se han llegado a desarrollar chips específicos para este tipo redes. El estudio de las representaciones de secuencias temporales es un área de gran interés, con aplicaciones en reconocimiento automático de voces y movimientos. Hopfield ha mostrado como aplicar los mismos principios con funciones de activación continuas como la función sigmoidal, con muy pocas modificaciones. Pero pese a sus evidentes ventajas no están exentas de problemas: - El número máximo de patrones no correlacionados que puede almacenar es igual al 15% del número de neuronas de la red. - Requieren mucho tiempo de procesamiento hasta converger a una solución estable, lo que limita su aplicabilidad. - Otro de los problemas achacados a las redes de Hopfield es su tendencia a caer en mínimos locales, como en las redes de retropropagación. La solución pasa por aplicar los métodos estadísticos que ya comentamos en el apartado dedicado a las redes de retropropagación, el equilibrio termodinámico simulado. - 18 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz 3. Resolución Creación de patrones Para el desarrollo de la práctica codificamos inicialmente un conjunto de 5 patrones en una matriz de 24x24 que nos permitiera salvar con creces la poca capacidad de almacenamiento de la red Kohonen. Escogimos los caracteres del alfabeto que nos parecieron menos similares. Fueron los siguientes: “A”, “C”, “J”, “K”, y “T”. Vemos su aspecto original a continuación: - 19 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Adicionalmente, creamos un conjunto de patrones de las mismas letras pero con ruido añadido, para comprobar la respuesta de la red ante esta situación. Eran así: - 20 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Finalmente volvimos a crear los patrones de esas letras, pero esta vez eliminando trozos de la imagen, de modo que ésta fuera parcial. Quedaron así: - 21 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz - 22 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Configuración del SNNS Una vez confeccionado el conjunto de entrenamiento, procedemos a la creación de la red utilizando el SNNS mediante la pestaña BIGNETÆ Hopfield, y posteriormente cargamos los patrones que acabamos de crear. A continuación, a través del panel de DISPLAY establecemos la función de activación y de la de salida de las neuronas de la red que en este caso serán: la función signo para la activación y la función identidad para la salida. Por último, ya en el panel de control, establecemos las distintas funciones que seran: Función de aprendizaje: Hebbían. Esta función tiene 3 parámetros: 1. n: Parámetro de aprendizaje. Indica la cantidad lo largo del paso en el descenso hacia el gradiente. Se recomienda un valor menor que 1/ nº de nodos de la red. 2. Wmax: Indica el peso ( en valor absoluto) máximo permitido en la red. Se recomienda un valor de 1.0 3. count: Indica el número de veces que la red es actualizada después de calcular el error. Función de actualización: Hopfield_Synchronous - 23 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Función de Inicialización de Pesos: Hebb Este tipo de redes no necesita de un proceso de aprendizaje por ciclos, al igual que las estudiadas anteriormente, por lo que no será necesario, en este caso, darle al botón de ALL para que la red aprenda. Será suficiente con pasarle mediante el botón TEST una vez todos los patrones y a continuación darle al botón INIT para que se adecuen los pesos y la red ya estará entrenada. Es en este momento cuando comienzan las distintas pruebas que se le realizarán a la red que quedarán recogidas en el apartado siguiente. - 24 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz 4. Resultados y análisis Una vez entrenada la red con el conjunto de entrenamiento podemos comprobar la carga de la matriz de pesos pulsando sobre el botón WEIGHTS de la ventana principal del SNNS. Obtenemos la siguiente matriz: - 25 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Comprobamos inmediatamente que la matriz es simétrica. También que, como era de esperar, los valores están comprendidos entre -5 y 5, tomando sólo valores impares. Se observa que la diagonal de la matriz vale 5, en lugar de 0. Eso quiere decir que el SNNS no ha puesto dichos valores a 0, con lo que realizará más cálculo del necesario, ya que los valores de la diagonal no intervienen en el funcionamiento de la red. Una vez entrenada la red con el conjunto de entrenamiento procedemos a testear la misma obteniendo los siguientes resultados para cada uno de los patrones originales: Æ Æ - 26 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Æ Æ Æ - 27 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Como podemos observar la red no asimila los patrones con total exactitud pero si son claramente distinguibles. A continuación procedemos a mostrarle el mismo conjunto de patrones pero esta vez con ruido introducido: Æ Æ - 28 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Æ Æ Æ - 29 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Vemos como la red ha sabido eliminar el ruido introducido en los patrones, reconociéndolos. Estos son los resultados para los patrones incompletos: Æ Æ - 30 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Æ Æ Æ - 31 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz Podemos observar cómo los resultados que da la red son muy variables: desde el reconocimiento exacto hasta la total incerteza. - 32 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz 5. Conclusiones Las redes de Hopfield son redes con un gran potencial y tienen numerosas aplicaciones prácticas, entre las que destaca, con respecto al campo de la informática, la posibilidad de crear memorias asociativas en las que los ficheros estén direccionados, no por un índice, sino por su contenido. Esto aumenta notablemente las velocidades y capacidades de búsqueda, tal y como expusimos en la parte teórica, pero todas estas ventajas tienen el inconveniente de la poca capacidad de almacenamiento que posee la red lo que hace muy costoso almacenar grandes cantidades de información. En cambio, cuanto mejores son los procesadores que simulan el comportamiento de estas redes, más grandes podrán ser. Y cuanto más grandes son, la información que pueden almacenar es mayor y de mayor calidad. Esto último se debe a que al aumentar la dimensionalidad de los datos, el producto escalar de dos patrones aleatorios tiene una mayor probabilidad de ser muy pequeño, tal y como muestra la siguiente gráfica: Otro inconveniente de la red es que llega a almacenar gran cantidad de información falsa (al igual que en la memoria biológica, donde la información se asocia y se entremezcla) por lo que pierde fiabilidad a la hora del almacenamiento de datos. - 33 de 34 - Redes de Hopfield David Horat Flotats y Jorge Cañizales Díaz 6. Bibliografía Libros Referencia [Hagan-96] TÍTULO Neural Network Design AUTORES Martin T. Hagan, Howard B. Demuth, Mark Beale EDITORIAL PWS Publishers AÑO 1996 Webs - Sobre la capacidad de almacenamiento de las redes de Hopfield (páginas 29 y 30): http://platon.escet.urjc.es/~ovelez/docencia/cne/Hopfield.pdf - Funcionamiento e interés práctico: http://www.iiia.csic.es/~mario/Tutorial/RNA_hopfield.htm - 34 de 34 -