3.1.2.1 Redes con conexiones hacia adelante (feedforward) En las redes feedorward todas la señales se propagan hacia delante atreves de las capas de la red. No existe conexiones hacia atrás (ninguna salida de neuronas de una capa i se aplica a la entradas de neuronas de capa i-1,i-2,….),y normalmente auto recurrentes (salida de neurona aplicada a su propi entrada). Modelos de red propuesta por kohonen denominados LEARNING VECTOR QUARTIEZER (LVQ) Y TOPOLOGYA RESERVING MAP (TPM) en la que existen conexiones implícitas muy particulares entre las neuronas de la capa de salida. Las redes feedforware mas conocidas son: PERCEPTRON,ADALINE,MADALINE,LINEAR ADAPTIVER MEMORY,(LAM),DRIVE-REINFORCE, toda ellas son especialmente útiles en aplicaciones de reconocimiento o clasificación de patrones. 3.2.2.1 Aprendizaje por corrección de error Consiste en ajustar los pesos de as conexiones de la red en función de a diferentes entre los vaolres deseados de los obtenidos en la salida de la red Variación en el peso de la conexión entre neuronas i y j Y1 :valor de la salida de la neurona i. dj: valor de la salida deseado para la neurona j. yj: valor de salida obteniendo en la neurona j. a: factor de aprendizaje (0<a<1) que regula la velocidad del aprendizaje. Un ejemplo lo constituye la regla de aprendizaje del perceptron utilizada en el entrenamiento del mismo desarrollado por Rosenblant. Un algoritmo muy conocido que mejora al perceptron y permite un aprendizaje mas rápido y un campo de aplicación mas amplio es el propuesto por widrow denominado delta o regla del minimo error cuadrado que se aplico en las redesde adeline con una única neurona de salida y madaline con varias neuronas de salida. Widrow y Hoff definieron una función que permitia cuantificar el error global contenido en el proceso de entrenamiento de la red. Ya que causa mas información sobre el error cometido y asi mas rápido poder aprender. Siendo n: numero de neuronas de salida (en el caso de adeline n=1) p: numero de información que debe aprender la red. Aprendizaje por corrección de error lo constituye el denominado regla delta generalizada o algoritmo de retroprogramacion del error. Se trata de aplicarla a redes con conexiones hacia delante con capas o niveles internos u ocultos de neuronas que no tienen relación con el exterior son redes con capa de entrada, capas ocultas y capas de salida. Las redes multicapa pueden utilizarse en muchas mas aplicaciones conocidas perceptron, adeline, madaline. Pero su poseso de aprendizaje es mucho mas lento. Es deir debe establecer cual va ser su papel en el funcionamiento de la red. El algoritmo backpropagation se suele utilizar en redes multicapa que presentan conexiones recurrentes en el fin de que estas redes aprendan la naturaleza temporal de algunos datos En el caso de la red BRAINT.STATE-IN-A-BOX el aprendizaje de esta red es sin supervivion se suele refinar los valores de los pesos de las conexiones mediante un aprendizaje por corrección de error basado en un adaptación de la regla delta de widrow-Hoff. 3.5 Caracteristicas de los modelos de redes neuronales mas conocidos Topologias Mecanismos de aprendizaje Tipo de asociacion de la informacion de entrada y salida y la forma de representar Señaes de entrada/salida Autores