REDES NEURONALES EN MACROECONOMIA Introducción Las redes neuronales son modelos analógicos que tienen como objetivo reproducir en lo posible las características y la capacidad de procesamiento de información del conjunto de neuronas presentes en el cerebro de los seres vivos. El concepto de Red Nueronal Artificial está inspirado en las Redes Neuronales Biológicas. Una Red Neuronal Biológica es un dispositivo no lineal altamente paralelo, caracterizado por su robustez, tolerancia a fallos, capacidad de adaptación y aprendizaje, por último la capacidad de procesar información defectuosa. Sus principales características son las siguientes: -Aprendizaje mediante adaptación de sus pesos (pares de neuronas) sinápticos a los cambios en el entorno. -Manejo de imprecisión, ruido e información probabilística. -Generalización a partir de ejemplos. Las Redes Neuronales Artificiales intentan imitar algunas, o todas, de estas características. Este paradigma de programación difiere de las secuencias de instrucciones en donde la información se encuentra almacenada en las conexiones sinápticas. Cada neurona es un procesador elemental con operaciones muy primitivas como la suma ponderada de sus pesos de entrada y la amplificación o umbralización de esta suma. Una Red Neuronal viene caracterizada por su topología, por la intensidad de la conexión entre sus pares de neuronas (pesos), por las propiedades de los nodos y por las reglas de actualización de pesos. Las reglas de actualización, también llamadas de aprendizaje, controlan los pesos y/o estados de los elementos de procesados (neuronas). Los principales aspectos de este modelo de computación distribuida son los siguientes: -Un conjunto de unidades de procesamiento. -Un estado de activación para cada unidad, que es equivalente a la salida de la unidad. -Conexiones entre unidades, generalmente definida por un peso, que determina el efecto de la unidad j sobre la unidad k. -Una regla de propagación que determina la entrada de la unidad a partir de sus entradas externas. -Una función de activación que determina el estado de activación en función de la entrada de la unidad (en algunos casos la función de activación tiene en cuenta la activación actual de la unidad). -Una entrada externa (o offset) para cada unidad. -Un método para modificar los valores de los pesos (regla de aprendizaje). -Un entorno de trabajo en el que el sistema opere, compuesto por señales de entrada y, si es necesario, señales de error. Normalmente, la dinámica de actuación es definir una función objetivo que representa el estado completo de la red y localizar el conjunto de mínimos de esa función que se corresponden con los diferentes estados estables de la red. 1. Definición de Neurona 1.1 Fisiología y conceptos biológicos de la neurona El concepto biológico de la neurona ha tenido bastantes evoluciones, pero uno de los pasos fundamentales en el estudio de las células nerviosas fue dado a finales del siglo XIX (1899), gracias a los trabajos de Ramón y Cajal en España y Sherrington en Inglaterra. El primero trabajó en la anatomía de las neuronas y el segundo en los puntos de conexión de las mismas o sinápsis. El tejido nervioso es el más diferenciado del organismo y está constituido por células nerviosas, fibras nerviosas y la neuroglia, que está formada por varias clases de células. La célula nerviosa se denomina neurona, que es la unidad funcional del sistema nervioso. Hay neuronas bipolares, con dos prolongaciones de fibras y multipolares, con numerosas prolongaciones. Pueden ser neuronas sensoriales, motoras y de asociación. Se estima que en cada milímetro del cerebro hay cerca de 50.000 neuronas. Lo que arroja un total cercano al 0.1 billón de neuronas. Cada una de ella posee alrededor de 100 billones de conexiones sinápticas mientras que estudios anatómicos del cerebro indican más de 1000 sinapsis a la entrada y salida de cada neurona. El tamaño y la forma de las neuronas es variable, pero con las mismas subdivisiones que muestra la figura. El cuerpo de la neurona o Soma contiene el núcleo. Se encarga de todas las actividades metabólicas de la neurona y recibe la información de otras neuronas vecinas a través de las conexiones sinápticas. Figura 1: Esquema de neurona biológica Las dendritas son las conexiones de entrada de la neurona. Por su parte el axón es la "salida" de la neurona y se utiliza para enviar impulsos o señales a otras células nerviosas. Cuando el axón esta cerca de sus células destino se divide en muchas ramificaciones que forman sinápsis con el soma o axones de otras células. Esta unión puede ser "inhibidora" o "excitadora" según el transmisor que las libere. Fundamental es el hecho de que aunque el tiempo de conmutación de la neurona es casi un millón de veces menor que las computadoras actuales, ellas tienen una conectividad miles de veces superior a la de los computadores más poderosos en la actualidad. La transmisión de una señal de una célula a otra por medio de la sinápsis es un proceso químico. En él se liberan substancias transmisoras en el lado del emisor de la unión. El efecto es elevar o disminuir el potencial eléctrico dentro del cuerpo de la célula receptora. Si su potencial alcanza el umbral se envía un pulso o potencial de acción por el axón. Se dice, entonces, que la célula se disparó. Este pulso alcanza otras neuronas a través de la distribuciones de los axones. La característica principal que diferencian a las neuronas del resto de las células vivas, es su capacidad de comunicarse, esto cobra gran relevancia en el concepto de red neuronal artificial. 2.- Definición de Red Neuronal 2.1 Funcionamiento de neuronas como un grupo de aprendizaje Definiciones: Las neuronas, como un sistema biológico, está formado por neuronas de entrada o censores conectados a una compleja red de neuronas que "calculan", o neuronas ocultas, las cuales, a su vez, están conectadas a las neuronas de salidas encargadas por ejemplo, de controlar los músculos. Por censores se entienden señales de los sentidos (oído, vista, etc.), las respuestas de las neuronas de salida activan los músculos correspondientes. En el cerebro hay una gigantesca red de neuronas "calculadoras" u ocultas que realizan la computación necesaria. De esta manera similar, una red neuronal artificial debe ser compuesta por censores del tipo mecánico o eléctrico. Figura 2: Red Neuronal Artificial Típica Las Redes Neuronales Artificiales (Neural Networks) son sistemas paralelos para el procesamiento de la información, inspirados en el modo en el que las redes de neuronas biológicas del cerebro procesan esta. Es decir que se han intentado plasmar los aspectos esenciales de una neurona real a la hora de diseñar una neurona "artificial". Estos modelos realizan una simplificación, desentrañando cuales son las relevancias del sistema. La definición más general considera a una Neural Network como un entramado o estructura formada por muchos procesadores simples llamados nodos o neuronas, conectados por medio de canales de comunicación o conexiones. Cada una de ellas tiene una cantidad de memoria local, operando solamente con sus datos locales y sobre las entradas que recibe a través de esas conexiones. Las Redes Neuronales llevan asociadas algún tipo de regla de aprendizaje o entrenamiento particular por la cual esas conexiones son ajustadas acorde a los ejemplos proporcionados. En otras palabras, estas aprenden a partir de ejemplos, y muestran alguna capacidad para generalizar más allá de esos datos mostrados. Variadas son las definiciones de Redes Neuronales. Es un concepto incipiente y en constante cambio. Algunas otras definiciones se muestran a continuación: DARPA Neural Network Study (1988, AFCEA International Press, p.60) "Una red neuronal es un sistema compuesto de muchos elementos simples de proceso operando en paralelo cuya función está determinada por la estructura de la red, los pesos de las conexiones, y el procesado realizado en los elementos o nodos de cálculo." Freeman (p.93) "Una red neuronal artificial es un sistema procesador de información con características de desempeño similares a las redes neuronales biológicas. Una red neuronal artificial ha sido desarrollada como la generalización de modelos matemáticos del conocimiento humano o biología neuronal, basada en los siguientes acepciones: El procesamiento de información ocurre en elementos sencillos llamados neuronas. Las neuronas se transmiten señales a través de ligas de conexión. Cada liga de conexión esta asociada con un peso, el cual, en típicas redes neuronales, multiplica la señal transmitida. Cada neurona aplica una función de activacion (usualmente no lineal) a la entrada de la red (la suma de entradas ponderadas por los pesos)". Haykin, S. (1994), "Neural Networks: A Comprehensive Foundation." NY, MacMillan, p.2 "Una red neuronal es un procesador distribuido y con estructura paralela que tiene una tendencia natural a almacenar conocimiento experimental, haciéndolo apto para su uso. Se parece al cerebro en dos cosas: 1. El conocimiento es adquirido por la red a través de un proceso de aprendizaje. 2. Este conocimiento se almacena en los pesos sinápticos o conexiones entre neuronas." Nigrin, A. (1993), "Neural Networks for Pattern Recognition".(Cambridge, MA: The MIT Press, p.11.) "Una red neuronal es un circuito compuesto de un número elevado de elementos simples de proceso con una base neurológica. Cada elemento opera sólo con información local. Más aún, cada elemento opera asíncronamente por lo que no hay un reloj total del sistema." Sistemas Complejos y la Economía: Introducción Los sistemas económicos presentan características contradictorias. Por un lado son un ejemplo remarcable de auto-organización robusta. Algunos rasgos distintivos de estos sistemas, como por ejemplo la aparición del dinero como medio de cambio, o la fijación de precios a partir de decisiones descentralizadas y el mismo problema de coordinación que da origen a los mercados son casos cabales auto-organización, en la que pareciera que una ``mano invisible'' parece operar sobre el sistema. Consumidores, productores y arbitrajistas coordinan sus acciones a pesar de que cada uno toma sus decisiones independientemente, con información usualmente incompleta y basándose en necesidades y preferencias independientes entre sí. El sistemas, estudiado como un todo, presenta un alto grado de orden y muchos parámetros aparecen como auto-regulados. Catastrofes naturales, transformaciones sociales, ``shocks'' estructurales o externos suelen ser absorbidos por el sistema sin producir grandes cambios en los valores esperados de muchos indicadores. Por otro lado los sistemas económicos evolucionan contínuamente, cambiando de estructura interna por creación o desaparición de actividades, produciendo tal vez súbitas fluctuaciones de grandes amplitudes sobre los mercados, pronunciadas depresiones o altas inflaciones. Estas características sugieren que el concepto de equilibrio económico posee un débil sustento empírico. Puede resultar válido preguntarse si el valor de los indicadores económicos corresponde a valores esperados del equilibrio o a valores intermedios de un proceso de relajación hacia o fuera de él. Recordemos el debate que se planteó en los años '60 entre los neoclásicos, los nuevos keynesianos y los macroeconomistas de desequilibrio, en el que se preguntaba si realmente la economía se auto-regula o no y en caso afirmativo, cuál era su capacidad de auto-regulación. En este debate los últimos sugieren que pueden existir mecanismos que amplifiquen las perturbaciones debido a que el dinero rompe la cadena de información y comunicación de los planes. En los modelos Walrasianos sólo hay dispositivos auto-reguladores que operan en cada mercado por excesos de demanda nocional y todos los planes y transacciones se terminan realizando en equilibrio, por lo que no son considerados los efectos de derrame ni la realización de operaciones fuera del equilibrio. Basta recordar la idea de A. Leijonufvud del corredor por el que transita la economía y en el que pequeñas perturbaciones son soportadas por el sistema, amortiguando sus efectos, pero las grandes fluctuaciones que desbordan los límites de ese corredor pueden producir cambios insospechados. Haciendo una analogía con los sistemas físicos podría pensarse que la amplitud de las fluctuaciones es un parámetro de control que puede llevar a la economía a un nuevo estado o fase del sistema, produciendo lo que en la física se denomina como una transición de fase. En lo que respecta a la predicción del curso futuro de un sistema económico la situación es similar a la que debe enfrentar un meteorólogo al intentar predecir la evolución del clima, o con mayor generalidad, la evolución de todo sistema caótico mecánico: la cantidad de información presente necesaria crece exponencialmente con el horizonte temporal que deseamos alcanzar con nuestra predicción. El desafío es encontrar un nivel adecuado de descripción de los sistemas y su consiguiente evolución. Los meteorólogos que enfrentan diariamente este problema hacen la distinción entre clima y predicción del tiempo: resulta imposible predecir si un día particular dentro de varios meses va a llover o no, pero es posible conocer si el clima será lluvioso o seco, por ejemplo. Tampoco debemos olvidar que los sistemas económicos poseen una diferencia fundamental con otros sistemas naturales que consiste en su caracter auto-referencial: aquellos que intentan predecir la evolución del sistema son parte del mismo sistema que está siendo predicho, por lo cual toda afirmación acerca del futuro es susceptible de convertirse en un factor que contribuye a su gestación. Como la evolución depende de la percepción de los mismos actores del sistema pueden producirse profecías autocumplidoras, efectos de contagio con dinámicas de manada y aún expectativas irracionales. La evolución puede resultar ser muy frágil frente a cambios en la forma en que se distribuye la información disponible y se produce la coordinación de los planes. Los modelos económicos de equilibrio han resultado ser sumamente útiles para describir lo que se puede esperar de un sistema luego de que un ajuste a un nuevo y coherente conjunto de reglas ha tenido lugar. Muchos de estos modelos pueden tener múltiples equilibrios por lo que no se puede dictaminar cual será el resultante luego de la transición. Frente a esta situación cada vez más economistas han comenzado ha incursionar en el estudio de modelos que simulan ``expectativas acotadas'' y aún irracionales, en un intento por formular teorías que expliquen este tipo de dinámicas transicionales. La incorporación de procesos de aprendizaje empleando algoritmos computacionales inteligentes como las redes neuronales y los algoritmos evolutivos pueden resultar útiles para simular Agentes Artificiales Adaptativos que representen a agentes económicos reales operando bajo el supuesto de expectativas acotadas. El comportamiento optmizador de los agentes económicos durante estos regímenes transicionales puede diluirse por que muchas veces la complejidad de los problemas a resolver son NP-Duros (no polinómicos). Esto significa que el tiempo necesario para conocer la solución óptima crece exponencialmente con el número de configuraciones posibles (usualmente muchas). Debido a que los agentes no poseen ni capacidad computacional, ni tiempo ilimitado la búsqueda de buenas estrategias, pero subóptimas se hace necesaria. Con esto se refuerza la idea de construir modelos bajo el supuesto de expectativas acotadas. En coincidencia con este nuevo punto de vista, nuevas aproximaciones están siendo consideradas para construir modelos de trabajo. Hasta hace poco tiempo había sólo dos métodos de construcción. El primero, púramente linguístico, posee en principio una versatilidad ilimitada pero carece de precisión cuantitativa sobre las hipótesis básicas y las conclusiones que se derivan. La segunda aproximación es púramente matemática. Tiene la ventaja otorgar brindar mucha precisión y universalidad en sus conclusiones y se sustenta en rigurosos teoremas matemáticos. Sin embargo en muchos casos los modelos económicos se transforman en construcciones matemáticas ad hoc con supuestos sin justificación empírica incorporados con el sólo propósito de suministrar al modelo una forma matemática. Recordemos el debate iniciado por Milton Friedmann afirmando que independientemente de que los supuestos sean o no realistas lo único importante es la predictibilidad del modelo. Existe el riesgo que fijar primeramente el encuadre matemático y luego forzar a los datos empíricos para que se ajusten a él. La tercer alternativa es la construcción de modelos computacionales en la línea que se ha venido mencionando. Desde este marco conceptual es posible simular un sistema económico desde la aproximación ``bottom-up'', es decir partiendo de sus constituyentes elementales. Vemos así a la economía como un número (grande) de agentes cuyas acciones individuales así como las interacciones entre ellos son suficientemente explícitas como para que sean implementadas algorítmicamente. Esta aproximación permite diseñar modelos con menores restricciones que los púramente matemáticos, a pesar de requerir altos niveles de simplificación respecto de situaciones reales. El desafío consiste en rescatar las propiedades esenciales que son responsables de los comportamientos emergentes del sistema. Un modelo exitoso, a pesar de la fuerte abstracción, nos permite discutir y estudiar los hechos estilizados básicos y trabajar con él como un verdadero laboratorio en el que es fácil simular condiciones extremas. Investigaciones de esta naturaleza se vienen desarrollando en instituciones de todo el mundo. Valgan como ejemplos el Santa Fe Institute (SFI) de estudios no lineales y ciencias de la complejidad que ha instaurado una escuela de verano en Economía Computacional, el Xerox Palo Alto Research Center, el Center for Computable Economics de la Universidad de California (UCLA - EUA), el International Institute for Applied Systems Analysis (IIASA, Austria), el Center for Non Linear Studies del Laboratorio de Los Alamos (EUA),y la Bionomic Network, etc. Antecedentes: Investigaciones recientes realizadas en estos temas Redes neuronales para procesos cognitivos: Recuerdos y Memorización en redes neuronales modulares. ` (R.P.J. Perazzo (CEA-UBA), S.L.Reich (CEA-UBA), Tesis de licenciatura de A. Chernomoretz (Estud. FCEN-UBA)) Este proyecto se inició como una colaboración con la Universidad de Roma. Se realizó un modelo de memorias semánticas, entendiendo que cada módulo de la red permite codificar un atributo del recuerdo que abarca varios módulos de la memoria. Se ha finalizado un trabajo en el que se estudió una red compuesta por dos módulos centrando el estudio en la posibilidad de renormalizar las eficacias sinápticas entre módulos diferentes compensado de ese modo una intensa dilución de las mismas. Se está iniciando su extensión a estructuras modulares más complejas con el objeto de modelar el vínculo entre arreas de la corteza con especializaciones funcionales muy diferentes. Esta extensión constituirá el trabajo de tesis de licenciatura de Ariel Chernomoretz. Este trabajo se inició en Junio 1995 y se completará antes del fin del primer semestre de 1996. Redes neuronales artificiales Ha habido mucha publicidad acerca de la habilidad de las redes neuronales artificiales para aprender y generalizar. En realidad, las redes neuronales mas comunmente usadas, llamadas perceptron multicapa, no son mas que modelos discriminantes y de regresión lineal que pueden ser implementados con software estandar para estadística. Un perceptrón representa la unidad básica de una red neuronal tipo perceptrón multicapa. En pocas palabras, un perceptrón multicapa es un "aproximador universal", es decir que pueden ser usados en aplicaciones donde no se tiene mucho conocimiento sobre la relación entre las entradas (variables independientes en estadística) y las salidas (variables dependientes). Con un pequeño número de neuronas en la capa escondida (un perceptrón multicapa esta formado por una capa de neuronas de entrada, una de neuronas de salida y una o varias capas de neuronas intermedias o escondidas) un Perceptrón multicapa (MLP) es un modelo paramétrico que provee una alternativa útil de regresión polinomial. Las redes neuronales artificiales son usadas principalmente de tres maneras : para modelizar los sistemas nerviosos biologicos y la "inteligencia" como procesadores adaptativos de señales para aplicaciones en tiempo real implementados en hardware como métodos analíticos de datos En el caso del análisis de datos, las redes neuronales "aprenden" de una forma similar a como los algoritmos en estadística estiman. Los algoritmos estándar de redes neuronales son ineficientes porque están diseñados para ser implementados en computadores masivamente paralelos y en realidad son ejecutados en máquinas secuenciales como un simple PC. En el caso de los algoritmos no supervisados, generalmente se utiliza una medida de similitud entre las entradas y los pesos de la red. Comunmente se usa la distancia Euclidiana. Definiendo ahora esta distancia como entrada a la red, una red competitiva se asimila al método k-means clustering. Algunos modelos como ART (Adaptive Resonance Theory) que están basados explicitamente de la neurofisiología no tienen ningún modelo estadístico paralelo. Las redes neuronales artificiales y la estadística no son metodologías que compiten entre si para el análisis de datos. Existe un considerable traslape entre ambas disciplinas. Mejor comunicación entre ambos campos, estadística y redes neuronales los beneficiaría a ambos. Referencias [1] Warren S. Sarle, Neural Networks and Statistical Models, SAS Institute, NC, USA Redes neuronales artificiales Las redes neuronales ayudan a los ingenieros a crear modelos de los procesos empleando datos históricos (que residen en las bases de datos en tiempo real como el PI). Los modelos predicen cómo responderá el proceso a diferentes entradas y condiciones operativas. También pueden ser determinadas las condiciones operativas óptimas con redes neuronales formuladas en forma apropiada. Los modelos identificados empleando redes neuronales pueden ser empleados en estudios fuera de línea o instaladas en línea para proporcionar detección temprana de problemas en los procesos y determinar los setpoints que optimicen continuamente la rentabilidad de los mismos. Las redes neuronales traen a la vida a los datos, ayudando a revelar los factores más importantes que afectan a la calidad y rendimientos. Este conocimiento puede ser empleado, a menudo, para realizar mejoras que requieren muy poca o nula inversión de capital. Las áreas generales de utilización potencial de las redes neuronales son las siguientes: Control de Calidad, Sensores Inferenciales y Reducción de Modelos. En la economía globalizada de hoy en día, el gerenciamiento de la calidad en tiempo real es una aplicación de vital importancia, pero los ensayos de calidad raramente están disponibles sin retardos y usualmente son onerosos. Los modelos basados en redes neuronales proporcionan medidas “virtuales” en tiempo real, permitiendo acciones de control rápidas para mantener la calidad en el objetivo deseado. Los modelos pueden ser obtenidos no sólo a partir de los datos de planta y laboratorio sino de datos generados con corridas de modelos de simulación rigurosos (desarrollados, por ejemplo, en HYSYS). Este último procedimiento se conoce como “reducción de modelos”. Optimización de Procesos. El valor de la optimización basada en modelos está bien probado pero, en general, los modelos analíticos de un proceso pueden ser muy difíciles de obtener. Al emplear redes neuronales en conjunto con su capacidad de optimización en línea y en tiempo real, puede ser posible obtener el mayor potencial económico de un proceso. Mantenimiento Predictivo y Seguridad. Los modelos basados en redes neuronales pueden ser empleados para monitorear la performance de máquinas y equipos. Con ellos se pueden detectar tempranamente corrimientos o errores en los modelos operativos o sensores permitiendo a los ingenieros corregir los problemas antes que devengan en incidentes mayores. Se puede mejorar, en consecuencia, la disponibilidad de plantas y equipos. El monitoreo continuo del contenido de emisiones (CEM, Continuous Emissions Monitoring) de NOx, CO2, SO2 en los gases de escape de hornos y calderas es una aplicación típica en esta área. Validación de Sensores. La deriva progresiva y/o falla abrupta de las señales de sensores son la fuente principal para paradas de planta n planeadas y producción de productos fuera de especificación. Con los modelos basados en redes neuronales es posible seguir los valores de los sensores y generar alarmas cuando las medidas provenientes de los sensores físicos no están de acuerdo con los valores inferidos para los mismos. El valor inferido puede ser empleado también como línea de base en los casos en que el instrumento es recalibrado o reparado. Predicción y Estimación. El futuro puede ser predicho dentro de la precisión que dan los modelos basados en comportamientos. Las redes neuronales pueden aprender los modelos óptimos, adaptados empleando los últimos datos medidos. Los ingenieros pueden emplear estas predicciones para estimar las demanda de mercados de corto plazo, predecir estados futuros del proceso o aún condiciones meteorológicas que afecten a las emisiones e impacten sobre la vecindad de la planta. Algunas otras aplicaciones y usos de redes neuronales: Uso de redes neuronales para análisis de señales de ensayos no destructivos de materiales (R.P.J. Perazzo (CEA-UBA), E. Altschuler, A.Pignotti (FUDETEC, Org Techint), S.L.Reich (CEA), H.Gavarini(CONICET)) El estudio se orientó al análisis de peligrosidad de fallas en las paredes de tubos sin costura que fabrica la empresa SIDERCA. Estas fallas son regularmente identificadas automáticamente mediante el método de flujo magnético disperso. Esquemáticamente este método consiste en someter el tubo a un campo magnético estático externo. La ocurrencia de una grieta en la pared del tubo produce una inhomogeneidad local del campo cuya detección permite establecer la ubicación y potencial peligrosidad de la falla por la intensidad del potencial inducido en el sistema de medición. El proyecto completó una primera etapa (1993/94) en la que se exploraron diversas posibles aplicaciones de redes para este tipo de ensayo, basándose en el concepto que mediante el uso de redes es posible efectuar un análisis de más parámetros que la simple intensidad de la señal. Este desarrollo (1994/95) dio lugar a un trabajo que se publicó en ``Insight'' (``British Journal for Non Destructive Testing''). Este método significa una mejora dramática respecto de los métodos tradicionales aun cuando requiere el rediseño de los sistemas de detección de fallas. El trabajo continuó con un estudio más detallado de la factibilidad de este nuevo diseño de los sistemas que operan en la planta. Para ello se simuló de una manera más precisa el proceso de medición/detección introduciendo prámetros que pueden asociarse a la resolución finita del detector. Este trabajo ya ha sido finalizado. Una parte del mismo fue aceptada en la 14th World Conference on Non Destructive Testing. Una versión ampliada se enviará para su publicación en ``Insight''. Sistemas Adaptativos (R.P.J. Perazzo (CEA-UBA), A.Schuschny (Becario) CEA-UBA): Se desarrolló un modelo de una red neuronal adaptativa consistente en un autómata booleano con el que se simuló un proceso evolutivo utilizando algoritmos genéticos. Con estos elementos se intentó reproducir el proceso que da lugar a la aparición de ciclos circadianos. éstos son un elemento evolutivo común a casi todas las especies y es por consiguiente una reliquia evolutiva extremadamente antigua. El modelo permitió establecer que la aparición de dichos ciclos no surgen de un proceso enteramente pasivo sino que debe actuar sobre un sistema con una ``inercia'' propia - una resistencia al cambio - que deriva de su propia complejidad interna. El modelo permite reproducir los resultados cualitativos que tienen lugar en vuelos transmeridianos y en experimentos espeleológicos. Computación Cuántica (R.P.J. Perazzo (CEA-UBA),J.P.Paz (FCEN-UBA) y C.Miquel (Estud. FCEN-UBA) (tesis de licenciatura)) Toda computación debe realizarse en algún sistema físico, sea éste un trozo de papel, un ábaco, o el mismo cerebro. La teoría de la computabilidad supone que tal sistema debe obedecer a las leyes de la física clásica. Si esta hipótesis se extiende para englobar a sistemas cuánticos surge la posibilidad de un paralelismo intrínseco en el procesamiento. Dicho modo de procesamiento permite, al menos en teoría, encarar la solución en tiempos polinomiales de ciertos problemas cuya complejidad crece exponencialmente con la cantidad de datos de entrada. Hallar los factores primos de un número es un problema de este tipo que es relevante por su importancia en la criptografía. En este trabajo se implementó el algoritmo de Shor para este problema en términos de compuertas lógicas reversibles, paso éste que permite implementarlo en un sistema de cómputo cuántico. El trabajo fue aceptado en Phys. Rev. Simulación numérica de sistemas económicos. Inflación y relajamiento al equilibrio (R.P.J. Perazzo (CEA-UBA), S.L.Reich (CEA-UBA), M. Virasoro (Univ Roma 1 e ICTP Trieste), J.Schvarzer (CISEA-CEA)) En estos trabajos se describe un sistema económico como una red de agentes interactuantes que producen bienes y se los venden entre si. Cada agente regula su precio y producción en función de sus interacciones con los demás agentes. Se han modelado de esta manera procesos inflacionarios y de relajamiento al equilibrio. El trabajo ha sido presentado en un Taller de Física y Economía del ``Santa Fe Institute'' (USA, New Mexico) y ha sido conferencia invitada en la First International Conference on Complex Systems in Computational Physics, Bs.As., Oct. 1993). Fijación de precios en un modelo esquemático de aprendizaje inductivo (R.P.J. Perazzo (CEA-UBA), A. Schuschny (CEA-UBA), D.Heymann (CEPAL y FCE-UBA) Se ha desarrollado un modelo de agentes adaptativos que interactúan fijando precios en un esquema competitivo. El modelo posee diversas variantes: se estudia el caso de una proveeduría y un conjunto de clientes que pueden recurrir a un proveedor externo con un precio de referencia fijo, una proveeduría con una clientela idéntica a la anterior salvo por el hecho que debe incurrir en una costo de búsqueda de la alternativa de precio mínimo y finalmente dos proveedurías que deben repartirse una clientela que busca optimizar el precio de su compra y puede concurrir a un proveedor externo con un precio de referencia fijo. Tanto clientes como proveedores fijan su estrategia futura de compra o de precios basados en sus experiencias pasadas, validando o modificando sus hipótesis acerca del futuro comportamiento del resto del sistema. El modelo permite estudiar el proceso de relajamiento al equilibrio, su robustez y también se estudia la emergencia de clientelas cautivas. El caso de dos proveedurías permite estudiar equilibrios dinámicos colusivos entre los proveedores así como comparar con lo que se sabe de sistemas duopólicos. También se puede hacer un estudio ``empírico'' de la validez y aplicabilidad de teoría de juegos a la competencia de ambas proveedurías por la masa de clientes. Este trabajo ha sido enviado y aceptado en la Conferencia Internacional de economía computacional en Ginebra, Suiza, 1996. Breve Historia de la Redes Neuronales Historia De Redes Neuronales Artificiales Los intentos por imitar el funcionamiento del cerebro han seguido la evolución del estado de la tecnología. Por ejemplo, al finalizar el siglo 19 se le comparó con la operación de la bomba hidráulica; durante la década de 1920 a 1930 se intento utilizar la teoría de la conmutación telefónica como punto de partida de un sistema de conocimiento similar al del cerebro. Entre 1940 y 1950 los científicos comenzaron a pensar seriamente en las redes neuronales utilizando como concepto la noción de que las neuronas del cerebro funcionan como interruptores digitales (on - off) de manera también similar al recién desarrollado computador digital. Así nace la idea de "revolución cibernética" que maneja la analogía entre el cerebro y el computador digital. 1943 Teoría de las Redes Neuronales Artificiales Walter Pitts junto a Bertran Russell y Warren McCulloch intentaron explicar el funcionamiento del cerebro humano, por medio de una red de células conectadas entre sí, para experimentar ejecutando operaciones lógicas. Partiendo del menor suceso psíquico (estimado por ellos): el impulso todo/nada, generado por una célula nerviosa. El bucle "sentidos - cerebro - músculos", mediante la retroalimentación producirían una reacción positiva si los músculos reducen la diferencia entre una condición percibida por los sentidos y un estado físico impuesto por el cerebro. También definieron la memoria como un conjunto de ondas que reverberan en un circuito cerrado de neuronas. 1949 Conductividad de la sinápsis en las Redes Neuronales. Seis años después de que McCulloch y Pitts mostraran sus Redes Neuronales, el fisiólogo Donald O. Hebb (de la McGill University) expuso que estas (las redes neuronales) podían aprender. Su propuesta tenia que ver con la conductividad de la sinápsis, es decir, con las conexiones entre neuronas. Hebb expuso que la repetida activación de una neurona por otra a través de una sinápsis determinada, aumenta su conductividad, y la hacia más propensa a ser activada sucesivamente, induciendo a la formación de un circuito de neuronas estrechamente conectadas entre sí. 1951 Primera Red Neuronal El extraordinario estudiante de Harvard, Marvin Minsky conoció al científico Burrhus Frederic Skinner, con el que trabajó algún tiempo ayudándole en el diseño y creación de máquinas para sus experimentos. Minsky se inspiró en Skinner para gestar su primera idea "oficial" sobre inteligencia artificial, su Red Neuronal. Por aquel entonces entabló amistad con otro brillante estudiante, Dean Edmonds, el cual estaba interesado en el estudio de una nueva ciencia llamada Electrónica. Durante el verano de 1951, Minsky y Edmonds montaron la primera máquina de redes neuronales, compuesta básicamente de 300 tubos de vacío y un piloto automático de un bombardero B-24. Llamaron a su creación "Sharc", se trataba nada menos que de una red de 40 neuronas artificiales que imitaban el cerebro de una rata. Cada neurona hacia el papel de una posición del laberinto y cuando se activaba daba a entender que la "rata" sabia en que punto del laberinto estaba. Las neuronas que estaban conectadas alrededor de la activada, hacían la función de alternativas que seguir por el cerebro, la activación de la siguiente neurona, es decir, la elección entre "derecha" o "izquierda" en este caso estaría dada por la fuerza de sus conexiones con la neurona activada. Por ejemplo, la "rata" completaba bien el recorrido eligiendo a partir de la quinta neurona la opción "izquierda" (que correspondería a la sexta), es entonces cuando las conexiones entre la quinta y sexta se hacen más fuertes (dicha conexión era realizada por el piloto automático), haciendo desde este momento más propensa esta decisión en un futuro. Pero las técnicas Skinnerianas (que eran las que se habían puesto en funcionamiento en esta red neuronal) no podrían llevar muy lejos a este nuevo engendro, la razón pasa porque esto, en sí, no es inteligencia, pues la red neuronal nunca llegaría a trazar un plan. Después de su Red Neuronal, Minsky escribió su tesis doctoral acerca de esta, en ella describía "cerebros mucho mayores", exponiendo que si se realizaba este proyecto a gran escala, con miles o millones de neuronas más y con diferentes censores y tipos de retroalimentación… la máquina podría ser capaz de razonar, mas el sabia que la realización de esta Red Neuronal era imposible y decidió buscar otra forma de crear inteligencia… Cronología y Línea histórica. La historia de las RNAs puede ser dividida en varios periodos marcados por los siguientes importantes sucesos: Primeros Inicios. 1940s: Inicio de una nueva vía de investigación a partir de dos ramas confluyentes: la neurología y las ciencias computacionales. 1943: McCulloch y Pitts describen el cálculo lógico de las redes neuronales. 1948: Wiener publica "Cybernetics" donde describe importantes conceptos en los campos de control, comunicaciones y procesado estadístico de las señal. 1949: Hebb publica "The Organization of Behaviour", donde se describe por vez primera una regla de aprendizaje de modificación de los pesos sinápticos en una RNA. Periodo emergente y prometedor. 1950s: Se dan grandes avances en el estudio de las memorias asociativas. 1952: Ashby publica "Design for a Brain: The Origin of Adaptative Behaviour", donde se establece que el comportamiento adaptativo se da a través del aprendizaje y no es innato. 1954: Minsky publica "Theory of Neural-Analog Reinforcement Systems and Its Applications to the Brain-Model Problem". 1956: Rochester, Holland, Habit y Duda hacen el primer intento de simulación de las teorías de Hebb. Uttley demuestra que una red neuronal es capaz de clasificar conjuntos de muestras binarias en sus respectivas clases. 1958: Rosenblatt publica trabajos sobre el perceptrón monocapa junto con su teorema de convergencia. 1960s: Periodo monopolizado por el perceptrón y sus variantes. 1960: Widrow y Hoff introducen el LMS (Least Mean Square, Algoritmo de Mínimo Cuadrático), y lo usan para la formulación del Adaline (Adaptive Linear Element). 1961: Steinbuch introduce el concepto de matriz de aprendizaje (La adaptación de los algoritmos al cálculo matricial ha sido fundamental para la implementación hardware de las redes neuronales). 1962: Widrow presenta el Madaline (Multiple-Adaline) 1965: Nilsson publica "Learning Machines" que es todavía la mejor exposición acerca de patrones linealmente separables en hipersuperficies. 1969: Willshaw, Buneman y Lonquet-Higgins publican importantes avances en memorias asociativas. Periodo de frustación y descrédito. 1969: Minsky y Papert demuestran las limitaciones del perceptrón monocapa aunque no presentan ninguna solución. (El principal problema era la asignación de crédito a las neuronas ocultas de la red). Pasarán alrededor de 10 años hasta su solución con la aparición del primer algoritmo de aprendizaje robusto para el perceptrón multicapa. 1970s: Son años de desánimo, incentivado por las carencias tecnológicas para la experimentación y la falta de apoyos financieros. Periodo de Renovación. 1972: Anderson, Kohonen y Nakano introducen independientemente el concepto de matriz de correlación. Henry Klopf desarrolla una base para el aprendizaje basada en un principio de aprendizaje biológico llamado heterostasis. 1973: Von der Malsburg demuestra las teorías auto-organizativas. 1974: Werbos introduce la idea general del aprendizaje con back-propagation (Se trata de un algoritmo de aprendizaje más robusto y potente a los empleados hasta entonces basado en la retropropagación de los errores generados en los nodos de la capa de salida de un perceptrón multicapa.), aunque pasarán años hasta que su uso se popularice. 1980: Grossberg postula un nuevo principio de auto-organización, base para el nacimiento de otro tipo de teoría en el campo de las redes neuronales: la ART o Teoría de Resonancia Adaptativa. Periodo de Renacimiento. 1980s: Expansión del conocimiento en forma de conferencias, libros, publicaciones, cursos, aplicaciones en la industria y las finanzas... 1982: Hopfield introduce otro tipo de redes basadas en la idea de la función energía, un nuevo camino en la comprensión del comportamiento de las redes recurrentes con conexiones sinápticas simétricas. 1983: Cohen y Grossberg establecen un principio general para el diseño de una memoria direccionable por contenido.Barto, Sutton y Anderson publican un trabajo en torno al aprendizaje reforzado de gran interés en cuanto a su aplicación al campo de control. 1986: Rumelhart, Hinton y Williams popularizan el uso del algoritmo de back-propagation. Rumelhart y McClelland publican "Parallel Distributed Processing: Explorations in the Microstructures of Cognition". Actualidad. 1988: Linsker describe un nuevo principio para redes autoorganizativas, y Broomhead y Lowe describen el uso de RBF o funciones de base radial. 1989: Mead publica "Analog VLSI and Neural Systems" que proporciona una mezcla de conceptos entre la neurobiología y la tecnología VLSI. 1990s: Las aplicaciones a problemas complejos ante los que las técnicas tradicionales poco pueden hacer y la integración de RNAs en CIs son las vías más extendidas, sin olvidar los intentos de enlazar la Lógica Difusa (Fuzzy Logic) con las redes neuronales. El gran parangón al cerebro humano Un supercomputador llamado cerebro El hombre necesita un sistema de proceso de datos de multiple proposito capaz de manejar gran cantidad de informacion muy distinta y en muy poco tiempo y con el mayor sentido practico(pero no necesariamente con exactitud), para inmediatamente poder actuar en concecuencia. Los computadores, en cambio, son altamente especializados con capacidad para procesar con exactitud informacion muy concreta(en principio solo numeros) siguiendo unas instrucciones dadas. El cerebro humano posee mas de diez millones de neuronas las cuales ya están presentes en el momento del nacimiento conforme pasa el tiempo se vuelven inactivas, aunque pueden morir masivamente. Nuestro órgano de pensamiento consume 20 Patios/hora de energía bioquímica, lo que corresponde a una cucharada de azúcar por hora. Los PC consumen una cantidad semejante. Las necesidades de oxigeno y alimento es enorme en comparación con el resto del cuerpo humano: casi una quinta parte de toda la sangre fluye por el cerebro para aprovisionar de oxigeno y nutrieres. La capacidad total de memoria es dificil de cuantificar, pero se calcula que ronda entre 10ª12 y 10ª14 bits. La densidad de información de datos de un cerebro todavía no se ha podido superar artificialmente y en lo que se refiere a velocidad de transmisión de datos, a pesar de la lentitud con que transmite cada impulso aislado, tampoco esta en desventaja, gracias a su sistema de proceso en paralelo: la información recogida por un ojo representa 10ª6 bits por segundo. Según todos los indicios el cerebro dispone de dos mecanismos de almacenamiento de datos: la memoria intermedia acepta de cinco a diez unidades de información, aunque solo las mantiene durante agudos minutos. La memoria definitiva guarda las informaciones para toda la vida, lo que no significa que nos podamos acordar siempre de todo. La memoria inmediata trabaja como una espacie de cinta continua: la información circula rotativamente en forma de impulsos eléctricos por los registros. El sistema es comparable a la memoria ram de un PC, en la que la información tiene que ser refrescada continuamente para que no se pierda. En cambio, la memoria definitiva parece asemejare mas bien a las conocidas memorias de celdillas de los computadores. Se cree que esta memoria funciona gracias a formaciones químicas de las proteínas presentes en el cerebro humano. Diferencias entre el cerebro y una computadora Cerebro Computador Sistema de datos de múltiple propósito capaz de tratar gran cantidad de información en poco tiempo pero no nesesariamente con exactitud. Sistemas altamente especializados con capacidad para procesar información muy concreta, siguiendo unas instrucciones dadas. La frecuencia de los impulsos nerviosos puede variar. La frecuencia de transmisión es inalterable y esta dada por el reloj interno de la maquina. Las llamadas sinapsis cumple en el cerebro la función simultánea de varias compuertas (and, or, not etc.) Las compuertas lógicas tienen una función perfectamente determinada e inalterable. La memoria es del tipo asociativo y no se sabe dónde quedara almacenada. La información se guarda en posiciones de memoria de acceso directo por su dirección. Los impulsos fluyen a 30 metros por segundo. En el interior de una computadora los impulsos fluyen a la velocidad de la luz. Similitudes entre el cerebro y una computadora Ambos codifican la información en impulsos digitales. Tanto el cerebro como la computadora tienen compuertas lógicas. Existen distintos tipos de memoria. Los dos tienen aproximadamente el mismo consumo de energía Introducción a las proyecciones de las redes neuronales El Futuro. Hasta ahora el control de un entorno electrónico o incluso uno electromecánico, (ej. Manejar una silla de ruedas), ha sido utilizando un solo tipo de señal, sea que provenga de un músculo, del ojo o de ondas cerebrales. También somos nosotros quienes debemos entrenarnos para controlar nuestros impulsos y luego poder mover o ejecutar la acción deseada Quizá el futuro se encuentre en sistemas que sean capaces de traducir muchos y diferentes tipos de señales, y así poder "leer" lo que nosotros deseamos hacer, dejando al sistema y no a nosotros, el trabajo de entrenarse. En cuanto a las aplicaciones quizá se logren versiones comerciales para manejar entornos informáticos, y así a través de los computadores controlar, medios de transporte, electrodomésticos, equipos médicos y militares, el campo de aplicación es enorme. El concepto de Global Brain Para entender totalmente la importancia de los desarrollos de hoy en el área de las comunicaciones, necesitamos remontarnos a los cambios sociales que han ocurrido durante los últimos doscientos años. En este período corto, la rapidez del desarrollo de la actividad humana se ha alterado significativamente. Antes de al decimoctavo siglo, la mayoría de la población (aproximadamente 90 por ciento) era empleado en la producción de comida--la agricultura y pesca, por ejemplo, y su distribución. Aunque este porcentaje había quedado constante por centenares de años, el número real aumenta a la misma proporción que la propia población. Con el advenimiento de la Revolución Industrial, sin embargo, la aplicación creciente de tecnología al cultivar llevó a un retardo en la proporción de crecimiento del empleo agrícola, y la curva empezó a agacharse en la forma de "S" característica. Del principio del decimonoveno siglo las naciones más desarrolladas han mostrado un aumento firme en el número de las personas empleadas en la industria y la fabricación, un cambio del proceso de comida hacia el proceso de minerales y energía. Las estadísticas del empleo para E.E.U.U. muestra que el crecimiento del empleo industrial era considerablemente más rápido que el del empleo agrícola, doblandose una vez cada 16 años, y por 1900 igualandose el número de las personas (aproximadamente 38 por ciento) que era empleado en cada sector. Por lo que se refiere al empleo, por consiguiente, esta fecha podría tomarse para marcar el principio de la Edad Industrial en E.E.U.U. Durante los próximos setenta años, la industria era la actividad dominante en el E.E.U.U. Durante las últimas décadas, sin embargo, la invención de computadoras y el aumento consecuente en la capacidad de procesar la información se ha provocado otro cambio. La aplicación firme de tecnología y automatización a la industria causó que la proporción de crecimiento de empleo industrial se aletargue, dando lugar una vez más a la curva "S". Al mismo tiempo el número de las personas empleadas en información en sus varias manifestaciones, imprentas, publicidad, la contabilidad, la banca, el periodismo, la TELEVISIÓN, la radio, las telecomunicaciones así como la informática y sus muchas ocupaciones auxiliares, ha estado creciendo a una proporción exponencial. El tiempo que se tarde en doblar su proporción puede ser ahora tan corto como seis años. A mediados de los 70s el número de las personas en E.E.U.U. comprometida en el proceso de la información, había alcanzado a aquéllos comprometidos en la industria, el proceso de energía y materia. Desde ese tiempo, el procesado de información ha sido nuestra actividad dominante. Habíamos entrado en la "Edad de la Información." Aunque estos desarrollos se refieren específicamente a E.E.U.U., pueden encontrarse los cambios paralelos en la mayoría de las naciones más desarrolladas. Las naciones menos desarrolladas muestran las tendencias similares, pero ellos se retrasan detrás de los desarrollados en distintos grados. Estos retrasos, sin embargo, disminuirán ciertamente con el tiempo. Mientras un país en vías de desarrollo puede estar cincuenta años detrás del presente alcanzando la fase en que la actividad industrial se pone dominante, estará sólo diez años detrás cuando hace la transición a una sociedad de información. Japón es un ejemplo de un país que, a pesar de una salida tardía, tiene alcanzado este umbral definitivamente. Corea del Sur se movió de la Edad Agrícola a la Edad de la Información en sólo catorce años. Muchas de las naciones del Medio Oriente, las naciones ricas del petróleo, como Kuwait y Arabia Saudita, también están dando pasos largos y rápidos. China, aunque todavía predominantemente agrícola, puede pasarse sólo un tiempo corto en la Edad Industrial antes de cambiar a una sociedad de información. Y puede ser que otros países se salten la Edad Industrial completamente, por lo menos hasta donde el punto en que el empleo se encuentra mayoritariamente concentrado allí. Los Eslabones del idioma Como cada vez más de las naciones del mundo se mueven a la Edad de la Información, la tecnología de las comunicaciones y el procesamiento de la información afectará a la raza humana dramáticamente, mientras más nos integremos a través de la red de sinapsis electrónicas, el mundo de las redes neuronales. Si nosotros examinamos la historia humana, podemos ver que esta tendencia hacia una vinculación progresiva de humanidad parece haber estado siguiendose durante milenios. La súbita ola de tecnología de información en el presente, puede verse como el fruto de millones de años de esfuerzo humano. El primer gran paso hacia la interconexión vino con el desarrollo del idioma verbal. Esto llevó a un cambio profundo y fundamental de la manera que nosotros ganábamos el conocimiento sobre el mundo. Todas las otras criaturas (con la posible excepción de ballenas y delfines) aprende principalmente de su propia experiencia de vida. Un perro aprende a través de lo que le pasa en su propia vida, no se beneficia significativamente de las experiencias de otros perros del el mundo. Pero con el advenimiento de idioma simbólico los seres humanos podrían empezar a compartir las experiencias y para no sólo aprender de sus propias vidas sino también de la de otros. Éste fue un salto evolutivo mayor, tan significante quizás como el aparecimiento de la reproducción sexual hace 2 mil millones años. Dos células podrían juntarse e intercambiar una porción de información genética de sus datos hereditarios, un descubrimiento que, nosotros hemos visto, permite a las nuevas especies avanzar miles de veces más rápido. Asimismo, a través del idioma, los seres humanos pueden intercambiar sus propias experiencias y aprendizajes, y el resultado ha sido un salto similar en la proporción de evolución. El idioma nos había permitido cambiar de la evolución biológica a la evolución mucho más rápida de la mente. No sólo había hecho que nuestra habilidad de aprender de los demás refuerce nuestras vidas individuales, también nos llevó en el nuevo escenario de la evolución de grupo. Nosotros nos habíamos vuelto un sistema de aprendizaje colectivo, construyendo un cuerpo colectivo de conocimiento lejos excedió la experiencia de cualquier individuo, pero que sin embargo, cualquiera de nosotros no pudo acceder en el principio. A través del idioma nosotros habíamos hecho el paso de los organismos aislados a un organismo colectivo, muy parecido a como hace mil millones años las células se juntaron y vinieron a hacer las primeras criaturas multicelulares. La proporción de crecimiento de este sistema de aprendizaje colectivo se reforzó grandemente por una serie de descubrimientos en la tecnología de información. Hoy nosotros tendemos a pensar en tecnología de información por lo que se refiere a las computadoras y telecomunicaciones, pero éstos son la consecuencia de una serie entera de descubrimientos en tecnologías de información que se fechan en los albores de la civilización. El primer gran descubrimiento fue la invención de la escritura, hace unos diez mil años. Antes de escribir, el conocimiento se traspasó principalmente por la palabra ,de boca en boca, un proceso que era muy abierto a las distorsiones, omisiones y equivocaciones. El Escribir hizo posible grabar nuestras historias personales y culturales en un formulario más fiable y pasarlos a las generaciones futuras. El descubrimiento tecnológico del papel hizo a los datos mucho más fáciles de transportar. Nosotros podríamos compartir nuestro conocimiento con personas en tierras distantes, uniéndose las comunidades humanas. El advenimiento de la imprenta en el siglo XV aumentó la habilidad de la humanidad de diseminar la información mucho más allá. Nunca más cada copia de un manuscrito tenía que ser reproducida a mano, un proceso que era tanto lento como asiduo al error, podrían fabricarse miles de copias del mismo original, y casi simultáneamente. Alrededor de 80 millones de libros se produjeron en los primeros cincuenta años después de la invención de la imprenta. Las filosofías de los griegos y romanos eran distribuídas, la Biblia se hizo extensamente accesible, y a través de varios manuales, los libros de habilidades, se hizo posible la expansión de talleres y gente instruida en oficios, pavimentando el camino para el Renacimiento. El próximo gran descubrimiento ocurrió a mediados del decimonoveno siglo. Éste fue el desarrollo de la comunicación eléctrica en la forma de telégrafo, y después de teléfono. El tiempo tomado para transmitir un mensaje dejó de ser de días o semanas y pasó a ser de minutos y después de fracciones de segundo. Cincuenta años después otro descubrimiento ocurrió a través del uso de ondas radiofónica como medio de transmisión. Esto libró a las personas de la necesidad a unirse físicamente por un cable y simultáneamente hizo posible transmitir un mensaje a un número grande de personas. Desde entonces, la radio y su vástago, televisión que literalmente nos dio la habilidad de "ver a una distancia" se ha extendido rápidamente, permitiéndole a la persona que fuera un testigo ocular de eventos que ocurren alrededor del mundo. Al mismo tiempo en que la radio y la televisión estaban extendiéndose por el planeta, otro desarrollo igualmente importante en la tecnología de información estaba ocurriendo: los computadores. La Revolución Digital La primera computadora se construyó durante la Segunda Guerra Mundial, para ayudar a los servicios de inteligencia en la tarea compleja de romper códigos sofisticados. Al mismo tiempo allí se había levantado la necesidad creciente de ser capaz de realizar cálculos complejos, mucho más rápido que lo que podría hacerse por el papel, lápiz y la calculadora. Para cumplir estas necesidades, los técnicos diseñaron las calculadoras electrónicas, a menudo el tamaño de una habitación, dando el nacimiento a los computadores en los años cincuenta. Aunque embarazosos y lentos comparados con los actuales, estos dispositivos representaron no obstante un salto grandisimo en lo que se refiere al poder procesar la información. Durante los años sesenta, se avanzó en la capacidad de proceso y la velocidad del mismo. Simultáneamente el tamaño físico de los computadores se encogió notablemente. El microprocesador, o chip como normalmente se llama, representó una revolución gigantesca. Con menos de un cuarto de pulgada de tamaño, el chip de 1990 contuvo más poder de informática que todas las computadores de 1950 reunidos, y esta capacidad se ha estado doblando todos los años. Además de las muchas ventajas de su tamaño diminuto, el consumo de energía de los chip es asombrosamente bajo. El mejor computador de 1970 usó más energía que 5000 calculadoras de bolsillo de la misma capacidad de información inventadas después de diez años. La proporción de información/energía ha estado aumentando firmemente. Podemos hacer cada vez más, con cada vez menos. Al mismo tiempo el costo de procesar información ha estado cayéndose dramáticamente. El poder de computo es a menudo medido en millones de instrucciones por segundo (MIPS). Los primeros computadores transistorizados de los años cincuenta (IBM 7090, por ejemplo) manejó aproximadamente 1 MIP, y costó un millón de dólares. Cuando los computadores de circuitos integrados de los años sesenta, como el DEC'S PDP 10, manejaron 10 MIPS, el precio por MIP se había caído a $100,000. El Apple II con el que anunciaron la revolución del computador personal a mediados de los 70s, trajo el costo a diez mil dólares por MIP. Por 1990 el costo promedio de un PC estuvo alrededor de $1000 por MIP, mientras los supercomputadores como el Cray 3, operando a 100,000 MIPS costaron aproximadamente $10 millones, o $100 por MIP. En 1994 el poder de la informática personal estaba también próximo a $100 por MIP. Y continuará desplomándose el futuro. En el año 2005 usted podrá probablemente comprar el poder informático equivalente de un millón de dólares del IBM 7090 por cinco dólares o menos. Considerando que en 1970 los computadores fueron usadas casi solamente por instituciones grandes como los gobiernos y corporaciones, el microprocesador, un microchip que es un computador en sí mismo, ha hecho posible que la tecnología de computadores y datos estar disponible, potencialmente, a cualquiera en el planeta sin agotar el planeta de sus recursos de energía vitales. Si los cambios comparables hubieran sido hecho en los variados aspectos del automóvil durante los últimos veinte años, un Rolls Royce costarían cincuenta centavos. Sería de menos de una décima de una centímetro de largo, tendría un consumo de gasolina de 10 millones de kilómetros por litro, viajaría a cien mil km por hora, y nunca tendría necesidad de servicio técnico. Estos autos diminutos también serían tan comúnes que incluso no sería impresionante hablar de esto. En los 90s había más de 100 millones de computadores personales en el mundo, y ellos estaban rodando fuera de las líneas de la producción a razón de más de 100,000 por día. La RED Otro desarrollo significativo ha sido la vinculación directa de computadores. Los primeros computadores eran unidades independientes, sólo actuando recíprocamente con sus operadores humanos (no había ningún sistema operativo por esos días). A finales de los 60s, sin embargo, los computadores se pudieron comunicar directamente entre sí. En 1969 la Agencia de Proyectos de Investigación Avanzada americana (ARPA) empezó un experimento para unir computadores por distancias largas para que ellos pudiesen intercambiar archivos y ejecutar programas. La red creció lentamente al principio, pero luego fue explosivo. Durante la próxima década un nuevo computador se adhirió al término de "ARPAnet" cada 20 días. A mediados de los 70s otras redes habían surgido, y empezó surgir un interlink con ARPAnet. Esta nueva red de redes se volvió conocida como la "interred" y pronto sólo "Internet". La red, como también se llama a veces, continuó extendiéndose. Por 1994 Internet había crecido en un tejido macizo de redes con más de dos millones de computadoras centrales y un estimó cuarenta millones de usuarios--y su tamaño se estaba doblando todos los años. El número de BBSs (BlackBoards), los lugares en la red dónde las personas pueden acceder a datos en asuntos especializados, tener discusiones, y encontrarse a otros con los mismos intereses, a crecido espantósamente. En 1987 había 6000 tablones de anuncios. Por 1994 había cerca de 60000, y el número se estaba doblando cada dieciocho meses. Encima del mismo período los servicios comerciales como Compuserve, America Online, y Prodigy han crecido también rápidamente, trayendo miles de bases de datos, compras por computador, periódicos, revistas, cursos educativos, viajes aéreos y mandando correo electrónicamente directamente en millones de casas. Tan prodigiosa tasa de crecimiento no puede continuar lejos en el futuro. Si internet continua doblándose todos los años, alcanzaría más de mil millones personas por 2002 qué es más del número probable de las personas capaces de permitirse el lujo de un computador personal y una cuenta de Internet. Entonces la curva de crecimiento empezará a convertirse en una "S". El crecimiento extenso de la Red no estará entonces en el número de conexiones, sino en la versatilidad y riqueza de las mismas. Como esta red global continúa creciendo y evolucionando, cambia indudablemente de muchas maneras. Hay muchas conversaciones de las varias crisis y desafíos que enfrentan a Internet. Hay una congestión creciente, está escaceando el espacio de dirección, el multimedio está imponiendo contribuciones a sus recursos, todavía está lejos de un uso fácil, hay problemas serios acerca del retiro y seguridad de datos, y se mercantilizará inevitablemente cada vez más. Pero, un sistema en crisis necesariamente no es un sistema agonizante. Las crisis pueden ser conductos evolutivos importantes que empujan el sistema a los nuevos niveles de organización, y activan el aparecer de nuevos formas y procesos. Ya Internet ha demostrado ser capaz de evolucionar en una estructura mucho más compleja y diversa que lo contemplado por sus creadores originales, y, como nadie puede apagarlo, continuará evolucionando. Las Nuevas tecnologías, nuevos protocolos de comunicación, nuevo software y otros desarrollos harán de la red en diez años, algo difícilmente imaginable hoy en día. Uniendo Tecnologías En el corazón de esta proliferación de redes y servicios está la integración de la tecnología del computador y las telecomunicaciones. La red global del teléfono de cables, fibras y los eslabones de la radio han puesto la infraestructura para una nueva revolución. Un enchufe del teléfono en cualquier parte en el mundo, Suecia, México, China, Chile o el polo Sur, ya no es sólo un punto para atar a un dispositivo para "oír a una distancia", ahora es un nodo de la red, y puede fácilmente despachar un télex, un fax, un beeper, una terminal, un computador, un red de computadores, o una combinación de cualquiera de éstos. Agregue a este la habilidad de enviar las imágenes de videos tan fácilmente como el texto y se tienen las semillas para la revolución de los medios de comunicación más grande de la vida, la síntesis de televisión, computadora y teléfono. En los años venideros no sólo los MIPS serán importantes. Una fibra óptica tiene el potencial para 25 gigahertz, qué está sobre el volumen de información que fluye por las líneas telefónicas de E.E.U.U. durante el momento de máximo tráfico en el Día de Madre, o aproximadamente 1,000 veces más información que todas las frecuencias de radio combinadas. Todo envasado en la anchura de un pelo humano. Así como el precio de MIPS se ha caído dramáticamente durante las últimas décadas, tan también así el precio del bandwidth (capacidad o anchura de transmisión de datos). George Gilder, el autor de Vida después de la Televisión y Telecosm, ha señalado que cada revolución mayor ha visto el costo de alguna caída mercantil de un artículo, que luego se ha puesto casi de libre adquisición en el futuro. Con la Revolución Industrial la fuerza física se puso casi libre comparado con su costo cuando derivaba de un animal o el músculo humano. De repente una fábrica podría trabajar 24 horas por día, eso era incomprensible antes. La fuerza física se puso tan barata que en lugar de tener que economizar en su uso, podríamos permitirnos el lujo de "gastarlo" en los andadores de mudanza y cepillos de dientes eléctricos. Hemos visto como el precio de un transistor a caído de un dólar a un cuarto de milésimo de centavo durante los últimos 30 años. Ya no tenemos que economizar en el uso de transistores, pero podemos gastarlos en corregir nuestra ortografía, podemos jugar al solitario, o podemos crear fondos elegantes en nuestra pantalla del computador. Cuando la revolución de las telecomunicaciones empieza a morder, veremos caer similarmente al costo de bandwidth. Cuando sea casi libre, podremos permitirnos el lujo de "gastarlo" también. Nosotros podremos transmitir la información a través de la red similarmente a cuando nosotros transmitimos radio y televisión ahora a través del aire. Desarrollos como éstos parecen estar llevándonos más rápidamente hacia lo que William Gibson en su libro Neuromancer, ha llamado el ciberespacio: "Una representación gráfica de datos abstraídos de los bancos de cada computador en el sistema humano. Una complejidad inconcebible. Líneas de luz en el no-espacio de la mente, racimos y constelaciones de datos. En el mundo de Gibson, las personas entran en el ciberespacio alimentando una realidad virtual generada por computador que despliega información directamente en sus mentes. ¿Ciencia ficción? Sí. Pero también lo era hace cincuenta años un viaje a la luna. El Surgimiento del Cerebro Global (Global Brain). La intercomunicación de la humanidad que empezó con el surgir del idioma ha progresado ahora al punto dónde puede transmitirse la información a cualquiera, en cualquier parte, a la velocidad de luz. Los billones de mensajes continuamente saliendo de un lado a otro, en un tejido en una siempre creciente red de comunicación, uniéndose los billones de mentes de humanidad juntas en un solo sistema. ¿Este Gaia está creciéndo a un sistema nervioso? El parangón es ciertamente digno de consideración. Ya hemos notado que que hay, muy aproximadamente, el mismo número de células nerviosas en un cerebro humano como mentes humanas en el planeta. Y hay también un poco de similitudes interesantes entre la manera en que el cerebro humano crece y la manera en que la humanidad está evolucionando. El cerebro humano embrionario atraviesa dos fases de desarrollo. La primera es una explosión maciza en el número de células nerviosas. En las ocho semanas después de la concepción, el número de neuronas explota, aumentando por muchos millones cada hora. Sin embargo, después de cinco semanas, el proceso reduce la velocidad, casi tan rápidamente como empezó. La primera fase de desarrollo del cerebro, la proliferación de células, está ahora completa. En esta fase el feto tiene la mayoría de las células nerviosas que tendrá para el resto de su vida. El cerebro procede entonces a la segunda fase de su desarrollo, como los billones de células nerviosas están aisladas, empieza haciendo las conexiones entre estas, a veces creciendo al punto de conectar células en el otro lado del cerebro. Desde el nacimiento, una célula nerviosa típica puede comunicarse directamente con varios miles de otras células. El crecimiento del cerebro después del nacimiento consiste en la proliferación extensa de conexiones. Muchas células nerviosas están haciendo las conexiones directas con tantas otras. Pueden observarse las tendencias similares en la sociedad humana. Durante los últimos siglos el número de "células" en el cerebro global embrionario ha estado proliferando. Pero hoy el crecimiento de la población se está retardando, y al mismo tiempo nosotros estamos pasando a la próxima fase, la vinculación de los billones de mentes humanas en una sola red integrada. La más compleja de nuestras capacidades de telecomunicación globales se muestra en que la sociedad humana está empezando a parecerse a un sistema nervioso planetario. El cerebro global está empezando a funcionar. El Despertar planetario Este despertar no sólo es relativo a nosotros, puede descubrirse millones de kilómetros incluso fuera en el espacio. Antes del 1900, cualquier ser curioso bastante para tomar un "EEG planetario" (es decir, medir la actividad electromagnética del planeta) habría observado sólo azar, ocurriendo toda actividad naturalmente, como lo producido por el relámpago. Hoy, sin embargo, el espacio alrededor del planeta se está llenando con millones de signos diferentes, algunos de ellos transmisiones a grandes números de personas, algunos de ellos las comunicaciones personales, y la conversación de computadores que intercambian información. Así como la capacidad de banda de radio usable se llena, encontramos nuevas maneras de enviar la información, y están utilizándose los nuevos espectros de energía, como la luz, con el potencial de extender nuestras capacidades de comunicación más allá. Con la casi instantánea unión de la humanidad a través de esto, la tecnología de comunicaciones, y la diseminación rápida y de bajo precio de información, la visión de Marshall McLuhan del mundo como un pueblo global está volviéndose una realidad rápidamente. De una cabaña aislada en un bosque en Inglaterra, yo puedo marcar a un número en Fiji, y toma la misma cantidad de tiempo para mi voz alcanzar abajo la línea telefónica a Fiji como él hace para mi cerebro para decir a mi dedo tocar el dial. Pensando tan lejos como si se estuviera sólo interesado en el tiempo de conexión o para comunicar, el planeta se ha encogido tanto que las otras células del cerebro global empiezan a estar tan alejadas entre sí, como las células de nuestro cerebro, y su respuesta está tan relacionada como la obtenida cuando deseamos utilizar las extremidades de nuestros propios cuerpos. Al mismo tiempo como la velocidad de interacción global está aumentando, así mismo la complejidad. En 1994 la red de las telecomunicaciones mundial tenía mil millones teléfonos. Todavía esta red, intrincada como podría parecer, representa sólo un fragmento diminuto de los términos de comunicación en el cerebro, los billones de sinapsis a través de que las células nerviosas actúan recíprocamente. Según John McNulty, consultor británico, las telecomunicaciones globales que conectaban una red de computadores de 1975 no era más compleja que una región del cerebro del tamaño de un poroto. Pero en conjunto la capacidad del proceso de datos se está doblando cada dos y medio años, y si esta proporción de aumento se sostiene, la red de las telecomunicaciones global podría igualar el cerebro en complejidad por el año 2002, pues el año 2000 ya se estableció un símil de comparación, se alcanzó un grado de complejidad que igualó a la del cerebro humano, así el 2002 se alcanzaría una plena madurez. Si esto parece ser un desarrollo increíblemente rápido, es probablemente porque algunos de nosotros podemos asir totalmente cómo las cosas están evolucionando. Los cambios que esto traerá serán tan grandes que su impacto total puede estar perfectamente bien más allá de nuestra imaginación. no más percibimos como individuos aislados; nos sabremos para ser una parte de una red global rápidamente integrada, las células nerviosas de un cerebro global despertado. Conclusiones Como resultado del diseño y la implementación de Redes Neuronales se puede mejora la gestión empresarial, optimizar sustancialmente distintos procesos empresariales, donde ya existe dicha solución "clásica", las redes aportan su alta no linealidad y su gran facilidad en utilizar datos adicionales, tanto numéricos, como borrosos y/o subjetivos, que en el modelo clásico no son tenidos en consideración, 0bteniendo así una sustancial mejora de los resultados con la consiguiente optimización económica. Además las Redes neuronales nos pueden ayudar a la predicción de mercados de capitales: bolsa, acciones, fondos de inversión, bonos, renta fija y futuros. Software para el inversor, club de inversión, ahorro, mercado de valores, renta fija, renta variable. Gestión de riesgo en la empresa a través de redes neuronales. Optimización de procesos empresariales. Sustitución de la estadística clásica y de modelos lineales por las redes neuronales en diversos procesos empresariales. Con las redes neuronales se obtienen resultados que mejoran sustancialmente diferentes aspectos de la gestión en la empresa. Las redes neuronales traen a la vida a los datos, ayudando a revelar los factores más importantes que afectan a la calidad y rendimientos. Este conocimiento puede ser empleado, a menudo, para realizar mejoras que requieren muy poca o nula inversión de capital. Las áreas generales de utilización potencial de las redes neuronales son las siguientes: Control de Calidad, Sensores Inferenciales y Reducción de Modelos. En la economía globalizada de hoy en día, el gerenciamiento de la calidad en tiempo real es una aplicación de vital importancia, pero los ensayos de calidad raramente están disponibles sin retardos y usualmente son onerosos. Los modelos basados en redes neuronales proporcionan medidas "virtuales" en tiempo real, permitiendo acciones de control rápidas para mantener la calidad en el objetivo deseado. Los modelos pueden ser obtenidos no sólo a partir de los datos de planta y laboratorio sino de datos generados con corridas de modelos de simulación rigurosos (desarrollados, por ejemplo, en HYSYS). Este último procedimiento se conoce como "reducción de modelos". Optimización de Procesos. El valor de la optimización basada en modelos está bien probado pero, en general, los modelos analíticos de un proceso pueden ser muy difíciles de obtener. Al emplear redes neuronales en conjunto con su capacidad de optimización en línea y en tiempo real, puede ser posible obtener el mayor potencial económico de un proceso. Mantenimiento Predictivo y Seguridad. Los modelos basados en redes neuronales pueden ser empleados para monitorear la performance de máquinas y equipos. Con ellos se pueden detectar tempranamente corrimientos o errores en los modelos operativos o sensores permitiendo a los ingenieros corregir los problemas antes que devengan en incidentes mayores. Se puede mejorar, en consecuencia, la disponibilidad de plantas y equipos. El monitoreo continuo del contenido de emisiones (CEM, Continuous Emissions Monitoring) de NOx, CO2, SO2 en los gases de escape de hornos y calderas es una aplicación típica en esta área. Validación de Sensores. La deriva progresiva y/o falla abrupta de las señales de sensores son la fuente principal para paradas de planta n planeadas y producción de productos fuera de especificación. Con los modelos basados en redes neuronales es posible seguir los valores de los sensores y generar alarmas cuando las medidas provenientes de los sensores físicos no están de acuerdo con los valores inferidos para los mismos. El valor inferido puede ser empleado también como línea de base en los casos en que el instrumento es recalibrado o reparado. Predicción y Estimación. El futuro puede ser predicho dentro de la precisión que dan los modelos basados en comportamientos. Las redes neuronales pueden aprender los modelos óptimos, adaptados empleando los últimos datos medidos. Los ingenieros pueden emplear estas predicciones para estimar las demanda de mercados de corto plazo, predecir estados futuros del proceso o aún condiciones meteorológicas que afecten a las emisiones e impacten sobre la vecindad de la planta. Fuentes, Biliografía y Sitios Web Web Sites: IEEE Neural Networks Council Home Page Neural Networks at PNNL Bibliografía Freeman, J.A., Skapura, D.M., "Neural Networks", Ed. Addison Wesley. Caudill, M., Butler, Ch., "Understanding Neural Networks", MIT Press. Widrow, J., Rumelhart, D.E., Lehr, M.A., "Neural networks: Applications in industry, business and science", ACM communications, Vol-37, 1.994. "DIGITAL NEURAL NETWORKS", S. Y. Kung, 1993 by PTR Prentice Hall, Inc. "Neural Networks, Theoretical Foundations and Analysis", C.Lau, 1991, IEEE Press. "SNNS User Manual, Version 4.0", UNIVERSITY OF STUTTGART. "Neural Network Toolbox for use with MATLAB", H. Demuth and M. Beale.,Math Works Inc.1998. Fausett L., Fundamentals of Neural Networks, Prentice-Hall, 1994. ISBN 0 13 042250 9 Gurney K., An Introduction to Neural Networks, UCL Press, 1997, ISBN 1 85728 503 4 Haykin S., Neural Networks , 2nd Edition, Prentice Hall, 1999, ISBN 0 13 273350 1 Enciclopedia Multimedia Encarta 97’. Microsoft Corporation. CD-ROM Edition, 1997. GUYTON Tratado de Fisiología Médica, 8ª Edic. Interamericana -McGraw –Hill. 1993. FAQ (Frecuently Asked Questions) ¿A quien le interesan las redes neuronales? Las redes neuronales están interesando a gente de procedencias muy diversas: físicos, informáticos, estadísticos, ingenieros, biólogos, psicólogos, economistas, y especialmente al empresario. Muchos procesos empresariales o industriales se mejoran notablemente a partir de la introducción de redes neuronales. ¿Que relación hay entre las redes neuronales y los métodos estadísticos clásicos? Existen redes que no tienen nada que ver con la estadística, como las que se utilizan en modelos de sistemas biológicos, las redes de aprendizaje reforzado, o los mapas de Kohonen. No obstante, muchos de los modelos de redes neuronales son alternativas o mejoras a los métodos estadísticos más utilizados. Por ejemplo, las redes feedforward multicapa son generalizaciones no lineales de los métodos de regresión lineal, las redes de cuantización vectorial son parecidas a los métodos de análisis de clusters, las redes hebbianas están muy relacionadas con el análisis de componentes principales, etc. ¿Cuántos métodos de aprendizaje existen para las redes neuronales? Existen muchísimos, y cada día se inventan más. Los podríamos clasificar en dos grandes grupos: aprendizaje supervisado y aprendizaje no supervisado. Al primer grupo pertenecen el perceptron, adaline, madaline, backpropagation, maquinas de Cauchy, time delay NN, associative reward-penalty, avalanche matched filter, backpercolation, Artmap, adaptive logic network, cascade correlation, extended Kalman filter, learning vector quantization, probabilistic NN, general regression NN, fuzzy cognitive map, mean field annealing, recurrent cascade correlation, backpropagation through time, etc. En el segundo grupo tenemos la contrapropagación, memoria asociativa difusa, memoria asociativa lineal, teoría de resonancia adaptativa (ART), Hopfield discreto, memoria asociativa bidireccional, memoria asociativa temporal, mapas de auto-organización de Kohonen, mapas que conservan la topología, aprendizaje competitivo, etc. ¿Qué tipo de red me dará mejores resultados? Dado el gran número de modelos existentes, es difícil escoger el que dará mejores resultados para un problema concreto, ya que no existen reglas generales aplicables a todos los casos. Para ello, el conocimiento concreto de cada modelo y la experiencia acumulada en aplicaciones anteriores suele ser la mejor guía. ¿Cuántas unidades debo utilizar y como puedo calcular los parámetros de aprendizaje? De la misma manera que encontrar el mejor modelo para solucionar un problema es una tarea difícil y sin solución general, también el ajustar los diversos parámetros de una red neuronal requiere mucha práctica y buenas dosis de paciencia. ¿Existe algún libro introductorio a las redes neuronales en castellano? La bibliografía en castellano es muy escasa, prácticamente no existen traducciones de los 'clásicos', como podrían ser el libro de Hertz, Krogh y Palmer "Introduction to the theory of neural computation", el de Kohonen "Self-organization and associative memory", o el de Hecht-Nielsen "Neurocomputing". Como libro introductorio en castellano podríamos considerar: "Redes neuronales artificiales: fundamentos, modelos y aplicaciones" J.R. Hilera y V.J. Martínez, Ra-Ma, Madrid (1995).