1 de 4 La cibernética clásica La Segunda Guerra Mundial fue punto de partida y también de convergencia de la aparición de las primeras computadoras digitales electrónicas europeas y estadounidenses (ya fueran de programa conectado al procesador o de programa 1 almacenado), la concepción inicial de la cibernética como ciencia multidisciplinar y la definición de la inteligencia artificial, como disciplina del conocimiento. Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró la primera computadora digital totalmente electrónica: Colossus. Hacia diciembre de 1943, Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativa. Fue utilizada por el equipo dirigido por Alan Turing para decodificar los mensajes de radio cifrados de los alemanes. Desde ámbitos militares de investigación y desarrollo, se le encomienda al matemático norteamericano Norbert Wiener la tarea de lograr que ciertos dispositivos de la artillería antiaérea adquieran la capacidad de regular su propia trayectoria. Wiener describe así a la cibernética como “la ciencia del control y la comunicación en el animal y en la máquina”. Se define así como una ciencia multidisciplinar para el análisis de los procesos análogos que se dan en los seres vivos y las máquinas, como son el control de la información y las comunicaciones. La palabra cibernética proviene del griego kybernetes (“timonel” o “gobernador”), en el sentido de un sujeto que modifica sus decisiones de acuerdo con la información que recibe, en una clara correspondencia con la teoría de los mecanismos de control. El cuerpo humano puede estudiarse como una “máquina” con complejos sistemas de control de información, que regulan en el organismo la temperatura y el agua, por ej., al tiempo que está formado de un poderoso sistema de comunicaciones eléctricas y químicas, que configuran, respectivamente, los sistemas nervioso y hormonal. Las observaciones de Wiener se apoyaron en su trabajo junto al neurofisiólogo mexicano Arturo Rosenblueth (1900-1970), a quien había conocido en 1942, durante un congreso 2 de 4 en Nueva York. Con él estudió las semejanzas entre el cerebro humano y los robots y sistemas automáticos. Cobra aquí importancia el concepto de feedback o “retroalimentación”, que era conocido en el campo biológico, donde se describía cómo los animales de sangre caliente mantienen la temperatura corporal mediante reguladores biológicos que toman información ambiental externa y mantienen un sistema homeostático, equivalente a un termostato. Wiener y Rosenblueth dedujeron que estos 2 mecanismos definen un comportamiento inteligente (de inteligencia artificial , en el caso de las máquinas), dada su capacidad de procesar la información captada, responder y actuar en consecuencia. A partir de sus observaciones e investigaciones, Wiener profundizó en la búsqueda de los rasgos de semejanza entre el cerebro humano y el “cerebro artificial”, es decir, la computadora, entendida en el sentido de totalidad de máquina, ya descripto. Según la teoría de la información, uno de los principios básicos de la cibernética establece que la información es estadística por naturaleza y se mide de acuerdo con las leyes de la probabilidad. En este sentido, la información es concebida como una medida de la libertad de elección implícita en la selección. A medida que aumenta la libertad de elección, disminuye la probabilidad de que sea elegido un determinado mensaje. La medida de la probabilidad se conoce como entropía. De acuerdo con la segunda ley de la termodinámica, en los procesos naturales existe una tendencia hacia un estado de desorganización, o caos, que se produce sin ninguna intervención o control. En consecuencia, de acuerdo con los principios de la cibernética, el orden (disminución de la entropía) es lo menos probable, y el caos (aumento de la entropía) es lo más probable. La conducta intencionada en las personas o en las máquinas exige mecanismos de control que mantengan el orden, contrarrestando la tendencia natural hacia la desorganización. De modo convergente en el tiempo, el término Inteligencia Artificial (IA) fue creado y usado por primera vez a mediados de la década de 1940. Sin embargo, recién el 31 de agosto de 1955, J. McCarthy (Dartmouth College, New Hampshire), M. L. Minsky (Harvard University), N. Rochester (I.B.M. Corporation) y C.E. Shannon (Bell Telephone Laboratories) lanzaron una propuesta para reunir en el verano de 1956 a un grupo de investigadores que quisieran trabajar sobre la conjetura de que cada aspecto del aprendizaje y cada característica de la inteligencia podían ser tan precisamente descriptos, que se podían crear máquinas que las simularan. El encuentro, ahora conocido como la conferencia de Dartmouth, se llevó a cabo con tal éxito que el evento acuñó el término Inteligencia Artificial y con él una nueva área científica de conocimiento. Marvin Minsky , con la simpleza y sabiduría que lo caracterizan, definió: “La Inteligencia Artificial es el arte de hacer máquinas capaces de hacer cosas que requerirían inteligencia en caso de que fuesen hechas por seres humanos”. Si pensamos a la inteligencia como la consecuencia lógica de la aplicación del conocimiento adquirido, esta definición nos llevaría, o por lo menos nos ayudaría, a entender por qué en inteligencia artificial hay tantas ramas (resolución de problemas, manejo del lenguaje natural, sistemas expertos, etc.) y tantos campos de aplicación (ciencias, ingeniería, economía, lenguas extranjeras, etc.). Aplicaciones de la química El campo de la química fue precursor como dominio de aplicación en el desarrollo de sistemas expertos. La Universidad de Stanford, en California, Estados Unidos, desde su Departamento de Ciencias de la Computación, desarrolló dos famosos sistemas expertos, que se prefiguraron como casos líderes dentro de la Inteligencia Artificial y sirvieron como base de gran utilidad en desarrollos posteriores. Los sistemas expertos sirven para resolver cuestiones complejas, en las cuales hay muchos factores involucrados, se necesita tener en cuenta una amplia base de datos históricos, y donde se pueda definir alguna regla que permita la toma de decisiones 3 de 4 rápida. Están basados en conocimientos dedicados a tareas específicas que requieren una gran cantidad de conocimiento de un dominio de experiencia particular, proporcionan experiencia en forma de diagnósticos, instrucciones, predicciones o consejos ante situaciones reales que se planteen y pueden servir también como herramientas de entrenamiento. Son aplicables a numerosos campos de experiencia, como medicina, actividades militares, ciencia, ingeniería, economía y derecho. 1) Son sistemas que imitan el comportamiento de un humano. 2) Utilizan la información que el usuario le proporciona para darle una opinión sobre cierta materia. Por tanto, el sistema experto le hace preguntas hasta que pueda identificar un objeto que se relacione con sus respuestas. La creación de DENDRAL, liderada por J. Lederberg y E. A. Feigenbaum, entre otros, constituyó un peldaño en el camino hacia la creación de futuros sistemas expertos. Como Lederberg declaró, DENDRAL se creó con el fin de recoger las lecturas del espectrómetro de masa para los contenidos y pesos de una molécula. Mediante un grupo de tablas, reglas y conocidas excepciones, DENDRAL produciría todas las estructuras y formas geométricas posibles que la molécula podría adoptar. De acuerdo con Lindsay, otro de sus autores, DENDRAL fue “la primera aplicación importante de programación heurística 3 para el análisis experimental en una ciencia empírica”. DENDRAL (1965-83) El Proyecto DENDRAL (Dendritic Algorithm) fue uno de los primeros sistemas expertos. DENDRAL comenzó como un esfuerzo por explorar la mecanización del razonamiento científico y su formalización, trabajando dentro de un dominio específico de la ciencia: la química orgánica. Otra preocupación era usar conceptos y técnicas de Inteligencia Artificial para comprender mejor algunas preguntas fundamentales desde la filosofía de las ciencias, incluso el proceso por el cual las hipótesis explicativas son descubiertas o se interpretan como adecuadas. Después de más de una década de colaboración entre químicos, genetistas e informáticos, DENDRAL se había convertido no sólo en una demostración acertada del poder de los sistemas expertos basados en reglas sino también un instrumento significativo para el análisis de estructuras moleculares, tanto en el uso en laboratorios de investigación académica como en la industria. Usando un paradigma de búsqueda plan-generate-test y datos de espectrometría de masas y otras fuentes, DENDRAL propone estructuras plausibles para compuestos químicos nuevos o desconocidos. Aunque DENDRAL ya no es un tema de investigación académica, la versión más reciente de generador de estructuras interactivo, GENOA, ha sido licenciada por la Universidad de Stanford para su uso comercial. META-DENDRAL (1970-76) META-DENDRAL es un programa inductivo que automáticamente formula nuevas reglas para DENDRAL, para ser utilizado en el módulo de explicación de datos sobre compuestos químicos desconocidos. Usando el paradigma plan-generate-test, META-DENDRAL ha formulado con éxito reglas de la espectrometría de masas, tanto redescubriendo reglas existentes como proponiendo nuevas reglas. Aunque META-DENDRAL ya no es un programa en uso, sus aportes para el enriquecimiento de las ideas sobre aprendizaje y descubrimiento están siendo aplicados a nuevos dominios. Entre estas ideas está el concepto de que la inducción puede ser automatizada como una búsqueda heurística; dividida en dos etapas –aproximada y refinada– para aumentar su eficiencia; que el aprendizaje debe ser capaz de procesar datos confusos e incompletos; y que aprender conceptos múltiples en forma simultánea es a veces un proceso inevitable. 1 En este momento Wiener se refiere a la cibernética clásica o de primer orden, que se inscribe dentro de la corriente realista u objetivista que considera que el conocimiento se refiere a una realidad estable, objetiva, existente independientemente de que sea conocida por el hombre. 2 Los tres principales procesos de la inteligencia humana que la inteligencia artificial tiene que imitar son, en orden ascendente de dificultad: 4 de 4 1) Aprendizaje. Consiste en adquirir conocimientos e información, así como las reglas para poder aplicarlos. Comprender que la inteligencia necesita de conocimiento previo fue uno de los primeros hallazgos de la IA. 2) Razonamiento. Se trata de emplear esas reglas y conocimientos para alcanzar conclusiones aproximadas o definitivas. 3) Autocorrección. Ser capaz de identificar sus propios errores y desechar esas formas de actuación o conclusiones en el futuro. 3 La heurística trata de métodos o algoritmos exploratorios durante la resolución de problemas, en los cuales las soluciones se descubren por la evaluación del progreso logrado en la búsqueda de un resultado final.