LOS FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL. La inteligencia artificial es un campo, es heredera de diversas ideas puntos de vista y técnicas de otras disciplinas. Durante más de 400años de matemáticas, han surgido teorías formales relacionadas con la lógica probabilidad, toma de decisiones y la computación. La sicología ofrece herramientas que permiten la investigación de la mente humana, así como un lenguaje científico para expresar las teorías que se van obteniendo. La lingüística ofrece teorías sobre la estructura y significado del lenguaje, la ciencia y la computación, de la que se toman las herramientas que permiten que la IA sea una realidad. FILOSOFIA (428 A.C AL PRECENTE): Todo empezó con el nacimiento de platón en 428 a.c. la temática de su obra es diversa: política, matemáticas, física, astronomía y diversas ramas de la filosofía. Aristóteles consideraba que no todas las partes de la mente estaban gobernadas por procesos lógicos. Consideraba también la noción de una razón intuitiva. Habría que esperar a rene descartes (1596 a1650), para contar con un estudio claro de la diferencia entre mente y materia los problemas que origina. Descartes propuso la noción del dualismo. Sostenía que existe una parte de la mente que está al margen de la naturaleza, exenta dela influencia de las leyes físicas. Una alternativa al dualismo es el materialismo, que considera que todo el mundo funciona sujeto a leyes físicas. El movimiento empírico, iniciado con el novom organum de Francis Bacon (1561 a 1626), se caracteriza por el aforismo John Locke (1632 a1704):”nada existe en la mente que no haya pasado antes por los sentidos”. David Hume (1711 a 1776) propone lo que actualmente se conoce como principio de la inducción: las reglas generales se obtienen por contacto con repetidas asociaciones entre sus elementos. Bertrand Russell (1872 a1970): indujo el positivismo lógico. Esta doctrina sostiene que todo el conocimiento se puede caracterizar mediante teorías relacionadas, en última instancia, con oraciones de observación, que corresponda en entradas sensoriales. Con la teoría de la confirmación se intenta comprender como se puede obtener conocimientos a partir de la experiencia. MATEMATICAS (aproximado del año 800 al presente). La idea de expresar un cálculo mediante un algoritmo formal se remonta a la época de al-jwarizmi, matemático árabe del siglo ix. La lógica data por lo menos desde Aristóteles, su naturaleza era más filosófica que matemática, hasta que George Boole (1815 a 1864). Introdujo su lenguaje formal para hacer inferencias lógicas en 1847. El método de Boole no estaba completo pero era bastante bueno. En 1879, Gottlob Fregué (1848 a 1825) creo una lógica que, excepto por algunos cambios en la notación, constituye la lógica de primer orden que se utiliza actualmente como sistema básico de representación del conocimiento. Alfred Tarski (1902 a 1983) introdujo una teoría de referencia que enseña como relacionar objetos de una lógica con los objetos del mundo real. En 1930 kurt godel 1906 a 1978) demostró que existen procedimientos eficientes para demostrar cualquier aseveración verdadera en la lógica de primer orden de fregué y Russell. En 1931 demostró que el efecto existen límites reales. Mediante su teorema de incompletos demostró que en cualquier lenguaje que tuviera la capacidad suficiente ´para expresar las propiedades de los números naturales, existen aseveraciones verdaderas indecidibles: no es posible definir su valides mediante ningún algoritmo. Lo anterior motivo a Alan Turíng(1912 a 1954( a tratar de caracterizar las funciones que si eran susceptibles de ser calculadas. La tesis de chur-turing goza de aceptación generalizada en cuanto a definición suficiente. Turing demostró también que existen algunas funciones que no es posible calcular mediante la máquina de turing. La noción de la intratabilidad tuvo repercusiones más importantes en términos generales, se dice que una clase de problema se denomina intratable si el lapso necesario ´para la resolución de casos particulares de dicha clase crese el menos exponencial mente con el tamaño de tales casos. El segundo concepto importante en la teoría de la complejidad es la reducción. Una reducción es la trasformación general de problemas a otra. Además de la lógica y el cálculo una gran contribución de las matemáticas a la IA es la teoría de la probabilidad. Gerolamo cardano (1501 a 1576) quien concibiera primero la noción de la probabilidad y representó como posibles resultados de los juegos de apuesta. Pierre Fermat (1601 a1665), Blas pascal (1623 a 1662), james Bernoulli (1654 a 1705), Pierre Laplace (1749 a 1827) y otros más hicieron avanzar esta teoría e introducir nuevos métodos estadísticos. Thomas valles (1702 a1761) propuso una regla para la actualización de las probabilidades subjetivas a la luz de nuevas evidencias. En la teoría de las decir iones propuesta por John bond Neumann y óscar morgenstern (1944 se combinan las teorías de la probabilidad y de la utilidad permiten discernir entre elecciones buenas y acciones malas. PSICOLOGIA: DE 1879 AL PRESENTE: La psicología científica se inició con los trabajos del método médico alemán Herman Vond Helmholsz (1821 a 1894) y su disípalo willhenm Wundt (18321920). El 1879, el mismo año de que Fregué dio a conocer su lógica de primer orden, Wundt inicio el primer laboratorio de psicología. El movimiento conductista de John Watson (1878 a 1958) y de Edward lee Thorndike (1874 a 1949) fue una respuesta contra el subjetivismo por considerarlos “psicología popular” no científica. La psicología cognoscitiva se remota por lo menos a las obras de William james (1842-1910). En los inicios no existía una distinción entre IA y ciencia cognoscitiva era frecuente ver programas de IA caracterizados como si fueran resultados psicológicos. HISTORIA DE LA IA: Génesis de la IA (1943 a 1956). Reconocido en general como el primer trabajo de la IA fue realizado por Warren McuClloch y Walter Pitts(1943:propucieron un modelo constituido por neuronas artificiales.donall Hebb 1949 demostró una sencilla regla de actualización para modificar las intensidades de las conexiones entre neuronas . Entusiasmo inicial, grandes esperanzas 1952 a 1969 El SGP (solucionador general de problemas) posiblemente fue el primer programa que incorporo el enfoque del pensar como humano. McCarthy definió el lenguaje de alto nivel Lisp, que se convertía en el lenguaje de programación dominante en IA. Lisp, es el segundo lenguaje de programación más antiguo que todavía se utiliza actualmente. Marvin Minsk y supervisaba el trabajo de unos estudiantes, quienes eligieron problemas limitados cuya solución parecía requerir de la inteligencia. Estos dominios limitados vinieron a ser conocidos como micromundos. El más famoso de los micromundos fue el de los bloques, formando por un conjunto de bloques solidos colocados en la cubierta de una mesa. Rosenblat demostró el famoso teorema de convergencia del perceptron, con lo que mostro que su algoritmo de aprendizaje podía ajustar las intensidades de conexión de un perceptron para que correspondiera a cualquier dato de entrada, siempre y cuando tal correspondencia fuese factible. Una dosis de realidad (1966 a 1974): Desde el principio, los investigadores de IA expresaron predicciones sobre el exitoso futuro que les aguardaba. El primer obstáculo se originó en los antiguos programas los cuales contaban con poco o ningún conocimiento de la materia objeto de estudio. El segundo obstáculo fue el de la intratabilidad de muchos de los programas que se estaban intentando resolver mediante IA. Los primeros experimento en el campo de la evolución de maquina o computadora estaban basados en la cintura correcta permiso de que efectuando una adecuada serie de pequeñas mutaciones aun programa de código de maquina se podía general un programa con buen desempeño en la realización de cualquier tarea sencilla. Sistemas basados en el conocimiento. ¿Clave del poder? (1969 a 1979) La resolución de problemas durante la primera década de la investigación en IA recibía en un mecanismo de búsqueda de propósito general, a ese procedimiento se le ha denominado métodos débiles debido a que la información sobre el dominio con que cuentan es débil. El programa dendral constituye uno de los primero ejemplos de este enfoque, la primera versión del programa generaba todas las posibles estructuras que correspondieran ala formula. Feigenbaum y otros, dieron inicio al proyecto de programación heurística, dedicado a determinar el grado con el que la nueva metodología de los sistemas expertos podía aplicarse a otras áreas de la actividad humana. El crecimiento de las aplicaciones para el problema del mundo real provoco el respectivo aumento en la demanda de esquemas y representación de reconocimiento que si funcionara. La IA se convierte en una industria: En 1981 los japoneses anunciaron el proyecto “quinta generación” para construir computadoras inteligentes, el proyecto de la quinta generación suscito el interés de la ia y aprovechando el temor a un posible dominio por parte de los japoneses En la floreciente industria de la IA figuraban también compañías tales como camegie grour inference, intellicop y teknowledge. Más de un centenar de compañías construyeron sistemas de visión robótica para su uso industrial. El regreso de las redes neuronales 1986 al presente: En la ciencia de la computación se ha hecho a un lado el campo de las redes neuronales, se ha continuado trabajando en otros campos especialmente en física. Físicos utilizaron técnicas de la mecánica estadística para analizar las propiedades de almacenamiento y optimización de las redes. Psicólogos continuaron con el estudio de los modelos de la memoria basados en redes neuronales, el impulso más fuerte se produjo a mediados de la década de los 80´s, cunado 4 grupos distintos reinventaron el algoritmo de aprendizaje de retro propagación durante una época redes neuronales he IA tradicional se vieron como rivales entre sí, más que como campos que aportaban enfoques complementarios en la solución de un mismo problema. Acontecimientos recientes 1987 al presente: En años recientes se ha producido un cambio en contenido como en metodología de investigación de IA. Actualmente es más común construir sobre teorías ya existentes que proponer teorías nuevas. La invención del formalismo de red de creencia obedece la necesidad de poder razonar eficientemente ante una combinación de evidencias inciertas. Similares revoluciones se han dado en robótica, visión por computadora, autoaprendizaje de máquinas y representación del conocimiento. Una mejor comprensión de los problemas y de su complejidad, a una mayor capacidad de manejo matemático, han favorecido la factibilidad de investigaciones. El también llamado movimiento situado intenta dilucidar el funcionamiento de agentes inmersos en entornos reales, sujetos a entradas sensoriales continuas.