PG II T_1º Página 1 de 11 TEMA 1º: PSICOLOGÍA, SIMULACIÓN E INTELIGENCIA ARTIFICIAL (IA) 1. INTRODUCCIÓN La psicología cognitiva, el computacionalismo y la Inteligencia Artificial son disciplinas con muchas interacciones, que forman parte de la llamada CIENCIA COGNITIVA. Todas están interesadas en el mismo objeto de estudio, pero parten de presupuestos diferentes y utilizan métodos distintos. Todas admiten la metáfora del ordenador, pero mantienen posiciones diferentes sobre la utilización de los ordenadores. Tanto el computacionalismo como la IA comparten la idea de que el ordenador es una sistema de símbolos físicos capaz de manifestar también conducta inteligente. Los psicólogos computacionales defienden que la mente humana funciona como una sistema de símbolos físicos y, consecuentemente, su principal interés es encontrar la función capaz de computar de la misma manera que la mente humana. Estos científicos, practicantes de la IA débil, escriben programas de ordenador que simulen la forma de razonar de la mente humana. La analogía entre mente y ordenador, se establece a nivel de funcionamiento. Las funciones mentales son computables y el objetivo es computarlas. La mayoría de los psicólogos actuales no creen que la mente humana pueda llegar a simularse totalmente por medio de programas de ordenador. La suposición básica de la IA es que el ordenador es capaz de desarrollar una conducta inteligente, porque interpreta símbolos, los manipula, los almacena en ciertas estructuras de memoria, y después produce un resultado que se considera inteligente. La IA fuerte se basa en la doctrina filosófica del funcionalismo (no la escuela psicológica del funcionalismo). La IA realiza suposiciones todavía más fuertes que el computacionalismo. Para ella, la misma organización del sistema es la que define las condiciones necesarias y suficientes para que existan los estados mentales. La idea de que la inteligencia humana puede modelarse íntegramente a través de sistemas de símbolos físicos ha sido muy criticada, y no es aceptada por la mayoría de los psicólogos. prosado@teleline.es PG II T_1º Página 2 de 11 2. LA MENTE COMO SISTEMA COMPUTACIONAL El enfoque computacional de la mente tiene como objetivo explicar la conducta inteligente en función de las relaciones causales existentes entre la estimulación externa y ciertos estados mentales, intenciones y creencias privadas. Estos estados mentales, por ser internos al sistema, son inobservables. El objetivo es intentar explicar el comportamiento del individuo. El resultado consiste en establecer una serie de generalizaciones o leyes que expliquen las supuestas interacciones causales producidas entre los diferentes componentes del sistema. Para esto se postilas una serie de procesos computacionales gobernados, por reglas sintácticas hipotetizadas entre los distintos estados mentales. Este enfoque sus orígenes están en la obra de K.J.W. Craik, titulada The nature ond explanation. Craik hace referencia explícita en su trabajo a que la psicología debía dedicarse al estudio de los modelos cerebrales. Estos modelos eran capaces de generar diferentes tipos de conductas. Estas ideas son importantes porque precedieron a la invención del ordenador digital. No se propuso ningún modelo concreto sobre las representaciones mentales hasta que se desarrollaron los ordenadores digitales. La importancia del trabajo de Craik se debe a que en él aparece ya una referencia a la analogía entre ordenador u cerebro humano. 2.1 Concepto de computación. El lógico y matemático inglés Alan Turing ha proporcionado la mejor definición existente de función computable. Una función es computable si constituye la correspondencia input-output de una máquina que lee símbolos binarios de una cinta indefinidamente larga y los escribe en esa misma cinta. La secuencia de pasos lógicos, a través de los cuales se realiza esta computación, es lo que se llama algoritmo. Una misma función puede computarse mediante diferentes algoritmos. 2.2 La Máquina de Turing. La máquina universal de Turing es una máquina sencilla capaz de leer y escribir símbolos en una larga cinta dividida en pequeños cuadrados. Turing se interesó únicamente por cuestiones teóricas. Esta máquina hipotética consta de dos partes principales: - una cabeza, que es su parte activa, prosado@teleline.es PG II T_1º Página 3 de 11 una cinta larga, que es la parte pasiva. El número de cuadraditos es teóricamente ilimitado. La cinta cumple una función input-output, a partir de ella pueden escribirse y leerse símbolos. Mientras la máquina está en funcionamiento la cabeza se mueve hacia delante y hacia atrás, un cuadradito en cada ocasión. El cuadrado sobre el que se sitúa la cabeza de la máquina es el único que está activado en un momento dado. En cada momento, la cabeza está en uno de os estados internos previamente especificados. Este estado interno va cambiando de un paso a otro. Lo que hace la cabeza depende, en cada paso del proceso, del signo que encuentra en el cuadrado sobre el que se posiciona la cabeza de la máquina, y del estado interno en el que se encuentra la cabeza. Estos factores son los que determinan las tres posibles consecuencias: a) qué signo debe escribir la máquina en el cuadrado, en lugar del que hay, b) sobre qué cuadrado debe posicionarse la cabeza en laso siguiente, c) cuál es el estado interno en el que la cabeza debe estar en el paso siguiente, o si la máquina debe dejar de funcionar. - La máquina de Turing reconoce un número finito de símbolos, la conducta de la máquina viene definida por un conjunto finito de instrucciones que especifican la acción que va a realizar en un momento dado de funcionamiento del sistema. La tesis de Turing afirma que, para cualquier sistema formal, existe una máquina de Turing formalmente equivalente. Esta tesis es imposible de probar, se trata sólo de una propuesta de lo que se entiende por un sistema determinístico automatizado. A esta tesis Turing añadió una prueba, llamada la prueba de Turing, que dice que existen máquinas universales de Turing que pueden imitar exactamente a cualquier otra máquina de Turing. 2.3 La Máquina de von Neumann. John von Neumann fue un gran matemático, se le atribuye la gran idea de construir una máquina con un programa almacenado en su memoria interna. Este matemático se interesó por la computación. La máquina de von Neumann surgió de la colaboración de muchas personas. Von Neumann se incorporó al equipo que estaba trabajando en el ENAC y a partir de entonces se le atribuye la idea de programa almacenado en memoria, propia del ordenador actual, que se conoce como máquina de von Neumann. Parece casi seguro que fueron Eckert y Mauchly los que desarrollaron la idea y con Neumann el que la pudo por escrito. Von Neumann se sintió fascinado por las semejanzas entre la máquina, que él estaba intentando construir, y el sistema nervioso humano. prosado@teleline.es PG II T_1º Página 4 de 11 A pesar de su interés en relacionar la nueva máquina con el sistema nervioso humano, siempre lo hizo a un nivel de células y nervios, y no se fijó en las semejanzas funcionales. Este paso lo darían los investigadores de la siguiente generación, que entendieron la máquina y el ser humano como dos casos de sistemas de procesamiento de información. La máquina de von Neumann se caracteriza por poseer una gran memoria a la que puede accederse de dos maneras diferentes, de manera relativa y de manera absoluta: - de manera relativa significa que se determina una localización particular con relación a otra localización, - de manera absoluta consiste en especificarla por un número; una vez que un tipo de información se especifica así, el ordenador puede localizarla. La memoria, además de almacenar el programa que hace funcionar al ordenador, contiene también los símbolos sobre los que opera. Pero la característica más importante es la posibilidad de utilizar el acceso absoluto a la memoria para ejecutar subrutinas en cualquier parte del programa general. Esto tiene la ventaja de hacer que el programa sea más modular y flexible. Las máquinas de von Neumann son máquinas universales, como las de Turing, pero mucho más rápidas y fáciles de programar. Eniac: Electronic Numerical Integrator and Calculator El Eniac fue desarrollado por Eckert y Mauchly, y fue el primer ordenador comercial. 2.4 De la microinformática a Internet. La evolución de la tecnología de los ordenadores y la telecomunicación ha sido muy rápida en los últimos años. Los orígenes de la informática se retrotrae a 2.000 años a.C., fecha en la que se data el ábaco chino. Otros antecedentes son las calculadoras de Blaise Pascal y de Leibniz, aunque el verdadero precursor teórico del ordenador actual es la máquina analítica de Babbage, aunque esta máquina nunca se construyó, posiblemente por falta de tecnología adecuada. Los aparatos construidos durante la primera mitad del siglo XX utilizaron la tecnología analógica. Esta tecnología dejó paso a la electromecánica que comenzó a utilizar relés telefónicos. El verdadero cambio se produjo cuando los técnicos empezaron a utilizar la tecnología electrónica. El ejemplo más representativo de la primera mitad del siglo XX fue el Eniac. prosado@teleline.es PG II T_1º Página 5 de 11 Al comienzo de los años cincuenta se instaló el primer ordenador digital en una empresa privada de los Estados Unidos. Una tendencia general fue que los ordenadores cada vez se fueron haciendo más pequeños. En la década de los setenta empezaron a construirse los primeros microprocesadores y a comienzos de los 80 IBM lanzó su ordenador personal (IBM PC). A partir de entonces, la revolución de la informática ha hecho que en estos momentos no podamos vivir sin estas máquinas. Hoy gracias a Internet es una enorme fuente de recursos de información compartidos a escala mundial. La mente humana ha hecho posible el desarrollo de esta red de redes. Pero para que la comunicación entre ordenadores conectados a una red sea posible es preciso que exista un protocolo que cumpla una serie de convenciones sobre cómo debe realizarse el intercambio de datos entre ordenadores. La primera red de ordenadores fue una red militar llamada Arpanet que decidió utilizar el protocolo de comunicaciones TCP/IP. Más tarde, la fusión de Arpanet con otras redes dio paso al nacimiento de Internet. La revolución llegó realmente en los años 90 con la Worlwide Web (WWW), diseñada por un grupo de científicos del CERN que permite la utilización del hipertexto para publicar en la red con entornos gráficos y sonoros. Para circular por le mundo de Internet era necesario un navegador, en 1993 apareció Mosaic, el primer navegador por la www. En 1994, Netscape lanzaba su navegador, a partir de 1995 asistimos al afianzamiento del uso público de Internet. 3. INTELIGENCIA ARTIFICIAL Y PSICOLOGÍA El objetivo de la IA es hacer pensar a esas máquinas artificiales modernas llamadas ordenadores. Pensar es sinónimo de computar. De acuerdo con la teoría de manipulación de símbolos, la inteligencia depende únicamente de la organización del sistema y de su capacidad para manipular entidades abstractas o símbolos. Lo importante es encontrar los procedimientos (algoritmos) que resulten efectivos para realizar tareas consideradas inteligentes de una manera rápida y eficaz. Los psicólogos consideran a la IA como algo útil, aunque no comparten con ella su poco interés por la teoría. A la IA le interesa lograr resultados prácticos para lo que construye programas que sean eficaces y que funcionen de manera inteligente. Una tecnología que busca resultados prácticos, sin comprender en ocasiones los métodos que utiliza. Esto hace que no puedan generalizarse los resultados obtenidos. prosado@teleline.es PG II T_1º Página 6 de 11 Así el principal interés de la IA es que las máquinas funcionen de manera inteligente, sin embargo, no interesa demasiado que lo hagan de la misma forma que lo hace el ser humano. Su objetivo es la eficacia. 3.1 Principios básicos de los sistemas formales automáticos. Un ordenador es un sistema formal automático. ¿Qué es un sistema formal?. Un sistema formal puede ser cualquier juego, las fichas se utilizan de acuerdo a ciertas reglas, son digitales y la duración del juego es finita. ¿Qué es un sistema digital?, según Haugeland es un conjunto de técnicas eficaces para producir y reidentificar ejemplares a partir de algún conjunto previamente especificado de tipos. Un procedimiento eficaz es el que siempre tiene éxito. El carácter digital es muy importante para la IA porque convierte lo complicado en algo práctico y fiable, e independientemente de su realización material. Precisamente, la independencia del medio es simplemente un caso de la equivalencia formal. Un sistema digital es una técnica eficaz de lectura/escritura. ¿Cuándo son equivalentes dos sistemas formales?. Cuando: • por cada posición diferente en un sistema existe exactamente una posición correspondiente en el otro sistema, • para cada movimiento permitido en un sistema, existe un movimiento permitido en el otro sistema, • todas las posiciones de partida se corresponden. Las células que forman el cerebro y los circuitos electrónicos del ordenador son dos medios materiales diferentes, pueden ser considerados sistemas formales equivalentes desde el punto de vista funcional. El problema está en especificar claramente cuáles son los criterios que se consideran necesarios y suficientes para admitir que existe una equivalencia funcional. Todo depende del grado de equivalencia que se considere. 3.2 Algoritmos y heurísticos. Un algoritmo es un procedimiento que nunca falla porque siempre produce los resultados esperados. Lo que hay que hacer en cada paso del proceso está totalmente determinado. Se trata de procedimientos totalmente inflexibles. El algoritmo debería dejar de ejecutarse cuando se consigue el resultado esperado. prosado@teleline.es PG II T_1º Página 7 de 11 Sin embargo, si no se hace nada por remediarlo, continúa ejecutándose una y otra vez sin interrupción. Los programadores han solucionado este problema utilizando el condicional. Esto permite que la ejecución del paso siguiente del algoritmo dependa de los resultados obtenidos en los pasos anteriores. Un sistema automático es un sistema formal que funciona por sí mismo. Lo deseable es que el sistema elija bien la mayor parte de las veces, no que sea totalmente infalible. En ese caso se utilizarán heurísticos, que generalmente logran soluciones adecuadas, rápidas y fiables. La mente humana funciona muchas veces utilizando estos atajos. 4. SIMULACIÓN POR ORDENADOR E INTELIGENCIA ARTIFICIAL Desde la aparición de los ordenadores digitales, los psicólogos los han utilizado como herramienta de trabajo. La interacción entre las ciencias del ordenador y la psicología ha sido muy positiva. Los trabajadores de la IA han utilizado las ideas de la psicología sobre los procesos psicológicos. Por otro lado, los psicólogos han asimilado los conocimientos de las ciencias de la computación y los han utilizado. Los ordenadores se han utilizado también como instrumentos con los que simular procesos psicológicos. Para intentar simular procesos mentales por ordenador, el investigador escribe un programa de ordenador que intente simular dicho funcionamiento e intenta que el funcionamiento del programa sea lo más parecido al funcionamiento del ser humano. La técnica de la simulación de procesos psicológicos por ordenador utiliza estos instrumentos modernos para desarrollar y poner a prueba teorías psicológicas sobre el funcionamiento de los procesos mentales u del razonamiento humano. La psicología prueba empíricamente si los resultados de la simulación son equivalentes a los procesos psicológicos de los humanos cuando realizan las mismas tareas. La psicología cognitiva contempla el ordenador como una analogía apropiada de la mente y/o el cerebro humano. Se piensa que de la misma manera que los ordenadores funcionan con un programa encargado de dirigir todas sus actividades, el ser humano lo hace igual. Los parecidos entre ambos son muy superficiales al existir claras diferencias físicas. Lo importante es la equivalencia funcional entre los ordenadores y el cerebro humano. En psicología se utiliza la simulación por ordenador para intentar modelar el comportamiento. Mientras que la ejecución de dicho programa es lo que constituye la simulación en sí misma. prosado@teleline.es PG II T_1º Página 8 de 11 En el concepto de simulación, no entra para nada el ser humano, ni se trata propiamente de una técnica experimental en sí misma. Por simulación se entiende la imitación flexible de procesos y resultados, con el objetivo de aclarar o explicar los mecanismos implicados. El científico espera que el resultado de la misma se parezca realmente a los resultados de un proceso real. La simulación será tanto más válida cuanto más parecidos sean ambos resultados. La forma en que la simulación imita al proceso psicológico es flexible. Esto significa que no se trata de una copia exacta del mecanismo que se intenta simular, sino más bien de algo parecido o paralelo. Un segundo aspecto importante es que la simulación intenta aclarar o explicar. Desde el momento en que la simulación se utiliza para explicar algo, se parece a una teoría. Cuando la simulación persigue explicar un fenómeno, también se utiliza para probar teorías. Los objetivos de la IA y los de la simulación sin distintos. La simulación está más próxima a los intereses de la psicología, la IA está más próxima a la ingeniería y no se preocupa de estudiar los procesos psicológicos, sino de hacer que los ordenadores actúen de manera inteligente. La IA consiste en la preparación de programas de ordenador con la intención de estudiar la inteligencia en cuanto proceso computacional. El concepto de IA se ha entendido de varias maneras diferentes: • como una rama de la ingeniería del software, • como una teoría de la ciencia de la computación, • como una rama de la filosofía que intenta explicar qué es el conocimiento y cómo puede representarse el conocimiento en un computador, • como ciencia de la mente. La IA fuerte defiende que el programa de ordenador es realmente la teoría, es un medio adecuado para expresar dicha teoría. Lo importante es realizar la tarea de la manera más eficiente posible. Los científicos relacionados con las ciencias sociales y las ciencias de la conducta no suelen defender una posición tan extrema. En este sentido, la simulación es la manera de poner a prueba la teoría. Cuando las predicciones emanadas de la teoría no concuerdan con los datos empíricos, es necesario revisar la teoría y el programa. La simulación parte de unos datos iniciales y, mediante un programa que representa los procesos que supuestamente median entre dichos datos (el input) y el output, trata de comprobar si el output si coincide con las predicciones realizadas. El psicólogo no suele expresar con total precisión cuáles son los procesos que influyen en la realización de una determinada tarea, pero el programador sí sabe la forma como trabaja el programa. prosado@teleline.es PG II T_1º Página 9 de 11 La simulación es útil, ya que las teorías en las ciencias sociales suelen formularse por lo general sin demasiada precisión. Cuando se escribe un programa de simulación es necesario especificar claramente cuáles son las variables y cómo se relacionan entre sí, definir los valores iniciales y resolver todo tipo de contradicciones. De esta manera, la simulación puede servir para mejorar la teoría y ayudar a que pueda formularse de una manera más precisa. Además, puede servir para ayudar a formular nuevas hipótesis sobre la teoría. 4.1 Fases de un experimento de simulación. La primera fase de un experimento de simulación consiste en la formulación precisa de los objetivos a conseguir con la investigación. A continuación, especificar claramente el modelo del proceso que se intenta simular, cuáles son las variables que se van a utilizar, qué relaciones existen entre ellas, etc. El siguiente paso es la traducción del modelo al lenguaje del ordenador, después estimar los parámetros del modelo y poner a prueba su significado. Finalmente, la fase más difícil de todo es la validación del experimento de simulación. La validación implica comprobar la adecuación del modelo subyacente. Para que una simulación sea válida, su output tiene que ser bastante similar al del sistema real, partiendo del mismo input. ¿Cómo se realiza esta validación?, la forma habitual es la prueba de Turing. Esta prueba no informa sobre la adecuación o no de la teoría porque únicamente hace referencia al resultado final. Por sí sola no es suficiente. La teoría que subyace a la simulación debe cumplir todos los requisitos de una teoría científica. Para comprobar la validez de la adecuación de la teoría que subyace a un programa de simulación, debe cumplir los requisitos de generalizabilidad, falseabilidad, precisión y simplicidad, propios de todo proceso científico. Una vez que se ha comprobado, debe probarse que dicha simulación produzca también resultados comparables a los del mundo real. Hay que preguntarse si es posible reconocer que los resultados del ordenador son diferentes de los resultados correspondientes al mundo real. Si no es posible distinguirlos, se dice entonces que la simulación ha pasado la prueba. 4.2 La prueba de Turing. La prueba de la correspondencia entre simulación y procesos reales más conocida es la de Turing. prosado@teleline.es PG II T_1º Página 10 de 11 Pretendía su autor responder a la pregunta de si el ordenador era capaz de pensar. Consiste en que una persona interrogue a un hombre y una mujer que están fuera de su vista mediante una máquina de escribir. La persona que interroga intenta descubrir cuál es el hombre y cuál la mujer. A continuación, una de las personas ocultas es sustituida por un ordenador, si la persona que interroga es capaz de identificar al ordenador con la misma frecuencia que ha identificado previamente al hombre y a la mujer, entonces se dice que el ordenador es capaz de pensar. 4.3 El primer programa de simulación. El primer programa de simulación se empezó a gestar en torno a 1954, Newell y Simon, y más tarde trabajaron el Teórico Lógico. Con este programa intentaron probar en el ordenador su teoría sobre cómo el ser humano solucionaba problemas. El programa parte de un conjunto de premisas, y el objetivo es llegar a resolver un teorema recorriendo el camino que lleva de un punto a otro utilizando ciertas reglas de inferencia. La novedad de este programa es que funcionaba con heurísticos. Cuando llegaba a un punto en el que era necesario tomar una decisión, el programa usaba ciertas reglas. Si esta estrategia no funcionaba, el paso siguiente consistía en intentar buscar otras expresiones intermedias que pudieran probarse más fácilmente. El hecho de introducir la utilización de heurísticos tuvo más importancia de lo que puede parecer. En aquel momento utilizaban algoritmos que resultan muy adecuados para la manipulación de números. Pero los heurísticos no garantizaban el resultado final, y no se puede predecir de antemano. Debido al ahorro de tiempo que suponen, los heurísticos son soluciones que merece la pena probar porque si funcionan, acortan el camino. Todas las simulaciones efectuadas hasta el momento han sido parciales y han intentado modelar una conducta concreta. Su importancia radica en que han servido para adelantar la provocativa hipótesis de que la mente es como un instrumento procesador de símbolos. El problema principal de comprender lo que es el razonamiento no consiste solamente en identificar ciertas técnicas, sino en saber cómo representar grandes cantidades de datos. Los seres humanos no sólo razonan, sino que tienen conocimiento de las cosas. De aquí la importancia del conocimiento, con la finalidad de desarrollar nuevas técnicas capaces de representar este conocimiento en el ordenador. prosado@teleline.es PG II T_1º Página 11 de 11 Así, hay un auge en la construcción de los llamados sistemas expertos, basados en un amplio conjunto de reglas condicionales de valor heurístico y un sistema inferencial, con el fin de obtener una conclusión al problema. Un sistema experto no es otra cosa que un programa que utiliza grandes cantidades de conocimientos relacionados con un único dominio, con el fin de conseguir un elevado nivel de competencia en ese dominio particular. En los primeros años los investigadores se preocuparon por la simulación de los procesos de pensamiento humano, en los años posteriores los intereses se dirigieron a la consecución de programas que funcionaran de una manera eficiente, hacia la ingeniería, con su interés en la aplicación rápida de conocimientos útiles. prosado@teleline.es