¿TIENE VENTANAS LA HABITACIÓN CHINA? LA IMPOSIBILIDAD DEL SUPUESTO DE LA SUSTITUCIÓN EN SEARLE* Luis F. Artiles Arbelo atlantis@idecnet.com RESUMEN Este trabajo analiza críticamente el conocido argumento de Searle basado en «La habitación china». Nuestro propósito es poner de manifiesto algunos problemas en relación al paso más crucial en la argumentación de Searle,: la sustitución de una máquina por una persona. PALABRAS CLAVE: ciencia cognitiva, inteligencia artificial, intencionalidad, lenguaje. ABSTRACT HAL 9000. - Por cierto, ¿le importa si le hago una pregunta particular? David Bowman.- No, adelante. HAL.- Bien, perdóneme si soy indiscreto, pero en las últimas semanas me he preguntado si ustedes no tendrían otra idea acerca de la misión. D.B.- ¿Que quieres decir? HAL.- ... Pues, no es fácil concretar. Quizás no hago más que expresar mis propias preocupaciones. Nunca me he liberado completamente de la sospecha de que hay algunas cosas muy extrañas en esta misión. Estoy seguro de que usted convendrá en que hay algo de verdad en lo que digo. (Diálogo extraido de la película 2001: una odisea del espacio). A comienzos de 1968 los asistentes al estreno de 2001: una odisea del espacio fueron testigos de un diálogo, cuando menos, inusual hasta ese momento. El computador encargado del control y supervisión de una misión tripulada al planeta Júpiter mantenía una extraña y convincente conversación con uno de sus tripulantes. El computador tenía por nombre HAL 9000 y pertenecía a la última generación de ordenadores, diseñados para la realización de las tareas de control, toma de REVISTA LAGUNA , 8; enero 2001, pp. 79-94 05.pmd 79 26/02/2013, 8:44 ¿TIENE VENTANAS LA HABITACIÒN CHINA? 79 This paper analyses Searle´s well known argument based on «The Chinesse Room». Our aim is to point out some difficulties in relation to the most crucial step in Searle´s argument: the substitution of a person for a machine. KEY WORDS: cognitive science, artificial intelligence, intentionality, language. LUIS F. ARTILES ARBELO 80 decisiones y detección de errores en todo lo que concernía a una misión espacial. Lo que hemos reproducido arriba es una muestra de ese diálogo y lo inusual es que, a menos que lo supiéramos de antemano, no hubiéramos podido identificar a uno de los hablantes como «siendo un engendro mecánico». La formulación de deseos, la adscripción de creencias e intenciones a otras personas, hacer predicciones que impliquen comportamientos de otros seres, etc, son rasgos particularmente humanos puestos en «boca» de un computador. Parece como si a lo largo de la película, el guionista se hubiera empeñado en cambiar los papeles que, tradicionalmente, se adjudicaban al comportamiento de los humanos y los computadores. Por un lado los tripulantes son extremadamente calculadores, «fríos» en cuanto a su conducta, privados o, al menos, estrictamente entrenados para no manifestar comportamientos emotivos. En cambio, el computador muestra en su discurso un sorprendente acercamiento a pautas que calificaríamos de exclusivamente humanas. Incluso cuando se procede a su desconexión, a su muerte, sus palabras suenan más humanas que las que puedan pronunciar cualquiera de los tripulantes durante toda la película. El tratamiento novedoso del computador como capacitado para desarrollar un comportamiento en todo comparable al humano es una de las características más notables de esta celebrada obra. La cinematografía se había concentrado hasta ese momento en otros muchos aspectos de la relación entre el hombre y las máquinas, pero no en éste. Particularmente interesante es la aproximación a determinada concepción que en esos momentos ya se tenía sobre los ordenadores y su función metafórica en la explicación de la mente. De hecho, unas décadas antes, se habían desarrollado ciertas disciplinas que postulaban la capacidad futura de estos artefactos para simular el comportamiento humano. Se decía por entonces que, una vez hubieran avanzado los procedimientos técnicos capaces de hacerlo realidad, las respuestas que el computador diera en relación a determinadas preguntas serían indistinguibles de las que obtendríamos de un ser humano. Si ese mecanismo era capaz de superar con éxito una prueba semejante, nos sería completamente imposible decidir sobre la naturaleza de nuestro interlocutor. Esto que acabamos de mencionar, se sitúa en el centro mismo del problema que trataremos en este trabajo y, aunque hemos dado una versión más divulgativa que técnica, se conoce como «test de Turing»1. Aplicado a nuestros atónitos espectadores, y teniendo en cuenta la informalidad con la que hemos introducido el concepto, el test de Turing consistiría en lo siguiente: si a los asistentes al estreno de la película que estamos comentando * Agradezco a Manuel Liz las correcciones a versiones previas de este trabajo así como el haberme animado a publicarlo en forma de artículo. 1 En 1950, Alan Turing (1912-1954) propuso una prueba conocida como el Test de Turing. La idea nuclear era que si una persona se comunicaba a través de un terminal de ordenador con otras dos que estuvieran ocultas, y no pudiera discriminar a través de una serie de preguntas cuál era la persona y cuál el ordenador, entonces tendríamos una prueba de que el ordenador muestra la cualidad que conocemos como «inteligencia». Este Test es también llamado «Juego de Imitación». Para una aproximación histórica a la Inteligencia Artificial véase Enric Trillas. La Inteligencia Artificial. Máquinas y personas. Editorial Debate. 1998. 05.pmd 80 26/02/2013, 8:44 se les hubiera dado a conocer el diálogo, sin el concurso de las imágenes, y no hubieran podido discriminar qué parte del discurso procede de los tripulantes humanos y qué parte es producida por la máquina, entonces nuestra máquina habría superado con éxito el test de Turing, y los asistentes al estreno no estarían en condiciones de determinar la naturaleza dispar de tripulantes y máquina. Les tendrían que adscribir, por tanto, la misma naturaleza. Lejos de ser una mera curiosidad técnica, este tema se ha mantenido muy vivo en las discusiones filosóficas (...y no tan filosóficas) actuales, y ha dado lugar a todo tipo de intervenciones en uno u otro sentido. Nuestros sorprendidos espectadores han podido recorrer un largo camino que lleva desde la simpatía por un artilugio mecánico consciente, y tal vez más humano que los propios humanos, hasta el más pavoroso terror por un futuro que se nos anuncia como la sustitución del hombre, y de sus presuntas características únicas, por un conglomerado más o menos complicado de cables y trozos de metal. Como veremos, todas estas posiciones encuentran también eco (y a veces de un modo extremadamente visceral) en disciplinas como la psicología, la filosofía, la inteligencia artificial, las neurociencias y todas aquellas ramas que tengan que ver con el estudio de la mente humana. Para el conductismo, sólo podíamos pronunciarnos sobre aquellos aspectos de la psicología de un individuo que pudieran extraerse directamente de su comportamiento, de su conducta, que era en realidad lo único observable. La mente (en el mejor de los casos) estaba recluída en una especie de caja negra inexpugnable al tratamiento científico. A partir de los años 40, se multiplicaron las críticas a esta visión conductista de la mente. Y sobre todo, se centraron en los problemas que tenía a la hora de explicar los procesos de aprendizaje del lenguaje. Paralelamente a tales críticas, surgen los modelos computacionales clásicos, que encuentran un desarrollo inusitado en relación a disciplinas como la lógica matemática, la lingüística y la filosofía del lenguaje. Es aquí donde encontramos esa primera visión de la mente como un computador, todo ello avalado por el surgimiento de la teoría matemática de la información, la teoría de la computabilidad, así como por importantes avances en el campo de la electrónica que permiten la creación de los primeros computadores. Nos encontramos en la década de los 40, veinte años antes de la aparición, ficticia por supuesto, de nuestro héroe de 2001: una odisea del espacio. A partir de los años 50, el campo de estudio de la mente comienza a ser dominado por una nueva visión que aglomera varias disciplinas y que comenzará a conocerse como Ciencias Cognitivas. En ellas, tienen cabida desde la psicología hasta la filosofía del lenguaje, pasando por las teorías matemáticas de la computación, la lingüística y las neurociencias. No se trata de una ciencia en el sentido en que podemos aplicar este término a la física o a la biología, más bien se trata de un conjunto de disciplinas, cada una con su objeto y metodología propia, que se sienten permanentemente conexas con las otras disciplinas hermanas, intercambiando, modificando y redefiniendo conceptos de unas y de otras. ¿Cual es, entonces, la 05.pmd 81 26/02/2013, 8:44 ¿TIENE VENTANAS LA HABITACIÒN CHINA? 81 1. UN POCO DE HISTORIA LUIS F. ARTILES ARBELO 82 nueva imagen de la mente que surge en este conjunto de disciplinas? Eduardo Rabossi2 ofrece una «Matriz Teórica Mínima», configurada en siete puntos, sobre la que se apoyaría el estudio de la mente que quiere emprender el conjunto de las Ciencias Cognitivas. Será interesante recoger esos puntos: 1. Los seres humanos y, en general, todo ingenio al que se le atribuyen estados y procesos cognitivos, son sistemas procesadores de información. «Información» hace referencia a unos ítemes abstractos sobre los que se opera, y «procesamiento» hace referencia a secuencias o series ordenadas de operaciones. 2. El procesamiento de información involucra reglas, elementos simbólicos con propiedades sintácticas (formales) y operaciones computacionales (algorítmicas) sobre esos ítemes. 3. Todo proceso cognitivo involucra procesamiento de información. 4. Los elementos simbólicos tienen un carácter representacional; las representaciones internas son de índole «descripcional» (proposicional), aunque no se excluyen, en principio, representaciones de índole «pictórica» (imágenes). 5. El estudio de los mecanismos cognitivos exige un nivel abstracto de análisis, es decir, un nivel que permita especificar el método a través del cual el organismo o ingenio lleva a cabo su función informacional. 6. Ese nivel abstracto es el computacional (software); todo proceso cognitivo es un proceso computacional. 7. Todo proceso cognitivo se implementa en una base física (hardware), pero la especificación computacional subdetermina el nivel físico de implementación, en el sentido de que bases físicas diferentes pueden implementar un mismo programa. Como puede apreciarse a simple vista, las nociones fundamentales de esa nueva visión de la mente se describen ahora en términos de «información», «símbolos», «propiedades sintácticas», «operaciones computacionales», etc. Para una disciplina como la Inteligencia Artificial, integrada en las Ciencias Cognitivas, el par formado por mente y cerebro sería equivalente al par formado por «software» y «hardware». Esto implica que el conocimiento de las relaciones establecidas entre el segundo par podría servirnos como explicación de las relaciones establecidas entre los términos del primero. La mente humana está concebida así como un programa de computador debidamente implementado en un conjunto físico. En esto consiste la metáfora del ordenador. Teniendo en cuenta estas declaraciones programáticas, las Ciencias Cognitivas, y en particular la Inteligencia Artificial, se sentirían más que satisfechas con la patria potestad sobre HAL 9000. Es más, sería como tener una prueba palpable de lo que ellas han establecido teóricamente como «poseer mente». Ahora bien, por muchas simpatías, o temores, que nos despierte HAL 9000, 2 Eduardo Rabossi (compil.) Filosofía de la Mente y Ciencia Cognitiva. p. 20. Editorial Paidós. 1995. 05.pmd 82 26/02/2013, 8:44 3 John L. Tienson «Una introducción al conexionismo» en Eduardo Rabossi (compil.) Filosofía de la Mente y Ciencia Cognitiva, pp. 359-380. 05.pmd 83 26/02/2013, 8:44 ¿TIENE VENTANAS LA HABITACIÒN CHINA? 83 éste sigue siendo un personaje de ficción y las Ciencias Cognitivas aún deben mostrar que «tener mente» es algo que puede ser explicado por esa matriz mínima de la que nos habla Eduardo Rabossi y que cualquier otra visión sobre la mente humana, para ser correcta, ha de incluir básicamente esos siete puntos. Aunque el computacionalismo clásico surgió con fuerza arrolladora, las previsiones que partieron de sus mayores adeptos no llegaron nunca a cumplirse en su totalidad. Se auguraba un futuro lleno de programas que traducirían o comprenderían el habla, recordarían y reconocerían la información relevante para numerosos problemas y planificarían siguiendo un curso de predicciones cercanas, muy cercanas, a como las haríamos los humanos. De toda aquella declaración programática quedó bien poco, y esa extraña desilusión se transformó en una crisis que, en palabras de John L. Tienson3, perfectamente podríamos describir como «kuhniana». A partir de ese momento, se considerará este tipo de computacionalismo como computacionalismo clásico. El aprendizaje, las sensaciones, las imágenes mentales, y la conciencia son algunos de los problemas que se resisten a su tratamiento mediante la visión clásica de la inteligencia artificial. Lo que el computacionalismo clásico entiende por «tener mente» se nos queda corto y parece que lo mental va mucho más allá. Debemos revisar, entonces, nuestras ideas de partida y acomodarlas a nuevas concepciones. Es a comienzos de los años ochenta cuando irrumpe un nuevo modo de concebir la cognición. El conexionismo será la corriente que surja dentro de las Ciencias Cognitivas para intentar dar respuesta a esos problemas que el computacionalismo clásico dejaba pendientes. Ya no tenemos a la mente como un simple computador digital, manipulador sintáctico de símbolos. Ahora tenemos una red neuronal, un conjunto de nodos cuyo funcionamiento semeja al de las neuronas, sin estados mentales constituidos como representaciones simbólicas y sin procesos mentales entendidos como operaciones realizadas sobre tales símbolos. Aún así, mantenemos una concepción computacionalista de la mente. Mientras en el computacionalismo clásico tenemos un programa que controla todo el sistema, en el conexionismo no hay ejecutor central, todas las conexiones son locales de modo que cada nodo sólo sabe lo que obtiene de los demás nodos que lo rodean. Desde luego, este sistema posee ventajas sobre el anterior: es capaz de aprender, reconocer, discriminar la información relevante y predecir posiciones que no se les facilitaban de antemano pero aún así, no se libra de problemas. Sobre todo, no queda muy claro lo que se ganaría adoptando el conexionismo frente al computacionalismo clásico; en particular, qué puntos de la cognición son los que realmente corresponden de manera excluyente a la visión conexionista y cuáles no. Como vemos el paisaje, antes uniforme, aparece ahora con enormes claros que deben rellenarse. Con todo, persiste la idea general de la mente como procesador de información, sea éste del tipo que sea. Tal idea se encuentra fuertemente asentada en el panorama actual de la filosofía de la mente. Sin embargo, los ataques a algunos de sus presupuestos siguen produciéndose. Autores como John R. Searle mantienen una posición más que escéptica en lo referente al éxito de la visión de la mente humana defendida por las ciencias cognitivas y en particular por lo que él denomina Inteligencia Artificial fuerte4. Su crítica tiene como blanco directo al computacionalismo clásico, pero también se extiende fácilmente al computacionalismo de tipo conexionista cuando éste queda incluido en el proyecto de la Inteligencia Artificial fuerte.. El caso es que creemos que el argumento central que Searle suele presentar no es en absoluto definitivo para mostrar la invalidez del proyecto de la Inteligencia Artificial fuerte. Creemos que el experimento mental que propone Searle, el denominado Argumento de la Habitación China, no funcionaría tal y como está concebido en un principio. En realidad sería como si, una vez dispuesto todo lo necesario para su ejecución, diéramos la orden de comienzo y no recibiéramos respuesta. Esperaríamos todo el tiempo del mundo y no obtendríamos el resultado al que Searle supone que hemos de llegar necesariamente. A continuación describiremos el experimento mental de la habitación china y posteriormente, en las conclusiones, aportaremos las razones que nos conducen a su imposibilidad. LUIS F. ARTILES ARBELO 84 2. SEARLE Y LA HABITACIÓN CHINA Quizás, a estas alturas del artículo, comencemos a deslizar nuestras preferencias sobre el futuro en uno u otro sentido, del mismo modo en que lo hacían en el comienzo, nuestros asistentes al estreno de la película. O nos llenemos de esperanza en una capacidad tecnológica futura y en sus soluciones al problema del análisis de la mente. O, por el contrario, nos mostremos aterrorizados frente a la idea de mantener la equiparación con cualquier tipo de artefacto que pueda imitar nuestro comportamiento inteligente. Una elección difícil si tenemos en cuenta las razones que uno y otro bando son capaces de mostrar. Pero antes de dar paso al famoso experimento mental de la habitación china, debemos aclarar que Searle distingue dos formas o modos que posee la Inteligencia Artificial, como disciplina, para tratar el objeto de su estudio. Por un lado, nos encontraríamos con un conjunto de conocimientos que ayudan al estudio de ciertos procesos que son muy parecidos a los que lleva a cabo una mente como la nuestra; en este sentido, la Inteligencia Artificial se ocuparía de construir programas 4 John R. Searle ha publicado sus críticas a las Ciencias Cognitivas y especialmente a la Inteligencia Artificial fuerte en varios de sus libros y revistas especializadas. Para nuestros objetivos son especialmente relevantes John R. Searle. Mentes, Cerebros y Ciencia. Ediciones Cátedra. 1990. The Behavioral and Brain Sciences (1980) 3, pp. 417-457, y «Mentes y Cerebros sin Programas», en el citado volumen de Eduardo Rabossi (compil.) Filosofía de la Mente y Ciencia Cognitiva, pp. 413443. Todas las referencias que hagamos al Argumento de la Sala China pertenecerán a estos dos trabajos. 05.pmd 84 26/02/2013, 8:44 5 05.pmd Citados explícitamente en J. Searle en The Behavioral..., p. 417. 85 26/02/2013, 8:44 ¿TIENE VENTANAS LA HABITACIÒN CHINA? 85 con el fin de ayudar al análisis de la mente sin más pretensión que la de ser una poderosa herramienta de trabajo. Ésta sería la que Searle denomina Inteligencia Artificial débil y su humildad es su mayor virtud. En cambio, la otra concepción de la Inteligencia Artificial es más extrema. Afirma que la mente es en sí misma un programa. El lema que la define, según Searle, es que la mente es al cerebro lo que el software es al hardware. A esta segunda concepción la llama Inteligencia Artificial fuerte, y es a ésta forma de entender la mente hacia la que se dirigirá la crítica contenida en el experimento mental de la habitación china. Es clara la diferencia entre una y otra concepción de la Inteligencia Artificial. Mientras la primera pretende aportar conocimientos que nos sirvan para estudiar la mente como podría hacerlo cualquier herramienta científica, la segunda afirma que, en realidad, lo que están haciendo es estudiar programas que ya son en algún sentido mentes; en definitiva, que podemos crear un computador que instanciando un programa adecuado daría como resultado el poseer una mente. No existe ninguna objeción, por parte de Searle, al trabajo desarrollado por la Inteligencia Artificial débil. Al fin y al cabo, los programas nos ayudarían aquí a una mejor representación de algunos procesos como los que se dan en nuestras mentes. Sin embargo, la Inteligencia Artificial fuerte propone, según Searle, una concepción de la mente inaceptable además de equivocada. Searle hace mención a los candidatos anteriores a las Ciencias Cognitivas para resolver este problema, mencionando explícitamente al conductismo; ahora uno de esos candidatos es el computacionalismo imperante en las Ciencias Cognitivas y, por lo que respecta a Searle, pasará a engrosar la lista de cadáveres que pretendieron el análisis y explicación de lo mental bajo supuestos equívocos. Para sus pretensiones, Searle se inspira en un conocido trabajo en Inteligencia Artificial: los programas de compresión-de-relatos llevado a cabo por Schank y Abelson5. El funcionamiento de estos programas se puede explicar del siguiente modo. Primeramente le damos al computador un relato que puede ser como el que sigue: «Un hombre entra en un restaurante y pide una hamburguesa. Cuando le traen la hamburguesa comprueba que está quemada y, disgustado, abandona el restaurante sin pagar». Dada esta situación, podemos preguntarle al computador si en realidad el hombre comió la hamburguesa, a lo que el computador responderá que no. En este caso el relato no contenía nada que dijera explícitamente que el hombre comió la hamburguesa. Sin embargo, el computador contestó de forma adecuada. ¿Cómo es posible esto? Vamos a explicar lo ocurrido: al computador se le da lo que se llama un «guión de restaurante» que en realidad es una base de datos de cómo funcionan las cosas normalmente en un restaurante. Cuando al computador se le introduce el relato, lo coteja con el guión de restaurante y seguidamente produce la respuesta a la pregunta que se le había formulado. Parece entonces que el computador ha entendido el relato. Parece que lo ha entendido en el mismo sentido en que una persona normal lo haría y, además, responde a las preguntas sobre el relato de LUIS F. ARTILES ARBELO 86 manera similar. Searle empleará este tipo de programas como paradigma de la Inteligencia Artificial fuerte y desarrollará su argumento utilizando un relato muy particular para refutar la pretendida comprensión por parte del computador. Según Searle cualquier teoría sobre la mente, y la de la inteligencia artificial fuerte lo es, ha de poder ser puesta a prueba. Y no hay mejor prueba que la que uno puede hacer imaginándose cómo sería el tener una mente bajo los presupuestos de dicha teoría. Por ello vamos a suponer con Searle que, de acuerdo con la Inteligencia Artificial fuerte, somos computadores. Es decir, que todo el complejo de cables, conexiones y placas metálicas de las que está compuesto un computador es sustituido por un ser humano. A este importante supuesto lo llamaremos Supuesto de la Sustitución. Este es un punto crucial a tener en cuenta: según Searle podemos sustituir el computador, todo lo que él es, por una persona que realice las mismas tareas que le asignamos a aquel. Nuestra conclusión final será que esta sustitución es imposible y que, al menos en un caso, no podemos probar si la teoría de la mente en cuestión (la de la Inteligencia Artificial fuerte) es errónea bajo el supuesto de la sustitución (en este caso de la máquina por el hombre). Con esto, podemos pasar ya a describir el experimento mental de la habitación china. En el experimento mental, Searle se imagina a sí mismo siendo un computador digital. Se imagina también situado dentro de una habitación, en la que, por todo mobiliario hay dos grandes cestas de símbolos chinos y un libro de reglas en castellano6. Este libro de reglas nos dice cómo hemos de aparear símbolos de una de las cestas con símbolos de la otra. Las reglas dicen cosas como: «Busque en la cesta 1 y saque un símbolo garabateado de tal o cual forma, y póngalo al lado de cierto símbolo garabateado que saque de la cesta 2». La pretensión de este libro de reglas es que Searle (que se encuentra dentro de la habitación) sólo coteje símbolos de una de las cestas con símbolos de la otra, del mismo modo que, en las ciencias computacionales, se le dice al computador que coteje ciertos símbolos de un conjunto con otros símbolos de otro conjunto. A una regla como ésta se la llama «regla computacional definida en base a elementos puramente formales». Además de esto, supongamos que nuestra habitación dispone de una pequeña ranura por donde, nosotros que estamos fuera de la habitación, introducimos más símbolos chinos y un nuevo libro de reglas para manipular y aparear los símbolos. Este nuevo libro de reglas que le hacemos llegar a Searle tiene la particularidad de que las reglas le piden que nos devuelva símbolos chinos, de manera que, cuando entra algún símbolo chino en la habitación, Searle consulte su libro de reglas, y devuelva otros símbolos chinos. De esta forma nos pasamos el día, nosotros enviamos símbolos chinos y Searle nos devuelve otros símbolos de acuerdo con su libro de reglas. Es buen momento para hacer las debidas presentaciones. Sin que Searle lo sepa nosotros nos llamamos «programadores», al primer libro de reglas junto con las 6 El artículo original en The Behavioral..., mencionaba, obviamente, al inglés como lenguaje natural del que Searle era nativo. Por razones de cercanía hemos cambiado al castellano sin que esto suponga ningún perjuicio para el argumento. 05.pmd 86 26/02/2013, 8:44 05.pmd 87 26/02/2013, 8:44 ¿TIENE VENTANAS LA HABITACIÒN CHINA? 87 dos cajas de símbolos lo llamamos «guión de restaurante» (muchos de los símbolos de las cajas son, simplemente, «símbolos disponibles») y al segundo libro de reglas junto con el conjunto de símbolos que introducimos en la habitación lo llamamos «relato acerca del restaurante». Este último incluye también determinadas «preguntas acerca del relato». Los símbolos que nos envía Searle son «respuestas a las preguntas» y, por supuesto, a Searle lo denominamos «computador». Después de cierto tiempo, nuestro «hombre en la máquina» (es decir, Searle), llega a ser tan bueno que todas las respuestas que recibimos de él nos parecen indistinguibles de las que daría un hablante nativo del chino. De la misma forma, si le enviáramos preguntas en español nos contestaría de manera similar a como si estuviéramos ante un hablante nativo de castellano; de hecho él es un hablante nativo del castellano. Esto último debemos tenerlo muy presente pues se tratará de un punto crucial en nuestras conclusiones. Estaríamos, por tanto, dispuestos a asegurar que Searle comprende perfectamente el chino. Es decir, estaríamos dispuestos a asegurar que comprende en el mismo sentido en que lo comprende un hablante nativo del chino. Bien, parece que nuestro objetivo como «programadores» se ha cumplido: hemos construido un programa que entiende el chino. Podríamos decir que es un auténtico hablante del chino, un chino nativo, si no fuera porque sabemos que, en realidad, se trata del profesor Searle. Pues bien, a pesar de todo esto Searle nos aclarará que la situación no es tan feliz como la pintamos: «Yo no comprendo —diría Searle— ni una sola palabra de chino; no entendía el chino cuando entré en la habitación y no lo entiendo ahora, después de manejar estos libros de reglas y estas cestas de símbolos». Después de unos momentos de perplejidad nos preguntamos: ¿Que es lo que ha ocurrido? Searle asegura que él no comprende el chino y, es más, asegura que nadie en su posición puede decir que ha comprendido el chino. Recapitulando lo que hemos dicho al comenzar el relato deberíamos concluir con Searle que, puesto que él no comprende el chino y puesto que, además, hemos supuesto con él que se comportaría como si fuese un computador digital, cualquier otro computador digital seguiría teniendo en esas circunstancias la misma ignorancia respecto al chino que él. Pero debemos detenernos un momento en este punto. Searle hace una aclaración muy importante en cuanto a la forma en que se ha de entender su argumento. El quid del argumento no está en que, de una manera u otra, tenemos la intuición de que no se comprendería el chino. Él afirma rotundamente que no se comprenderá en absoluto debido a una verdad conceptual que ya conocíamos antes: que existe una gran diferencia entre manipular los elementos sintácticos de un lenguaje y comprender el lenguaje en un nivel semántico. Comprender un lenguaje es dominarlo tanto sintáctica como semánticamente; es decir, ser capaces de la manipulación sintáctica de los elementos de ese lenguaje y, a la vez, estar capacitado para interpretar, para dotar de significado, esos mismos elementos. De tal forma, se dirá que un hablante nativo del castellano, en sentido usual, lo es si mantiene un dominio sintáctico y semántico sobre los elementos de ese lenguaje. Y en este sentido es en el que debe entenderse el argumento cuando en él se menciona a un «hablante nativo del chino en sentido usual». Searle asegura que sólo ha manipulado símbolos sintácticamente, que es lo que en última instancia hace un compu- LUIS F. ARTILES ARBELO 88 05.pmd tador digital, y que esto sólo no basta. No podemos llegar a decir que comprendemos el chino. La sola sintaxis es insuficiente para comprender un lenguaje. Dicho de otra forma: la mera manipulación de símbolos, o lo que es lo mismo, el hecho de instanciar un programa de ordenador no hace que el computador comprenda un lenguaje en el sentido en que lo podría hacer un hablante nativo de dicho lenguaje. Da la impresión que a nosotros, los programadores, se nos ha quedado algo atrás en el diseño de la habitación china. Y volvemos sobre el experimento una y otra vez. Pero parece que nada hay que no se haya tenido en cuenta. Por muchas vueltas que le demos, siempre nos encontraremos con la misma respuesta: el computador digital, Searle en este caso, no comprende la mas mínima palabra del chino. ¿Qué ha ocurrido? ¿Qué se nos ha escapado? Searle nos sacará de dudas: «Lo único que he hecho, como computador digital que soy, es manipular símbolos y eso sólo no ha sido suficiente para que comprendiera lo que estaba ocurriendo, que era, ni más ni menos, que responder en chino a las preguntas que vosotros, los programadores, me hacíais». «Lo que se os ha escapado es la semántica; no fui capaz de dotar de significado a los símbolos que introducíais en la habitación con la mera manipulación estos». Bueno, diríamos nosotros, no hay problema, lo único que hemos de hacer es dotarte computacionalmente de una semántica desde el principio y ya verás como ahora sí que puedes entender chino. Pero la cosa no es tan fácil. Searle nos volverá a sumir en la desesperación: «Para dotarme de una interpretación de los símbolos chinos lo único que podeis hacer es introducir más símbolos chinos, y esto es más de lo mismo. No es posible que yo entienda en la forma en que me habeis programado. Es más, ningún otro programa podrá hacerme entender el chino porque, por definición, lo único que haré será manipular sintácticamente un conjunto de símbolos, en este caso, símbolos del lenguaje chino». Hasta aquí hemos descrito el argumento de la habitación china y las consecuencias que podemos sacar son bastante duras para la Inteligencia Artificial, entendida en su sentido fuerte. Primero nos muestra, según Searle, que la pretensión que apuntábamos al principio como ecuación fundamental de la Inteligencia Artificial fuerte es falsa. La mente no es al cerebro lo que el software es al hardware. No sólo que es falsa ahora y, a lo mejor, dentro de unos años, cuando los programas sean más veloces, más eficaces o dispongan de más capacidad puedan hacer verdadera esa ecuación. No, la instanciación de un programa, por definición, hará falsa siempre esa igualdad. Recordemos: la mera manipulación de símbolos no hace que comprendamos lenguaje alguno y no importa como esté construido ese programa porque, como hemos visto, no hemos discutido sobre detalles técnicos acerca del programa, ni siquiera se ha mencionado ninguna etapa tecnológica de los computadores. Otra consecuencia especialmente interesante es que podemos mostrar la diferencia que hay entre simular y duplicar una mente. Al comienzo del trabajo hablábamos del test de Turing y de la capacidad de un computador para hacer sus respuestas indistinguibles de las de un ser humano. Que una máquina supere el test de Turing sólo nos muestra que sus respuestas son idénticas a las de un ser humano y por ello indistinguibles, pero no podemos decir que posea una mente en el sentido en que la tenemos nosotros. La máquina de Turing sólo puede simular el comportamiento humano (en base a su capacidad para dar las respuestas que da). De la 88 26/02/2013, 8:44 7 John Searle. Mentes, Cerebros y Ciencia, p. 22. Véase Mentes, Cerebros y Ciencia. Para una mayor variedad de réplicas y respuestas de Searle, véase The Behavioral..., pp. 424-456. 8 05.pmd 89 26/02/2013, 8:44 ¿TIENE VENTANAS LA HABITACIÒN CHINA? 89 misma forma que Searle, desde el interior de la habitación china simulaba comprender el chino hasta el punto de hacerse su discurso indistinguible del que un hablante nativo del chino podría dar. Pero para que una máquina pueda tener mente ha de ser capaz de duplicar los poderes causales del cerebro. Debemos explicar aquí, que Searle defiende un principio básico en su filosofía de la mente: la mente, y con ella los fenómenos mentales, está causada por procesos que acaecen en el cerebro. En palabras de Searle7, «los fenómenos mentales, todos los fenómenos mentales, ya sean conscientes o inconscientes, visuales o auditivos, dolores, cosquilleos, picazones, pensamientos, toda nuestra vida mental, están efectivamente causados por procesos que acaecen el cerebro». El cerebro causa las mentes y duplicar una mente significa haber duplicado anteriormente los poderes causales del cerebro. Una analogía del propio Searle hará entender mejor lo que decimos acerca de la simulación y la duplicación: Podemos hacer una simulación computacional de las tormentas en los términos municipales de un país, o de los incendios del este de Madrid. En todos estos casos, nadie supone que la simulación computacional es efectivamente la cosa real; nadie supone que una simulación computacional de una tormenta nos deje a todos mojados o que la simulación computacional de un incendio vaya a quemar la casa. Por lo tanto, simular una mente tampoco puede ser lo mismo que tenerla, y sólo es posible tenerla efectivamente mediante la duplicación de los poderes causales del cerebro. Por esto Searle negará que la simulación, en el sentido en que la lleva a cabo un computador digital, sea efectivamente poseer una mente. Hay que advertir en todo esto algo importante. El problema ¿Puede pensar un computador digital?, es diferente del problema ¿Puede pènsar una máquina? Para Searle, responder a la segunda pregunta no es el objetivo del argumento de la habitación china. Es más, Searle acepta que haya máquinas que puedan pensar, pero son máquinas de una clase muy especial. Si entendemos por máquina una estructura material que puede producir pensamientos entonces, entonces los seres humanos seríamos máquinas sólo que nuestro material sería un material biológico. La formulación correcta de la pregunta que interesa a Searle sería la primera. Y la respuesta a esta pregunta, en vista del argumento de la habitación china, es negativa. Un computador digital no puede pensar. La manipulación de símbolos, que es lo que hace el computador, no es suficiente para tener una mente. Falta algo más y ese algo más es la semántica, la adscripción de significado a los símbolos. Es natural que frente a la pretensión de Searle de refutar la concepción de la Inteligencia Artificial fuerte, los partidarios de ésta salieran en su defensa atacando el argumento de la habitación china. El propio Searle ya adelantó varias de esas posibles críticas8. Dado lo conocidas que han llegado a ser, no nos detendremos en ellas. La mayoría comparte la aceptación del experimento mental tal y como lo formula Searle. Es decir, se acepta en principio que pueda ocurrir la sustitución del mecanismo de un computador por un ser humano y las discrepancias hacia el argumento se producen en lo referente a su desarrollo o respecto a los conceptos más o menos equívocos, a juicio de los autores, de que hace uso Searle. En lo que sigue, nos apartaremos de estas líneas de ataque. Centraremos nuestro comentario justamente en ese supuesto primordial para el desarrollo del experimento. Más arriba dimos un nombre a este supuesto: el supuesto de la sustitución. Recordemos que se trata de la posibilidad de sustituir el conjunto de cables, conexiones y trozos de metal existentes en un computador digital por un ser humano tal como nosotros mismos. 3. EL PROBLEMÁTICO SUPUESTO DE LA SUSTITUCIÓN LUIS F. ARTILES ARBELO 90 Nuestra réplica a Searle tendrá como objetivo la crítica de ese supuesto de la sustitución que, como ya hemos visto, es primordial para el desarrollo del experimento mental de la habitación china. Concluiremos que dicha sustitución es inviable. Por lo demás, no estaría mal que, a la vez que hacemos explícito nuestro objetivo de la réplica, quedara también claro lo que no es objetivo de discusión en nuestras conclusiones o, al menos, sobre lo que hemos suspendido nuestro juicio: – No argumentaremos a favor de la ecuación fundamental con la que Searle define a la Inteligencia Artificial fuerte; a saber, que la mente humana es al cerebro lo que el software es al hardware en un computador digital. Ni siquiera vamos a disentir sobre la división que éste hace de la Inteligencia Artificial en fuerte o débil. Aceptamos que pueda tener cierto valor de análisis tal división. – No argumentaremos en favor de ninguna de las conocidas auto-réplicas que Searle hace a su propio argumento. Todas ellas tienen en común la aceptación de ese supuesto fundamental de la sustitución que es el objetivo de este comentario. – Al igual que Searle, no ofreceremos en nuestro comentario referencia alguna a aspectos técnicos de la Inteligencia Artificial ni a ninguna de las etapas del desarrollo de los computadores digitales. Comenzaremos con el mobiliario mínimo que ha utilizado Searle y mostraremos que el resultado al que llega no está en modo alguno justificado. Tampoco modificaremos dicho mobiliario y la decoración de la habitación china permanecerá tal y como fue prevista por Searle. Una vez tenemos claro hacia dónde (y hacia dónde no) se dirige nuestra réplica, comencemos con una pequeña aclaración. ¿Cuál es la conclusión final de Searle? Pudiera parecer que todo el argumento está diseñado para que obtuviéramos como resultado la ignorancia total del computador para entender el chino, pero es más correcta la afirmación siguiente: La mera manipulación sintáctica no es sufi- 05.pmd 90 26/02/2013, 8:44 05.pmd 91 26/02/2013, 8:44 ¿TIENE VENTANAS LA HABITACIÒN CHINA? 91 ciente para la comprensión de un lenguaje, en este caso, el chino. Necesitamos la semántica y ésta no es posible si sólo nos remitimos a dicha manipulación de símbolos. Es importante aclarar ésto puesto que, como Searle recuerda una y otra vez, se trata de una verdad conceptual que ya teníamos hace tiempo: la comprensión de un lenguaje implica el dominio sintáctico y semántico de los símbolos de ese lenguaje; además de la manipulación, hemos de estar capacitados para dotar de significado esos símbolos. El experimento mental comienza con una situación ficticia: dentro de una habitación se halla un hombre, Searle, que hará las veces del conjunto de cables, conexiones y trozos de metal constituyentes de un computador digital. Se le supone también al profesor Searle un dominio perfecto del castellano en el mismo sentido en el que se lo suponemos a un hablante nativo del castellano. El primer libro de reglas del argumento de Searle está escrito en castellano, así como el segundo libro que más adelante se le suministrará. Pero, como hemos supuesto que Searle es conocedor del idioma en el mismo sentido en que lo es un hablante nativo, podemos suponerle también la capacidad sintáctica de manipulación formal y de interpretación de las series de símbolos que aparecen en estos libros de reglas. Es decir, como hablante en sentido usual del castellano, el profesor Searle posee las dos características que él mismo mencionaba en su argumento: además de poder realizar la manipulación sintáctica es capaz de sostener una semántica respecto al idioma del que es nativo. Si quisiéramos hacerle alguna pregunta en castellano nos respondería de manera parecida a como lo haría cualquier hablante nativo de ese idioma. Ahora bien, se le pide que coteje los símbolos chinos procedentes de una de las cestas con los símbolos de la otra, según el primer libro de reglas que se le ha dado al comienzo; igualmente, mediante el segundo libro de reglas que le hemos suministrado ha de enviarnos, a modo de respuesta, una serie de símbolos chinos en contestación a una pregunta que le introducimos a través de la ranura de la habitación. En todo este proceso, el profesor Searle sostiene que lo único que hace es manipular símbolos chinos formalmente y que ni siquiera sospecha que se trata de un juego de preguntas y respuestas. Hasta aquí todo coincide con el desarrollo del argumento de la habitación china y no hemos introducido nada nuevo. Llegados aquí podemos preguntarnos: Mientras Searle coteja símbolos dentro de la habitación, ¿sólo hace manipulación de signos? Dicho de otro modo, ¿podemos entender que una vez dentro de la sala Searle pueda ser neutral, por así decirlo, respecto a la semántica que ya poseía como hablante usual del español? Nuestra respuesta es que no puede ser neutral. Y no ser neutral significa que hace uso constante de esa semántica anterior como consecuencia de ser un hablante nativo del castellano. Aclaremos esto un poco. De acuerdo con aquella verdad conceptual a la que se refería Searle, un hablante nativo posee las capacidades de manipulación de símbolos (sintáctica) y de dotar de significado a esos símbolos (semántica) respecto a su lenguaje nativo. Podríamos definir, entonces, lo que hemos llamado «ser neutral respecto a la semántica» como la suspensión de esa adscripción de significado a los símbolos manipulados formalmente y Searle afirma que esa capacidad semántica se ha suspendido desde el momento en que entra a sustituir al computador dentro de la habitación china. A nuestro entender, esta posibilidad no puede darse nunca. LUIS F. ARTILES ARBELO 92 05.pmd Searle no puede ser jamás neutral respecto a la semántica de unos símbolos de un lenguaje del que es nativo. Intentemos demostrarlo. Supongamos que el profesor Searle, tras declarar que su comportamiento será única y exclusivamente el mismo que tendría un computador digital, dejase a un lado su capacidad semántica y se limitase a manipular símbolos. Desde el momento en que cruzase el umbral de la habitación china estaría incapacitado para comprender cualquier conjunto de símbolos de cualquier lenguaje que le facilitemos. En concreto, estará incapacitado para comprender lo que el libro de reglas, que está escrito en el lenguaje nativo de Searle, pretende que cumpla. ¡Sería incapaz de comprender su propio lenguaje! Es ésta una curiosa situación; mientras le facilitamos el primer libro de reglas y, hasta que no le enviamos el segundo libro junto a algunas de las preguntas, no conocemos qué sucede con Searle en el interior de la habitación china. A partir de la primera pregunta, nosotros, como «programadores», no obtendríamos respuesta alguna por parte de Searle; nuestro «hombre en la máquina» sería incapaz de balbucear siquiera una contestación. Es más, nunca lo haría. ¿Qué estará ocurriendo, nos preguntaremos, para que se demore tanto la respuesta de Searle? Si tuviéramos la posibilidad de abrir un pequeño orifico en una de las paredes de la habitación, contemplaríamos a un desolado Searle de pié entre las dos cestas, con los dos libros de reglas en las manos y absolutamente desorientado. A partir de este momento nuestro experimento mental es un total fracaso. No podemos hacer que Searle se dedique sólo a manipular símbolos, no podemos amputar su capacidad semántica a riesgo de que no comprenda su propio lenguaje del que es nativo. Afortunadamente la sintáxis y la semántica se encuentran revueltas, de alguna forma, en un hablante nativo de cualquier lenguaje y por ello, afortunadamente también, no podemos prescindir de una de esas capacidades, en particular la semántica, en Searle. Mantengámos entonces esa capacidad semántica en el profesor Searle y propongámos que éste haga algo más que manipular símbolos exclusivamente. Pero esto quiere decir, en contra de nuestro supuesto de sustitución, que no se comportará como lo haría un computador digital, pues éste sólo hace manipulación de símbolos formales. Searle debe hacer algo más que eso antes de que pueda dar una sola contestación a nuestras preguntas. Por lo tanto, la primera conclusión a la que llegamos es que el profesor Searle, aunque le pese, no puede hacer sólo lo que hace un computador digital y, por ello, no puede sustituirlo en la habitación china. Una vez hemos aceptado que nuestro «hombre en la máquina», Searle, posee ambas capacidades, por definición, de hablante en sentido usual, hemos de volver a la habitación china. Ahora debemos tener muy presente la conclusión a la que llega Searle: «No puede haber una semántica de unos símbolos chinos a partir de un hablante nativo de castellano que ya posee, por definición, la capacidad sintáctica y semántica de un lenguaje, con la mera manipulación de esos símbolos chinos». En realidad puede mostrarse justamente lo contrario de esto último. Si poseemos un lenguaje (en este caso, el nativo) con respecto al que estamos capacitados sintáctica y semánticamente, significa esto que tenemos una interpretación I dada sobre los símbolos de nuestro lenguaje; y que podemos crear, a partir de esa primera interpretación I, una interpretación I´ que englobe cualquier conjunto de símbolos que añadamos a los de nuestro lenguaje. En particular, podemos crear una semántica de 92 26/02/2013, 8:44 4. ALGUNAS CONSECUENCIAS Podríamos sacar ahora algunas consecuencias de nuestra réplica al argumento de la habitación china. La principal la acabamos de indicar. No es posible sustituir el conjunto de cables, conexiones y trozos de metal que constituye un computador por una persona para comprobar el funcionamiento de la teoría de la Inteligencia Artificial fuerte. Es más, si Searle pretendía rebatir la posibilidad de sustitución de un hombre y todos sus estados y procesos mentales, por un computador con sus programas, ha conseguido el efecto contrario: ha demostrado, indirectamente, que la sustitución de ese mecanismo por un ser humano no es posible. Si es imposible que hagamos sólo y exclusivamente manipulación de símbolos formales no seremos capaces ni siquiera de duplicar el comportamiento de un computador digital. Parece irónico que Searle se esfuerce en diferenciar la simulación y la duplicación de los poderes causales del cerebro por parte de un computador, cuando nosotros somos estrictamente incapaces de duplicar exclusivamente su comportamiento. No somos capaces de ponernos en el lugar del computador sin hacer nada más. El presupuesto de la sustitución falla. Otra consecuencia importante sería la siguiente. Si se aceptan los comentarios expuestos más arriba, nuestro «hombre en la máquina» tendría la posibilidad de adquirir conocimientos sobre lo que ocurre más allá de las paredes de la habitación 05.pmd 93 26/02/2013, 8:44 ¿TIENE VENTANAS LA HABITACIÒN CHINA? 93 los símbolos chinos a partir del hecho de que se nos supone hablantes nativos de otro lenguaje. Se podría objetar que esa interpretación I´ puede no ser la interpretación normal, la interpretación estándar, que haría un hablante nativo del chino, con lo que aún queda por resolver el que Searle no comprenda ni una sola palabra de chino. A esto debemos responder lo siguiente: el punto crucial del argumento de Searle no es que comprenda justamente el chino. En la argumentación de la habitación china el resultado pretendido es que es imposible una semántica de unos símbolos chinos con la única manipulación de esos símbolos, aún cuando esa manipulación sea producida por un hablante nativo de otro idioma que ya posee, por definición, capacidad semántica para hacerlo. La interpretación que podamos hacer puede no ser la que haría un hablante nativo del chino pero, si recordamos, Searle dice que es imposible cualquier semántica del chino sólo a partir de la sintáxis de un conjunto de símbolos realizada por un hablante competente en otra lengua. Pero nosotros hemos conseguido que nuestro «hombre en la máquina» posea al menos una interpretación, lo que nos basta para refutar el enunciado de Searle. Así las cosas, resultará que Searle no puede refutar la Inteligencia Artificial fuerte a través del argumento de la habitación china. No puede hacerlo al fallar el supuesto de la sustitución. Y ello, por dos razones: a) no sólo manipulamos símbolos, estamos además capacitados semánticamente para su interpretación y no podemos separar nuestros respectivos lados sintáctico y semántico, y b) en base a esa semántica previa que nos define como hablantes nativos en sentido usual, podemos crear una interpretación sobre cualquier conjunto de símbolos que nos sean dados, en particular, un conjunto de símbolos chinos. LUIS F. ARTILES ARBELO 94 china. Si es cierto que Searle, al entrar en la habitación, continúa haciendo uso de su lado semántico, que por definición de hablante nativo del castellano le pertenece, también podemos adscribirle (y no veo razón alguna para no hacerlo) la intencionalidad asociada que Searle adscribe a un hablante nativo. Podría, con toda esa capacidad que le hemos supuesto, formular preguntas y no sólo responder a lo que nosotros como «programadores» le vamos suministrando. De este modo, el profesor Searle, podría obtener tanta información sobre lo que ocurre fuera que estaría en condiciones de formular una teoría sobre cómo ocurren las cosas dentro y fuera de la habitación. Aquella pequeña ranura por donde se le enviaban los libros de reglas y los conjuntos de símbolos se iría transformando, así, en una gran ventana hacia el exterior. Su comprensión no se limitaría a la que pudiera tener sobre unos símbolos abstractos introducidos en la sala. Iría mucho más allá y la habitación china, lejos de ser un receptáculo hermético, se transformaría poco a poco en una especie de invernadero acristalado. Ahora la habitación china tendría ventanas y, dentro, el profesor Searle podría disfrutar de un paisaje que él mismo pensaba no vería jamás. 05.pmd 94 26/02/2013, 8:44