ANTROPOLOGIA Y PROGRAMACION LOGICA Una propuesta sistemática Carlos Reynoso Universidad de Buenos Aires I CONTEXTUALIZACION Y PLANTEAMIENTO DEL PROBLEMA 0. SINTESIS El programador que llega a PROLOG desde un lenguaje clásico, experimenta una revelación semejante a la del escolar que pasa de la aritmética a los primeros rudimentos del álgebra. Puede representar como incógnitas aquellas entidades cuyos valores busca, establecer ciertas relaciones entre estas incógnitas y, sin tener que detallarlos, dejar que la máquina considere todos los casos posibles y aporte todas las soluciones. ¿Qué más se puede pedir? Alain Colmerauer El trabajo siguiente consta de dos partes. En la primera (Introducción y capítulo I) se realiza la presentación de una herramienta básica, un algoritmo de cálculo lógico sobre el cual hemos elaborado formalismos e interfaces que lo adaptan a los requerimientos de las ciencias sociales en general y de la antropología en particular. En estos capítulos iniciales el foco es amplio y el tono es más bien didáctico, porque se presume que el lector es un antropólogo sin más experiencia en inteligencia artificial que algunas lecturas dispersas y una cierta sensibilidad a los rumores que pueblan la atmósfera. Lo que demostramos en esta sección es la utilidad de un instrumento que, unido a una perspectiva renovadora en materia formal, es capaz de transformar profundamente las técnicas de elaboración y de arrojar enseñanzas de un nuevo tipo sobre la formulación de teorías y la comprobación de hipótesis en el interior de nuestra disciplina. En la segunda parte (capítulos II-V), que tiene propiamente formato y textura de tesis, se analizan los aspectos lógicos más puntuales que se erigen como prerrequisitos de la implementación de esa herramienta, y se sacan consecuencias que conciernen por un lado a una reformulación de los métodos convencionales de descripción, explicación y prueba, y por el otro a la introducción de una instancia axiomáticamente fundada en la construcción de modelos. El foco es en este caso más estrecho y el tono es enteramente técnico, porque se apunta a un lectorado más específico, igualmente antropológico, del cual se supone que domina los tecnicismos genéricos presentados en la primera sección. Lo que se busca demostrar en esta segunda parte es que nuestras propuestas metodológicas son capaces de plegarse a premisas lógicas divergentes y a marcos teóricos disímiles, sin 392 dejar de constituir un punto de referencia operativo en el que los profesionales pueden encontrarse para refinar su debate. Toda la tesis no es más que el marco que fundamenta, pone en acción e interpreta los resultados de una herramienta metodológica cuya instrumentalidad, replicabilidad y adecuación habrá que demostrar; sin resultados (programas, modelos, pruebas de hipótesis, testeo de teorías), el discurso estará condenado a quedar en promesa, de modo que por una vez lo importante no es lo que se puede decir del instrumento, sino lo que se puede hacer con él. Toda la tesis es, al mismo tiempo, el testimonio de la construcción de una teoría de modelos que soñábamos preexistente y consabida, y que sin embargo hemos debido construir o esclarecer paso a paso, a contrapelo de lo que muchos sostienen como verdad consagrada o de lo que algunos sospechan resuelto. La búsqueda de una estructura adecuada para la presentación de nuestras elaboraciones se ha revelado problemática, dado el carácter fatalmente lineal de todo el texto encargado de reseñarlas. Por otro lado, aunque aquello de lo que aquí se habla es un sistema formal, el metalenguaje que se utiliza para describirlo no es formal en sí mismo. No hay un isomorfismo perfecto, entonces, entre el rigor del instrumento propuesto y los desbordes en que pudiera incurrir la retórica que lo promueve. De todas maneras, nos ha parecido conveniente adjuntar todo el material computacional necesario para probar cada uno de los puntos que pudieran manifestar ribetes polémicos en forma de programas lógicos inmediatamente ejecutables en un procesador común. La totalidad de los ejemplos, incluso los más contingentes y en apariencia fragmentarios, son programas susceptibles de ejecutarse, pequeños o grandes modelos en capacidad de producir. En lo que se refiere al texto en sí, hemos decidido proceder mediante acercamientos asintóticos que van fundando el terreno para una expresión plenamente formal del sistema propuesto, el cual sólo será patente, en su conjunto, en el momento de las conclusiones. Estimamos que lo que aquí se presenta es mucho más que una herramienta que puede agregarse a las ya disponibles para arrojar un beneficio marginal. La exploración de los recursos formales que se nos ponen al alcance con la escalada de la evolución tecnológica toca zonas sensibles, pone al descubierto dilemas insospechados y señala, con asomos de certidumbre, la necesidad de revisar algunos de nuestros fundamentos epistemológicos que creíamos más inconmovibles. La idea básica es que de ahora en más podemos calcular razonamientos, conferir a la ideación cualitativa recursos que antes sólo eran prerrogativa de los números, y que esto es posible sin incurrir en ningún esquematismo, sin axiomatizar la disciplina, sin sustentar una concepción mecanicista de la existencia. Este punto tendrá que ser debidamente demostrado, pues no hay en su expresión la menor traza de metáfora; y ninguna duda cabe que esta demostración será difícil. Lo único que puede anticiparse a todos estos respectos es que lo que aquí comienza a proponerse no conlleva ni reafirmar el ideal de la cuantificación, ni reiterar la preceptiva pontificante de las facciones nomológicodeductivas de la filosofía analítica, ni reivindicar la necesidad de emular los métodos (presuntos o reales) de las llamadas ciencias duras. Por el contrario, la presente tesis quiere constituir, desde el inicio, una cruzada en favor de la formalización cualitativa, una protesta contra el facilismo positivista que aún hoy permea un buen segmento de la epistemología académica y una búsqueda de los métodos propios de una disciplina que, en muchos sentidos, no puede ni debe dejar de ser lo que ha sido. 393 1. INTRODUCCIÓN El reciente auge de las estrategias irracionalistas en antropología (bajo las variadas máscaras de la fenomenología, la antropología simbólica, la antropología interpretativa, la etnografía dialógica, el posmodernismo) se explicaría -según se argumenta- por el hundimiento de los programas de investigación que buscaban situar la disciplina bajo el auspicio de los métodos propios de las ciencias naturales. El retraimiento relativo de la ecosistémica, de la cross-cultural anthropology, del neo-evolucionismo y del materialismo cultural demuestra con elocuencia el descrédito de una concepción más rigurosa que debería haber posibilitado la existencia de una disciplina consensualmente más homogénea. Este fracaso parecería ser tan rotundo que los sofisticados modelos inscritos en la antropología matemática o en la antropología computacional no cuentan virtualmente para nada, y no alcanzan a modificar un ápice el balance de fuerzas. Existen otras razones de fondo, naturalmente, pero aquí haremos de cuenta que ese diagnóstico es correcto, porque lo es en parte. Trataremos también de clarificar la cuestión y ¿por qué no? de identificar las causas y revertir las culpas. Este no es, empero, nuestro objetivo central, sino un corolario que no por más colateral es menos apremiante. No es necesario aclarar que el problema es complicado, que las antropologías interpretativas y posmodernas no constituyen una solución satisfactoria ni siquiera en opinión de sus promotores, y que todo el asunto, en fin, merecería un estudio específico. Sabemos que todo nuestro razonamiento sobre el particular es hasta cierto punto simplista y que no hace justicia a la complejidad de los hechos: en el ámbito "cientificista" o "positivista" (que carece de una denominación o de un nom de guerre que no entrañe un matiz peyorativo) no existe una perspectiva unificada sobre los que deberían ser los métodos propios de las ciencias naturales, sino una multiplicidad de paradigmas contrapuestos y una multitud de científicos que en su trabajo habitual pueden no sentirse ni implicados en una causa ni envueltos en una crisis. Pero cuando hablamos de la oposición entre ciencias naturales y ciencias del espíritu, o entre ciencias y humanidades, o entre explicación y hermenéutica, aunque esas disyuntivas no apunten siempre a los mismos referentes, todos sabemos muy bien de qué estamos hablando; y todos entendemos además que, en lo que a la antropología respecta, estamos aludiendo a la discusión primordial. Se trata de una polémica que posterga el tratamiento de otras cuestiones hasta tanto ella misma no se resuelva: ¿es la antropología algo así como una ciencia, o es "otra cosa"?. Esta es la inflexión esencial que está implicada en este trabajo, aunque en apariencia distraigamos energías hablando de otras cuestiones. Pese a que este ensayo versa principalmente sobre una técnica informática, no es por hipocresía ni por indiferencia que vamos a declinar en lo que sigue la discusión (necesaria) sobre las condiciones políticas y sociales del advenimiento de las máquinas, sobre su fascinación fetichista, su proliferación y su repentina necesidad. De pronto la demanda se ha vuelto comparable a la oferta, que ya de por sí es inconmensurable, a pesar de que pocos saben con exactitud qué es lo que se puede demandar. Estamos en la era de las máquinas, y la sociedad se transforma no sólo más allá del alcance predictivo de las ciencias sociales, sino más allá de la capacidad que ellas muestran para explicar lo que está sucediendo; al ignorar lo que técnicamente significa todo esto, el científico social promedio está imposibilitado incluso para describirlo. 394 No existe, que sepamos, una antropología de la subcultura informática, ni un estudio de los efectos de la proliferación informacional sobre la sociedad, ni un análisis sensato y sistemático de sus correlatos ideológicos1. Esta elaboración es imprescindible, y tal vez nos sintamos compelidos a emprenderla pronto nosotros mismos, más aún cuando la "revolución" informática apenas ha hecho sentir sus efectos en nuestra disciplina; pero quede claro que no lo haremos ni aquí, ni ahora, y que esta postergación no implica como su consecuencia lógica que estemos lisa y llanamente a favor de las máquinas, de la pérdida de la artesanía en el desarrollo de los métodos o de la automación del saber. No propugnaremos, entonces, una "antropología computacional" en la cual haya que militar en contra de tal o cual oscurantismo humanista, sino que presentaremos una herramienta que, aunque no presume de neutralidad, puede llegar a servir a todos por igual, a condición que se crea que toda ciencia tiene que basarse en un método y que los métodos que nosotros tenemos hasta ahora necesitan perfeccionarse. El trabajo siguiente es algo más complejo y diversificado de lo que es habitual entre los que proponen innovaciones metodológicas, porque pretendemos al mismo tiempo demostrar y persuadir. Demostrar el valor de recursos computacionales inexplorados abiertos a la disciplina, y persuadir a los que (con toda la razón) desconfían del cientificismo a ultranza, de la cuantificación forzosa y de los rigores ilusorios. La persuasión es además, desde siempre y tal vez para siempre, el modus dominante en nuestra clase de ciencia. Pretendemos realizar ambas tareas en un lenguaje que pueda tanto concitar el interés de los primerizos como satisfacer el nivel de especificación que exigen los expertos, aunque no dudamos que la lectura sea dificultosa tanto para unos como para otros. Pese a que este trabajo no se define como interdisciplinario, los expertos que tenemos en mente se encuadran tanto en la antropología como en la informática, porque en aquélla nunca se han introducido sistemáticamente herramientas como las que aquí describiremos, y en ésta no se ha presentado jamás un campo de aplicación tan alejado de sus dominios habituales y que ofrezca tantos desafíos. Sentimos que en el cuadro opositivo que habrá de trazarse entre la informática y la antropología, esta última no podría reemplazarse por cualquier otra disciplina sin perder algo de las tensiones emergentes de la marginalidad de nuestras conceptualizaciones y del relativismo escéptico inherente a nuestro modo de pensar. La antropología no es en ese cuadro una ciencia cualquiera, referida aquí sólo por el hecho de ser la que incidentalmente practicamos, sino el saber que opone a los métodos propuestos su experimento más crucial. La articulación que se explora en esta propuesta, además, se enclava en un espacio del desenvolvimiento del método que rara vez o nunca había sido objeto de disección. Tendremos oportunidad de verificar que en el desarrollo del trabajo de elaboración teórica y construcción modélica tal como lo concebimos, muchas de las problemáticas centrales de la epistemología (las definiciones categóricas, la cuantificación, el cisma entre técnica, método y teoría, la disyuntiva entre inducción y deducción, la diferencia entre términos teóricos y términos observacionales, las reglas de correspondencia, las reglas de transformación de frases bien formadas) se han desplazado hacia la periferia y que, concu1 Aparte de textos apocalípticos y de metodología precaria o indiscernible, como los de Roszak, Shore o Michael Shallis, conocemos un ensayo bienintencionado pero obsoleto de Paola Manacorda (El Ordenador del Capital, Barcelona, Blume, 1982), y un lapidario estudio de Vincent Mosco (Fantasías electrónicas. Críticas de las tecnologías de la información, Barcelona, Paidós, 1986) sobre una tecnología que luego se reveló marginal. Estudios relevantes, pero ya viejos, son los de Walter M. Mathews (ed.), Monster or Messiah? The computer's impact on society, Jackson, University of Mississippi Press, 1980, y Donald H. Sanders, Computers in Society, N.York, McGraw-Hill,1981. 395 rrentemente, asumen cierto protagonismo otras nuevas para las que no existe aún un repertorio de respuestas consagradas. No es que aquellos interrogantes se cancelen; simplemente se postergan, hasta tanto lo más básico, lo que permite poner los métodos en marcha, resulte esclarecido por completo. Nuestro objetivo impone la demostración de una serie de hipótesis de las que aquél se deriva como consecuencia probable. La primera de esas hipótesis es la que sigue: si las orientaciones formalizadoras en antropología fracasaron, ello sucedió como producto de la persistencia de nociones, métodos y técnicas propios de las estrategias interpretativas en el interior de su entramado referencial y de sus esquemas de procedimiento, y como saldo de un concepto demasiado laxo de las operaciones axiomáticas correspondientes a dicha formalización. Los formalistas pensaban que edificar modelos y endurecer la ciencia resultaba más fácil de lo que es realmente el caso, y que sólo sería cuestión de proponérselo. Las experiencias formales de la antropología se incrustaban en un tejido discursivo que no estaba preparado ni para formular adecuadamente las preguntas, ni para encontrar sentido en las respuestas. Nótese, entre paréntesis, que hemos identificado en un solo cuerpo orgánico el proyecto de una antropología científica y la idea de una ciencia formal. Quien piense que, por algún privilegio especial, la antropología puede llegar a ser una ciencia sin formalizarse en algún grado, si proyecta seguir pensando de ese modo hará bien en abandonar la lectura en este punto y en frecuentar ideologías que le procuren más placer. Igual exhortación se aplica, para ser ecuánimes, a quien postule la formalización o la adopción de las máquinas como finalidades en sí mismas, sólo porque ya ha llegado la hora de comportarse científicamente. Las máquinas no han de adoptarse porque sí, o porque son máquinas de escribir magníficas que han tornado obsoleto al engrudo, sino sólo en tanto y en cuanto a través de ellas se obtengan soluciones consistentes e imaginativas a los problemas que aquejan el método. La propuesta de cientifización de la disciplina está pasando por un mal momento. Aquí y allá el irracionalismo reclama acciones tan incomprensibles como absurdas, y hasta han logrado que algunos científicos serios se las festejen: la abolición de la distinción entre sujeto y objeto, la supresión del antropólogo como mediador entre culturas, el reemplazo de la terminología analítica por el sentido común, por la credulidad absoluta en la perspectiva del actor, por conjeturas que adrede no reivindican ningún valor de verdad o por el silencio. Pero lo que se les responde ni es más elocuente ni tiene mucha mayor solidez. En el trayecto de la tesis tendremos oportunidad de ponderar algunas aventuras formalistas y cientificistas de la antropología en lo que realmente valen, que por desdicha es muy poco. Lo que decíamos es que no existen, de hecho, estrategias formales liberadas por completo de sombras retóricas, de lagunas deductivas, de thick description, de contradicciones en los fundamentos y de simplismos en los desarrollos. Mal que nos pese a quienes discrepamos con este lugar común de la reciente "etnografía experimental", nuestra disciplina ha sido, como pocas, literatura de ficción. Los antropólogos posmodernos (Clifford 1988; Strathern 1987) han elaborado esta circunstancia, haciendo hincapié en los artificios literarios mediante los cuales la etnografía comprometida con una antropología de pretensión científica aspiraba a legitimarse; a ellos remitimos para probar este punto, aunque no estemos para nada de acuerdo con la alternativa que ofrecen y con la renuncia metodológica que representan. Por otra parte, el carácter aproximativo, oscuro y retórico del discurso antropológico convencional quedará de manifiesto por sí solo, cuando se ponderen las cotas de rigor a las que los recursos a 396 proponer nos acercan. No será preciso, por consiguiente, demostrar axiomáticamente este particular; alcanzará con una simple ostensión comparativa del punto en el que estábamos y de las posibilidades que se inauguran. En lo que al rigor lógico concierne, aquí no reputamos ambiguos e impresionistas tan sólo a antropólogos de la estirpe humanista de Boas, Benedict o Frazer, quienes deliberadamente no lo perseguían; cuando decimos que la antropología convencional ha estado sumida en la misma nebulosa, aludimos también a profesionales liminales como Murdock, Goodenough, RadcliffeBrown o Marvin Harris, e incluso a los formalistas que (como Kronenfeld, Douglas White, Harold Driver o Hans Hoffmann) han descollado en las gestas matemáticas, estadísticas y computacionales de la disciplina. Cuando se pasa alguna elaboración antropológica formal a cláusulas de programa lógico invariablemente deja al desnudo sus debilidades, y no precisamente por limitaciones en la tecnología que se le aplica; más adelante tendremos ocasión de comprobarlo con una regularidad que tiene algo de fatigosa y que nos habla elocuentemente de los efectos devastadores de un siglo y medio de discurso sin control. Pero la realidad, aún la realidad esquemática de la teoría, no se puede meter en la máquina así como está para ver qué sale del otro lado. Entre la materialidad de los planteos empíricos y la idealidad de los métodos formales está faltando una dimensión; entendemos que esa dimensión es una teoría de modelos, y estamos decididos a formularla. Como esta propuesta atañe a soluciones metodológicas, hemos optado por no predefinir los problemas que se acomodan a ellos. Creyendo entrever las respuestas, no sería juego limpio encargarse también de seleccionar los interrogantes. Esto quiere decir que en lugar de haber diseñado la totalidad del espacio de la investigación, desde los problemas sustantivos hasta la epistemología, pasando por la organización de las campañas, escogimos un modo de operar algo menos omnipotente: nos hemos hecho cargo del momento resolutivo y metodológico de problemas ya planteados, solicitando a los respectivos responsables que se hicieran cargo de la evaluación de las soluciones propuestas. Esto nos ha eximido, entre otras cosas, del trabajo de campo, con toda su cohorte de problemas contingentes, permitiendo que nos concentráramos en las articulaciones de interés teórico más general. Algunos especialistas que han trabajado con nosotros, y que se vieron compelidos a definir con mayor penetración reflexiva de la que acostumbraban lo que querían expresar al hablar de rasgo diagnóstico, de estilo artístico, de elemento narrativo, de indicador, de estructura social, de interacción o de proceso de cambio, pudieron evaluar suficientemente la distancia que media entre una pretextación difusa y un modelo cabal. Y tuvieron que reconocer también que, cuando las variables son numerosas y su interrelación es compleja, ese modelo no se puede construir ni evaluar literariamente, a pulso y de memoria, y que la pretensión antropológica de hacerlo así estaba radicalmente mal encaminada. Que nuestra ciencia sea blanda no implica que las relaciones, entidades y estructuras que en ella se manejan sean menos en número o más sencillas que las que se articulan en disciplinas más respetables, las que confían sus operaciones sintéticas y analíticas a los artefactos que sean menester sin sentirse por ello menoscabadas. Si se nos ha permitido el privilegio del trabajo cooperativo, ello ha sido porque en opinión de los investigadores que nos han abierto las puertas hacia la intimidad de su objeto, ninguna pieza del inventario formal preexistente, epistemología incluida, ha demostrado alcanzar. La antropología está en crisis, y ello poco tiene que ver con que las culturas exóticas se hayan planetizado, o con que existan más candidatos haciendo fila que vacantes profesionales. El problema es esencialmente metodológico, y hasta de credibilidad global de la metodología: en antropología sociocultural, por lo menos, los modelos consagrados de investigación no funcionan, los conceptos disponibles no se aplican a las situaciones, las técnicas no arrojan resultados útiles. En fin, existen razones para creer 397 que el modo individualista (o egocéntrico) de producción teórica ya no puede dar más de sí, y que debe ser reemplazado por otra cosa. Por otra parte, haber confiado a los filósofos de la ciencia el esclarecimiento de nuestros dilemas no parece habernos beneficiado mucho, puesto que las estructuras discursivas con las que nos afrontan poseen tan escasa instrumentalidad como cualquier formulación intuitiva que tuviéramos antes. La utilidad de la epistemología es irrefragable en lo que hace a ciertos controles del diseño investigativo, y en ello insistiremos mil veces; pero la reflexión filosófica en torno del método ha demostrado ser débil, a nuestro juicio, como motor de la construcción metodológica y como conocimiento de apoyo para la elaboración de modelos que funcionen. La epistemología constituida de Popper, Kuhn o Lakatos y sus descendientes (constituida también, dicho sea de paso, lejos del terreno concreto de la investigación sociocultural y, por lo que nos consta, lejos del sudoroso taller de la tecnología) no es la solución a nuestros problemas, ni tampoco lo es la lógica de los libros de texto, menos ideologizada pero demasiado abstracta, como si las configuraciones axiomáticas no se pudieran o quizá no se debieran "bajar" al nivel del trabajo teórico estándar. Originadas en la filosofía de alto vuelo, estas empresas fallan tanto por su falta de carácter instrumental como por su discursividad idealizadora de la situación investigativa. Nos ofrecen página tras página de prescripciones, ejemplos y anécdotas, fórmulas impenetrables codo a codo con el didactismo pueril de los cisnes negros, enumeraciones de razonamientos acertados e incorrectos y rótulos latinos para las falacias recurrentes; pero ni un solo método conducente a la propia instrumentación sistemática de tanta sabiduría, ni un estudio severo -siquiera- de la posibilidad de su aplicación a problemas de la práctica científica real. Además, en lo que respecta a los procedimientos de inferencia connaturales a los cánones "deductivos" que promocionan, la especialidad de la filosofía analítica y de la paideia epistemológica, inadvertidamente o a sabiendas, se sitúa alrededor de un artificio que luego demostraremos perimido, incompleto e inadecuado (el cálculo de proposiciones), que no sirve siquiera para deducir que Sócrates ha muerto. Decíamos que estas construcciones filosóficas eran discursivas, nebulosas, inexactas. En computación es público y notorio que este aserto no necesita demostrarse, porque la inteligencia artificial, pese a sus propios desórdenes, ya lo corroboró sobradamente. Cuando en 1965 Robinson pretendió implementar la mecanización de la lógica abstracta para la demostración automática de teoremas, los fantasmas tomaron cuerpo donde menos se los esperaba. Se halló que las reglas de inferencia tradicionales, tales como el modus ponens, sometidas históricamente a la necesidad de resultar lo suficientemente asequibles como para permitir el seguimiento intuitivo de los procedimientos de prueba, eran demasiado débiles para soportar un cálculo verdaderamente axiomático. La "intuición lógica" que regulaba la admisión de las verdades autoevidentes y que controlaba la transmisión de los valores de verdad resultó estar plagada de supuestos de sentido común y de ruido ideológico. Se tuvo que inventar una regla más fuerte, el algoritmo de resolución, que si bien es difícil de seguir a ojo desnudo, resulta eficiente para su tratamiento en máquinas (cf. Robinson 1965; Malpas 1987; Thayse 1988; Bläsius y Bürckert 1989), y se debió modificar asimismo el nivel y el estilo de tratamiento de las entidades lógicas, abandonando para siempre las proposiciones en beneficio de los predicados2, y de cierto tipo muy concreto de predicados expresados de una forma especial. 2 En la segunda y tercera parte de la Tesis explicaremos pormenorizadamente cada uno de estos conceptos, conforme a la significación que asumen en este contexto. 398 En otras palabras, la lógica necesitó ser replanteada, pues en términos reales toda ella adolecía de ambigüedad desde su nacimiento, aparte de generar explosiones combinatorias por poco que se aplicara al tratamiento de problemas de cierta magnitud o del mundo empírico. Y aún en los escasos enclaves en los que la sedimentación y el entrecruzamiento de experiencias axiomáticas garantizaban la exactitud de los sistemas lógicos, pronto se vio que el análisis por sí solo no podía llevar muy lejos: sin heurísticas y sin corazonadas aproximativas, sin una interacción precisa con un conocimiento contextual, relativo al objeto, la lógica se extraviaba en un laberinto infinito de pasos discretos que ninguna máquina sería (ni siquiera teóricamente) capaz de atravesar. Ninguna lógica anterior a la computadora habla siquiera de la estructura de representación de los conocimientos, de tiempos razonables de resolución de un problema, de procesamiento de masas de datos, de retrodicción del objeto por inversión del análisis o de la necesidad de podar las ramas de una combinatoria mediante una heurística. Con los métodos tradicionales no era posible entonces emprender genuinamente un cálculo lógico, que fuera comparable al cálculo matemático que media desde siempre entre las entidades de los universos cuantificables. A escala de la capacidad humana de cálculo, sin embargo, las debilidades pragmáticas de la lógica académica rara vez llegan a ser significativas o perceptibles, aunque sin duda sus fallos son constantes y su efecto de arrastre puede llegar a ponerse de manifiesto. El momento ha llegado (porque la tecnología ya está en capacidad de vehiculizarlo) de dictar la sentencia que corresponde a los veredictos de Church, de Turing y de Gödel respecto de la computabilidad de los cálculos lógicos y su relación con la posibilidad de la prueba. Partimos de una doble consigna: El simbolismo lógico es fetichismo puro si no es la notación de un cálculo. El cálculo es pura pérdida de tiempo si no discurre como solución de un problema. Hay que llevar a puerto, de una vez, un procedimiento mecánico de cálculo que hasta el día de hoy ha sido tan sólo una figura del lenguaje. Y esta no es una pretensión desmesurada: una vez que se fijan las reglas del juego, la inferencia de conclusiones a partir de premisas, cuantas y cualesquiera sean éstas, no tiene por qué ser menos axiomática que el uso de las tablas de multiplicar. De aquí en más, mecánico quiere decir menos "ejecutable necesariamente por una máquina" que "lo suficientemente explícito, bien definido, operativo y preciso como para que hasta una máquina lo pueda resolver". Acordemos que esta implementación en gran medida está pendiente y que, hasta tanto no se materialice, los ásperos simbolismos de la notación lógica son más un emblema de un rigor difuso que un mecanismo de desambiguación. La lógica es bastante menos majestuosa de lo que aparenta, y no sólo en los márgenes de la paradoja o en las vecindades de los límites. Pero admitamos también que inexactitud o prueba parcial no es lo mismo que catástrofe. La crisis se nota menos en las bases epistemológicas que en los usos de la ciencia concreta. Se trata, en última instancia, de un problema de granularidad o de masa crítica: la epistemología o la lógica, así como el trabajo científico convencional, pueden sobrevivir al razonamiento ocasionalmente defectuoso. Las ciencias sociales tal vez no, porque su discurso no se asienta (todavía) sobre ninguna fundamentación inicial, ninguna línea de procedimientos intrínsecamente correcta, ningún consenso metodológico, ninguna prueba taxativa, ninguna certidumbre tangible. La deplorable trayectoria de los conatos formalistas en nuestra disciplina es aleccionadora, y según comenzamos a barruntar no siempre tiene que ver con la imposibilidad de instrumentar todo lo que la filosofía de la ciencia nos dicta, porque los términos de ese dictado son imprecisos. Lo que más nos ofende de la filosofía analítica y de sus exploraciones en la lógica de la investigación es, precisamente, la lejanía metafísica de su lógica, su imposibilidad de articularse con una práctica del 399 método, con una heurística positiva. Podría decirse que la epistemología constituida funciona sólo en reversa, avasallando las elaboraciones teóricas de nuestras pobres ciencias y descubriendo falacias por todas partes, para después ordenarlas en una matriz que no pocas veces, en pleno siglo XX, aparece plena de resonancias escolásticas: esto es una apódosis, aquéllo un a dicto secundum quid ad dictum simpliciter, y así el resto. La alternativa a un latín en retroceso son las fórmulas inextricables de la teoría de modelos, que fingen un cálculo que en general las máquinas recusan. Se habla de refutabilidad y de verificación como si esas operaciones fueran transparentes, como si entre las entidades de un discurso científico y las cosas del mundo existiera un mapeado inequívoco. Se ignora todo lo concerniente a las lógicas desviadas y todo lo actuado por la lógica después de Principia Mathematica, por no decir nada de la lógica computacional. Bajo pretexto de la historia, la "lógica" de la investigación se abisma en dilemas que no vienen al caso o que tienen que ver con otros asuntos, fuera de la lógica y de los modelos: la forma en que los paradigmas se suceden, los contornos de las comunidades científicas, la defensa (o la condena) de la subjetividad, la denuncia de los deslices seudocientíficos de las teorías que un autor aborrece en un momento dado, el colapso (o la gloria) de la Razón. Todo se agota en este muestrario teratológico, en este formalismo sin forma propia, en este academicismo, erudito hasta el deslumbramiento pero con escasos destellos de vigor creativo en lo que al método respecta. A fuerza de creer en los rigores de los que otros se jactan a veces sin poseerlos, la crisis de nuestra ciencia se comportó en algún momento como el antecedente de una conclusión pragmática: nosotros mismos hemos dictaminado que, ante la mediocridad de nuestros modelos, debíamos rentar los servicios de los epistemólogos, filósofos analíticos, lógicos, matemáticos o computadores científicos, intuyendo que en la reflexión especializada de los otros se encontraba el secreto de la aplicación de nuestros métodos (cf. Reynoso 1990c). Huelga decir que el ardid no funcionó. El error no estuvo en darle trabajo a otros, sino en creer que al delegarlo quedaba ya consumado, en abandonar el método a los metodólogos, en vez de tornarnos metodólogos por nuestra cuenta. Este es acaso el protocolo de una versión perversa de la interdisciplinariedad: yo te describo el contenido del problema, tú me revelas la forma de la solución. Lo malo es que ningún filósofo nos dice qué es lo que debe hacerse, de modo que la forma y el contenido nunca confluyen. La supervivencia de estas disciplinas fundamentadoras parece establecer, en último análisis, y como condición misma de su integridad, la imposibilidad de su apropiación por otros, la falta de una genuina e íntima fusión entre lo que la filosofía o las matemáticas exigen y lo que las manos pueden hacer. Con certeza, la responsabilidad por el fracaso de las antropologías con huella y autoconciencia epistemológica no es sólo nuestra, y en el cuerpo de la tesis tendremos ocasión de verificarlo: ningún profesional del método confiesa sus límites o su apatía por la ciencia empírica, y si lo hace se cuida de no enfatizarlo mucho. Aunque fuese útil (que tal vez lo haya sido en ocasiones y que lo es sin duda en menesteres filosóficos ajenos a la administración del método), la epistemología profesional nos rinde un servicio fragmentario; siempre que algún epistemólogo o matemático se refiere a nuestros asuntos es inevitable sentir que los ha asimilado de apuro, que hay dimensiones de problematicidad que se le escapan, que la cosa no es exactamente así (véase v.g. Suppes 1988:203-214; Bunge 1985), que entre la materialidad de nuestros problemas y la generalidad de su discurso hay una discontinuidad (cf. Kemeny, Snell y Thompson 1966), que a pesar de las intervenciones transdisciplinares, a menudo locuaces, los modelos siguen sin funcionar. Nadie explica por qué la formalización de las ciencias sociales, que se anuncia deseable y posible, siempre se posterga para mañana. Las intenciones pueden ser muy bue400 nas, y la idea básica es encomiable en tanto aspira al mayor rigor. Para salir del atolladero hay que formalizar, por cierto, pero ¿de qué manera, con qué rentabilidad, siguiendo el modelo de qué o de quiénes? Con veleidades epistemológicas o sin ellas, nada se resuelve con meramente imponer la formalización como consigna. Lo que menos nos hace falta son los modelos cientificistas ingenuos, las puntillosas mediciones de detalles baladíes (cf. Chapple 1972), las rotulaciones botanizantes (cf. Harris 1964), las cuasiciencias sin métodos o con métodos descartables cuyos objetos comprenden el universo (como la semiótica) o los análisis totales diseñados para desvelar, en un cúmulo de información heterogénea y mediante una simple regla de tres, los misterios de la determinación estructural (cf. Dobbert et al 1984). Lo que más nos ha sorprendido en el transcurso de la elaboración de la experiencia en que esta tesis se apoya, ha sido que los rigores más sólidos y convenientes no estaban allí donde creíamos, sino en lugares del saber de los cuales hasta hoy ningún antropólogo nos ha hablado con palabras realistas. Espacios donde se sabe desde siempre que la regla de Gödel en poco nos afecta, que LéviStrauss jamás trazó un modelo, que Bateson ignoraba todo de la lógica o que cuando ponderan la inferencia clínica los antropólogos interpretativos se engañan o nos mienten; espacios, por contrapartida, donde nadie cree posible una ciencia de lo social, donde nada se hace ni se hará para impulsarla y donde los científicos sociales son aborrecidos tanto por ser sociales como por no ser científicos. Un territorio, en síntesis, en el que muy pocos se interesan por promover interdisciplinariedades con poetas muertos y en el que son menos aún los talentos creadores dispuestos a filosofar o a compartir con ciencias deficitarias su superávit de progreso. Casi nos ha dolido descubrir que los límites tampoco estaban donde se suponía, y que ningún libro, ni siquiera heterodoxo, había allanado el camino ni adelantado las dificultades que ha de afrontar (y los requisitos que debe reunir) todo el que quiera construir un modelo. Si alguien ha desarrollado esas ideas, ha sido necesariamente en un lenguaje que ningún antropólogo podría comprender. Como podría haber dicho Wittgenstein, si algo no está en lado alguno y es necesario, entonces debe ser hecho. Hacerlo tiene hoy por hoy un beneficio incierto y un precio elevado, pero nadie más lo hará por nosotros. No hay ósmosis posible entre las ciencias blandas y los métodos duros sin el requisito de una reformulación metodológica de aquéllas, esta vez de veras radical. No se trata de importar todos los métodos que se puedan. Las extrapolaciones de la cibernética, la teoría de sistemas, las estructuras disipativas, la sinergética y la investigación operacional han fracasado una tras otra, porque es ostensible que se refieren a modelos matemáticos y nosotros no cuantificamos las variables sobre las que ellas se fundan, o porque no estaba preparado el espacio de recepción e interpretación del tipo de resultados que ellas segregan. No nos resignamos a creer que la sofistería sea un trance inevitable, derivada de o concomitante a la naturaleza nebulosa del objeto que se aborda, o asociada al carácter anxiógeno de la investigación humana. Pero es obvio que, con los recursos que tiene, la antropología no puede desplegar categorías taxativas sin distorsionar el objeto, ni equiparar procesos empíricos a transacciones lógicas sin idealizar el mundo, ni cuantificar sus variables y sus relaciones sin ocuparse de las escasas trivialidades socioculturales dóciles a la enumeración. El problema que aquí planteamos afronta estos límites, bajo la forma de estas preguntas: ¿Puede la ciencia (cualquier ciencia, necesariamente formal) proceder con un mínimo de rigor sin aferrarse al yugo de las definiciones categóricas, sin seguir mentalmente el trámite pormenorizado de cada uno de los pasos lógicos que desencadena y sin recurrir a entidades cuantificables? ¿Se puede contar con un instrumento que resuelva las conclusiones que se derivan de cierto juego de premisas, sin acartonar la representación más allá de lo admisible y sin jugar el juego tonto del silogismo? Lo que aquí pretendemos como macro-objetivo es demostrar que sí, cualificar esa posibilidad con referencia 401 a la antropología, ejemplificarla y sacar de ello las conclusiones que sea menester. Para ello será necesario no sólo caracterizar al instrumento, sino diseñar from scratch una epistemología y una teoría de modelos que lo fundamenten. 402 2. ANTROPOLOGÍA Y PROGRAMACIÓN LÓGICA Este objetivo nos lleva a proponer una segunda hipótesis: recién ahora la ciencia (en general) dispone de las herramientas necesarias para el desarrollo de esquemas teóricos consistentes. Estas herramientas son las de la programación lógica, uno de los pilares fundamentales de la inteligencia artificial; y son por cierto nuevas, ya que los desarrollos esenciales se remontan a bastante menos de dos décadas. Expresándolo de otra manera, podríamos decir que todo intento por formalizar la disciplina previo a la disponibilidad de un instrumento adecuado para el cálculo cualitativo, estaba en alguna medida limitado a y por las posibilidades de una técnica persuasiva, incluso en lo que se refiere al convencimiento del propio formulante. La insuficiencia de estas técnicas, su carácter descaradamente retórico, sumado a las consabidas limitaciones de la categorización en ciencias sociales, alcanza y sobra para explicar la improductividad de los intentos por rigorizar la disciplina, desde el método comparativo de Tylor hasta los símiles informacionales de Geoghegan. Descubrir que recién en estos días tenemos el instrumento adecuado no asegura el triunfo: así como ahora se sigue desconociendo que existe, antes se ignoraba que carecíamos de él y por consiguiente nadie reclamaba su advenimiento. El problema, como se verá, es mucho más complejo, y aunque tenemos los elementos para el planteo al alcance de la mano, eso no quiere decir que hayamos dado con la solución. Antes que nada, hay que mapear el territorio. Mencionamos recién a la inteligencia artificial, pero esa mención es ambigua: existen innumerables concepciones de lo que es o debería ser esa ciencia, especialidad o tecnología. Una de ellas, por lo menos, no nos interesa en absoluto en este contexto: la que establece que el propósito de esta rama de la investigación tecnológica es el de construir máquinas inteligentes, clones en silicio (funcionalmente hablando) del cerebro humano, o el de diseñar programas que posibiliten esa utopía. Este proyecto es tan desmesurado que ya nadie lo alienta, ni siquiera a nivel de artículos de divulgación (cf. Shipley 1989). La inteligencia artificial sufre las consecuencias de una denominación grotesca, sugestiva de una esfera de estudios hermética y separada de la realidad, de un lujo tecnológico, una especie de perversión de la informática strictu sensu, representada ésta por los sistemas de liquidación de sueldos y jornales o por otros utilitarios igualmente prosaicos. Nuestra propuesta no tiene nada que ver con las interfaces entre el hombre y la máquina, ni con la robótica, ni con las fantasmáticas redes neuronales, que imitan el comportamiento del cerebro hasta el punto de que se cansan y necesitan dormir. Lo mejor de la inteligencia artificial es, pensamos, el poder lógico de sus lenguajes de programación descriptiva y sus modelos de representación del conocimiento, que la ponen en las antípodas de la "computación" tradicional. Más tarde volveremos sobre esta dicotomía tecnológica, cuando cuestionemos más a fondo, en un capítulo específico, las candorosas incursiones computacionales de la antropología. El proyecto entero de la inteligencia artificial, como luego historiaremos en detalle, también comenzó siendo ingenuo. Tan es así que aún en la actualidad la inteligencia artificial tiene mala prensa. Los aficionados adictos a la literatura de divulgación están al tanto de sus limitaciones y llevan la cuenta de sus escándalos, pero no han tomado nota de sus logros. Saben, por ejemplo, que el proyecto de la traducción automática sobre la base de un diccionario magnético resultó en un fiasco, que el Resolvedor General de Problemas fue abandonado a medio construir, que numerosas corporaciones que pensaban que la inteligencia artificial era un estupendo negocio acaban de ir a la quiebra, y que 403 la presunta revolución de los perceptrones tuvo que ser desconstruida por algunos de sus propios impulsores3. Pero prefieren ignorar el hecho de que ahora existen herramientas no sólo capaces de automatizar la lógica, sino de conferir rigor a los enunciados y modelos de cualquier disciplina, bajo los auspicios de cualquier marco teórico. Este rigor no es desde ya absoluto, ni siquiera óptimo, sea porque subsisten interfaces humanas falibles o interesadas, o porque la tecnología no está tan avanzada después de todo; pero es mucho más que mínimo, y la antropología, como la concebimos, está en perfectas condiciones de incorporarlo. Hemos elaborado una modalidad de trabajo que posibilita establecer discusiones de un elevado nivel de precisión, así como construir modelos que sirven, simultáneamente, para verificar el funcionamiento de un marco teórico (propio o ajeno) y para ponerlo a trabajar si es que resulta viable. No hay a la vista ni panaceas, ni milagros, ni un futuro de iluminación instantánea apretando un pulsador. Conviene no llamarse a engaño respecto a lo que significa contar con estos recursos y no ser demasiado optimistas en lo que concierne a su eventual adopción. En primer término, ellos no son tan fáciles de asimilar que puedan ser dominados en el estrecho margen de tiempo y esfuerzo que el científico social dedica tradicionalmente a la adquisición de las herramientas y a la conquista de su maestría. La programación lógica es difícil, mucho más difícil que cualquier otra actividad que hayamos desarrollado, personalmente, en más de veinte años de experiencia informática; y la fuerza deductiva de un sistema se encuentra por lo general en relación directa con la complejidad de su proceso de programación. Los logiciales aquí propuestos no son productos listos para usar que hemos tenido la fortuna de adquirir en el comercio: son sistemas que tuvimos que construir cláusula por cláusula, a partir de un intérprete lógico abstracto y de una pantalla vacía. Lo que es difícil de aprender es aún más difícil de enseñar. No existe tampoco en nuestro medio un mercado de profesores de inteligencia artificial y programación lógica entre quienes escoger; si asistimos a clase se nos dirá a lo sumo lo que dicen los libros, y más probablemente diluido que profundizado. Se nos enseñará un lenguaje de computación con referencia a otros que no vienen al caso, ejemplificando las cláusulas con algún problema contable o financiero incapaz de encender nuestra imaginación. O se nos instará a analizar los predicados de un formalismo en orden alfabético, sin relacionarlos con ningún contenido concreto. No podremos abordar la inteligencia artificial hasta que coordinemos sus álgebras abstractas con nuestros problemas sustantivos, pues ella es una estructura sin contenidos. La inteligencia artificial no existirá plenamente hasta tanto no haya un campo del saber fuera de ella que la requiera para perfeccionarse; la programación lógica no ha de servir de mucho si no encuentra, más temprano que tarde, un ámbito de conocimiento cualitativo y empírico a modelizar, aparte de la lógica y la computación misma. Es preciso que se comprenda que lo que aquí se propone no consiste en adquirir el paquete de Prolog, leer el manual de instrucciones y escribir la antropología en el diskette para obtener resultados. Un lenguaje de computación no ofrece más que un monitor, un mecanismo de resolución oculto y un cursor que parpadea. Algunas implementaciones, como el intérprete de Arity Prolog, ofrecen menos que eso: todos los formalismos de representación de los datos, todos los procesos de inferencia, todas las modelizaciones, en suma, corren por cuenta del estudioso. Los ornamentos que pueda 3 La controversia sobre los perceptrones (que afecta a un buen fragmento de la investigación en Inteligencia Artificial) se formula a partir de Marvin Minsky y Seymour Papert, Perceptrons, Cambridge, MIT Press, 1988. La apasionada intervención de dos próceres de la disciplina en una crítica negadora de muchas de las ideas que la imaginación popular les atribuía, signa todo el campo de una doble coacción batesoniana que ha sembrado el desconcierto entre los especialistas. 404 traer un entorno de programación lógica comercialmente asequible son chafalonía: lo único axiomático que incluyen son los conectores lógicos (los operadores de condicionalidad, disyunción, conjunción y negación) y un principio genérico que permite realizar pruebas lógicas, pero que será más bien inútil si se ignoran o tergiversan los cánones que rigen a una formalización. Todos los demás elementos son extralógicos y sin duda pueden llegar a ser de gran ayuda en ciertos contextos de trabajo, pero no fundamentan en nada. Mirándolo bien, lo único que tenemos de nuevo es un mecanismo para determinar si lo que se construye está bien planteado y para saber si podemos plantear ciertas teorías y explicaciones a la luz de lo que ya sabemos. Esto es mucho más de lo que nunca tuvimos, pero las consecuencias y los alcances de esta nueva adquisición serán, durante un tiempo, materia de conjetura. La lente más pulida es la que muestra los detalles más crueles. Más que facilitar los procedimientos metodológicos, las herramientas que presentaremos relevan dramáticamente la naturaleza y la extensión de las verdaderas dificultades de la práctica disciplinar. Resultará patente que para construir un modelo, así fuere el más simple, no alcanza con hablar de "oposiciones binarias" y con definir confusamente estructuras, sistemas y teorías. Modelizar la realidad es un ejercicio mayor de abstracción, precisión argumentativa y rigurosidad. Si en antropología se quiere disfrutar de los beneficios potenciales de semejante instrumento, sin duda alguna se deberá modificar además la relación de predominio entre teoría y técnica que ha prevalecido hasta hoy, o habrá que redefinir de raíz el significado y la operatoria de la interdisciplinariedad. Para preservar la esencia de su problemática, hay que replantear el estilo de su formulación hasta la médula. Eso no quiere decir que la antropología tenga que transformarse al punto de plantear solamente problemas que la máquina esté en condiciones de resolver: por el contrario, es el mismo planteamiento de los problemas antropológicos tradicionales en el contexto adecuado de computación el que nos desoculta la existencia de dilemas básicos que hasta el momento ignorábamos, y sin cuya resolución ningún progreso científico será posible. Nuestra propuesta se inicia en el plano técnico. Tradicionalmente la técnica es la hija boba de la epistemología, al lado (pero menos alto) que el método y la teoría. Como lo admite Richard Rudner, En términos generales, ser consciente de que distintas disciplinas científicas utilizan diferentes técnicas de investigación no equivale a ser consciente de algo importante sobre la naturaleza de la ciencia social. [...] Defender que existe una diferencia metodológica entre dos disciplinas o dos tipos de disciplinas es, por el contrario, defender un criterio muy radical. Pues hay que tener en cuenta que la metodología de una disciplina científica no es algo que concierna a sus técnicas transitorias, sino a su lógica de la justificación (1973:21). Algo huele mal, sin duda, en una epistemología que separa tan taxativamente las etapas y los niveles de trabajo científico sin preocuparse por lo que sucede, precisamente, en las discontinuidades que se introducen y sin inspeccionar con ojo crítico las razones que obligan a introducirlas. En el universo de categorías puras y de transiciones y límites no problemáticos de la filosofía analítica, la técnica se asocia con el trabajo manual, la maquinaria, lo preliminar, lo contingente, y la metodología con la elaboración intelectual, la abstracción, lo definitivo, lo necesario. Lo que aquí ofrecemos como alternativa no es ni una cosa ni la otra, y penetra en el horizonte del método (si se lo quiere seguir llamando así) desde varios ángulos, en diversos momentos y con diferentes propósitos. La antropología ha sido -excepto en sus raras cuantificaciones- virtualmente una disciplina sin técnicas, o, quizá mejor, una disciplina en la que las técnicas se aplican prevalentemente en las fases primarias, transductivas, en las que los hechos se convierten en datos o se acomodan en una clasificación: se sacan fotos, se registran voces, se trazan diagramas, se realizan entrevistas "estructuradas" o "libres", se realiza "investigación participante" y finalmente se proyectan fenómenos en 405 conceptos más o menos estructurados en un campo. De allí en más todo es intangible, espiritual o intuitivo, al punto que las fases superiores y más delicadas de la elaboración carecen de herramientas que se les apliquen. Tal como aquí las interpretamos, las técnicas no son ni apéndices auxiliares de la teoría, ni operaciones de cálculo restringidas a un momento de búsqueda de legitimidad adicional, ni una instancia emblemática de la cientificidad de la empresa, ni su protagonista clandestino: son, más bien, su precondición. Nos referimos, sí, a técnicas. Pero se trata de técnicas de construcción y validación teórica, cuya incidencia en el trabajo científico global podríamos caracterizar como recurrente y recursiva. Más adelante indagaremos el impacto de las técnicas aquí propuestas en la configuración del trabajo de elaboración teorética, impacto que no supone, en modo alguno, su desnaturalización. No sólo se trata de fundar una teoría de modelos operativa y completa; habrá que elaborar también el proceso metodológico integral en el que dicha teoría se inserta. Pero disponer de una técnica rigurosa no implica ahora (ni lo hará en el futuro) estar inevitablemente del lado de la verdad, en tanto la verdad se establezca mediante una correspondencia con los hechos empíricos. El esfuerzo mayor que debimos realizar en el cuerpo de la tesis y en la discusión pedagógica que la rodeó fue para desembarazarnos de una epistemología obstinada en insinuar que aspectos por demás contingentes de la investigación son susceptibles de una axiomática, como si los valores de verdad internos de la lógica se hicieran extensivos a todas las materialidades aludidas referencialmente por sus símbolos. La verdad lógica tiene bastante poco que ver con la concepción intuitiva de la verdad. Un ideal veritativo como el que, por ejemplo, esgrimía Marcelo Bórmida (adequatio mentis ad rem), no significa gran cosa ni compromete con ninguna filosofía. Es tan genérico que sirve tanto para emprender una operacionalización de carácter positivista como para convalidar una concepción teológica; es tan baladí como para suponer que la problematicidad se agota en un nexo simple entre dos instancias objetivas: el mundo allá afuera, el concepto aquí dentro, como contenido de conciencia. En todo caso, este criterio deja en penumbras el significado preciso de esa adecuación, por no decir nada de la indefinición que trasunta respecto de la mente y del mundo, indefinición que puede admitirse en cualquier parte, excepto en un criterio de verdad que se edifica a partir de ellos (cf. Bormida 1976:13). Nosotros hemos optado por no hablar de verdad, sino de consistencia, y en consecuencia no definimos la lógica como la ciencia que estudia las presuntas leyes de la mente humana, o que de algún modo se adueña de alguna verdad objetiva, sino como la disciplina que se ocupa de establecer cánones de razonamiento correcto. Cánones que pueden variar, y de hecho lo hacen, conforme al modo lógico que se admita como regulando la conservación de los valores de verdad. La coherencia o consistencia de la articulación lógica (esto es importantísimo remarcarlo) no se predica sobre el mundo, sino sobre el modelo que a partir de él se construye, teoría de por medio; no decimos pues que la realidad tenga un orden lógico, una arquitectura inmanente milagrosamente igual a la del intelecto: tan sólo afirmamos que el modelo que construimos para reflejarla no es contradictorio en tanto tal y que más vale que no lo sea. Un modelo sistematiza una mirada teórica que ordena una concepción de la realidad sin trasmutarla, pues es precisamente función de la teoría introducir un orden, más que mapear lo dado miembro por miembro. El orden en el modelo nada tiene que ver con la legalidad o la regularidad del mundo, y menos todavía (a pesar de Gadamer, de los neoweberianos o de los neotylorianos) con la racionalidad de las conductas que son su objeto. Y 406 a la inversa, el modelo que representa el caos, el desorden o la complejidad desorganizada no ha de ser imperiosamente caótico4. Tener un instrumento preciso de cálculo cualitativo no implica ninguna certidumbre global más allá de la coherencia interna, lo mismo que disponer de una calculadora aritmética poderosa no garantiza los valores de verdad de una teoría que, entre otras cosas, cuantifique. Una teoría puede ser lógicamente perfecta y empíricamente falsa, pues la interpretación semántica de las entidades a las que recurre no forma parte de los procesos de inferencia que desde un punto de vista formal la constituyen, y las premisas en que la teoría se origina pueden estar equivocadas. Es posible pensar también en seudociencias consistentes, como el trazado de una carta natal, y en ciencias metodológicamente indecidibles, como el análisis estructural levistraussiano: nuestro aporte no tiene nada que ver con tal demarcación. En antropología existe una sola teoría axiomática, la de William Geoghegan (1970, 1971), que es perfecta y coherente, pero que es muy probablemente falsa, porque presume la validez de un análisis componencial que los críticos han ridiculizado con sobrada razón. Seguiría siendo falsa aún cuando se la expresara en predicados de Prolog o en fórmulas de LISP en lugar de axiomas euclidianos. La programación lógica no modificará este estado de cosas, que presenta problemas que no sólo afectan a las ciencias sociales. Lo que sí puede garantizarse es que de ahora en más el rigor lógico interno de un enunciado teórico es algo que puede someterse a control. Aunque siempre existirán muchas formas de enunciarlas, en lo sucesivo las teorías enunciadas podrán ser por lo menos intrínsecamente consistentes, y su articulación podrá ser reproducida, documentada, modelizada y verificada en una misma operación instrumental. Habrá que salir al campo antes, para recabar los datos esenciales, y habrá que volver después, para corroborar si la interpretación que se otorga al educto del modelo corresponde con la realidad. Pero lo que suceda en el medio será nítido y replicable, aunque sigan existiendo infinitas formas de llevarlo a cabo. Un modelo lógico consistente no genera verdad, pero mantiene hasta sus conclusiones aquella verdad que hubiere en sus premisas. Cuando alguien nos proponga un método (por ejemplo, el método estructuralista levistraussiano de análisis mitológico, o el método cognitivista de análisis de componentes semánticos, o el método ecosistémico de Rappaport para explicar la función del ritual) podremos en lo sucesivo reproducirlo, ponerlo en actividad y comprobar en el acto si funciona tal como se alega que lo hace. La programación lógica del discurso disciplinar redunda así, a través de la clarificación de los supuestos y de los procedimientos analíticos, en lo que Clifford Geertz llamara el "refinamiento del debate". Y esto no es una presunción utópica, sino una posibilidad palpable: nosotros mismos hemos incluido pruebas de la extraordinaria capacidad modelizadora de la programación lógica en los apéndices que acompañan este ensayo. Aún cuando la realización de un programa pueda estar sesgada, aún cuando se puedan malinterpretar aviesamente los postulados de una teoría a la cual se recusa escudándose en la "prueba de la máquina", la expresión formal de los argumentos configura una instancia sobre la que se puede debatir con harto más claridad que la que se puede alcanzar con medios convencionales. Tenemos en ella una forma pautada de representar el conocimiento, de sacar a la luz los supuestos ocultos y de visualizar la estructura de toda la construcción conceptual. A diferencia de Geertz (con quien jamás hasta 4 Este énfasis es necesario porque con frecuencia se ha equiparado la búsqueda de modelos no contradictorios con una afirmación implícita sobre la adecuación del mundo a la mente, o se ha afirmado que el carácter paradójico de la realidad impone la necesidad de construir modelos contradictorios para dar cuenta de ella (cf. Feyerabend 1982:36, 226-232). 407 hoy hemos coincidido virtualmente en nada), pensamos que el debate no puede refinarse hasta que el consenso se perfeccione. Y al contrario de él, también, que nos regaló con su descripción densa un pretexto para que se sepa poco y para que valga todo, ofrecemos un método para llevar adelante ese perfeccionamiento, un método de una naturaleza tal que quien pretenda impugnarlo deberá cargar con el peso de la prueba y enarbolar una respuesta mejor que la de llamarnos tecnócratas. Nos parece importante que la programación lógica esté en condiciones de satisfacer un objetivo estipulado por un antropólogo que es, acaso, el enemigo arquetípico de la formalización. También es esencial, en lo que concierne a las posibilidades de incorporación y asimilación de estos recursos, que los mismos no sean esotéricos ni impongan procedimientos forzados de cuantificación o de escritura simbólica. Hay que insistir en ésto: disponer de una herramienta de diseño y control teórico no involucra que el antropólogo esté de ahora en adelante obligado a cuantificar o a memorizar las insulsas tablas veritativas del cálculo de proposiciones. Admitir que la programación lógica es difícil no es afirmar que sea artificiosa. La gracia de este juego tiene que ver con la capacidad de la programación lógica para plegarse al método de las ciencias sociales sin distorsionar su esencia, aún cuando después quepa volver sobre esa esencia para discutirla, alterarla o ponerla en crisis. Más todavía, la competencia cuantificadora de los modernos lenguajes de programación lógica es apenas discreta, si se la compara, por ejemplo, con la del venerable Fortran o con la del Algol; y la sintaxis del lenguaje que escogeremos nada tiene de la apariencia cabalística de las ecuaciones lógicas, carentes (por definición) de significado. En esta propuesta, la cosa no pasa por ahí: quienes eternamente confunden rigor metodológico con cuantificación o con el despliegue de álgebras carentes de ambigüedad por su misma falta de denotación, pueden bajar las armas. Lo mismo se aplica a quienes en lugar de vindicar la cuantificación como garantía de cientificidad, hacen pasar el rigor por la posibilidad de las definiciones taxativas, o por la extrapolación del imaginario metodológico de las ciencias naturales. Lo más seductor de todo el espectro de posibilidades de la programación lógica es que ella opera eminentemente con símbolos y relaciones, más que con cantidades y operaciones aritméticas. Las teorías antropológicas pueden introducirse así en la máquina casi tal cual se las enunciaría en lenguaje natural, aunque sometiéndose, claro está, a una cierta convención notacional. Por añadidura, las constelaciones de ideas que aún no han llegado al estatuto de verdaderas teorías hallarán en la programación lógica el incentivo y el medio para alcanzarlo, clarificando en el ejercicio interactivo con el sistema tanto los supuestos y el aparato categorial como los procedimientos del investigador. Al igual que el personaje de Molière lograba hablar en prosa sin esfuerzo, teorizaremos sin notar que lo hacemos. Todavía más: se podría decir que lo que en realidad se introduce primariamente en la máquina no es tanto una teoría (en el sentido más restrictivo) cuanto una descripción ordenada del objeto que le atañe y todo cuanto de él sabemos. La "teoría" se va construyendo después, interactivamente, y se constituye como el conjunto de hipótesis que resultan verdaderas a partir de la información de que se dispone. Esto es así porque la programación lógica es declarativa (o descriptiva): un programa lógico ideal no consiste en un conjunto de operaciones discretas realizadas más o menos arbitrariamente sobre el material cuya naturaleza semántica se refiere a la conducta de la máquina, sino en una descripción sistemática de un fenómeno o dominio del conocimiento. Un programa lógico sólo se denomina "programa" porque se lo sigue implementando en una máquina y utilizando un lenguaje computacional que ella puede decodificar; pero un programa "puro" escrito en Prolog no hace más que enunciar un conjunto de hechos pertinentes sobre un campo acotado del saber, en 408 forma de una serie de afirmaciones y reglas que hacen pensar más en los axiomas de las matemáticas que en órdenes dadas a un aparato5 . Se realiza entonces una descripción de lo que se sabe, inscrita al comienzo en una exploración vacilante que luego se sistematiza casi sin advertirlo, en un nivel de especificación que poco o nada tiene que ver con la conducta binarizante de un sistema clásico de procesamiento electrónico de datos. El carácter sistemático de esta descripción es, como se verá, un emergente de la experiencia del estudioso, de su interacción con el sistema de programación y del enriquecimiento que significan las innumerables exploraciones en Ciencia Cognitiva, Informática e Ingeniería del Conocimiento, cuyas experiencias pueden incorporarse desde ahora al horizonte disciplinar. Por supuesto, las hipótesis que pueden llegar a plantearse sobre un ámbito cualquiera del conocimiento pueden llegar a ser infinitas, y en el nivel actual de la tecnología la computadora no es (aún) capaz de formular espontáneamente ninguna. Resolver dilemas mediante un procedimiento automático no es lo mismo que proponerlos mecánicamente. Deslindar cuál hipótesis es la más fundada no es lo mismo que probar cuál es la menos trivial. La iniciativa que después de Peirce hemos convenido en caracterizar como abducción sigue siendo privativa del investigador humano, y está perfectamente bien que así sea. Aunque la abducción puede simularse mediante una estrategia de inferencia conocida como encadenamiento hacia atrás (de la que luego hablaremos), las máquinas siguen siendo inertes y estúpidas: todo lo que el ordenador puede hacer es determinar si una hipótesis que atraviesa el conocimiento descripto puede o no verificarse tomando ese conocimiento como axioma o premisa. Pero con esto ya es suficiente. Lo que personalmente nos atrae de la inteligencia artificial no es la promesa eternamente diferida de desarrollar máquinas sagaces, sino la posibilidad actual de modelizar los procedimientos científicos, comenzando por la representación del objeto o de lo que el estudioso sabe acerca de él. Habrá que programarlo todo, porque los lenguajes de computación en sí mismos no hacen absolutamente nada, y habrá que desarrollar toda la interface entre una informática que no se preocupó por sustentar a una ciencia inexacta y una antropología que desdeñó las oportunidades de aprender el rigor. El partidario de una antropología interpretativa y humanística no debe sentirse intimidado por la resonancia cientificista o escolástica de los términos que venimos empleando: axioma, premisa, teoría, hipótesis, cálculo lógico, inferencia. Después demostraremos la forma en que los razonamientos cualitativos de la antropología humanística, soft, son también, a su manera y mal que les pese, cálculos lógicos a cuyo rigor esta herramienta puede asimismo contribuir. Y del mismo modo, ejemplificaremos de qué manera el rigor lógico que puede alcanzarse en el planteamiento de hipótesis en programación lógica puede comprenderse, sin distorsión alguna, como una versión enriquecida y precisa del supuesto fenomenológico e interpretativo por excelencia que estipula la "prioridad hermenéutica de la pregunta" (Gadamer 1977). De hecho, en un entorno de programación lógica adecuadamente reflexivo, el planteamiento de preguntas, hipótesis y teorías -en ese orden de magnitud creciente- ratifica gran parte de las mejores elaboraciones fenomenológicas en ese sentido, sentando las bases de una conmensurabilidad impensada con las premisas de un "positivismo" meto- 5 La comparación pertenece a uno de los inventores del lenguaje Prolog, Alain Colmerauer (1984:1072). 409 dológico que se sospechaba en sus antípodas6. Para expresarlo en otras palabras, podríamos decir que, a la luz de su enunciación en predicados lógicos, los métodos enraizados en la emulación de las ciencias naturales y los métodos comprometidos con un marco hermenéutico revelan más de un segmento de coincidencia y una naturaleza si se quiere complementaria. Más tarde volveremos sobre este particular, y sobre la mirada reflexiva que las técnicas que hemos desarrollado son capaces de arrojar sobre la teoría. Recién hablamos de representación del conocimiento, y luego veremos la forma en que ese conocimiento se expresa, con una versatilidad aún inalcanzable -por ejemplo- por los sistemas de gestión de base de datos más sofisticados. Por ahora digamos que ni siquiera es imperativo que la descripción sea completa, que las definiciones sean taxativas o que las cláusulas se sujeten a exigentes cánones de sintaxis. Aunque algunos lenguajes (como el LISP) parezcan enrevesados y resulten desagradables a la vista, en programación lógica no hay formas preestablecidas de representación ni contenidos de estipulación forzosa. Podemos representar el agua diciendo que corre por los arroyos cuando deshiela, que es inodora, incolora e insípida, o que está compuesta por dos átomos de hidrógeno por cada átomo de oxígeno. Del mismo modo, podemos referirnos a los mataco como el grupo biótico que vive a determinada latitud y longitud, haciando mención de sus dioses o computando la población de sus asentamientos: la naturaleza de la representación depende de los objetivos teóricos, y no se excluye que éstos sean la reproducción del pensamiento salvaje, el desvelamiento de las estructuras del delirio, la modelización ecológica o la descripción pautada de la poesía. Si hay algo que la programación lógica no presupone, es que haya un solo modo (o un modo completo, u objetivo) de representar los datos, o datos que sean más dignos que otros, o más proclives a la representación. El programa lógico puede o bien acoger información conceptualmente dispersa para explorar ulteriormente nexos posibles, o concentrar conocimientos focalizados para construir acabadamente una teoría, con todos los grados intermedios de economía categorial, recursión, anidamiento o redundancia. Como no hay umbral de simplicidad o límite de complejidad que se impongan al diseño del programa, y como tampoco se prescriben sus contenidos, la técnica de la programación lógica no se restringe a ninguna etapa específica de la investigación ni obliga a establecer modalidades idiosincráticas de trabajo. Sería una bella propuesta sugerir que la utilización misma de la herramienta se disimule para evitar que se la endiose, para impedir que usurpe los primeros planos, y que se la saque a la luz sólo en el caso de que alguien ponga el trabajo propiamente antropológico en tela de juicio, para operar entonces una demostración aún mejor. Dado que la esencia de la programación lógica es la operación con símbolos, por primera vez en la historia de la informática nos es posible recurrir a las máquinas para garantizar el juego limpio de los procesos conceptuales que encadenan nuestras descripciones y nuestros juicios. El programador escoge tanto la sintaxis como la interpretación semántica, y no está en principio constreñido por ninguna lógica consagrada, sino sólo por sus propias necesidades de organización. Las limitaciones son, en todo caso, las mismas que las del pensamiento, pues la generación de teorías no está prescripta de antemano ni se desencadena inevitablemente como subproducto del mero accionar de las máquinas. En computación hay un axioma primario: garbage in, garbage out, o en buen romance, "si se ingresa basura, basura es lo que se obtiene". Si de la información que se introduce es imposible 6 En Inteligencia Artificial existen, de hecho, estrategias íntegramente consustanciadas en el ideal de la fenomenología y la hermenéutica. El más representativo de sus promotores ha sido, quizá, Terry Winograd (cf. Winograd y Flores 1987). 410 deducir genuinamente un orden, la máquina no lo hará por nosotros. A lo sumo, lo podrá deducir en tanto y en cuanto ese orden sea genuinamente deducible, y siempre que una abducción creativa, un acto de la imaginación, proponga su cálculo. Aunque el humanista sentado ante la pantalla puede darse el lujo de soslayar los problemas lógicos puntuales e ignorar la mecánica del silogismo, el significado de las conectivas o la interpretación de los cuantificadores, la destreza que confiere el conocimiento de la lógica no es de despreciar. Si al programador le place, puede acatar los procedimientos de la lógica académica, que son los que operan by default, es decir, los que se desenvuelven a menos que se estipule lo contrario. Con la suficiente experiencia de programación, se puede hacer que los procesos lógicos adquieran matices propios de una escuela o de una tendencia epistemológica determinada, o que alternen, por ejemplo, el sabor matematizante de Russell o Tarski con las iniciativas de Church o Quine. Pero si el programador quiere, puede poner en marcha las premisas de una lógica polivalente, de la lógica difusa, de la lógica probabilista o de la lógica chamacoco, en tanto sea mínimamente capaz de especificarla. Por añadidura, es posible someter el mismo conjunto de hechos a interrogaciones e hipótesis derivadas de premisas lógicas discrepantes, y someter los resultados de esa inspección a una comparación formal. Desde ya, no sólo podemos emular un rico repertorio de premisas lógicas en la base, sino que también podemos plegarnos a los variados conjuntos de principios teóricos que rigen la naturaleza de los problemas planteados y la forma de hacerlo. Podemos fingir incluso que nos hemos vuelto momentáneamente estructuralistas, o materialistas culturales, o hermeneutas, haciendo que la formalización se pliegue a todos los matices teóricos que correspondan para iluminar el mismo conjunto de hechos desde distintos ángulos, o para ver cómo se transforman las cosas que llamamos hechos cuando cambiamos de premisas. Esto último quiere decir que, en términos de la antropología del conocimiento o de lo que se ha dado en llamar ciencia cognitiva, la programación lógica constituye un excelente dispositivo de modelización. Pero no está todo dicho: si la descripción del fenómeno que se modeliza es suficientemente densa, conexa y ordenada, la descripción se transforma en un mecanismo generador de (potencialmente) todas las instancias posibles de ese fenómeno. La misma descripción es susceptible de comportarse, añadiendo los procedimientos adecuados, como esquema descriptivo, como base de datos y como modelo de simulación conceptual de los procesos relativos a ese dominio. Si describimos, por ejemplo, la estructura de una serie de mitos o relatos como un conjunto de clases de variables ordenadas de cierta manera y con determinados contenidos posibles, es factible realizar la descripción situándose en un nivel de generalización relativamente elevado y luego generar los mitos que responderían a la descripción en base a un corpus o a un inventario de los valores que podrían asumir las respectivas clases de variables. El educto o salida de este proceso de simulación sería un conjunto de narraciones individuales que nunca fueron introducidas como tales en el almacenamiento de la máquina, pero que serían estructuralmente posibles en función de la descripción general propuesta en forma de reglas combinatorias o de pautas emic. Lo mismo podría lograrse, naturalmente, si se tratara de procesos de cambio social, de patrones de asentamiento, de modelos de conducta interactiva, de acumulación de huesos en un yacimiento o de paneles de arte rupestre: basta definir los valores de sus respectivas variables como hechos y su secuencia o combinatoria posible como reglas. El sistema se encarga de instanciar los valores con sus posiciones estructurales, generando así una representación dinámica del fenómeno. Si los "procesos", "tendencias generales" o "estilos" están correctamente expresados, obtendremos una re411 producción realista de los fenómenos correspondientes; y si esa re-producción no es satisfactoria, tendremos ocasión de revisar la estructura de las reglas propuestas y de introducir las modificaciones a que haya lugar. Si se desea, se puede complementar la resolución lógica de este proceso con una representación figurada o esquemática expresada en el mismo lenguaje de programación, desplegando árboles esquemáticos, grafos, diagramas de flujo, pinturas, colores, símbolos o secuencias sonoras, de acuerdo con el fenómeno que se trate. Aunque la programación lógica es naturalmente más productiva cuando se utiliza para analizar una articulación teórica precisa, un nudo crucial de los procesos de razonamiento, una hipótesis consciente de ser tal, que cuando se la implementa para formalizar comentarios incidentales, con toda honestidad no sabemos que exista ningún ámbito de la disciplina imposible de expresar a través de ella. Modelizar una teoría compleja puede resultar impráctico, y cuanto menos conexos sean sus momentos, cuanto menos se crucen los términos que participan en sus proposiciones, tanto más escuálida será su productividad; pero en principio no es imposible, y hasta podría ser fundamental si es que se la modeliza con la intención de optimizarla. Si se puede manifestar verbalmente una idea, luego será posible también expresarla en los predicados que constituyen la base sintáctico-semántica de nuestra herramienta. Las definiciones taxativas no tienen nada que ver con ésto, pues se refieren al espacio empírico de la operacionalización7 , y no necesariamente al proceso de formulación y verificación lógica de una teoría o a la construcción de un modelo, que es donde nosotros situamos nuestro aporte. Esta observación es importante, pues se refiere a una instancia que no ha sido debidamente esclarecida por la epistemología de las ciencias. La definición es un dilema operacional, interpretativo o empírico que sólo adquiere la apariencia y la naturaleza de un problema lógico allí donde específica y explícitamente se lo estipula como tal. Como problema lógico, la debilidad y la fuerza de las definiciones radican en la consistencia interna del modelo del cual forman parte, y ya no en su aplicabilidad. La coherencia interna de los modelos y de las teorías puede establecerse sin mayor conflicto en función de definiciones que no tienen por qué remitir inexorablemente a la lógica de clases y que sólo tienen vigencia en su interior. Por supuesto, de lo que nada puede decirse lo mejor es callar. Pero todo lo expresable es desde ahora pasible de formalización. La amplitud de significaciones que puede ser cubierta por la programación lógica sólo deja de lado a las formulaciones voluntariamente inefables o a las que se niegan a reconocer los principios elementales de la identidad y la contradicción, cerrándose a la posibilidad de toda polémica (p.ej Tyler 1986); su exclusión, a decir verdad, no nos importa demasiado. 7 Es decir, los procedimientos que problematizan las condiciones necesarias y suficientes que debe satisfacer determinada entidad del mundo empírico para calificar como instancia de determinada categoría de la teorización. 412 3. LOS LÍMITES ANTROPOLÓGICOS DE LA COMPUTACIÓN CONVENCIONAL Dado que este ensayo no configura un manifiesto de ninguna "antropología computacional" que conciba la tecnología como un beneficio que se presta a las ciencias por el solo hecho de que el progreso avanza, debemos poner en claro cuáles son las diferencias que median entre una propuesta como la nuestra, hecha en términos de programación lógica, y una apología indiscriminada en favor de las máquinas. Lo que podamos decir más adelante sobre el panorama metodológico que la programación lógica nos abre, no tendría mayor sentido si no dejáramos sentados cuáles son a nuestro juicio los límites de las técnicas convencionales de programación con las que aquella contrasta. Límites que explican, por otra parte, el minúsculo impacto que la alardeada revolución informática ha tenido hasta hoy sobre las ciencias sociales renuentes a la cuantificación. La pregunta a formular es sensata: si ocurrió verdaderamente una revolución en el saber y si es cierto que la sociedad misma está cambiando por ello ¿cómo es posible que nuestra disciplina no haya acusado su efecto? Aquí se superponen dos responsabilidades, una por cada disciplina involucrada. Por un lado, las elaboraciones computacionales de la antropología son, hasta la fecha, enormemente convencionales, cuando no de una estremecedora candidez. Por el otro, los estudios que, desde la informática, pretenden ilustrar la utilidad de las nuevas técnicas de inteligencia artificial para los diferentes campos del saber, no acostumbran incluir a las ciencias sociales entre los candidatos a beneficiarse. Léase un ensayo en que se describa el uso de computadoras en antropología sociocultural, y se lo encontrará irremisiblemente trivial, informáticamente hablando. Búsquese un texto importante que ofrezca genuinas herramientas de inteligencia artificial específicamente pensadas para las ciencias sociales, y será afortunado quien lo encuentre. Hay que demostrar aquel aserto y aportar una solución al problema señalado en éste. Lo primero es la demostración, porque para resolver lo segundo es que elaboramos las interfaces, construimos los modelos y escribimos este ensayo. En la demostración que discurre en los siguientes párrafos seleccionaremos nuestros ejemplos de la arqueología, la cual se precia de mayor rigor metodológico que la antropología sociocultural, quizá porque de tarde en tarde cuantifica. Debe entenderse que nuestro dictamen, sin embargo, es extensivo a las aventuras computacionales de todas las demás orientaciones o ámbitos de nuestra profesión. Como podría esperarse, ni una sola de las aplicaciones antropológicas de recursos computacionales nos resulta satisfactoria. Textos como el de Richard y Ryan (1985), sobre computación y arqueología, sólo cubren unos pocos productos ready-made sin hacer referencias útiles a técnicas de programación de carácter más básico, mencionan una tecnología que ya era obsoleta a la fecha de la publicación y dedican más de la mitad del libro a una introducción a la informática absolutamente inespecífica, que no es más útil a un antropólogo de lo que lo sería para un empleado bancario. Al margen de ello, Richard y Ryan analizan paquetes de software escasamente portables y realizan afirmaciones infundadas, como la que pone en duda que en los próximos años se efectúen avances en materia de lenguajes de programación que puedan tener incidencia sobre la disciplina (1985: 201). Este es un aserto que ningún analista osaría suscribir en una era de evolución tecnológica explosiva y al que un trabajo como el presente sin ningún lugar a dudas recusa. Puede juzgarse la calidad computacional de este texto a partir del hecho de que dedica siete páginas al lenguaje COBOL, construido para satisfacer requerimientos comerciales, sin acusar siquiera recibo de la 413 existencia del Prolog, de los sistemas expertos o de los lenguajes de programación orientados al objeto. El ensayo de Dan Moore (1978), que versa sobre lenguajes de simulación de procesos arqueológicos, ilustra con meridiana claridad la forma en que las referencias a la computación como garantía de exactitud encubren la vaguedad de todo lo que se afirma. Moore, por ejemplo, comenta dos presuntos "lenguajes compiladores" de simulación, SIMSCRIPT y SIMULA, cuya adopción recomienda. Ahora bien, ni SIMSCRIPT ni SIMULA son en realidad lo que una definición precisa caracterizaría como "lenguajes" de esa naturaleza, ni es en absoluto verdad que los compiladores están "orientados hacia el problema, y no hacia la máquina", como eventualmente se pontifica (1978:11). Existen, de hecho, lenguajes de muy bajo nivel, íntegramente "maquinísticos" en su semántica, que son sin embargo compilables, y existen también versiones interpretadas (es decir, no compilables) de Prolog, que es un lenguaje de altísimo nivel: la diferencia, sencillamente, no pasa por ahí. A diferencia del SIMSCRIPT y del SIMULA, el Prolog no sólo es un lenguaje cabal, sino que al igual que el LISP, puede llegar a ser su propio metalenguaje: su gramática es especificable en Prolog mismo. Por otra parte, la estructura de las cláusulas de SIMSCRIPT y de SIMULA revela a las claras que no estamos en presencia de lenguajes, sino de macro-lenguajes: entidades computacionales de alto nivel, compiladas sobre un lenguaje verdadero de nivel más bajo (tal vez FORTRAN o ALGOL), pero que carecen de una gramática BNF completa8 y que lo mismo podrían operarse mediante "frases" como a través de planillas, teclas de función, ratones o menús. Nótese que hablamos de "compilados", no de "compiladores": confundir estos conceptos equivale a incurrir (como Moore lo hace) en una gruesa falacia de tipificación. ¿En qué medida puede un arqueólogo adquirir uno de estos productos, ponerlo a funcionar y estar seguro de que lo que produce responde a una fundamentación rigurosa? Pensamos que en ninguna. Lo concreto es que cada cláusula en uno de estos macro-lenguajes compilados dispara una cantidad no especificada de pasos, cuya naturaleza tampoco está especificada. Podemos confiar en la corrección de los productos, pero en ausencia de una documentación completa de sus fundamentos filosóficos y matemáticos, esta confianza no pasa de ser un acto de fe. Fuera del fetiche tecnológico y de las páginas cubiertas de fórmulas oscuras, no hay en el artículo de Moore ninguna formalización, por cuanto los algoritmos procedimentales de ambos productos son una incógnita que se agrega a los pasos del método. Como herramienta de axiomatización científica, lo mismo vale encomendarse a Dios. El artículo de Dennis O'Neill en American Antiquity representa el proverbial encantamiento de los antropólogos hacia las bendiciones prácticas de los productos off the rack orientados al comercio, que pueden ser utilizados "para catalogar, clasificar y simplificar el análisis de los datos arqueológicos rápida y fácilmente". "No es necesario -agrega O'Neill- que los arqueólogos esperen más tiempo antes de pasarse a las computadoras para la mayor parte del procesamiento de sus datos" (1984:809, 814). En nuestro trabajo se encontrará muy poco de este simplismo aferrado a la practicidad, porque aquí no consideramos al antropólogo como el usuario de un producto en el tratamiento de sus datos, sino como el programador de una máquina en la representación de sus 8 BNF es acrónimo de Backus Naur Form, una gramática de estructura de frase context free, similar a la porción generativa de la gramática chomskyana. En informática, esta es la forma de presentación canónica de los metalenguajes; ningún lenguaje carente de esa especificación se considera plenamente tal. 414 conocimientos. Esta última es, como se verá, menos una cuestión de práctica que de teoría, aunque la práctica resulte también afectada. No somos nosotros ni los inventores de la idea ni los descubridores del hecho de que la computación se ha venido empleando torcidamente en las ciencias sociales. Hace ya veinte años, el polémico Allan Coult (creador de una insólita "antropología psicodélica") protestaba contra los abusos en el uso de computadoras en nuestra disciplina, poniendo en el centro de su mira a las complicaciones superfluas, más que a las formalizaciones ilusorias: El uso de computadoras es para muchos antropólogos una técnica mágica empleada por unos pocos de sus colegas; a ellos se les da automáticamente el título de sabios matemáticos, porque su trabajo tiene el prestigio relacionado con los métodos cuantitativos y porque sus colegas, mayormente incapaces para juzgar sus resultados, aceptan la validez de sus trabajos como artículo de fe. Es suficiente cubrir cierto número de páginas con notaciones oscuras y fórmulas matemáticas para que sean publicadas en nuestras revistas más prestigiosas. [...] En ninguna otra profesión la reputación de competente se construye sobre una habilidad tan escasa (Coult 1968:22, 26). Las afirmaciones de Coult estaban ampliamente fundadas en una generalización a partir de casos concretos. Tras esos juicios, Coult desconstruía varias de las empresas que en su época parecían augurar un futuro deslumbrante para la sistematización de la ciencia: el análisis matemático de la terminología comanche de parentesco realizado por Hammel, el análisis factorial de datos transculturales de LeVine y Sawyer, los cálculos estadísticos de Robert Textor sobre los archivos de la HRAF. Podríamos seguir cuestionando los usos antropológicos de la computación hasta el infinito. Aunque algunas aplicaciones son ingeniosas, por lo común han sido tan precarias que su crítica pronto se vuelve letárgica de tan fácil que resulta. Por lo demás, la dificultad de la computación se ha vuelto un tópico profesional de la antropología. Yasunori Yamamoto, en un artículo circunstancial pero significativo, caracterizó cinco niveles en el uso de las computadoras por parte de los etnólogos: 1) Utilización de datos que otras personas ya han procesado computacionalmente. 2) Requerimiento de desarrollo de un programa de computadora a un especialista, a fin de efectuar determinado proceso. Para Yamamoto esta puede llegar a constituir "una de las interfaces más inteligentes entre el hombre y la máquina". 3) Utilización de programas ya hechos, simplemente en el papel de usuario final. 4) Combinación de programas ya hechos, subrutinas y paquetes de aplicación para el tratamiento de determinados datos. 5) Programación de una computadora utilizando un lenguaje determinado. Yamamoto presume que "el etnólogo puede hacer todo lo que puede hacer un especialista en computación"; pero el costo de esta capacitación es elevado y el proceso de aprendizaje es tedioso. Viene bien sintetizar el panorama que se nos pinta, por cuanto es expresivo del estado de cosas propio de la programación procedimental: Aún para un programador profesional, no es fácil escribir un programa en gran escala que funcione correctamente. Un etnólogo que trata de escribir un programa experimenta dificultades a un nivel más primario. Primero, se enfrenta a conceptos no familiares (tales como variable, loop, salto condicional, subrutina) y a estructuras de datos complicadas. Cada paso del programa significa una función abstracta y constituye sólo una parte muy pequeña de todo el programa. Lo que él quiere procesar se debe reducir a una larga secuencia de cláusulas que la computadora pueda entender. El trabajo es tedioso y se debe hacer paso a paso, y siempre hay un hiato entre cualquier paso del programa y el objetivo final. Las reglas (o gramáticas) del lenguaje de programación son muy estrictas. Si se omite un solo punto, el programa no correrá como se espera que lo haga. Con 415 muchas otras responsabilidades aparte de la programación, un etnólogo habitualmente no puede dedicar tiempo a escribir un programa (Yamamoto 1987:176). Ned y Lou Heite (1982), arqueólogos de profesión, llegan a conclusiones similares que traslucen la existencia de una "barrera de jerga" entre las ciencias sociales y la informática, barrera que impide a los antropólogos acercarse a herramientas potencialmente útiles. Ellos piensan que la valla interpuesta por esa jerigonza se puede trasponer o eludir. Nuestra opinión es otra, porque conocemos la denotación de esa jerga y sabemos que aunque ocasionalmente se la despliega en vano, en general es precisa e inevitable: no se trata, como podría prejuzgar el humanista receloso, de una colección de ensalmos y fórmulas pensadas para deslumbrar, de un amontonamiento de mantras tecnológicos, sino de una forma de referencia sintética a una enorme experiencia sustantiva que no podría enunciarse de otra manera sin multiplicar el número de significantes que hay que conocer. El hecho es que ambos campos no se comprenden. No sólo hay una jerga que asimilar, un vocabulario que agregar al que toda elaboración científica de por sí prodiga: hay un know-how descomunal al que esa jerga corresponde y que no se agota en ella. La solución a este dilema serio y cierto no parece ser, empero, la interdisciplinariedad. Uno de los factores que este ensayo y sus exploraciones concomitantes procuran eliminar de raíz es la incompatibilidad que se ha manifestado tantas veces en la producción interdisciplinaria, en la que los diversos especialistas convocados no han logrado comunicarse plenamente sus respectivas necesidades y ofrecimientos. Si la interdisciplinariedad es el justificativo de una modalidad de capacitación técnica inmovilizadora para una de sus partes, entonces redondamente nos oponemos a ella. Analicemos con algún detenimiento la forma en que se desenvuelve la cooperación interdisciplinar entre antropólogos e informáticos. Lejos de materializar la "interface óptima" que seducía a Yamamoto, lo habitual es que el analista de software ignore las connotaciones de la información antropológica que se le suministra y el contexto preciso de las polémicas internas, y que el antropólogo presente un requerimiento que en gran medida es ininteligible o de escaso interés para sus colaboradores eventuales. En nuestra peregrinación a la Universidad de Davis en busca de la mayor autoridad mundial en modelos arqueológicos de simulación, hallamos que el mismo ignoraba el lenguaje en el que se habían programado sus sistemas, el tipo de máquinas en que podían correr y los entornos operativos a los que se podían portar. No obstante el prestigio académico que por lo común se otorga a la labor transdisciplinar, las monografías cooperativas, como la de Colby y Knaus (1974), la de Coult y Randolph (1965) o la de Stefflre, Reich y McClaran (1971), son invariablemente decepcionantes. La interdisciplinariedad convencionalmente entendida promueve extravagantes parálisis de la iniciativa epistemológica, como si se encontrara mayor virtud en recalcar la ignorancia que el usuario tiene de los beneficios tecnológicos que se le dispensan, que en tratar de disipar su misterio. Para ejemplo basta este caso: después de treinta y cuatro años de publicar artículos sobre el uso de computadoras en arqueología y sobre el problema de la significación, Jean-Claude Gardin nos sorprende revelándonos que él no es "ni un semiótico ni un experto en computadoras" (1989:5). Cualquiera haya sido el predicamento de los clásicos hitos transdisciplinares que mencionábamos antes, hoy se los percibe como conatos rudimentarios, exultantes de una candorosa tecnolatría, por poner un nombre a una nueva clase de conducta fetichista en la que una de las partes no sabía qué pedir, la otra ignoraba qué ofrecer, pero ambas proclamaban de todas maneras su vanguardismo. En este ámbito de interdisciplinariedad compulsiva, ni los problemas antropológicos han sido planteados en toda su complejidad y riqueza de matices, ni los recursos informáticos han sido aplicados en toda su 416 potencia, probablemente porque la interacción necesaria y la compenetración mutua (si es que son posibles) requerirían una comunidad de intereses y motivaciones que debería extenderse a lo largo de muchos años, so pena de trivializar tanto el problema como su resolución. Que ambos se han venido trivializando, es harto evidente. De otra manera no se habría podido considerar que la adopción de los beneficios de la "inteligencia artificial" por parte de los antropólogos es un hecho consumado, que no suscita ninguna dificultad especial (p.ej. Colby, Fernandez y Kronenfeld 1981; Toren 1983). Nuestra tesis demuestra que ese acople no puede materializarse hasta que se traduzcan sus significaciones, se resuelvan sus puntos oscuros, se exploren sus consecuencias y sus premisas y se fabriquen los instrumentos adecuados. Por supuesto, a los antropólogos de la vanguardia les gusta presumir que "utilizan técnicas de inteligencia artificial" y que la tecnología del futuro respalda incluso sus reclamos ideológicos; (cf. Randall 1976; Rice 1980; Casson 1983), pero nadie ha alcanzado aún siquiera a arañar la superficie de lo que esa utilización impone, presupone y representa. El viso humanista de la enculturación académica de los antropólogos los capacita cuando mucho para transformarse, pasados unos años, en programadores diletantes. No conocemos ningún trabajo antropológico que testimonie ese maridaje con las tecnologías de avanzada que sea mínimamente riguroso y que no esté surcado de gruesos errores de concepto, inadmisibles aún en los ejercicios de un aprendiz novel. Mencionaremos, con todo el respeto que nos merecen sus responsables, algunos de los disparates más insignes que a nuestro entender nos han legado, a fin de que se pueda tener una idea de su carácter abismal: 1) En El Contador de los Días, Benjamin Colby estima posible formalizar la producción de textos etnográficos en base a reglas de reescritura, ignorando la necesidad de reglas transformacionales y de subcategorización (Colby y Colby 1987). Aplica, en fin, para dar cuenta de textos complejos de una cultura extraña, un formalismo que ni siquiera resulta semánticamente aplicable a frases simples de la propia lengua. 2) En "Analogy, Mysticism, and the Structure of Culture", Sheldon Klein (quien al revés de Gardin sí se define como experto en inteligencia artificial) afirma que existirían teorías que conciben el cerebro como si fuera un autómata finito. Es indudable que Klein utiliza el término equivocado, y como lo hace reiteradamente es posible alimentar la sospecha que no domina ni siquiera la nomenclatura básica. En rigor, y si fijamos como precondición para la existencia de semejantes teorías que quienes las suscriben sepan qué es un autómata finito, estas teorías no existen. Los autómatas finitos no pueden ser modelos de la mente, pues como es sabido, ellos carecen de memoria y parten de un estado inicial completamente estipulable (Klein 1983; cf. Martin 1972). 3) El mismo Sheldon Klein asevera que el tiempo de procesamiento de un razonamiento conceptual crece en forma exponencial de acuerdo con la magnitud de la base de datos (1983). Esta apreciación, que le sirve de pretexto para fundar un modelo "analógico" del que después hablaremos, decididamente es incorrecta y no se funda ni en una evaluación teorética seria, ni en una serie tangible de datos experimentales. En todo caso, su sustento matemático es erróneo. Si un conjunto de datos se sortea siguiendo una estructura de árbol binario, el tiempo insumido en encontrar un item sería, en promedio, proporcional al logaritmo binario del número total de elementos. Como un buen experto debería saber, el crecimiento exponencial del tiempo de resolución está relacionado con la complejidad de los procesos de inferencia, y no con la masa de datos que se consideran. 417 4) Dan Sperber, en un conocido artículo varias veces reimpreso (1979) en el que modeliza el procesamiento humano de la información, echa mano de un esquema de estructuras procesuales que los especialistas en ciencia cognitiva habían descartado por ineficaz (cf. Toren 1983). Su jerga relativa a los "procesadores" lógicos y simbólicos albergados en la mente (derivada de las primeras obras de Ulric Neisser) se salpica sobre una concepción harto idealizada de los tratamientos computacionales, en un desarrollo que no agrega precisamente sutileza al peligroso despliegue de metáforas de la ciencia cognitiva. No es de sorprender que los antropólogos menos entusiastas hayan rechazado las técnicas de vanguardia con presuroso desdén: Clifford Geertz (1987:39) utiliza un renglón para argumentar su desprecio por la ingeniería computacional, a la que reputa de "alquimia", en tanto que Marshall Sahlins (1976) dedica un párrafo de cuatro líneas y una sorna indecible a la condena taxativa de la lógica nebulosa, favorita de la facción humanista de la Ingeniería del Conocimiento. En nuestras conclusiones revisaremos las motivaciones escondidas y la estructura conceptual de esas manifestaciones de desprecio, y estimaremos la necesidad de su revisión, de que dosifiquen al menos su cuota de soberbia, ante un proyecto formal que al fin funciona. Cuando los antropólogos de vanguardia se refieren a la "inteligencia artificial" casi siempre denotan una esfera de prácticas sui generis, inscripta por lo general en la llamada Ciencia Cognitiva, en la que la modelización sigue siendo discursiva y no está acompañada por ninguna experiencia computacional concreta, aunque abunden los diagramas de flujo, los grafos orientados, los neologismos y las palabras en mayúscula. Allí donde se cantan las loas de la revolución tecnológica, se despliega con más frecuencia su parafernalia simbólica que sus mecanismos de resolución. El caso más notable es el de los desarrollos en "inteligencia artificial" aplicada a la arqueología por el equipo francés de Jean-Claude Gardin, Marie-Salomé Lagrange y Monique Renaud (cf. Gardin 1967; Gardin 1989; Gardin et al 1987; Gardin et al 1988; Lagrange y Renaud 1982). Estos estudios "posibilistas" aportan ocasionales reflexiones de cierto interés, pese a su fatigoso semioticismo, a su excesiva tolerancia para con los planteamientos vagos y al hecho de estar dirigidos por un intelectual que, como ya dijimos, se jacta de no ser ni semiólogo ni experto en computación (Gardin 1989:5); pero la relación de todo este movimiento con la práctica efectiva de la programación es muy difusa y la utilidad de los formalismos que han producido para la construcción de modelos es, probablemente, nula. La mayoría de los trabajos consultados en la antropología computacional y en su periferia, empero, se ocupa de modalidades computacionales sumamente conservadoras, que ni siquiera han tomado nota del advenimiento de la inteligencia artificial o lo han hecho circunstancialmente, en una nota al pie que nos recuerda, más o menos, que "la ciencia sigue progresando en alguna parte" (cf. Colby, Fernandez y Kronenfeld 1981; Klein 1983; Reading 1983). Hagamos de cuenta, por el momento, que la computación tradicional de naturaleza cuantitativa es en principio útil, metodológicamente, a la investigación sociocultural. Esto ya involucra cierto grado de ficción. Pero aún así tendríamos que subrayar que el uso de técnicas computacionales cuantitativas por parte de los antropólogos es por lo menos potencialmente tan peligrosa como servicial, si no es que más. Esta peligrosidad no es marginal, y no se reduce a la sospecha de que los antropólogos carecen por lo general de habilidad en el terreno de la programación, o al hecho de que los nexos profesionales con especialistas de otras áreas -por efecto del famoso síndrome de la interdisciplinariedad- tienden a ser esquemáticos, superficiales o competitivos. A la opacidad de la computación en sí se añade la de las matemáticas a las que se recurre, y de las que resultan cifras que pocos están en condiciones de interpretar y menos aún de comunicar inteligiblemente a los profanos. Impulsadas por programas convencionales que son sólo ristras de procedimientos variadamente 418 descompuestos, las computadoras sólo hacen las operaciones que se les pide, sin analizar si su contexto es el apropiado o su interpretación es justificable; realizar una operación de este tipo a mano o con una simple calculadora de bolsillo (aunque no garantice el mismo prestigio) no es necesariamente más inexacto. La peligrosidad de la computación convencional no es circunstancial, sino que es inherente al modo en que ésta opera. Existe un doble hiato entre la pragmática de las operaciones de la máquina, la sintaxis de los lenguajes típicos de programación y la semántica del problema que se modeliza. La programación en un lenguaje clásico como el Fortran, el Pascal, el Modula-2, el Basic o el mismo C es intrínsecamente procedimental o prescriptiva. Sea que se trate de un lenguaje de "alto nivel" (más cercano semánticamente al problema) o de "bajo nivel" (más allegado semánticamente a la máquina), siempre se le está diciendo a la máquina qué es lo que tiene que hacer para resolver un problema. Con los lenguajes más cercanos a la máquina estas operaciones prescriptivas o procedimentales no guardan la más mínima correspondencia conceptual con el problema; menos aún si se trata de un problema propio de las ciencias blandas. Con los lenguajes de nivel más alto esa correspondencia puede llegar a ser aparente, pero se la debe construir paso a paso. A la máquina sólo se le dice que abra archivos, que lea registros, que mueva determinados campos, que efectúe ciertas comparaciones, que realice operaciones entre campos pertenecientes a los registros o entre los contenidos de la memoria, que escriba un registro, que realice una clasificación por orden numérico o alfabético, que cierre un archivo, y así hasta el infinito. Una leve modificación en la estructura de los datos, un ligero error en la secuencia de operaciones mecánicas realizadas, bastan para que el procedimiento sea globalmente incorrecto. Si bien existen prestaciones de tracing que permiten el seguimiento computacional de un programa, estos recursos no nos acercan un milímetro, semánticamente, al problema general (y conceptual) que un programa de computación debe resolver. La computadora es una herramienta veloz y de memoria infalible -qué duda cabe- pero el tratamiento computacional de un problema es un mecanismo de multiplicación exponencial de las posibilidades de resolverlo equivocadamente. Por ello es penoso que científicos sociales de renombre crean a pies juntillas en el educto de "ejecutables" preprogramados (que en esta era de piratería de software, casi siempre han sido robados a un ladrón), y que depositen su confianza en programas intrincados, careciendo ya sea de los listados fuente que los documentan o de la idoneidad computacional para descifrarlos. Los programas elaborados en función de las posibilidades de un lenguaje procedimental, además, sólo sirven para resolver problemas incorporados previamente a su esquema de resolución. Los datos que forman parte del almacén de conocimientos representados no sirven para responder preguntas que no hayan sido consideradas específicamente en los procedimientos, aunque en lo conceptual se traten de problemas similares a los que sí pueden resolverse. Una vez programadas determinadas consultas no se pueden plantear ni siquiera cuestiones íntimamente relacionadas, por más que desde el punto de vista lógico sean triviales (como, por ejemplo, lo son la transitividad, la semejanza, la generalización y la reciprocidad). Es imposible establecer a priori todas las preguntas pertinentes susceptibles de plantearse a propósito de determinada cuestión. En un lenguaje prescriptivo, hay que realizar un programa, una rutina o un procedimiento para cada tipo de pregunta susceptible de ser planteada por el futuro usuario y para cada uno de sus matices de varianza semántica. Un programa escrito para responder a la pregunta "¿en qué región viven los yanomamo?", por ejemplo, no sirve para responder sobre la marcha a esta otra: "¿qué otras tribus habitan la misma región?". 419 Sinteticemos los peligros aludidos hasta ahora: por un lado, el carácter procedimental de la programación, que no deriva trabajo sobre la máquina sino que arroja sobre el usuario humano la obligación de descomponer su problema en pasos esotéricos, sin correspondencia con las formas humanas de solucionarlo. Por el otro, la falta de "inteligencia" de la máquina para resolver problemas afines a los que hayan sido formulados explícitamente. Por último, la posibilidad totalmente fuera de control de que los pasos para resolver un problema estén mal estipulados. Pero el riesgo más importante tiene que ver no sólo con la rigidez y mecanicidad de los procedimientos inferenciales, sino con la escasa plasticidad de las formas convencionales de representación de los datos. Si el programa en cuestión es una rutina de gestión de base de datos (DBMS), pronto hallaremos que las formas de representación de los datos propia de esta tecnología son demasiado esquemáticos como para plegarse a nuestras necesidades conceptuales. Si definimos un campo para indicar -digamos- la materia prima de un artefacto arqueológico, o bien sólo podemos introducir un indicio sumario, o bien tendremos que definir ese campo con la longitud de la máxima combinación probable de elementos (piedra, madera, cuero, papel, tela, cerámica, bronce). En el primer caso perdemos precisión antropológica, en el segundo desperdiciamos espacio computacional y enrevesamos las operaciones de consulta. En ambos, nos alejamos del terreno de una implementación razonable. Los programas y lenguajes de la computación convencional, en otras palabras, carecen de elasticidad para enfrentarse a datos, casos y fenómenos cuya variabilidad es poco menos que absoluta. Carecen, por ejemplo, de listas y de árboles, estructuras de datos inherentemente elásticas y capaces de ser infinitamente recursivas, de contener en sí mismas otras estructuras versátiles de la misma naturaleza. Un solo caso de variabilidad de la que no podamos dar cuenta computacionalmente (un número variable de hijos de un matrimonio, un número incierto de tribus en una confederación, un número indefinido de localidades en una provincia, una variable cuyo valor conocemos sólo con referencia a muy pocos casos) nos hacen ya sea adoptar procedimientos imprácticos, o esquematizar la información de una manera que sería inadmisible si hubiésemos empleado otra metodología como -por ejemplo- lápiz y papel. Hemos conocido casos que a la inadaptabilidad del software agregan el escaso ojo clínico del antropólogo para las operaciones formales: una base de datos relacional, por ejemplo, sobre la que se calculaban promedios, ignorando que los valores desconocidos para el antropólogo eran más bien nulos para la máquina. Pese a su perspicacia aparente, el software no contaba con ningún recurso predefinido para neutralizar los efectos de esa falacia. En los últimos meses, en los que hemos procurado multiplicar los intercambios de ideas y las funciones de asesoramiento, hemos chocado con la proliferación de técnicas aberrantes, al compás de la diseminación de las máquinas: mitos y entrevistas tratados con recursos de bases de datos (en vez de Hypertext o Cardfiles), conocimiento experto almacenado en planillas de cálculo (en lugar de KBS), y datos cuantitativos sacrificados en aras de las limitaciones estadísticas del Lotus. Los metodólogos, entretanto, se llaman a silencio, porque su saber artesanal y su formación humanista no los capacitan siquiera para interactuar dignamente con los rudimentos de un sistema operativo. Este apartado no tiene por objeto sistematizar un canon exhaustivo de los fallos de la computación convencional, sino sencillamente establecer un contraste que los sucesivos capítulos deberán enriquecer. Por ello terminaremos mencionando sólo un peligro adicional: a nivel de las operaciones puntuales, la computación clásica es metodológicamente indócil porque, salvo que hablemos a la máquina en binario, su granularidad no es verdaderamente puntual. El procedimiento concreto seguido por la máquina para la resolución de una cláusula (por ejemplo, un query de SQL o una comparación de literales) varía de una marca de software a otra, de una a otra versión de un mismo producto, de un dialecto a otro de un lenguaje, de una generación a otra del sistema operativo, al 420 compás de consideraciones tan poco antropológicas como la economía en la cantidad de memoria consumida, la reducción del número de pasos elementales en el programa compilado, el tiempo de acceso en la lectura del disco y así por el estilo. Los fabricantes sólo conocen el idioma de la amplitud creciente de las prestaciones, sin obedecer estándares o intentando imponerlos de facto a fuerza de inversión publicitaria, de creación de necesidades y de estrategias de distribución. Esto implica, ni más ni menos, que cuando pedimos a la máquina que efectúe una operación que, por su propia índole, se halla ya distanciada de los pasos metodológicos "naturales" o sistemáticos de la resolución del problema, no sabemos qué es lo que el sistema hace precisamente en respuesta a nuestro requerimiento. Al contrario de la programación lógica, que mira con desconfianza todo cuanto no esté axiomáticamente fundado y que dibuja círculos de exclusión alrededor de algoritmos eficaces pero oscuros, la computación clásica sólo responde a criterios de masa, velocidad y color, reputándose tanto mejor cuanto más escondida esté para el usuario la racionalidad de su verdadera articulación. Si se tratara de planificar una herramienta deliberadamente amenazadora para las ciencias sociales, no podría delinearse nada tan perverso e incontrolable como la computación convencional. 421 4. PROLOG: EL CONTEXTO TECNOLÓGICO El capítulo que sigue versa exclusivamente sobre computación; pero de haber un lector antropólogo, más que insinuarle saltear su lectura le invitaríamos a realizarla escrupulosamente. Si bien los especialistas en informática podrían omitirlo sin mayores pérdidas, en él hablamos de ciertos aspectos que podríamos llamar filosóficos que la literatura del género casi nunca aborda y que demasiado a menudo se dan por descontados. En los párrafos siguientes se clarifica la denotación de algunas categorías técnicas de orden pragmático que ya hemos introducido sin mayores aclaraciones y se brindan pautas para tipificar y comprender mejor las que vienen más adelante. Para situar debidamente la herramienta que utilizaremos en el contexto de otras herramientas posibles y en el espacio del estado actual de la investigación en torno suyo, debemos prodigar algunos tecnicismos. La informática abunda en ellos, en una proporción de mil a uno respecto de una antropología que a veces, sin motivos verdaderos, se queja de la proliferación de su argot. Es nuestro objetivo, empero, que ninguno de esos tecnicismos se utilice en vano o quede privado de su correspondiente explicación. No debe olvidarse que este no es un texto de informática ni un estudio de sus múltiples aplicaciones, sino el reflejo de una investigación antropológica en la que el autor simplemente utiliza la herramienta que corresponde, a la que cree conocer con la familiaridad debida, y a la que está obligado a hacer conocer con la claridad que sea preciso. Para ello habrá que hacer un poco de historia, lo cual vuelve a ser problemático porque la historiografía computacional carece de preceptiva, de método y de verosimilitud. Los orígenes del lenguaje Prolog son oscuros; se sabe que fue inventando por Alain Colmerauer y sus colegas en la Universidad de Aix-Marseille, hacia 1972, y que su nombre es un acrónimo por programación en lógica; que se lo utiliza (junto con el LISP, mucho más antiguo) en proyectos de investigación en inteligencia artificial, que su versión canónica está constituida por el llamado "Prolog de Edinburgo" o "Prolog de Clocksin y Mellish", y que fue adoptado masivamente en los Estados Unidos después que los japoneses amenazaron con utilizarlo, en 1981, en su grandioso proyecto de las "Máquinas de Quinta Generación" (Feigenbaum y McCorduck 1985), luego abortado. Esta referencia periódica merece esclarecerse. Las cuatro generaciones anteriores corresponden a otros tantos horizontes tecnológicos, según este cuadro aproximado: 1) Máquinas con válvulas de vacío, correlativas a la programación en lenguaje de máquina. 2) Introducción de transistores, lenguajes de alto nivel, monito- res y ensambladores de macros. 3) Incorporación de circuitos integrados, sistemas operativos y multiprogramación. 4) Integración en gran escala (VLSI), surgimiento de la tecnología PC y universalización del sistema operativo DOS. Esta genealogía, tomada de Gruenberger (1976) y en la que no todos concuerdan, trasunta la automitología de la informática, que ve en la proliferación de etapas y en su minucioso inventario la confirmación de un impulso dinámico que nadie en sus cabales se atrevería a desmentir. Dado que la inteligencia artificial es un ámbito frecuentemente mixtificado y que la computación en sí es una actividad misteriosa para la mayor parte de los científicos sociales, es imperativo definir los términos cruciales y practicar una serie de distinciones. Los científicos sociales tienden a confundir, eventualmente, los contenidos semánticos de "Informática", "inteligencia 422 artificial", "programación lógica", "Ciencia Cognitiva", "Ingeniería del Conocimiento", "Teoría de Autómatas" y hasta "Robótica" y "Cibernética", por lo que esta puntualización no es superflua. Servirá no tanto para suministrar una visión objetiva de cómo es verdaderamente el panorama tecnológico, sino para especificar con mayor precisión el marco categorial y paradigmático en que este mismo trabajo se inscribe. Como ya lo hemos dicho, aunque empleando otros conceptos, nuestra investigación explora la utilidad de un lenguaje de programación lógica, el Prolog, para la antropología. La programación lógica es una especialidad dentro de la programación en general que se ha desarrollado en el interior de la inteligencia artificial, la cual a su vez es una especialidad no necesariamente nueva dentro de la informática. El objetivo primario de la programación lógica es el uso de un simbolismo lógico como lenguaje de computación. Empleamos aquí el término de informática como equivalente al procesamiento de la información o, como se dice por extensión metonímica, a la computación. Contrariamente a lo que muchos piensan, la cibernética tiene poco o nada que ver con la Informática: la cibernética se ocupa del estudio de un tipo particular de sistemas que poseen mecanismos de control basados en el principio de la retroalimentación (feedback). Pese a que en toda computadora (igual que en todo refrigerador) puede haber algunos mecanismos de este tipo, ninguna computadora es una entidad "cibernética" en sí misma. Los especialistas en computación, que sepamos, jamás utilizan ese término, excepto para denotar la teoría y el estudio de los mecanismos de regulación retroalimentados como un asunto susceptible de computar entre otros. Entidades de Software Sistemas Operativos Entornos operativos Lenguajes Productos Seudolenguajes Tipos Gráficos Prescriptivos Funcionales Objetuales Declarativos Planillas DBMS Procesadores de texto Desktop Publishing Diseño Asistido Macros Generadores de reportes Lenguajes estructurados Ejemplos DOS, UNIX, Windows NT, OS/2 Windows, X/Windows Basic, Pascal, C, Forth LISP Smalltalk Prolog Lotus, Quattro, Excel dBase, Paradox Word, WordStar, WordPerfect PageMaker, Ventura AutoCAD Macros de Lotus Macros de Word RPG SQL Diagrama 1.1 - Tipos de Software Dentro de la inteligencia artificial encontramos diversos campos, que cada analista caracteriza según su criterio: robótica (o sea, fabricación y programación de mecanismos inteligentes), resolución automática de teoremas o de problemas lógicos, diseño de sistemas de conocimiento en general o de sistemas expertos en particular, ingeniería del conocimiento, diseño de computadoras inteligentes o de programas que emulen la inteligencia humana, tratamiento del lenguaje natural y reconocimiento de formas por parte de las máquinas. La programación lógica se aplica a todos estos 423 campos de la inteligencia artificial, como parte de un proyecto global para superar el estancamiento al que condujeron la programación procedimental por un lado, y la máquina de arquitectura Von Neumann por el otro. Trataremos en otro apartado la historia peculiar de la inteligencia artificial y sus tortuosas relaciones con las ciencias duras por un lado y las ciencias sociales por el otro. Refiriéndonos al Prolog, lo primero que salta a la vista es que se trata de un lenguaje de computación: esto implica que en computación existen otras entidades de software, aparte de los lenguajes, como ser los sistemas operativos, los programas utilitarios y lo que llamaremos "paquetes" o "productos" de software. Los programas utilitarios atañen por lo común a la administración de la máquina, por lo que podemos pasarlos por alto. Un "producto" (como ser el Lotus, el dBase IV o el Statgraph) es un programa o conjunto de programas que el usuario compra, instala y utiliza directamente, aplicándolo a sus datos. El lenguaje en que se compiló el programa que está en la base del producto es irrelevante para quien se sirve de él; en computación se ha popularizado una convicción que, aunque no se encuentra taxativamente comprobada, es por lo menos verosímil: en principio, y salvo que se requieran instrucciones exclusivamente concernientes a la máquina, se podría implementar cualquier programa convencional utilizando cualquier lenguaje. Existen diversos tipos de productos, concebidos para distintos fines: sistemas de gestión de base de datos (DBMS), spreadsheets o planillas de cálculo, sistemas de edición o procesamiento de textos, sistemas de composición gráfica o desktop publishing, sistemas de CAD o diseño asistido por computador, etc. Cuando un producto incluye algún "lenguaje", éste puede ser o bien una entidad lógica de alto nivel (como el lenguaje xBase, el AutoLISP o el SQL) o bien un logicial de bajo nivel, como las macroinstrucciones del Lotus; pero en este caso el nivel no se establece con respecto a la máquina, sino con respecto al umbral de referencia que fija el producto mismo. Se diría que los "lenguajes de macros" incorporados en los productos no son verdaderos lenguajes, como tampoco lo son algunos que pasan por ser tales, como el RPG, por carecer de una gramática completa y por no responder a ciertas características estructurales propias de todas las entidades de ese tipo. La primera de estas características (como lo saben los lingüistas después de Hockett) es la de poder ser su propio metalenguaje; el Prolog, desde ya, puede serlo (Covington, Nute y Vellino 1988:160-182; Sterling y Shapiro 1986). Esto permite, como se verá, adaptar la lógica de su funcionamiento a las exigencias de premisas diferentes a las que le sirvieron de base. Lo que sostenemos en este ensayo es que una formalización cabal que utilice recursos computacionales no puede situarse, de ninguna manera, a nivel de los productos ni de los programas readymade, como algunos antropólogos parecerían creer (Howell y Lehotay 1978; O'Neill 1984). Es necesario trabajar a lo sumo a nivel de los lenguajes, que es donde puede comenzar a tenerse dominio y control de las operaciones que la máquina verdaderamente realiza, y donde se dispone de una documentación suficiente como para ponderar los fundamentos y la estructura de la herramienta utilizada. En el caso especial del Prolog, podemos profundizar aún más en los niveles fundamentales, y acceder a los algoritmos lógicos que rigen por completo su operatoria. Cuando estemos en pleno desarrollo del trabajo de tesis propiamente dicho, verificaremos que esta exigencia es correlativa a la necesidad de definir un lenguaje de modelización como requisito para la construcción de modelos. Hagamos, no obstante, una aclaración que el especialista en informática comprenderá de inmediato: situarse a nivel de los lenguajes no significa estar obligado a codificar lo que se escribe en términos cercanos a la máquina, pues en tal caso la única opción legítima sería el Assembly o, mejor aún, el código binario. Significa más bien que trabajando de esta manera tendremos acceso conceptual a todas las inflexiones críticas que caracterizarán el comportamiento de los programas 424 que desarrollemos, de modo tal que podamos estar seguros que no se introducen efectos colaterales, que comprendemos todo lo que nuestra herramienta hace y que no violamos ninguno de los pasos lógicos que conducen desde un problema hasta su resolución. El Prolog es, acaso, uno de los lenguajes de más alto nivel que se conocen, pero al mismo tiempo es uno de los lenguajes de los que se tiene el más claro concepto en cuanto a su forma de operar, por su robusto vínculo con la lógica matemática y por su nítida fundamentación teórica (cf. Lassez y Maher 1983; Lloyd 1984). Utilizar un producto pre-hecho como objetivo, herramienta o campo de una investigación antropológica que lo pone en foco, sólo tendría valor de curiosidad. Servirse de un programa comercial exitoso, como el dBase o el Lotus (que todo el mundo sabe que están atestados de errores conocidos como "bugs") y situar esa utilización en el centro del escenario metodológico nos parece más grotesco que meritorio. Ningún producto, por otra parte, se halla suficientemente documentado en su estructura de procesamiento como para sustentar una formalización seria o al menos una secuencia controlada de procedimientos, ni siquiera en una disciplina tan poco exigente, metodológicamente hablando, como la nuestra. Menos aún los productos que por presiones comerciales en un mercado competitivo adoptan la filosofía user-friendly, que consiste en facilitar o trivializar las cosas para el usuario, disimular a toda costa las dificultades y proporcionar atajos para pensar menos, hasta el punto que las intimidades de la computadora se precipitan en una caja negra, el análisis de los medios para lograr ciertos fines se torna innecesario y la documentación técnica desaparece. La trivialidad de estos empeños no impide que cada tanto se realicen investigaciones, por ejemplo, sobre las prestaciones de diversos productos (bases de datos, planillas de cálculo, paquetes estadísticos) a ésta o aquella rama de la antropología (cf. Greene 1987), ignorando los gotchas que ellos registran aún en el contexto de su utilización comercial o financiera. Sólo unos cuantos productos de uso específicamente científico han resultado satisfactorios, pero muy pocos de ellos permiten expresar y verificar proposiciones teóricas cualitativas. Si nos centramos en torno a un lenguaje, entonces, como la máquina-herramienta que permite fabricar herramientas (programas, modelos) que a su vez pueden utilizarse para formalizar determinados procedimientos de la disciplina, deberemos especificar de qué clase de lenguaje se trata. El Prolog es un lenguaje de inteligencia artificial, lo mismo que el LISP o el Smalltalk. Esto no quiere decir mucho, ya que cualquier lenguaje se puede utilizar, en teoría, para ese mismo fin: de hecho, uno de los intérpretes de Prolog que nosotros usamos ha sido programado en lenguaje C, y existe cierta tendencia a utilizar lenguajes convencionales (Ada, Forth, C, Modula-2, Pascal e incluso Basic) en trabajos típicos de inteligencia artificial (cf. Tello 1988:392-400; Kluzniak y Szpakowicz 1985). Lo que viene a cuento de esta inserción del Prolog en el dominio de la inteligencia artificial, es que se trata de un lenguaje específicamente diseñado para superar el modelo de Von Neumann y la filosofía procedimental de resolución. Este modelo y esta filosofía son dos caras de una misma moneda. Von Neumann demostró que podía construirse una máquina para resolver problemas, siempre y cuando se pudieran implementar lenguajes que indicaran a la máquina lo que se debía hacer para resolverlos. Aunque hoy día esto pueda sonar pueril y sumamente obvio no lo es en absoluto, y tuvo que ser prolijamente demostrado en el plano teórico antes que se pensara siquiera en llevarlo a la práctica (cf. Desclés 1989). La máquina de Von Neumann es el modelo abstracto al que responden todas las computadoras convencionales, y los lenguajes procedimentales son los que implementan los conjuntos granulares de instrucciones que le dicen secuencialmente a la máquina qué es lo que tiene que hacer. Para resolver un problema, es necesario descomponerlo en una serie de pasos discretos que siempre tienen que ver con unos pocos tipos de operaciones propias de la máquina: comparar, mover, saltar a una 425 dirección determinada y sumar. Estos pasos discretos son las cláusulas del lenguaje o los comandos del programa. Aunque cada vez más abstractos, todos los lenguajes convencionales llevan la marca de la arquitectura de la máquina de Von Neumann subyacente. Por debajo de los lenguajes de este tipo opera un mecanismo que "traduce" las cláusulas del lenguaje que sea (COBOL, Fortran, Algol, C, PL/I, Forth, Pascal, Ada, Modula-2, Basic, APL) a las correspondientes "instrucciones de máquina". Este mecanismo se implementa procesando las cláusulas mediante un programa traductor que se denomina compilador o cargando en la memoria un programa que realiza la misma función y que se denomina intérprete. Hablar de lenguajes de "alto" o "bajo" nivel involucra una cuantificación relativa de las operaciones mecánicas producidas por cada cláusula (muchas y pocas, respectivamente), y en segundo orden implica una alusión a la lejanía o cercanía semántica entre las cláusulas y dichas operaciones elementales. Las máquinas que responden al esquema Von Neumann fueron diseñadas para efectuar cálculos numéricos en una época en que el equipamiento era costoso, frágil, voluminoso y consumía mucha energía; la economía computacional era en aquel entonces una variable importante: se trataba de utilizar un mínimo de equipo para construir sistemas de una sencillez máxima, con la mayor eficacia posible dentro de estas limitaciones. En la actualidad las premisas son otras. Las computadoras han alcanzado un nivel de prestación y una velocidad de procesamiento que pone a tiro objetivos más ambiciosos y su función, tanto potencial como real, va mucho más allá del cálculo numérico. A pesar de que cada tanto surgen audaces o conservadores que las defienden9, la mayor parte de los estudiosos en inteligencia artificial de avanzada considera que las máquinas de Von Neumann deben dejar paso a una estirpe de procesadores menos condicionados por sus contingencias de aparición. La arquitectura de Von Neumann condujo a una división del trabajo en dos grandes fases o aspectos: (a) la designación de un método para la resolución de un problema, o bien la formalización del conocimiento de que se dispone, y (b) la traducción de la resultante del punto anterior a un conjunto de instrucciones que la máquina estuviera en condiciones de aceptar primero y de resolver después. El modelo lógico de las distintas máquinas aceptadoras y resolvedoras es lo que se denomina un autómata, entidad que no guarda relación alguna con un robot, que es una máquina física controlada por una computadora. La teoría de autómatas es de orden puramente lógico y algunas de sus fases son anteriores e independientes del desarrollo de la inteligencia artificial e incluso de la computación; las máquinas de Turing, por ejemplo, datan por lo menos de 1936. La robótica, en cambio, se ocupa de las interfaces entre programas de control y dispositivos físicos y su surgimiento se encuentra relacionado estrechamente con el diseño de máquinas inteligentes, aunque existen innúmeros robots industriales que son de una escalofriante precisión, pero de conducta más bien mecánica. La clave del planteamiento correcto de un problema consiste en la elección del modelo lógico o autómata adecuado. Existen diversos tipos de autómatas, que van desde los llamados autómatas finitos hasta las máquinas universales o máquinas de Turing, pasando por una serie finita y no extensible de tipos intermedios; la estructura del conjunto de instrucciones que cada tipo de máquina puede aceptar y resolver es lo que se llama formalmente una gramática y el conjunto de instrucciones en sí es lo que constituye un lenguaje. 9 Por ejemplo Minsky 1986:29; Bertram Raphael 1984:15-19; Desclés 1989; Backus 1978, etc. 426 La teoría de autómatas y de las gramáticas y lenguajes formales posee cierta relevancia oculta para la antropología; a cada tipo de modelo concebible corresponde uno o varios autómatas, conforme a la naturaleza de la información que debe aceptar, al proceso que tiene que efectuar sobre esa información y a la salida que debe producir como resultante de ese proceso. En antropología ha sido frecuente la elección de un modelo equivocado; el error más frecuente es el de la elección de un autómata demasiado simple como para realizar la tarea de aceptación o educción que le compete. Este es el caso de los modelos generativos del lenguaje y la cultura, como el análisis eidocrónico de Colby, el estudio de Mridula Durbin sobre el jainismo o el modelo del cambio social de Fredrik Barth. Todos ellos "producen" casos del fenómeno que son correctos sintácticamente, pero que no garantizan la coherencia semántica de los encadenamientos resultantes; todos pasan por alto la célebre demostración de Chomsky acerca de los límites de los autómatas finitos y de las gramáticas context-free en la producción lingüística, y es precisamente por esta razón que fracasan (cf. Martin 1972; Durbin 1974; Colby y Colby 1986). Autómatas Autómata finito Autómata de almacén pushdown Autómatas ligados linealmente Máquinas de Turing Lenguaje formal aceptado Lenguajes regulares Lenguajes independientes del Contexto Lenguajes sensitivos al contexto Lenguajes no Restringidos Diagrama 1.2 - Lenguajes formales y autómatas Si hemos de ser rigurosos, las computadoras no son autómatas; este concepto se restringe al modelo lógico subyacente de las máquinas aceptadoras y no se aplica a realidades que suelen ser más contingentes y heterogéneas. La teoría de autómatas no cubre todo el modelado de la computación, dejando fuera factores tan esenciales como la codificación de los datos y de las instrucciones de máquina que, como se sabe, responde a una señalización de orden binario. Del mismo modo, es el modelo lógico general de los lenguajes de computación el que constituye un lenguaje de autómata, y no las implementaciones y dialectos de los lenguajes de computadora en sí. Ahora se verá a dónde queremos llegar con este razonamiento. Las condiciones concretas del desarrollo tecnológico y la orientación del mercado de computadoras hicieron que las máquinas y los lenguajes se fueran apartando del modelo inicial, y que el problema de la generación de código procesable acabara reduciendo a un segundo plano la teoría y la práctica de resolución de problemas. Según algunos, esto trajo aparejada la llamada "crisis del software", acabó con la leyenda de los programadores y analistas como tipos humanos reglados por una concepción lógica de la existencia, y durante algunos años distanció los intereses de la resolución de problemas como asunto teórico de la computación como trabajo empírico y (también) como negocio. En programación lógica se piensa que el programa debe ser parte del proceso de resolución mismo; es decir, los pensamientos deben poder ser articulados como programas, de modo que las consecuencias de un conjunto de presunciones puedan investigarse poniendo en marcha las inferencias implícitas en ellas. Aunque durante todo este tiempo, obviamente, se siguió utilizando la lógica y la modelización para diseñar computadoras y lenguajes, el uso directo de la lógica como lenguaje de computación es una iniciativa muy reciente, la demostración de que ello era posible no ha cumplido aún veinte años y la implementación efectiva tiene menos de quince. 427 La programación lógica es el correlato intangible, vale decir el software, de una nueva concepción que tendrá que ser complementada, más adelante, con un hardware capaz de procesamiento paralelo, de respuesta casi instantánea y de comportamiento versátil, las llamadas "máquinas de quinta generación" (Moto-oka 1984). En lugar de procesar información secuencial y mecánicamente, los programas lógicos deben simular razonamientos inteligentes a partir ya no de "datos" estructurados de una manera convencional, tendiente a la cuadratura y al esquematismo, sino de una representación del conocimiento. En lugar de procedimientos abstractos basados en la forma de operar de un aparato secuencial, esos programas desarrollan procesos de inferencia que procuran asemejarse al razonamiento humano, o que directamente lo modelizan conforme a una teoría psicológica. Las teorías psicológicas que producen modelos sobre las formas en que los seres humanos adquieren, almacenan, modifican y consultan sus conocimientos y en que se desarrollan las inferencias se inscriben, hoy por hoy, en la llamada Ciencia Cognitiva. De ella proceden algunas de las intuiciones más felices que se han instrumentado en la inteligencia artificial, aunque es importante aclarar que ni toda esa ciencia se funda en modelos computacionales, ni todas las herramientas informáticas responden a modelos psicológicos conjeturales de las formas humanas de procesamiento de información. El Prolog dista de ser cabalmente un lenguaje de programación lógica. Es más: todavía no existen lenguajes de programación lógica que se puedan adquirir en el mercado, pues todo este proyecto recién se encuentra en sus fases iniciales. Aunque se han emprendido incontables investigaciones, fuertemente financiadas, y se han desarrollado docenas de simposios y congresos, los especialistas todavía no se han puesto de acuerdo ni siquiera acerca de las especificaciones básicas de la futura familia de genuinos lenguajes de programación lógica. Estamos en una etapa transicional, en la que las máquinas siguen respondiendo al modelo de Von Neumann y en la que los lenguajes lógicos siguen dependiendo de intérpretes y compiladores, pero se sabe que este estado de cosas es transitorio. El Prolog es en realidad una entidad híbrida, pues contiene algunos rasgos declarativos derivados de la lógica matemática junto a algunos aspectos procedimentales (no muchos) heredados de la programación convencional. Algunos especialistas afirman que de esta combinación especial deriva el Prolog gran parte de su atractivo y de su potencia (cf. Walker 1987:7-8; Covington et al 1988). Otros estudiosos han puntualizado las razones que hacen del Prolog un formalismo lógico incompleto. Neil Rowe enumera las siguientes: 1) El lenguaje no permite calcular conclusiones disyuntivas, es decir aserciones en las cuales uno de los términos (sin saberse cuál) sea verdadero. 2) Tampoco es posible demostrar directamente que determinado hecho conclusivo es falso, ya que no se admite negar la cabeza de una cláusula. 3) De la misma manera, no es factible cuantificar existencialmente los hechos, las reglas o las preguntas. 4) Por último, el Prolog no es capaz de expresar directamente cláusulas de lógica de segundo orden, por cuanto no se pueden utilizar nombres de predicado como términos (Rowe 1988:349-350). Aunque caracterizaciones como éstas son muy frecuentes en los textos introductorios, ninguna de las limitaciones señaladas por Rowe es verdaderamente crítica. Los dialectos modernos permiten superar esos escollos mediante técnicas aceptables de programación: respectivamente, los problemas 428 antedichos se superan (1) estipulando un predicado adicional que reenvíe a una cláusula disyuntiva, (2) definiendo un predicado intermedio que remita a una negación en el cuerpo de una regla, (3) utilizando una técnica conocida como skolemización y (4) escribiendo predicados metalógicos. En los capítulos que siguen se explicarán estos conceptos. Pero aunque el Prolog no es un lenguaje de programación lógica en todos sus aspectos, y aunque por ello mismo su capacidad built-in está afectada de algunas limitaciones para la demostración automática de teoremas10, lo que se avizora en el horizonte en materia de lenguajes inteligentes es lo suficientemente análogo al Prolog como para conjeturar la posibilidad de una migración no traumática a las nuevas tecnologías cuando llegue la hora. De hecho, el Prolog se ha probado satisfactoriamente en arquitecturas paralelas de procesamiento, y los lenguajes experimentales de lógica paralela, como el Parlog, el Concurrent Prolog y el GHC se le parecen mucho (cf. Ueda 1985; Clark y Gregory 1986; Shapiro 1986; Eadline 1989). Por el momento, y aún sabiendo que la programación lógica en estado puro es una clase con la que el Prolog sólo parcialmente se solapa, identificaremos uno y otro concepto hasta tanto advengan los lenguajes auténticos de programación lógica llamados a superarlo. Respecto de esta provisionalidad desearíamos hacer una puntualización. De todos los niveles posibles del espacio computacional, el de los lenguajes es el que mejor resiste el paso del tiempo. El lector habrá tomado conciencia de una paradoja: la literatura antropológica que versa sobre la aplicación de técnicas computacionales, y que se supone representa, desde el punto de vista instrumental, la voz de las vanguardias, es, en toda la producción disciplinaria, la que más rápidamente se torna caduca. ¿A quién le sirven hoy, pongamos por caso, los escarceos de Benjamin Colby con el General Inquirer, los análisis automáticos de mitos urdidos por Pierre Maranda o los diccionarios contextuales de Stefflre, Reich y McClaran, si todos los logiciales de referencia se han convertido en piezas de colección y si todas las máquinas que mencionan han sido discontinuadas? En estas condiciones, la investigación es absolutamente irreplicable, y la mejor razón que se podía tener para formalizarla se esfuma. Pero mientras los sistemas operativos, los dispositivos periféricos y las unidades de procesamiento evolucionan a un ritmo vertiginoso, los mejores lenguajes permanecen, y todo lo que se elabore en torno a ellos adquiere cierta sedimentación y continuidad. El LISP, por ejemplo, se remonta a la década de 1950, y es, después del Fortran, el más antiguo de los lenguajes que todavía se utilizan. Situándonos a nivel de los lenguajes, podemos sacar conclusiones duraderas acerca de cuestiones "gramaticales", estratégicas, estructurales y filosóficas que van mucho más allá de la vigencia efímera de este o aquel dialecto. En otras palabras, si hemos de investigar la aplicabilidad de la informática a nuestra ciencia (o si hemos de buscar en aquélla las soluciones que ésta necesita con tanta urgencia), hablemos de lenguajes: de otra manera, lo que podamos decir, por interesante que parezca, no sólo será incierto sino que ya es obsoleto. El Prolog es, entonces, un lenguaje de inteligencia artificial fundado en la idea de la programación lógica. Esto quiere decir que existen otros, y que es necesario explicar por qué no hemos optado por ellos. Acotemos el campo: aunque los lenguajes de inteligencia artificial son una especie abundante, que va desde el Smalltalk (orientado al objeto) hasta el FRIL (un superconjunto del Prolog diseñado explícitamente para cálculos ambiguos) la única alternativa razonable al Prolog es el LISP. El resto de los lenguajes se basa en un conjunto de criterios que a la fecha no posee una articulación axiomática. 10 Lo cual no implica ninguna limitación teórica significativa, dado que siempre es posible metaprogramar. 429 Como a menudo sucede en este campo, los partidarios de uno u otro lenguaje son adversarios apasionados; la literatura técnica abunda en diatribas sobre la pobre prestación del Prolog en materia de tratamiento de listas, o sobre la dificultad de la implementación del LISP en la vida real. Estos juicios axiológicos, unilaterales, reminiscentes de nuestras polémicas entre las concepciones emic y etic, son siempre recíprocamente relativos, y muchas veces no se los puede tomar demasiado en serio. Sin entrar en la contienda hemos tomado partido por el Prolog. De hecho, conocemos el LISP desde mucho antes de saber que el Prolog existía, e incluso desde un poco antes de que siquiera este último llegara a existir, y apreciamos las inmensas virtudes del LISP en todo lo que ellas valen, aunque no tenga objeto aquí comentarlas. En nuestro lugar, un purista lógico sin duda habría elegido el LISP. Pero tres razones nos han persuadido de que esta investigación no podría jamás llevarse a cabo en LISP sin incurrir en alguna especie de distorsión o de fetichismo: 1) El LISP es un lenguaje infinitamente más dificultoso que el Prolog, lo cual ya es mucho decir si nos interesa su asimilación por parte de los científicos sociales. Un programa en LISP sería una entidad ininteligible para los antropólogos, dado que es hermético incluso para muchos veteranos de la computación: sus cláusulas, además, se refieren explícitamente a entidades, funciones y operaciones lógicas que el estudioso tendría que dominar, aparte de la antropología y la computación. Sabemos de la existencia de programadores excelsos que dominan docenas de lenguajes, que no son capaces de desarrollar programas en LISP que pasen de cierta complejidad. Unánimemente se reconoce que la sintaxis del LISP es execrable. Sus matemáticas, por añadidura, se basan en la notación polaca. La lectura de un programa en LISP no guarda la misma secuencia que la expresión del asunto que trata en lenguaje natural, y su anidamiento es de varios órdenes de magnitud. En el ámbito de la informática norteamericana, los críticos aducen que LISP, en lugar de ser acrónimo de list processing, significa "lots of irritating single parentheses". 2) El LISP no es un lenguaje descriptivo, sino un lenguaje de un tipo peculiar, correspondiente a una forma de programación que se conoce como "funcional". Si bien esta filosofía es ampliamente respetable, mediante el LISP no podríamos cumplimentar nuestro objetivo de establecer la formalización a partir de una descripción del problema. Por otro lado, mientras que el LISP no posee prestaciones descriptivas, el Prolog sí incluye prestaciones de programación funcional y de tratamiento de listas. Sin implicar que el LISP es "menos poderoso" o "más restringido" que el Prolog, es evidente es que este último es más adecuado a nuestra finalidad concreta. 3) Mientras el universo Prolog dispone de un standard de facto, con respecto al LISP las cosas no son tan claras. Si bien existe el llamado Common LISP como modelo de referencia, ninguna implementación conocida de éste incluye todas las cláusulas necesarias, con las especificaciones precisas que una buena documentación supone. El Common Lisp no es una solución demasiado sensata: incluye 620 nombres de función, 175 constantes y 13 tipos de datos, que con sus variantes llegan a ser unos 30. Contrastivamente, el núcleo del Prolog puro es quizá el lenguaje que menos predicados built-in posee, sin que ello afecte mucho su capacidad procedimental. La escasa eficacia del código generado por compiladores e intérpretes de LISP, además, ha ocasionado que, en algunos respectos, las propuestas de toda la inteligencia artificial hayan perdido credibilidad en una esfera que ya es, en su conjunto, bastante difícil de creer. 430 5. INTELIGENCIA ARTIFICIAL Y CIENCIA COGNITIVA Ya esclarecidas las categorías básicas, en este apartado precisaremos aún con mayor escrúpulo el concepto que nos merece la inteligencia artificial y sus relaciones con la Psicología Cognitiva primero (en los años 50 y 60) y con la Ciencia Cognitiva después. Se trata de evaluar el impacto que la computación ha ejercido sobre una disciplina psicológica y sobre una confluencia que se supone interdisciplinaria, así como el retorno de esta influencia bajo la forma de modelos de representación del conocimiento, para poder abordar después el fenómeno de la participación (o la ausencia) de la antropología en este ámbito de trabajo. Se trata, además, de quebrar al menos dos estereotipos y un mal hábito: aquéllos consisten en concebir a la inteligencia artificial como una empresa destinada al propósito imposible de construir máquinas pensantes y sensitivas, y a la Ciencia Cognitiva como una rama degenerada de la psicología, obstinada en pensar que la mejor metáfora para describir la actividad de la mente humana es una computadora. Estas ideas proliferan en ámbitos intelectuales proclives al irracionalismo, al lado de una negativa a profundizar la potencia de las nuevas técnicas: una clausura tan perniciosa como lo serían las disciplinas cuestionadas si lo que se dice de ella fuese verdad. El estereotipo, en cambio, emana de la propia antropología de vanguardia y consiste en hablar de la inteligencia artificial en términos tan genéricos que nada significan. Este último síndrome se presenta especialmente en la moderna antropología del conocimiento, donde se juega a presumir del uso de conceptos y modelos que pretender testimoniar la maestría que se ha alcanzado en el manejo de recursos formales que, valga la paradoja, nunca se usan formalmente. La mitografía de la inteligencia artificial remonta sus orígenes heroicos al Simposio de Dartmouth, en New Hampshire, en 1956, donde se discutió precisamente la posibilidad de implementar programas de computadora capaces de "pensar" o de "comportarse" con inteligencia. Si ese Simposio ha alcanzado el rango de mito fue porque en él se encontraron por lo menos cuatro de los genios oficiales de la disciplina naciente: John McCarthy (quien acuñó su desgraciada denominación), Allen Newell, Herbert Simon y Marvin Minsky. También la Ciencia Cognitiva, fundada oficialmente mucho después, se remonta a ese tiempo-eje; como lo rememora una de sus protagonistas, Ese año es importante porque señala un nuevo enfoque en la comprensión de la mente humana, un nuevo paradigma científico, al que hoy llamamos el paradigma del procesamiento de la información. En 1956, George A. Miller publicó un artículo sobre el procesamiento de la información en el que se hablaba de la capacidad limitada de la memoria a corto plazo (Miller 1956); Chomsky publicó uno de sus primeros análisis acerca de las propiedades formales de las gramáticas transformacionales (Chomsky 1956); Bruner, Goodnow y Austin, en su A Study of Thinking (1956) propusieron estrategias como constructos mediadores en la teoría cognitiva; y Allen Newell y yo publicamos una descripción del Logic Theorist, el primer programa de ordenador que resolvía problemas imitando a los seres humanos mediante la búsqueda heurística (Newell y Simon 1956). Un año activo, 1956 (Simon 1987:25-26). Pese a que los límites son difusos y a que toda separación tajante es artificiosa, seguiremos primero el trámite de la inteligencia artificial y luego nos reencontraremos con la Ciencia Cognitiva. Es costumbre entre los historiadores de la inteligencia artificial hablar de una versión "débil" y una versión "fuerte" de la disciplina; la dicotomía es habitual en otros espacios del saber en el que se cruzan timoratos e imprudentes, palomas y halcones, reduccionistas a ultranza y hombres de espíritu. La facción débil (que académicamente es, sin embargo, la más poderosa) afirmaría que el diseño de programas "inteligentes" no es más que un medio para poner a prueba teorías sobre el modo en que los 431 seres humanos cumplen sus operaciones cognitivas. La facción fuerte, como es de prever, asegura que las máquinas pueden llegar a pensar, que "una computadora programada de la manera correcta es de hecho una mente, en el sentido de que si se le introduce el programa correcto, puede decirse que ella literalmente comprende y experimenta otros estados cognitivos" (Searle 1980:417). Ninguna de las dos facciones, por otra parte, nos ha proporcionado una definición aceptable de lo que entienden por inteligencia; de modo que si antes ésta era, pragmáticamente, "lo que miden los tests", en el futuro será "las capacidades de los seres humanos y también (o no) de las máquinas". No quisiéramos ser identificados ni con una línea dura computacional ni con el metaforismo cognitivista; hoy por hoy, las máquinas no son más sagaces ni más parecidas funcionalmente a un cerebro humano por correr un programa de ajedrez en Prolog que por efectuar un proceso contable en Fortran. Si es posible o no llegar a construir computadoras inteligentes y si el cerebro se parece o no a una computadora, no nos interesa en lo más mínimo, y menos aún en este contexto, en el que sólo nos preocupa la posibilidad de utilizar los principios de la programación lógica como sustento de una formalización de la antropología. Incluso nos parece que hasta la dicotomía entre moderados y recalcitrantes está mal planteada, ya que se ha pretendido enfriar aún más a los tibios negando que la mente humana pueda ser siquiera modelada mediante una computadora11, y se ha hecho a los reduccionistas más extremistas de lo que son, ya que la afirmación de que las máquinas son mentes sólo se halla, como símbolo caricatural sin referente preciso, en los testimonios de quienes impugnan esa idea. La polémica es fútil porque es inconcluyente, y ya se debería acabar con ella: lo que se puede hacer con una computadora es un modelo, y punto. Dado que todo correlato observable de procesos no observables puede producirse, en teoría, de diversas maneras, o bien dado que el número de teorías capaces de explicar esos hechos es infinito, no se puede probar que ese modelo sea un equivalente funcional del cerebro, ni siquiera si sus comportamientos respectivos fueran idénticos en todas las condiciones de observación. Aunque en principio esa especie de modelización nos simpatiza, debemos admitir que entre quienes lo practican se ha hecho costumbre afirmar no sólo que los modelos nos ponen en presencia de una equivalencia formal, sino que constituyen la única descripción posible. Y esto ya es demasiado. Sea como fuere, lo concreto es que la reunión de Dartmouth no generó ningún consenso. La inteligencia artificial y su disciplina limítrofe en dirección a la psicología, la Ciencia Cognitiva, se desarrollaron en términos de continuas polémicas, en una tensión que muchas veces llegaba a las vías de hecho. Pero esta querella, significativamente, no nos interesa: en gran parte porque la caricatura de esa polémica se ha convertido en un gastado lugar común (cf. Cohen 1983; Gardner 1987:203; De Vega 1984; Covington et al 1988:217 y ss.), pero en lo esencial lo relevante de todo ese conflictivo proceso no fueron sus instancias bélicas, ni la participación de figuras estelares (como John Searle, Noam Chomsky o Hilary Putnam), sino los productos que lo jalonaron a uno y otro lado de la divisoria de aguas. Casi todos esos productos fueron programas de computación, algunos de ellos en lenguajes convencionales, otros en lenguajes de inteligencia artificial inventados ex-profeso. Al revés de lo que después se hizo común en Ciencia Cognitiva (donde existen amplios espacios de especulación sin 11 O, lo que es exactamente lo mismo -aunque no lo parezca- que una computadora sea una buena metáfora de la mente. Hemos desarrollado esta polémica de la ciencia cognitiva en Reynoso (s/f), y no vamos a reiterar el caso aquí. 432 una práctica computacional que la sustente), esos programas concretos no suscitaron la reflexión que habría sido necesaria, y sus ricas consecuencias quedaron muchas veces sin inspeccionar. El primer programa al que haremos alusión es el vituperado Logic Theorist (LT), de Newell, Simon y Shaw, capaz nada menos que de demostrar teoremas tomados de los Principia Mathematica de Whitehead y Russell y de otras proezas análogas. Lo significativo es que para ello se debió implementar una filosofía de resolución distinta a la de la programación convencional y un lenguaje específico de tratamiento de listas. El planteamiento de esa investigación fue tan riguroso, que pudo ser reproducido por una de las computadoras de la época, la monstruosa Johniac, en agosto de 1956. El LT comenzó a cosechar enemigos cuando Simon declaró que Allen Newell y él habían inventado "la máquina de pensar" y cuando se envió a una revista de lógica simbólica una demostración en un artículo en el cual figuraba como co-autor el propio programa (McCorduck 1979:142). El editor de la revista rechazó el artículo, pese a que las demostraciones del programa se resolvían en general a mayor velocidad que las de sus competidores humanos y a que por lo menos una de ellas resultaba más elegante que la ofrecida por Whitehead y Russell, según a este último le encantaba admitir. Los autores del LT se habían malquistado incluso a algunos practicantes de avanzada de la inteligencia artificial, como a McCulloch y a Pitts, por enfatizar que la equivalencia funcional entre la computadora y el cerebro humano no requería ninguna correspondencia estructural entre los mecanismos que llevaban a cabo los procesos. Estos últimos teóricos, como se sabe, sostenían que el secreto de las operaciones mentales (y el futuro de la inteligencia de las computadoras) radicaba en comprender de qué manera actúan los circuitos o redes neuronales12. El grupo de Newell y Simon, empero, comenzó a trabajar en otro proyecto aún más ambicioso, un programa llamado General Problem Solver, capaz de resolver -en teoría- cualquier tipo de problemas, de jugar cualquier tipo de juego lógico y hasta de superar paradojas de ingenio. Lo notable del GPS fue el modo en que se reunió la información que sirvió de base para estructurar la filosofía de sus procedimientos: se trabajó con entrevistas, introspecciones y observaciones más o menos subjetivas acerca de los "procesos mentales" implicados en la resolución de problemas. El objetivo no era desencadenar veloces combinatorias hasta dar con una respuesta, sino achicar el espacio de búsqueda mediante heurísticas y conjeturas. Aunque se logró echarlo a andar y su conducta era en ocasiones iluminadora, a la larga el GPS quedó suspendido a medio implementar. Su operatoria no era, en definitiva, todo lo general que debía haber sido. Lo positivo de toda esta experiencia giró en torno de una comprobación: toda inteligencia implica el uso y manipulación de sistemas simbólicos, similares a los de la lógica o la matemática. Un sistema de procesamiento inteligente de la información consiste entonces en una serie de dispositivos de producción que operan sobre sus datos, simbólicamente representados. Pese a su naturaleza polémica, a sus constantes antropomorfizaciones de la máquina y a sus mecanizaciones de la mente, la concepción que alimentaban Newell y Simon fue lo suficientemente grandiosa como para impresionar incluso la imaginación de algunos antropólogos de la época. Su influencia, en efecto, puede rastrearse en una multitud de pequeños ensayos y escaramuzas de modelización, que van desde el ensayo de Peggy Sanday (1968) al modelo de Dan Sperber sobre el procesamiento de la información simbólica (1979), pasando por la ya mencionada teoría axiomática 12 Esta última, como se sabe, es la postura del "monismo psiconeural emergentista" abrazado, entre otros, por Mario Bunge, El Problema Mente-Cuerpo. Un enfoque psicobiológico, Madrid, Tecnos, 1985. 433 de William Geoghegan (1971). Hemos comentado algunas de estas elaboraciones en otra parte (Reynoso 1989). Otro aspecto radicalmente distinto de la inteligencia artificial fue desarrollado por el polémico Marvin Minsky, del Instituto Tecnológico de Massachusetts. Mientras Newell y Simon constuyeron modelos clásicos de procesamiento de la información, Minsky se ocupó más bien de explorar las estructuras cognitivas subyacentes a la conducta en general, desde la percepción más simple hasta la inteligencia más elaborada. La contribución de Minsky comprende una galería de conceptos que pretenden reflejar aspectos y ordenamientos globales de la cognición humana, articulados en una filosofía compleja, de lenguaje engañosamente trivial (cf. Minsky 1986). Pese a que Minsky desarrolló ciertas implementaciones computacionales, su lado fuerte radica en la invención de categorías sintéticas, y antes que nada los célebres frames, que han revolucionado todo el campo de la ciencia cognitiva y todas las técnicas de codificación del conocimiento, tanto relativas a los hombres como a las máquinas. A despecho del aparente esquematismo del estilo intelectual de Minsky, sus invenciones se han incorporado a sistemas computacionales de diagnosis en ámbitos que (como la medicina, la detección de yacimientos y el contralor industrial) son escasamente proclives a la especulación. Indagaremos estos aportes en un apartado específico de nuestra tesis, cuando revisemos las técnicas computacionales de representación del conocimiento. La programación lógica constituye, a nuestro juicio, uno de los puntos culminantes de la inteligencia artificial. En ella confluyen las ideas de Newell y Simon al respecto de la resolución de dilemas lógicos, las de Minsky acerca de las estructuras declarativas de representación y las de McCarthy referidas a los lenguajes de tratamiento de listas. Acaso ella sea sin embargo una especialización aparte, por cuanto la programación lógica se aparta radicalmente del mainstream de los lenguajes de computación y de sus filosofías concomitantes. Como ya lo hemos indicado, en lugar de fundarse, mediante una serie de abstracciones y reorganizaciones, en el modelo de la máquina de Von Neumann y en su conjunto típico de instrucciones, se deriva de un modelo abstracto que no posee ninguna relación directa con ningún tipo de máquinas. La programación lógica opera una identificación entre el programa como conjunto de axiomas, por un lado, y entre el proceso de computación como la prueba constructiva de una afirmación a demostrar en base a la información estipulada en el programa, por el otro. Esta idea se remonta a las matemáticas intuicionistas y a la teoría de la prueba de principios de siglo. Estos paradigmas respondían al programa de Hilbert, quien aspiraba a basar el cuerpo entero del conocimiento matemático sobre un cimiento lógico y a desarrollar métodos mecánicos de prueba para las teorías, en función de los axiomas de la lógica y de la teoría de conjuntos. Es sabido que Gödel y Turing perturbaron este proyecto, estableciendo aquél en su Segundo Teorema el principio de la incompletitud y caracterizando éste una serie de problemas que serán eternamente incomputables. La prueba de Gödel y las demostraciones de Turing demoraron el desarrollo de los métodos automáticos de cálculo lógico hasta casi mediados de los años 60. Más que por la influencia de las experiencias de Newell y Simon, la programación lógica se originó en una propuesta de J.A. Robinson, inicialmente conjetural, que definió como único procedimiento lógico mecanizable al principio de resolución y puso a punto el algoritmo de unificación, el cual rige las operaciones de asignación de variables, el traspaso de los parámetros y la estructuración de los datos. Ambos conceptos están en la base misma del Prolog y se mencionarán con cierta frecuencia, ahondando en sus atributos, cuando caractericemos las entidades que conforman el lenguaje. 434 Pese a estos desarrollos, la estrategia de la programación lógica continuaba pareciendo poco realista, y algunos estimaban que contradecía, entre otras cosas, a la prueba de Gödel. A principios de los 70, sin embargo, Kowalksi y Colmerauer implementaron el Prolog, y luego aquél y van Emden desarrollaron una semántica formal para los lenguajes de programación lógica. Llama la atención que todo esto haya sucedido en Europa. En los Estados Unidos, que es donde se controla la trayectoria de este tipo de investigaciones, las pruebas fallidas con el Micro-Planner y el Conniver (sustitutos del LISP) habían sembrado la impresión de que todo el proyecto de mecanización de la prueba lógica estaba mal planteado. A fines de la década, David Warren hizo conocer el compilador Prolog-10, el cual aceptaba cláusulas cuya sintaxis sentó los precedentes para el standard de Edinburgo. La programación lógica contaba ya con un lenguaje plenamente operativo, lo que sirvió para demostrar materialmente los beneficios de una elaboración automática del cálculo lógico en materia de coherencia interna, continuidad deductiva, economía representacional, replicabilidad y exhaustividad de la prueba. Los mitos sobre la impractibilidad de la programación lógica debieron derrumbarse entonces, pero este derrumbe no se manifestó de inmediato. Todavía hoy en el interior de la inteligencia artificial los especialistas en técnicas de programación lógica conforman una minoría. La popularización de esta práctica es aún cosa del futuro. Nacida hacia 1976, la moderna Ciencia Cognitiva ha hecho un uso intensivo y extensivo de los hallazgos de la inteligencia artificial y de la programación lógica, al punto que sus intereses se confunden. Aquella ciencia, intrínsecamente transdisciplinaria, se originó en la más restringida Psicología Cognitiva, la cual a su vez se fundaba en la controvertida metáfora computacional de la mente humana. Lo que aquí nos interesa no es la peripecia histórica de esta nueva ciencia de confines difusos y métodos heterogéneos -estupendamente reseñada en el excelente libro de Gardner (1987)-, sino el hecho de que las experimentaciones de la inteligencia artificial hayan tenido cabida y aprovechamiento inmediato en una ciencia humana que principió siendo tan "blanda" y programática como cualquier otra y que merced a esa práctica ha alcanzado en pocos años una notable claridad de objetivos y un cierto envidiable esplendor. Pese a que nuestra actitud personal hacia ella es ambivalente y la simpatía que nos despierta ha experimentado altibajos, la Ciencia Cognitiva nos sirve, en esta coyuntura, como punto de referencia para estimar una posible vía de incorporación de métodos formales a las ciencias antropológicas. A priori, la integración de técnicas computacionales efectivas a la antropología es dificultosa porque, al no haber participado ésta en la ciencia cognitiva más que a título circunstancial, las etapas intermedias de modelización discursiva no se han cumplido: es como si faltara un eslabón, como si hubiera que explicar y discutir tediosamente cuestiones que en otras ciencias humanas se dan por sentadas. Pero aunque la antropología hubiera tenido una participación mayor en aquellos proyectos, no parece probable que en el futuro se incorpore al conjunto de las cognitive sciences o a otro ámbito similar en tanto sus métodos de actualización científica (y de desarrollo metodológico) no se pongan a la altura de las circunstancias, y hasta tanto no se acondicione un nicho epistemológico que preste a la formalización una atmósfera adecuada. Por el momento las vías de comunicación interdisciplinaria distan de ser fluidas, hasta el punto que los antropólogos (que nos preciamos de ser tan receptivos) nos hemos dado el lujo de soslayar la existencia de un cambio cualitativo en los instrumentos del saber. Está visto que no se puede tomar noticia de los avances y retrocesos de una ciencia en estado de revolución permanente a través de los periódicos, de la literatura de divulgación o de los acercamientos tangenciales. Si un científico serio 435 desea desentrañar el funcionamiento del LT o del GPS, por ejemplo, no debería recurrir a las opiniones de Boden (que los ha visto funcionar, según se dice) o las de Gardner (que ha resumido las crónicas de McCorduck), sino que debería imponerse a sí mismo profundizar en los formalismos y afrontar los programas cara a cara, a través de su código fuente o al menos de sus especificaciones técnicas. Los mejores científicos cognitivos se han acostumbrado en general a esta metodología, la única aceptable a la luz de la escala de las argumentaciones y de la dificultad intrínseca de los problemas; los antropólogos, en cambio, han hallado más cómodo seguir confiando en el rumor. Aún en territorio amigo es extremadamente habitual encontrar afirmaciones equivocadas acerca de los presuntos fracasos, limitaciones y callejones sin salida de la inteligencia artificial. Es indudable que han habido fiascos, como en toda ciencia activa; pero la fabricación de versiones oficiosas acerca de dificultades insolubles e imposibilidades teóricas constituye ya una actividad institucionalizada que ha sentado sus reales en la periferia de la disciplina. Estas afirmaciones capciosas suelen disfrutar de un gran poder de penetración entre los científicos sociales; significativamente, acostumbran aludir a "demostraciones taxativas" que refutan la posibilidad misma de implementar la programación lógica, o prodigan otras habladurías absolutamente inexactas, todas más o menos del mismo jaez. Las noticias que más arraigan son las que dan cuenta de los fracasos más espectaculares. Se quiere que lo más chirriante y descomunal sea verdad. El rumor más típico consiste en afirmar que algo que se viene haciendo desde hace años como cosa de rutina constituye una utopía o un proyecto irrealizable, y que eso ha sido demostrado sin margen de duda por los científicos; un segundo arquetipo es el género de la confesión reaccionaria por parte del vanguardista desengañado, sucedánea de la evolución wittgensteiniana, una especie que (salvando las distancias) ha comenzado a proliferar también en antropología13. Es común que entre los adversarios sistemáticos al proyecto de la inteligencia artificial las fuentes de datos de ambas especies de prevaricación sean anticuadas y de segunda mano. La creencia en una serie de obstáculos insuperables para el proyecto de la programación lógica afecta incluso a algunos estudiosos que miran con buenos ojos el progreso de la ciencia. En un texto que es un verdadero muestrario de información unilateralmente expuesta, y que se presenta como una "introducción a la informática para psicólogos y humanistas", Bertram Raphael expresa (en una misma página) que "el cálculo de predicados de primer orden no permite que los cuantificadores abarquen a los predicados o funciones, o que los predicados o funciones sean aplicados a otros predicados o funciones" y que "recientemente se han hecho muchos intentos para desarrollar métodos de prueba automática, quizá análogos a los de resolución, que fueran aplicables a la lógica de orden superior. Los resultados han sido decepcionantes" (1984:171). Pese a su suficiencia y a su tono formal, ambas aserciones son equívocas, si es que no erróneas: comprobémoslo. El cálculo de predicados puede perfectamente referirse a sí mismo; por supuesto, en ese trámite deja de ser un cálculo de primer orden, pues esa operación es metalógica, es decir, de orden superior. Se trata -como dirían Tarski, Russell o Bateson- de una propiedad bien conocida de la tipificación lógica, y no de un defecto imputable a la naturaleza del cálculo o una limitación fatal del formalismo 13 Ejemplos clásicos son Marshall Sahlins (1976: passim); Melford Spiro, "Culture and Human Nature", en G. Spindler (ed.), The Making of Psychological Anthropology, Berkeley, University of California Press, 1978; Stephen Tyler, The Said and the Unsaid, N. York, Academic Press, 1978, passim; Charles Frake, Language and Cultural Description, Stanford, Stanford University Press, 1981; Peggy Reeves Sanday, Poder Femenino y Dominio Masculino, Barcelona, Mitre, 1981, etc; todos ellos son apologías implícitas o explícitas del renegamiento que contrastan con el carácter de la trayectoria anterior de los respectivos autores. 436 o de la mente humana. Raphael confunde la base sustentatoria de los algoritmos de resolución de los sistemas de cálculo lógico con sus alcances y posibilidades, identifica las premisas iniciales de un formalismo con su capacidad de extensión: los lenguajes de programación lógica se basan en el cálculo de predicados del primer orden, pero los mecanismos operativos que les están asociados pueden procesar inferencias de cualquier orden, si bien no existen aún axiomáticas completas que den cuenta de esa actividad extendida en tanto tal. Los programas que hemos adjuntado incluyen docenas de rutinas que utilizan recursos metalógicos; todos los dialectos de Prolog que conocemos incorporan predicados metalógicos que aún los aprendices usan rutinariamente: assert, clause, retract, call... Existe una profusa fundamentación teórica, tanto de los aspectos metalógicos como de los extralógicos; desarrollar sistemas de cálculo automático mediante cláusulas metalógicas no sólo no arroja resultados decepcionantes, sino que es una práctica habitual e inevitable en la computación moderna (cf. O'Keefe 1983; Brown 1985; Brown y Weinberg 1985; Sterling y Shapiro 1987:146156; Hashim 1988). En el trámite de la apropiación de formalismos computacionales y razonamientos metamatemáticos por parte de las ciencias humanas, o en la mirada crítica que se les dirigió, las exigencias de rigor se vieron relajadas y las simplificaciones categóricas estuvieron a la orden del día. Se popularizó una perversión de la divulgación científica y filosófica, caracterizada por la diseminación de lo que podríamos llamar "ambigüedades lapidarias". Para el sociólogo Jesús Ibáñez, por ejemplo, Gödel demostró nada menos que "la imposibilidad de la prueba teórica" (1985: 188). Sea lo que fuere lo que esto pretende significar, la prueba de Gödel, como todo el mundo sabe, sólo rige para las expresiones autorreferentes en un sistema formal de primer orden que incluya una porción muy precisa de las matemáticas, como lo son las funciones numéricas recursivas primitivas (Gödel 1981:55-89). De allí a decir que "ninguna teoría puede ser completa" y (separadamente) "ninguna teoría puede ser consistente" hay, para decir lo menos, un buen trecho. Volveremos varias veces sobre esta cuestión. Existe además una espesa tradición de minuciosas exploraciones de lo que no puede ser hecho, ejemplificada en textos que llevan títulos tales como Limitaciones Internas de los Formalismos, de Jean Ladrière (1969), o Matemáticas. La Pérdida de la Certidumbre, de Morris Kline (1985), además de colecciones de amplísima difusión sobre paradojas y problemas insolubles. Aunque la mayoría de estos trabajos se refieran a campos tan poco relevantes para una ciencia empírica como la teoría elemental de los números, los invariantes de conversión del cálculo lambda o la recursión sobre conjuntos infinitos, su adopción por parte de interpretativos e irracionalistas no para mientes en esas cuestiones de detalle y reivindica su efecto deletéreo global, aunque no vengan para nada al caso. Lo que podríamos llamar el "imposibilismo" cuenta incluso con una epistemología propia, pomposa y contradictoriamente expuesta bajo el signo del "constructivismo radical", cuando no es más que un inmovilismo conservador desde el cual se nos dicen cosas tan sesudas como que la realidad es un invento y que la ciencia no funciona (cf. Watzlawick y otros 1988). El cuidadoso análisis de lo que sí es posible, mientras tanto, se posterga ad calendas græcas o se guarda en lugar oculto, al extremo de que para fundamentar esta misma tesis tuvimos que desbrozar la trocha con nuestras propias manos. Creemos, por otra parte, que ciertos sectores bien intencionados de la Ciencia Cognitiva no se asientan sobre una base computacional demasiado firme. Como en las antiguas luchas dinásticas, algunos de los aspirantes al trono son impostores y muchos de los documentos que se presentan son amañados. Más adelante presentaremos evidencia referida a la escasa familiaridad que muchos que se reputan expertos denotan con los rudimentos más insoslayables de la informática. 437 En efecto: la aparición cada vez más frecuente de selecciones de textos de "Semiótica e inteligencia artificial" o de "inteligencia artificial y Estudios Simbólicos" y otras similares, coincide con el despliegue de una extraña especie de formalización figurada, de lógicas fantasmáticas, en la que incluso aparecen seudolenguajes especialmente inventados a los efectos de la ejemplificación convincente (cf. Ouellet 1989). El caso más flagrante que conocemos es el de Borillo, Borillo y Bras (1989), autores encuadrados en la escuela de arqueología computacional de Gardin: en su breve artículo sobre el razonamiento temporal se anuncian ejemplos "en lenguaje Prolog" que no son más que cláusulas sueltas en una signatura sui generis que de ningún modo es Prolog, que no sigue el canon de ningún lenguaje formal y que ninguna máquina fabricada por el hombre estaría en condiciones de aceptar. Por desdicha, al revés de lo que sucedió en los sectores más laboriosos y respetables de la Ciencia Cognitiva, la antropología se ha alimentado más de estos estereotipos y vulgarizaciones (que pasan por alto incluso el planteamiento puntual de los problemas) que de una compenetración juiciosa en los avances sustantivos de la inteligencia artificial. Ya que hemos tenido ocasión de poner en tela de juicio la utilización de la computación convencional por parte de la antropología, habrá también que fijar postura sobre el encuentro, bastante más esporádico, entre la antropología y la dupla conformada por la inteligencia artificial y la Ciencia Cognitiva. La segunda mitad de la década del 70 marcó el punto más alto de esta triple alianza, que por alguna razón se materializó prevalentemente en una serie de artículos breves y de aplicaciones episódicas publicadas en American Ethnologist (cf. Berlin 1976; Burton y Kirk 1977; Dougherty 1978; Fjellman 1976; Gladwin 1979; Quinn 1975, 1976; Rice 1980). Ningún tratado antropológico de cierta magnitud profundizó en las bases epistemológicas de la adopción de las nuevas herramientas y metáforas; ningún antropólogo descolló tampoco como virtuoso en los formalismos a los que recurría, ni mantuvo demasiado tiempo sus asociaciones interdisciplinarias. La generalidad de los formalismos era apenas mencionada o forzada al trámite de una ejemplificación presurosa, orlada de promesas de desarrollar una fundamentación prolija cuando se tuviera la oportunidad. Diez o quince años después la situación es la misma, aunque el ejercicio es hoy menos popular. La inteligencia artificial de aquel entonces (urge aclararlo) aún no había desarrollado los instrumentos necesarios para sustentar la idea de la programación lógica. Fuere por ello o por otra causa, el proyecto poco a poco se fue desdibujando, sin que nadie reseñara su apogeo, sintetizara sus alcances o explicara su desaparición. En el cuerpo de la tesis habrá motivos para esclarecer qué fue lo que en realidad sucedió. 438 6. PROGRAMACIÓN DE PROBLEMAS ANTROPOLÓGICOS EN PROLOG Nuestras demostraciones se inician en este punto, aunque (por no haber materializado aún ninguna fundamentación) no corresponda por ahora interpretarlas demasiado formalmente. Expondremos un ejemplo que debería ser familiar para cualquier antropólogo (un sistema de parentesco) para comenzar a apreciar la manera en que se formula un programa en Prolog, el más popular de todos los lenguajes de programación lógica, el de sintaxis más sencilla y el de precio más barato. Después aclararemos las estructuras lógicas del Prolog en un ámbito más independiente de una aplicación determinada y, posteriormente, propondremos algunos usos antropológicos de las diversas estrategias de programación lógica, exponiendo por fin un conjunto de aplicaciones más o menos completas. Toca ahora al lector antropólogo armarse de paciencia frente a una ejemplificación que puede no ser afín a su órbita de preocupaciones y concentrarse no tanto en los contenidos a los que haremos referencia en este caso, sino en la naturaleza de las relaciones ilustradas. Anticipemos que el Prolog se basa en el cálculo de predicados de primer orden y que este cálculo se anota por medio de las llamadas cláusulas de Horn. En su implementación computacional, este cálculo (cuyos rigurosísimos fundamentos lógico-matemáticos es conveniente, aunque no imperativo, conocer) se articula a través de la interrelación entre dos tipos de entidades lógicas, hechos y reglas, que se contrastan luego con un tercer tipo que podríamos caracterizar como consulta o pregunta (query). Todos estos elementos y sus correlatos conceptuales serán analizados en un capítulo específico. Para simplificar, consideraremos hecho a todo predicado que exprese una relación entre constantes (o entre valores conocidos). Esas constantes pueden hacer referencia a cosas, clases de cosas, nombres, acciones, procesos, cualidades, lugares, cantidades y toda otra entidad que pueda formar parte de una aserción en lengua natural. En Prolog esas relaciones pueden escribirse de distintas maneras, en cualquier idioma, utilizando palabras significativas o símbolos abstractos, de acuerdo con las necesidades del programador. Por ejemplo: Cualquiera de estos predicados que consignan "hechos", funciones o propiedades, significa que "Juan es el padre de Pedro" o a la inversa, que "Pedro es el padre de Juan", de acuerdo con la pauta de interpretación semántica que se escoja. Algunos especialistas consideran que existe una entidad fáctica aún más elemental, que se denomina atributo o propiedad, y que tiene una estructura de predicado de aridez mínima, como ésta: Por lo común (aunque esta interpretación no es mandatoria), los atributos monádicos presuponen una predicación del tipo "A es B", siendo A el valor de la constante y B el nombre del predicado. 439 El segundo tipo de predicados es la regla. Por ejemplo, la regla correspondiente al primer tipo sintáctico de la notación de los hechos, nos permite tanto definir la relación "hijo de" como calcularla. Los dos puntos y el guión representan la condición "si"; de modo que esta regla podría leerse como "el hijo de A es B, si el padre de B es A". Hasta aquí, como vemos, no hay nada esotérico ni contraintuitivo, y es fácil advertir que las constantes (los objetos conocidos) se indican con términos en minúscula y las variables (los candidatos posicionales, las incógnitas de las preguntas, los términos generales de una regla) con inicial mayúscula. Si escogemos la lectura "el padre de Juan es Pedro" en la interpretación de los hechos, aplicando la regla correspondiente no hace falta indicar al sistema que "el hijo de Pedro es Juan". La máquina puede deducirlo o calcularlo lógicamente, mediante un procedimiento de instanciación de variables que no viene al caso analizar ahora, pero del que podemos decir que es insospechable y transparente. Esto quiere decir que, en la estipulación declarativa de un conjunto de hechos conocidos, sólo hace falta explicitar los que no pueden ser deducidos de otros hechos más básicos mediante la aplicación de reglas. Estos hechos a explicitar constituirían algo así como los "primitivos" del sistema axiomático. Llamemos la atención sobre el hecho de que estos primitivos carecen por completo del aura de misterio, de la inmediatez eidética y del carácter puntual e indescomponible de que disfrutan los que los epistemólogos generalmente aducen como tales, y que constituyen el punto de partida de sistemas axiomáticos, como ser -digamos- el de Euclides. En todo modelo lógico, los primitivos son simplemente los términos que no se definen con el objeto de que los demás se definan a partir de ellos, y a fin de que el razonamiento no se precipite en una regresión infinita. En un genuino sistema axiomático, un primitivo no tiene por qué ser intuitivamente palmario. Su carácter de primitivo no implica ningún límite, sino que expresa un comienzo, un punto de amarre relacional y arbitrario para los demás conceptos. Contrariamente a lo que se piensa, la definición sustantiva no forma parte de ningún sistema lógico: a nuestros efectos, y a diferencia de lo que afirmara (digamos) un Rodney Needham (1975), no es catastrófico para la teoría y la práctica de la modelización que la antropología experimente dificultades en definir sus términos esenciales. Lo que se defina como primitivo (los hechos, en suma) serán las premisas del razonamiento, aquello sobre lo que corresponderá discutir, en última instancia, una vez que se confíe a la máquina el encadenamiento del cálculo de la inferencia que lleva desde aquéllas a los teoremas, conclusiones, corolarios o como se lo quiera llamar. En este punto, un buen antropólogo ya se habría dado cuenta de que para calcular todas las relaciones de parentesco posibles, los únicos hechos que hay que consignar son las relaciones de filiación, las relaciones de conyugalidad y el sexo de los varones o las mujeres incluidos en la muestra. A partir de estos hechos, se puede construir un sistema de reglas que permitan instanciar la relación de cada uno con todos los demás en el interior de un conglomerado social. El Prolog torna obsoletos o superfluos algunos de los laboriosos procedimientos de elicitación del método genealógico, formulados por Rivers a principios de siglo y luego colectivamente trivializados, que obligaban a relevar redundantemente la relación de todos con todos, una exigencia que sólo podía 440 cumplimentarse en contadas ocasiones y que ante un conjunto menos que mediano ya es matemáticamente imposible (cf. Hackenberg 1973: 294-295; W.H.R. Rivers 1975). Y ya que estamos hablando de parentesco en tanto tópico clásico de la antropología, hay que decir que no es necesario, desde ya, recurrir a predicados cuyas relaciones obedezcan a la nomenclatura occidental: se puede plantear el sistema en terminología samoyedo, selknam o kwakiutl, o mejor aún en varias terminologías a la vez, modificando la aridez (el número de términos) de los predicados para poder tomar esa indicación como computable. Por ejemplo: O bien: El segundo caso ilustra algunos de los términos de parentesco y sus recíprocos en terminología fox, de acuerdo con Floyd Lounsbury; el punto y coma separa, como es evidente, las definiciones alternativas, las que también pueden expresarse mediante cláusulas separadas. Estas facilidades nos permiten operar a través de distintos sistemas clasificatorios e incluso plantear problemas de isomorfismo, semejanza o discrepancia entre dichos sistemas, apelando a lo que se conoce como "técnicas de metaprogramación". Las prestaciones antedichas sugieren que su expresión en Prolog confiere a la programación lógica un inusitado valor como mecanismo de relevamiento. Un mecanismo que permite, entre otras cosas, introducir información altamente condensada y obtener eductos inmensos, o volcar la totalidad de las relaciones básicas de un conglomerado indefinido en el momento de la elicitación, y luego deducir los conjuntos parentales conexos y sus ramificaciones sin basarse necesariamente en un Ego inmóvil como punto de referencia. Para la antropología de las relaciones sociales (de la que el análisis del parentesco es sólo un caso entre otros) esta posibilidad de variar interactiva y dinámicamente el punto de referencia -en contraste con el carácter acabado, cristalizado e inerte de los diagramas de los libros- no es menos que revolucionaria. ¡Ego puede ser una variable! Traducido a otras problemáticas, esto quiere decir ni más ni menos que en un programa lógico se puede modificar a voluntad el eje de articulación relacional entre los términos que se analizan, deslizando la perspectiva a lo largo de sus implicancias o de sus transitividades. La programación lógica pone en acción, por primera vez, la posibilidad real de construir modelos que se pueden manipular y modificar a voluntad, observando los resultados diferenciales de cada modificación y planteando problemas en consecuencia. La tercera categoría de predicados es, como habíamos anticipado, la pregunta (query) que equivale al planteo de un problema, de una hipótesis, de una generalización o de una teoría compleja, de acuerdo con su interpretación semántica y con su nivel de complejidad. La pregunta estimula al sistema para que instancie todas las variables pertinentes de acuerdo con su conocimiento expresado en hechos y con el orden que recorre esos hechos expresado en reglas. Se pide a la máquina una res441 puesta, la cual depende estrictamente de los datos que nosotros mismos hayamos indicado. De acuerdo con las relaciones entre constantes y variables, existen cuatro tipos de preguntas: En el primer caso, en el que ambas variables están libres, se solicita al sistema que entregue la lista de todos los sujetos relevados que se encuentran en la relación estipulada. En el segundo y tercero, se pregunta acerca de las variables que están en cierta relación con las constantes indicadas: respectivamente, "¿de quién es hijo Juan?" y "¿quien es el hijo de Pedro?" (o bien, "¿quiénes son los hijos de Pedro?"). En el cuarto caso, se pregunta si es verdad (o no) que el hijo de Pedro es Juan. Esta es la variante de query que, tal como aquí se la presenta (aunque el problema planteado es indeciblemente esquemático) tiene más similitud formal con la puesta a prueba de una hipótesis. Es obvio que los ejemplos que hemos dado no alcanzan para hacerse una idea cabal de lo que es realmente formular el modelo de un sistema en un lenguaje de programación lógica. Es necesario aclarar que la estructura de la representación tanto de los datos como de las reglas y preguntas puede (y acostumbra) ser mucho más elaborada y compleja, involucrando definiciones alternativas o desatando cálculos de relaciones subsidiarias. Si preguntáramos por la relación "suegro de X", en vez de por "hijo de X", el sistema tendría que resolver primero la existencia de X, resolver la relación "esposa de X" e instanciar luego el valor correspondiente al "padre de la esposa de X". Los pasos intermedios en la resolución de una consulta de cualquier tipo, de hecho, pueden ser centenares, y situarse mucho más allá de la capacidad de concentración del mejor analista humano, haciendo realidad el sueño levistraussiano de la manipulación del modelo. Pero el núcleo de la programación lógica en Prolog consiste, básicamente, en los elementos referidos y sólo en ellos; la fuerza deductiva de un sistema se basa en su densidad, en la riqueza de observaciones que compendia, más que en la masa absoluta de los datos que colecciona. La potencia combinatoria de la sucesión de hechos, reglas y consultas que pueden a su vez ser complejas, recursivas y jerarquizadas en un sistema que representa un dominio real, hace de los lenguajes de programación lógica la herramienta por excelencia para la sistematización del conocimiento, incluso en ámbitos respecto de los cuales existe una cobertura verbal escasamente refinada. Apenas tendría gracia que la programación lógica aportara recursos formales a un área de la disciplina que ya se encuentra en gran medida formalizada. El mismo formalismo que hemos ejemplificado, casi sin modificaciones estructurales, sirve para abordar otros tipos de relaciones características de los estudios antropológicos: compadrazgo, clientelismo, relaciones intra o interétnicas, subordinación, redes sociales, relaciones de poder, análisis del rumor, diseño de las retículas a nivel de la communitas, construcción analítica de las "estructuras sociales" en el sentido tradicional, faccionalismo, relaciones entre clases sociales, análisis de rol-status y un largo etcétera. También, si se desea, se puede plantear en un solo macroesquema complejo de resolución todo un rico cuadro de relaciones intersistémicas. De esta manera, se podrían formular hipótesis sobre la relación entre las estructuras de parentesco y cualquier otro orden de la vida social, introduciendo la información 442 pertinente y vinculando los diversos registros temáticos a través de predicados que expresen los hechos conocidos. Al igual que los lenguajes procedimentales más elaborados, el Prolog es asimismo modular: tanto los hechos como las reglas pueden imbricarse en construcciones jerárquicas de complejidad creciente, o bien a la inversa: cada problema complejo es susceptible de descomponerse en partes interrelacionadas, dedicando toda la potencia de la máquina a cada una de las resoluciones parciales. La resolución de un problema puede convertirse, a su vez, en el input de un programa concatenado. De igual modo, se pueden someter distintos conjuntos de hechos a una misma batería de reglas de ordenamiento, ajustando a éstas en función de su rendimiento relativo frente a problemáticas específicas y aprovechando el análisis de ese ajuste para construir una tipología de problemas característicos y sus respectivos modos de resolución. Una "teoría general" (es decir, una teoría que conserva su validez a través de múltiples ámbitos de predicación, como la Teoría General de Sistemas) tendría en la modularidad del Prolog un instrumento de verificación insuperable. En términos de programación lógica de sistemas expertos, esta modularidad se comprueba confrontando diversas masas de datos o representaciones analíticas de "hechos" con la misma máquina de inferencia. La posibilidad de generar programas de cierto grado de generalidad no excluye el uso ocasional del Prolog como "calculadora lógica" para salir del paso, por así decirlo. Supongamos que un colega nos presenta un razonamiento lógicamente sospechoso, como el encuadrado en esta frase de Melford Spiro en contigüidad a ciertos comentarios sobre falacias de tipificación: La cultura, a la que he definido como 'un sistema cognitivo' [...] no consiste en pensamientos más de lo que consiste en sentimientos. Dado que el pensamiento y el sentimiento son propiedades de las personas, y una cultura no consiste de personas -aunque una sociedad sí- es difícil ver de qué manera [el pensamiento y el sentimiento] podrían ser parte de la cultura" (Spiro 1984: 324). Utilizando las estructuras que ya hemos revisado, la casi totalidad de implicancias de este razonamiento puede modelizarse muy fácilmente en lenguaje Prolog. La siguiente es la expresión completa de las afirmaciones pertinentes de Spiro vertidas en la cita anterior en cláusulas de Turbo Prolog, el dialecto de la compañía Borland (posteriormente transferido a sus diseñadores originales) que pasa por ser el más utilizado en todo el mundo. Obsérvese que el segmento verdaderamente operativo del programa, que son sus cláusulas (el resto es información de ajuste para control del programa intérprete), insume bastantes menos palabras que su formulación en lenguaje natural: 443 Las preguntas que podemos formular son variadas. Por ejemplo: La primera solicita al sistema que indique cuáles son los atributos de quiénes; la segunda requiere a la máquina que entregue los atributos propios del individuo; la tercera, pregunta si es verdad o no que el sentimiento forma parte de la cultura. El programa se comporta conforme al modelo intencional de Spiro hasta cierto punto; si preguntamos al sistema si "el pensamiento es parte de la sociedad", empero, el sistema nos contesta que sí, por cuanto ello estaba implícito en la formulación del autor. Este parece ser un corolario no deseado del razonamiento, puesto que cualquier atributo particular de un elemento pasa a convertirse en propiedad colectiva del conjunto. ¿No es ésto lo que los lógicos llaman "falacia de composición"? (cf. Nagel y Cohen 1983:215). Pronto se hacen evidentes los puntos en los que se esconde la falacia, y resulta claro, manipulando variables, que "ser parte de algo" no es exactamente simétrico con "tal cosa consiste de tales elementos", que la pertenencia de un individuo a un conjunto no transfiere al conjunto sus propiedades personales y que ese tanto ese consistir como ese ser parte constituyen expresiones oscuras. Incorrecto o no (el razonamiento de Spiro, en rigor, es más desprolijo que propiamente falaz), todo aserto de este tipo es programable, verificable y susceptible de optimizarse con absoluta transparencia. Tenemos aquí quizá no tanto una herramienta como un arma. Sin necesidad de soñar con una conmensurabilidad imposible, podemos definir modos de acuerdo sobre la limpieza y exhaustividad lógica de los procedimientos con un grado de precisión por lo menos algo más aceptable que el que poseíamos. El número de frases o aseveraciones que podemos incluir en un programa de verificación es elevado, de modo tal que se pueden cubrir todos los aspectos fundamentales de una teoría razonablemente compleja con todos los matices, salvedades y definiciones alternativas que hagan falta, y suponiendo, en un arrebato de la imaginación, que en nuestra ciencia lleguemos a tener teorías complejas alguna vez. Quizá ahora sí podemos aspirar a construirlas. ¿Cuándo tuvo la antropología a su disposición una herramienta semejante? 444 II MARCO EPISTEMOLOGICO 1. PUNTO DE PARTIDA ANTROPO/LOGICO Este capítulo inicia el fragmento de nuestro ensayo que obedece más de cerca los cánones que en nuestra práctica académica se estiman propios de una tesis. Tras una serie de apartados introductorios tendientes a demostrar la amplitud de las prestaciones potenciales de la programación lógica de cara a la antropología, corresponde ahora acotar el tema a un campo mucho más restringido para poder operar con la concentración necesaria. La insólita extensión de los capítulos introductorios referidos al estado actual del problema obedece al hecho de que hemos tenido que ser nosotros mismos quienes lo hemos planteado como tal. Como los pormenores del cálculo cualitativo formal no eran problemáticos para la antropología, como no podíamos avanzar más sin plantear la cuestión, y como estimamos que a la vez de estar estableciendo el problema estamos ofreciendo una vislumbre de solución, hemos tenido que escenificar todo el contexto, procediendo en términos de un modus didáctico que deseamos excluir de la tesis propiamente dicha. Los capítulos anteriores ocupan entonces el lugar de un fragmento de la historia del método antropológico que hasta el momento no había sido escrito, pero en el que el eventual lector puede desde ahora situarse. Asumimos, entonces, que la trayectoria, la razón de ser y la estructura general de las herramientas protagónicas de esta tesis ya no forman parte de la incógnita. Hasta la fecha, ni la antropología había desarrollado modelos genuinos de inteligencia artificial, ni ésta se había dado por enterada de la existencia de campos enteros del conocimiento incapaces de asimilar -mediante una incorporación cabal y no mediada- los instrumentos que se han estado forjando. La distancia que media entre la vaguedad de las formalizaciones antropológicas convencionales y el rigor potencial de los procedimientos informáticos ha sido tan vasta, su asimetría es tan grotesca, que incluso estimamos inconveniente considerar la tesis que sigue como un trabajo interdisciplinario, en el sentido clásico de la palabra. El ideal metodológico -conjeturamos- se encuentra menos en la ampliación del desempeño cooperativo que en el replanteamiento de la competencia en el interior de las disciplinas requirentes. La excusa tranquilizadora de una interdisciplinariedad latente (siempre a la mano aunque se la utilice poco) coadyuva a que la formación disciplinar en materia de metodología y técnicas siga siendo tan insustancial como siempre ha sido. Si proponemos esta elaboración como un trabajo consagrado a modificar las técnicas de elaboración teórica de la antropología, aconsejar que se derive ese desarrollo a un "entendido" o a un "especialista" que nos resuelva los percances del método aplicando a un material que no le interesa una herramienta cuyos alcances sólo él comprende, nos dejaría de nuevo en el punto de partida. ¿Por qué aceptar el hiato interdisciplinar como un mal necesario? ¿Por qué confiar, además (si no por oscurantismo tecnolátrico), en las soluciones incomprensibles que los tecnólogos nos 445 entregan, típicamente plagadas de números donde tendría que haber conceptos? El antropólogo, pongamos por caso, no delega la responsabilidad de analizar los sistemas de parentesco a un experto en genealogía, ni el derecho a interpretar los mitos a un hermeneuta de profesión; el conocimiento técnico para llevar a término uno y otro análisis forma parte inherente de sus propias capacidades curriculares. Lo mismo debería suceder en el caso de la programación lógica, si la entendemos no como una práctica esotérica, sino como un recurso propio de la disciplina, y aún con más razón: el cambio de manos introduciría una discontinuidad conceptual y metodológica que anularía el efecto de la continuidad deductiva que estos formalismos nos garantizan y que sólo puede construirse, laboriosamente, cuando comprendemos desde los fundamentos lógicos del instrumento hasta la última connotación del material al cual se aplica. Mientras nuestra introducción se dedicó a mostrar qué es lo que puede extraerse de la informática de avanzada, los capítulos que siguen se abocarán a establecer qué matices, dificultades y exigencias presenta a ésta la investigación antropológica concreta, a fin de que el modelo no resulte sospechable de esquematización y de logicismo. Nuestro trabajo no ha sido el de la invención del artificio, sino (como quería Bateson) el hallazgo de la pauta que conecta. Ahora hay que reforzar y matizar la conexión. Aquí el punto crítico es, si se quiere, el realismo, la sutileza, la versatilidad e incluso la expresividad y la elegancia de los modelos que pueden desarrollarse. Nos contentamos con que la introducción simplemente haya preparado la atmósfera, sin demostrar nada, a efectos de posibilitar la verdadera demostración, que sólo puede ser axiomática y completa. El trabajo que resta es de sintonía fina en el plano de las correspondencias significativas entre los problemas y las herramientas, y de fundamentación y prueba exhaustiva en el plano de la implementación. De acuerdo con un ordenamiento que ya se ha tornado clásico, indagaremos la aplicabilidad de la programación lógica a niveles que podríamos llamar sintáctico, semántico y pragmático. Al hablar de estos "niveles" nos orienta una intencionalidad heurística más que una actitud clasificatoria estricta, pues estamos persuadidos que los tres planos se interpenetran, que sus periferias son tan anchas como sus focos, que sus fronteras tienen la textura y la penetrabilidad de una nube. Sea como fuere, el punto crítico se localiza en el centro, lo que no podía ser de otra manera tratándose -como es el caso- de un problema de modelización. La hipótesis que nos motiva es la concordancia semántica entre una idea antropológica y la interpretación del predicado lógico formalmente expuesto que le corresponde; esa concordancia semántica inaugura la posibilidad de conferir a la representación de nuestros conocimientos y al tratamiento de nuestros problemas un estatuto de reflexividad, rigor y consistencia que los convierten en una especie de cálculo. Cálculo (hay que insistir en ello) que no incurre en las consabidas ingenuidades del cientificismo respecto de la posesión de la verdad objetiva y que, más que facilitar el trabajo intelectual en la era de las máquinas, nos revela la abismal dimensión de problematicidad propia de todo planteamiento responsable. Esta potencialidad comienza a avizorarse cuando el antropólogo y el programador son la misma persona o coordinan sus intereses como si lo fueran, y cuando la técnica no se introduce como un cuerpo extraño tendiente a confirmar un compromiso unilateral con las ciencias duras, sino como una herramienta que (al igual que la hermenéutica o el método genealógico) nos es tan propia, necesaria y oportuna como cualquier otra. La hipótesis de esa correspondencia de significados ya ha sido verificada, hasta cierto punto; resultaba fatal que así fuese, porque el lenguaje utilizado nació de la necesidad de contar con una herramienta de cálculo basada en la descripción de los hechos y en el álgebra cualitativa de las relaciones. La tesis siguiente tiene por objeto ampliar esa verificación hasta hacerla incontrovertible; y lo 446 hará no acumulando ejemplos extensivos adicionales, ni multiplicando las áreas temáticas de su posible implementación, sino operando intensivamente, en profundidad, analizando primero la naturaleza de los fundamentos de la modelización misma y el espacio epistemológico que con su incorporación se determina, poniendo a prueba después la plasticidad del Prolog para la representación del conocimiento, e indagando por último la adaptabilidad de la lógica formal (la cual en este contexto no se restringe a la lógica académica) a diversos juegos de premisas filosóficas y a distintos marcos teóricos. La escala de rigor de los métodos que estamos proponiendo y, en general, la complejidad estructural de la epistemología que le corresponde, requieren antes que nada la construcción de una verdadera teoría de modelos, fundada en el aserto (a demostrar) de que no existe ni en la filosofía de la ciencia ni en las ciencias sociales una elaboración sobre el particular que resista la crítica y que convenga recuperar como precedente bien fundado. Considerando lo expuesto, la estructura de la demostración despliega, sucesivamente: (A) Un cuadro de situación (dispuesto a los efectos de establecer un ulterior contraste) relativo a las posibilidades y alcances, a la fecha, del desarrollo de modelos en antropología. El objetivo de esta visión de conjunto es demostrar que todavía no existen a disposición de la disciplina modelos metodológicamente instrumentables y que las bases epistemológicas mismas de la modelización (las "teorías de modelos") difundidas por la literatura asequible son débiles, no instrumentables y contradictorias. Este cuadro comprende la totalidad del capítulo II.2, y sólo afecta a los lineamientos disciplinares arquetípicos; otros modelos antropológicos, no menos relevantes, se revisarán en apartados específicos. (B) Un análisis en profundidad de las características lógicas del lenguaje utilizado a lo largo de los niveles sintáctico, semántico y pragmático, como demostración preliminar de que se dispone de un formalismo predicativo apto para la representación del conocimiento y la construcción de modelos con capacidad eductiva. Este análisis ocupa la sección II.3. La "semántica" de la que aquí se trata es de naturaleza lógica, y corresponde considerarla como una suerte de nivel de significación de primer orden que fundamentará, en su momento, la capacidad del formalismo para expresar la semántica de orden superior concerniente a un dominio de interpretación que, en este caso, coincide con nuestra temática disciplinar. (C) Un esbozo sucinto de la epistemología y la metodología requeridas para posibilitar la integración de una instancia formal en el conjunto de los procedimientos disciplinares. Este esquema define con una cierta taxatividad los alcances máximos de toda formalización y establece la existencia de conjuntos de procedimientos que podrán sujetarse a una especificación más o menos rigurosa, pero que jamás serán pasibles de una formalización en sentido estricto. El núcleo del marco epistemológico se completa en los apartados II.4 y II.5. (D) Una exploración sistemática de las formas de representación del conocimiento ideadas en antropología, ciencia cognitiva y computación en tanto instancia semántica de segundo orden, y de los cruzamientos transdisciplinares emergentes. Este proyecto se desarrolla en el capítulo III. (E) Una caracterización de los diversos esquemas lógicos alternativos (polivalentes, modales, difusos, epistémicos, probabilísticos), un análisis de su adecuación a la modelización antropológica y una comprobación concurrente de la versatilidad del Prolog para operar en base a sus premisas. Toda la parte IV se consagra a este análisis. 447 (F) Una prueba de reescritura de "hechos", problemas e hipótesis antropológicas en notación lógica computacional utilizando diversos formalismos, y una evaluación de la información sustantiva y reflexiva que este procedimiento devuelve. Un intento concomitante por establecer a partir de esta prueba niveles de problematicidad, tipos de modelos y formas pautadas de resolución. A esto se dedica la parte inicial del capítulo V y el apéndice de programas aplicativos. Aunque los nexos entre las diversas argumentaciones procurarán ser explícitos, presuponemos una lectura tan constructivista y dinámica como el paradigma lógico que sirve de fundamentación a nuestro formalismo; de ella, más de lo que en puridad se ha escrito, dependerá que se constituya o no la propuesta sistemática de la que con cierta imprudencia alardeamos en el título. 2. LA CONSTRUCCION DE MODELOS EN ANTROPOLOGIA. Sólo ocasionalmente se han explorado en antropología las posibilidades, significados y promesas de la construcción de modelos; casi nunca se ha indagado el problema de la elaboración modélica en sí o en general, y en la mayoría de los casos se ha afrontado, sobre bases epistemológicas muy débiles, el estudio de un tipo específico de modelos (por lo común estructuralistas, cognitivos y "matemáticos") ligados a una teoría, a un método o a un dominio peculiar. Es necesario saber en qué situación nos encontramos. Resulta imperativo trazar un balance, y eso es lo que emprendemos a renglón seguido. Restringimos deliberadamente nuestra visión de los modelos antropológicos al espacio de la antropología sociocultural, por cuanto en el ámbito de la arqueología el problema pareciera ser el de la adecuación de los modelos, y ya no el de su inexistencia. Todo cuanto tenemos que decir a propósito de los modelos arqueológicos (que constituyen una creciente multitud) lo hemos dicho al dejar sentada nuestra crítica a la computación convencional y a la caja negra de los lenguajes procedimentales, a los que dicha formalización ha recurrido en la generalidad de los casos. En nuestra opinión, la situación de la teoría y la praxis del uso de modelos en antropología sociocultural se encuentra en una atolladero. A partir de un comienzo desafortunado que definió buena parte del carácter de las preocupaciones ulteriores, el grueso de la indagación disciplinar en torno a los modelos se transformó en el campo de batalla de una disputa con la que la modelización apenas está relacionada, y que se refiere a la esencia "real", "formal" o "ideal" de las entidades, relaciones y estructuras que constituyen el objeto de modelización. Como tendremos ocasión de demostrar, los protagonistas de esa búsqueda han incurrido inexorablemente en serios errores metodológicos y filosóficos, y esos errores han precipitado a la disciplina en discusiones tan inconcluyentes como ingenuas, que convendría ya ir abandonando. El tratamiento del tema no ha logrado trascender el circuito de un círculo vicioso, en el que obsesivamente se discute en torno de la esencia de lo que se modeliza, como si eso pudiera resolverse merced a la utilización de un modelo. Prácticamente no se ha reflexionado en absoluto sobre los prerrequisitos, características, posibilidades y límites de los modelos en general de cara a las necesidades de la disciplina, sobre los aspectos que confieren a los modelos capacidad de representación y fuerza de sistematicidad, sobre los pasos que se han de seguir para construirlos o sobre lo que distingue a un modelo de otros tipos posibles de configuración analítica. 448 Aunque existen diversas prefiguraciones y anuncios proféticos, el uso de modelos en la disciplina se inaugura con las especulaciones de Lévi-Strauss en "La Noción de Estructura en Etnología", de 1952, artículo que constituye el célebre capítulo XV de la Antropología Estructural (1973:249-309). Sus afirmaciones han definido el tono, el objeto y el nivel de los debates subsiguientes, y por ello es preciso citarlas textualmente. Dice Lévi-Strauss: El principio fundamental afirma que la noción de estructura social no se refiere a la realidad empírica, sino a los modelos construidos de acuerdo con ésta. [...] Se trata ... de saber en qué consisten estos modelos que son el objeto propio de los análisis estructurales. El problema no corresponde a la etnología sino a la epistemología, porque las definiciones que daremos a continuación no dependen para nada de la materia prima de nuestros trabajos. En efecto, pensamos que para merecer el nombre de estructura los modelos deben satisfacer exclusivamente cuatro condiciones. En primer lugar, una estructura presenta un carácter de sistema. Consiste en elementos tales que una modificación cualquiera en uno de ellos entraña una modificación en todos los demás. En segundo lugar, todo modelo pertenece a un grupo de transformaciones, cada una de las cuales corresponde a un modelo de la misma familia, de manera que el conjunto de estas transformaciones constituye un grupo de modelos. En tercer lugar, las propiedades antes indicadas permiten predecir de qué manera reaccionará el modelo, en caso de que uno de sus elementos se modifique. En fin, el modelo debe ser construido de tal manera que su funcionamiento pueda dar cuenta de todos los hechos observados. (1973:251-252). Las paráfrasis de estas palabras que podemos encontrar en la literatura antropológica son innumerables, pero por desdicha los términos concretos del acto fundacional han sido fatalmente los expuestos. Podríamos señalar en estos párrafos clásicos numerosos galimatías y entuertos conceptuales, sin necesidad de sobreimprimirle ningún énfasis: la confusión lisa y llana de las estructuras con los modelos; la asombrosa afirmación de que "una estructura presenta carácter de sistema"; la idea de que en un sistema todas las variables son igualmente sensibles y determinantes, y de que todas las demás se ven afectadas cuando se modifica una de ellas; la equivocada identificación de un modelo con un miembro de un grupo de transformaciones estructurales; la insólita observación de que en un modelo puede haber no ya una estructura, sino una estructura social, contradictoria con el aserto de que la materia prima de los referentes es irrelevante para dicho constructo. La palpable ligereza de los juicios levistraussianos (que, como antropólogos, nos ocasiona más pesadumbre que indignación) no haría necesaria una recusación en regla si la nuestra fuese una ciencia madura. Es por escrúpulo metodológico (y no por dudar de la astucia epistémica del lector) que procederemos, no obstante, a subrayar los desatinos más ofensivos. Los errores de la argumentación levistraussiana son innumerables, y nos inclinamos a sentir que su reconocimiento no depende de la adscripción a una doctrina determinada por parte del crítico. Al contrario de lo que piensa LéviStrauss, (a) Las estructuras no son modelos. Existe cierto acuerdo respecto de que las estructuras sean determinadas invariantes, configuraciones, disposiciones de componentes o constantes que se pueden presentar ya sea en un modelo que representa a un sistema o en un discurso analítico cualquiera que se refiere a una realidad más o menos "dada". No es imperativo que todo modelo de una realidad enfatice su carácter de sistema, ni tampoco es inevitable que todo modelo esté conminado a exaltar o probar la existencia de estructuras. Existe una amplia libertad para inspeccionar la relación entre realidades, sistemas, estructuras y modelos, libertad que se va perdiendo, necesariamente, por poco que 449 los diversos términos se utilicen como si fueran equivalentes14. Si se igualaran sin más estructuras y modelos (y en principio sería legítimo hacerlo, si a quien formula una doctrina le place) se pierde, obviamente, la posibilidad de identificar y caracterizar aquéllas mediante manipulaciones operadas sobre éstos. Naturalmente, lo que se llama "estructura" en un marco teórico puede recibir el nombre de "modelo" en otro: un caso a propósito es el de la econometría en relación con la lógica (Suppes 1988: 112); pero semejante confusión jamás se da en el interior de un mismo entramado conceptual. (b) Las estructuras no "presentan carácter de sistema", sino que más bien los sistemas (reales o ideales) poseen real o idealmente una estructura, definida por las invariantes relacionales que se revelan al cabo de una serie de transformaciones; se pueden postular (y de hecho se hace habitualmente) diferentes estructuras y niveles estructurales en el interior de un sistema representado en un modelo.15 (c) En ningún sistema conocido que tenga algo que ver con una realidad mínimamente compleja la totalidad de las variables reacciona a la modificación de una cualquiera de ellas: siempre hay variables más o menos sensibles, más o menos críticas o determinantes, al punto que existe una "teoría de las jerarquías" que estudia la importancia o falta de importancia relativa de los diversos conjuntos de variables en un sistema y un "análisis de la sensibilidad" que aborda las propiedades matemáticas de ese estado de cosas.16 (d) En la epistemología y en las matemáticas estructuralistas, un grupo de transformaciones define una estructura, y de ninguna forma un modelo; según otra definición estructuralista aceptable, un grupo se puede considerar como un tipo especial de estructura, pero jamás como la forma necesaria de todo modelo.17 (e) Aún admitiendo la legitimidad de imprimir un sentido atípico o idiosincrático a la noción de modelo, un modelo no es necesariamente un miembro de una familia de transformaciones, pues la relación entre una operación transformacional discreta y un modelo no es ni remotamente una a uno; si las variables del modelo admiten manipulación (y no tendría sentido pensar en un modelo que restrinja esta posibilidad), un solo modelo puede dar cuenta de una, muchas o infinitas series de transformaciones. Un modelo que representara un solo estado en una serie de transformaciones sería absolutamente inútil para dar cuenta de la serie, y no sería pasible de modificarse para examinar la re-estructuración o la dinámica del sistema al cual representa. 14 Las definiciones alternativas son innumerables, pero el núcleo del sentido de todas las que hemos consultado nunca pasa por la asimilación de "estructura" y "modelo"; la entidad del "sistema" es variable de un científico a otro, pero muy de tarde en tarde se lo confunde con la estructura y jamás con el "modelo" (cf. J.G. Miller 1978:22-23; Mouloud 1969; Wilden 1979; Klir 1984; von Bertalanffy 1982, 1984; Rapoport 1984). Nuestra formulación alberga un implícito deliberado que por ahora dejamos latente: que no es posible determinar la entidad "sistemática" de una realidad compleja si no se construye un modelo. 15 Pueden verse diferentes definiciones correlativas de sistema y estructura en la literatura estructuralista y en los estudios encuadrados en la teoría general de sistemas, dinámica de sistemas, etc. Cf. James Grier Miller 1978:9-50; Aracil 1983, passim. 16 Sobre las organizaciones jerárquizas, cf. Whyte, Wilson y Wilson 1973; Aracil 1983:35-36. Sobre el análisis de la sensibilidad en la moderna teoría de la modelización, véase Rothenberg 1989:88-89; D'Ambrosio 1989:142-146. 17 Véanse las definiciones estructuralistas clásicas de Robin Gandy (1976). Definimos formalmente un modelo más adelante, en múltiples ocasiones y según diferentes perspectivas. Como definiciones alternativas cf. Miller 1978, passim; Aracil 1983:15-38. Hemos tratado con más detalle el concepto de "grupos de transformación" en Reynoso 1986. 450 (f) Puesto que Lévi-Strauss ha identificado a los modelos con las estructuras, la suposición de que el modelo se transformará "en caso de que uno de sus elementos se modifique" es errónea; en su propia epistemología, las estructuras (y consecuentemente los modelos) no constituyen conjuntos de elementos sino conjuntos de relaciones; la modificación de un elemento en nada incide sobre la estructura y la trayectoria de un sistema, en tanto las relaciones entre los términos se mantengan constantes. La incidencia de un elemento sobre el conjunto depende del valor de sus relaciones en el tejido estructural del sistema. Más que la escala de la equivocación, sorprende la densidad de los errores, la forma en que se aglomeran en una muestra textual mínima casi sin necesidad de interponer elipsis. Toda la construcción se apoya sobre arena, y su denuncia se torna forzosa. La lectura levistraussiana de la doctrina estructuralista preexistente ha sido a todas luces apresurada, superficial y confusa, y en lo que respecta a su discurso sobre modelos es incluso infiel a las definiciones y usos que él mismo asentara; la resultante de ello es el caos que acabamos de cartografiar, donde todos los tipos lógicos se ofrecen por el precio de uno y donde no se cumple en absoluto el objetivo que él mismo se ha propuesto de "saber en qué consisten estos modelos que son el objeto propio de los análisis estructurales". De todas maneras, carece ya de sentido preguntarse en qué consiste una entidad que, por definición, el mismo antropólogo ha construido. Virtualmente no hay en todo el cuerpo de la cita una sola proposición que sea correcta en alguna epistemología imaginable o que no resulte contradictoria con aserciones contiguas. Sea que paradigmáticamente examinemos sus correspondencias con otros marcos categoriales o que sintagmáticamente examinemos su consistencia interna, la formulación levistraussiana deviene insostenible. Estructuras, transformaciones, modelos y sistemas no deberían ser, creemos, conceptos difusamente intercambiables de acuerdo con los vaivenes del mercado retórico; se trata de aspectos que, cualquiera sea la amplitud semántica de sus definiciones y cualesquiera sean las diferentes personalidades ontológicas que hayan asumido en el curso del tiempo, han sido distinguidos con claridad en todas las epistemologías más o menos responsables, con la posible excepción de las que se construyeron en nuestra disciplina tras el advenimiento del estructuralismo. No es que esos términos, por una decisión autoritaria, no puedan definirse en un marco teórico a través de denotaciones que en otros marcos corresponden a otras categorías; lo verdaderamente incorrecto es que en el interior de una sola perspectiva sus significaciones se confundan. Con cierto esfuerzo de reconstrucción por parte del lector es posible corregir lo que Lévi-Strauss efectivamente dice e infundirle un contenido aceptable: que la estructura social de un sistema concreto sólo se capta en un modelo relativamente abstracto, que un modelo permite dar cuenta de y predecir determinadas transformaciones del sistema representado, que estas transformaciones no son estocásticas sino que responden a cierta pauta, que la estructura de un sistema se revela a lo largo de las transformaciones a las que se somete el modelo, etcétera. Esta lectura algo más correcta, pero idealizada, es, sin duda, la que realizan cotidianamente los antropólogos y los críticos de la disciplina; de otra manera, alguien se habría dado cuenta antes de que el esquema teorético está lisa y llanamente mal planteado y no habríamos tenido que ser nosotros quienes trajéramos a colación el caso recién aquí y ahora. En todo el discurso antropológico sobre los modelos levistraussianos los ostensibles errores de la formulación original invariablemente se pasan por alto, como si existiera un acuerdo mutuo en no poner en relieve su precariedad (Cf. Vogt 1960; Nutini 1965; Caws 1974; Chaney 1978; El Guindi y Read 1979). 451 Las lecturas redentoras, empero, no alcanzan para poner los modelos en marcha. Lo más grave de todo esto es que en la presentación que de ellos hace Lévi-Strauss, la naturaleza de los modelos y la forma en que estos modelos reflejan una realidad nos han sido escamoteadas, tal vez deliberadamente. En los ensayos levistraussianos no hay una clara delimitación entre el modelo y el discurso asertivo común, y es esa misma fluidez la que dificulta saber en qué consiste el modelo y cómo trabaja. El modelo de marras es soluble en lenguaje, se disuelve al sumergirse en las pretextaciones retóricas e ideológicas que lo circundan. Es cierto que las argumentaciones de Lévi-Strauss que asumen un tono formal difieren de las demás por cierto carácter diagramático y por la generosidad de sus lances analógicos; pero todo ello es harto indisciplinado, y en todo el discurso modélico levistraussiano lo más necesario está sistemáticamente ausente: no existe ni una gramática inherente al modelo, ni una fundamentación lógica de su capacidad productiva, ni una forma pautada y replicable de operarlo, ni un conjunto enunciable de reglas de modelización. En la jerga científica, si la palabra "modelo" significa algo, ello es la capacidad de re-producir una herramienta que (como diría Ayer) pone en pie de igualdad a los pontífices y a los jornaleros, y que permite llegar a conclusiones parecidas partiendo de los mismos interrogantes; suprema paradoja: ninguna escritura, ninguna analítica es, en toda la antropología, más idiosincrática e inimitable que la levistraussiana. En la encrucijada de las referencias eruditas a la lingüística, a la cibernética, a las matemáticas estructurales y a la teoría de la información el modelo levistraussiano no es definidamente nada de eso; no cumple con el deber de delimitarse y con ello no se compromete a ningún código de conducta. Tras la fachada de la interdisciplinariedad se esconde, de hecho, el laberinto de la más anárquica indisciplina. La pregunta que debemos hacernos es: ¿qué es para Lévi-Strauss efectivamente un modelo? ¿Es acaso una entidad imaginaria que se puede "materializar" y "operar" -por así decirlo- mediante un flujo de palabras? ¿Es una herramienta que podría constituirse de diversas formas, incluso en una discusión verbal entre intelectuales? ¿Es un constructo heteróclito, formado de aserciones, imágenes, maquetas, circuitos y mecanismos? ¿Es una nueva suerte de metáfora? ¿Es un diagrama en un papel, acompañado por una nota explicativa que prescribe su forma de uso? ¿Es, más formalmente, una entidad conceptual que se puede traducir de acuerdo con determinados principios de simbolización en un conjunto de grafos, vectores y paréntesis? ¿Es un artificio puramente lógico, un núcleo platónico capaz de transcodificarse y corporizarse bajo diversas formas de representación? ¿O es más bien un conjunto no pautado de proposiciones, que el escritor va "transformando" guiado por su intuición a medida que, discursivamente, se simula la modificación de sus variables? Además, ¿Qué privilegio exime a los modelos levistraussianos de la estipulación de aquello en que se fundamentan, de la identificación precisa de los rigores que hacen que se les deba tener confianza? ¿Cuáles son los atributos de estos modelos que le confieren la adecuación descriptiva y el poder explicativo que reclaman? ¿Cuáles son los prerrequisitos a los que se atienen y las reglas que reconocen en materia de precisión conceptual, exhaustividad y coherencia interna? Los interrogantes son infinitos, pues la necesidad misma de que Lévi-Strauss recurra a una entidad instrumental que después no caracteriza más que a través de un uso que sistemáticamente la encubre, resulta enigmática. Podríamos seguir haciéndonos preguntas que nadie nos contestará: ¿Por qué hablar de modelos, después de todo? ¿Cuál es el quantum de precisión que debe poseer un modelo para contrarrestar los efectos envolventes de la subjetividad, la connotación y la ideología? ¿Cómo puede verificarse la validez descriptiva y la eficacia predictiva de un modelo? ¿Es un modelo una herramienta de una teoría, una estructura escondida en la realidad, o un avatar o manifestación 452 de la teoría misma? Cuando Lévi-Strauss ridiculiza a Gurvitch (1973:74-78) ¿Cuál es el sentido de desplegar la sutileza de apabullar a un colega por no haberse dado cuenta que las "estructuras sociales" pertenecen al plano del modelo (y no a la realidad) para terminar encubriendo (o ignorando), a fin de cuentas, la topología, la capacidad funcional, el status ontológico, el régimen interno y la configuración formal de ese constructo? Sin reflexionar sobre su propio silencio en las materias verdaderamente cruciales, Lévi-Strauss siguió entonando loas a la modelización científica en los casi cuarenta años siguientes; pero jamás nos proporcionó un solo modelo explícito y digno de ese nombre, a no ser que se acepten como modelos elaboraciones literarias -brillantes o letárgicas, ése no es el punto- que en nada difieren, epistemológica e instrumentalmente hablando, de cualquier otra escritura o de un despliegue imaginativo de sentido común. A menos que exista alguna reseña que desconozcamos, Lévi-Strauss, por ejemplo, nunca se dignó a demostrar la forma en que se manipula una variable de un modelo para observar su comportamiento diferencial, pese a que ésta es una de las las razones recurrentes que justifican su construcción. Este estado de cosas nunca se modificó, por más que los intelectuales más conspicuos de la época participaron en el debate. Para Lévi-Strauss los modelos siguieron siendo nebulosos y polimorfos, y nadie se atrevió a despertarlo de esta etapa de sus sueños dogmáticos, ni sintió la necesidad de hacerlo. Alguna evolución hubo con el correr del tiempo, pero no fue para mejor. Hacia 1946, en una contribución sobre sociología francesa en una obra colectiva, los modelos aún no se confundían con las estructuras, sino que eran "dispositivos analíticos capaces de reducir la complejidad concreta de los datos a estructuras más simples y elementales" (1946: 525). En la etapa intermedia es cuando más proliferan las identificaciones extravagantes, como cuando afirma que las estructuras sociales consisten en modelos etnológicos (!) cuyas características los tornan científicamente manipulables; es decir, son sistemáticos, transformacionales, predictivos y exhaustivos (1953:279-280). En Tristes Trópicos se encuentra tal vez la justificación más escueta y más clásica: Después de Rousseau, y de una manera que me parece decisiva, Marx enseñó que la ciencia social ya no se construye en el plano de los acontecimientos, así como tampoco la física se edifica sobre los datos de la sensibilidad: la finalidad es construir un modelo, estudiar sus propiedades y las diferentes maneras como reacciona en el laboratorio, para aplicar seguidamente esas observaciones a la interpretación de lo que ocurre empíricamente, y que puede hallarse muy alejado de las previsiones (1973:45-46; original de 1955). Eventualmente, empero, los modelos volvían a identificarse con la cosa en sí o con entidades ideales emergentes de operaciones abstractas: un modelo científico -afirmaba Lévi-Strauss- "es un objeto que puede aislarse fácilmente, con contornos bien definidos, cuyos diferentes estados revelados por la observación se pueden analizar con referencia a unas pocas variables" (1964: 544). Estas afirmaciones son de por sí inespecíficas, pero si se las concatena a las anteriores el contrasentido es inquietante: ¿cómo se concilia, por ejemplo, el argumento empirista de que un modelo es un "objeto que puede aislarse" con el dictum racionalista de que se trata de una construcción ideal o de un "dispositivo analítico"? Los razonamientos de Lévi-Strauss sobre los modelos son, sin duda, precarios; lo malo del caso es que ni siquiera se trata de una precariedad consistente. Los comentarios acerca del discurso levistraussiano sobre los modelos han sido, en lo metodológico, tan poco rigurosos como el original. Parain-Vial llegó a objetar que Lévi-Strauss a menudo parece vacilar entre una definición sustantiva de los modelos científicos -como cuando habla de modelos conscientes e inconscientes- y una definición epistemológica -como cuando caracteriza a los 453 modelos mecánicos y estadísticos-; pero no saca de ello ninguna conclusión acerca de la dudosa existencia de modelos genuinos en la analítica levistraussiana (cf. Parain-Vial 1969:195 y ss.). Para Hugo Nutini la contribución culminante de Lévi-Strauss a la antropología radica en su distinción entre los modelos mecánicos y los estadísticos; pero ni el comentarista ni el autor original nos dicen por qué, ni reconocen que la tipología representa un subproducto fragmentario del tipograma cibernético de Wiener. Y lo que es más flagrante, tampoco especifican a qué tipo encarnan los modelos que el estructuralismo despliega (cf. Nutini 1965-709; Wiener 1985). A todo esto, nadie se ha dado cuenta de que la caracterización de los modelos mecánicos como algo que está "a la misma escala que los fenómenos", y la consiguiente idea de los modelos estadísticos como constructos que se encuentran a una escala diferentes es ridícula: ningún conjunto de enunciados puede estar a la misma escala que una cosa de distinta naturaleza; no existe, además, ninguna escala que sea propiamente la de un fenómeno, pues cualquier entidad es analizable a infinitos niveles de detalle. Como bien dicen algunos manuales elementales de epistemología, una célula es tanto o más compleja que un sistema solar. En su presentación de la antropología estructural para un lectorado americano, y al caracterizar su peculiar teoría de los modelos, Bob Scholte armó un bricolage en el que se entremezclan fragmentos levistraussianos de diferentes épocas con voces de otros autores (Miguelez, Mouloud, Nutini), y con polémicas colaterales (estructura e historia, sociedades frías y calientes), conformando un metadiscurso más bien redundante del cual nada que se refiera a una normativa de la construcción levistraussiana de modelos se puede sacar en limpio (cf. Scholte 1973:668-673). La visión de Scholte es distorsionada, espasmódica, proyectiva -como también lo será la de Geertz- y no sólo por mutilar articulaciones cruciales de las palabras que cita18; al igual que en los textos que analiza, en el intertexto que Scholte fabrica, el modelo y el discurso indicativo también se fusionan, sin que se llegue a ninguna conclusión sobre la retoricidad que esa capacidad de fusión pone de manifiesto. Con posterioridad a la presentación de Lévi-Strauss -en la que la práctica disciplinaria de construcción de modelos quedó menos instaurada para siempre que prematuramente abolida- la naturaleza de los modelos no se clarificó, sino más bien lo contrario. Se trabajó mucho y mal, a tal grado que hoy se habla del fracaso global de las estrategias formales con un acuerdo digno de mejor causa, y se utiliza el término "modelo" en un sentido inespecífico, para hacer referencia a cualquier postura teórica, incluso a las que encuadran en concepciones humanistas, enemigas acérrimas de toda modelización: el modelo etnometodológico, el modelo interpretativo, el modelo semiótico... En el otro extremo, la práctica de la modelización antropológica se encogió hasta identificarse con la aplicación circunstancial de un formalismo cualquiera a un problema cualquiera; y esto se hacía de una manera tal, que inevitablemente se tornaba imposible generalizar el modelo propio de una aplicación determinada al análisis de otros fenómenos, aunque se trataran de fenómenos análogos. Las definiciones de los profesionales con inquietudes epistemológicas, que lograban el extraño efecto de sumir todo el campo semántico de las operaciones modelizadoras en la más absoluta indefinición, continuaron multiplicándose. Buscando trascender a Lévi-Strauss, el antropólogo Peter Caws, del Hunter College, por ejemplo, estableció las siguientes: 18 En la referencia que citamos de Tristes Trópicos, por ejemplo, Scholte omite una elocución que es tan poco probablemente marginal para un intelectual norteamericano como "Marx nos enseñó que..."; tras esa elipsis, no sorprende que su reseña acabe con una cita de Kolakowski (Scholte 1973:670, 704). 454 Una estructura abstracta es un modelo si se encuentra en lugar de una estructura concreta homóloga; una estructura concreta es un modelo si se encuentra en lugar de una estructura concreta corporizada de forma distinta. Por "estar en lugar de" quiero significar que los rasgos del modelo sustituyen a los rasgos de la estructura cuyo modelo es aquél, a los propósitos de la presentación, la instrucción, la explicación, la variación imaginativa, el cómputo o la predicción. No es necesario que haya una dirección preferencial en la relación entre el modelo y lo modelado: de acuerdo con una perspectiva familiar, una teoría es un modelo de los aspectos del mundo con los cuales ella trata, en el sentido de que podemos determinar el comportamiento de esos aspectos de la teoría sin tener que realizarlos en la práctica, en la confianza sin embargo de que eso es lo que sucedería en la práctica; pero, por otra parte, un objeto perfectamente concreto (un planetario por ejemplo) puede ser un modelo para una teoría, y lo mismo podría serlo otra teoría. Hacer que los rasgos estructurales del modelo sean centrales refleja el hecho de que ellos están en lugar de las relaciones entre las entidades que constituyen el sistema, más que en lugar de las entidades mismas (Caws 1974:1). Una vez más, no se ha parado mientes en la peligrosidad de los predicados existenciales que pretenden fundar lo que las cosas "son", ni en el comportamiento indisciplinado de los corolarios reflexivos y transitivos de las operaciones que instituyen identidades. Nuevamente vemos que se identifican por una parte estructuras y modelos y por el otro modelos y teorías, lo cual conduce (por transitividad) a numerosas consecuencias lógicas indeseables: puesto que, más adelante, Caws recupera la famosa distinción levistraussiana entre "modelos mecánicos" y "modelos estadísticos", y entre el carácter consciente e inconsciente de ciertas dimensiones estructurales, se daría el caso que existe la posibilidad de hablar de "estructuras" mecánicas o estadísticas, y de "teorías" conscientes o inconscientes, consecuencias paradojales que Caws ostensiblemente pasa por alto. A despecho de una dispersa ilustración didáctica de los modelos posibles mediante alusiones a maquetas en escala, a "modelos teoréticos", a "estructuras mentales", y a "conjuntos sistemáticos de relaciones", en la argumentación de Caws persisten todas las anfibologías esencialistas y los contrasentidos habituales ("todo modelo es una estructura", determinadas estructuras "funcionan como modelos", "una teoría es un modelo", los modelos científicos "explican" las estructuras sociales) sin que la naturaleza lógica de los modelos llegue a clarificarse, y sin que se impongan a los modelos que presuntamente se elaboran requisitos mínimos de explicitación, reflexividad, fundamentación operacional y coherencia interna. Nos queda la impresión de que las relaciones entre modelos, teorías, estructuras y realidades eran más claras antes, cuando se las manejaba oscuramente como referencias intuitivas y preconscientes, que después de semejante tropel de definiciones entrecruzadas, las que con entera seguridad remiten a recursiones infinitas, circularidades y paradojas. También nos aborda la sospecha -que algunas frases aventuradas convierten en certidumbre- de que tanto Caws como LéviStrauss, El Guindi, Read, Voget, Leach, Scholte, Schneider, Chaney, Hanson y Nutini han pretendido axiomatizar, demostrar o negar a través de una invocación ritual a los modelos la naturaleza "real" o "ideal" de las entidades que conforman el contenido sustantivo de los mismos: estructuras sociales, reglas de comportamiento, entidades psicológicas "en la cabeza del actor" o "en la mente del científico", interacciones, intercambios, símbolos. Todos estos autores desprecian o afectan ignorar una regla inviolable, sin cuyo acatamiento la teoría de modelos deviene pura charlatanería cientificista: sean lo que fueren, los modelos sirven para despejar relaciones, no para analizar o demostrar esencias. Al cambiar el medio de representación en lo que va del modelo a la cosa modelizada, la esencia de la cosa es precisamente aquello de lo que no puede hablarse desde un modelo. La misión que se les endilgó en antropología tras el acto fundacional de Lévi-Strauss tenía que ver más con discusiones ontológicas de larga data 455 que con técnicas modélicas de avanzada, y fue quizá por ello que la construcción de modelos siguió confundiéndose con el arte de la retórica y la operación de los mismos con la especulación libre. Más adelante volveremos sobre estas cuestiones. Si cabe dudar de la implementación de genuinos modelos en Francia y en su área de influencia, en los Estados Unidos las cosas no anduvieron mejor. El defecto cardinal de la presentación que David Kaplan y Robert Manners han hecho de los modelos (1976:274-282) es virtualmente el inverso del que hemos observado, y su magnitud es llamativa en un discurso que por lo común es de excelente nivel epistemológico. Mientras Lévi-Strauss y su cohorte se abocaron a afirmar que los modelos son o equivalen a determinadas cosas (estructuras, sistemas, transformaciones), Kaplan y Manners incurren en la falacia simétrica de estipular lo que los modelos no son, de prohibir aquello a lo que pueden aspirar a ser. Para asegurar la validez de una proposición formal, se tiene que conocer el sistema formal del que ésta es parte. Más aún, el criterio para evaluar a un sistema formal (como la geometría euclidiana) es siempre formal o lógico, no empírico. [...] Ningún modelo formal es capaz de explicar por sí mismo los fenómenos empíricos; las teorías explican, los modelos no. [...] Finalmente, como Eugene J. Meehan señala: pueden presentarse "resultados catastróficos" cuando "aquellos que usan modelos formales (...) olvidan que los modelos no son teorías" (Kaplan y Manners 1976:276277, 282). Es verdad que, en su forma convencional, los modelos son más a menudo descriptivos que explicativos. Es verdad también que los modelos no pueden ser "verdaderos", sino a lo sumo consistentes. El problema con las afirmaciones de Kaplan y Manners es, por un lado, que se se circunscriben a una concepción obsoleta y parcial de los modelos, y por el otro, que aunque estén refiriéndose a modelos "formales", siempre tienden a revestirlos con los atributos propios de los modelos icónicos y analógicos, o a tratarlos como si fueran proyecciones metafóricas, exportaciones transdisciplinares, façons de parler. Esta identificación tiene al menos cinco defectos: 1) es demasiado drástica, como si las capacidades de todo modelo concebible pudieran ser instituidas por decreto; 2) presupone que por el solo hecho de llamarse igual los modelos icónicos y los formales comparten más propiedades de lo que es realmente el caso; 3) ha dejado de tener vigencia por cuanto no incorpora las experiencias de la práctica modélica por excelencia que es, a nuestro juicio, la programación lógica; 4) no rige cuando el dominio de referencia de un modelo es una teoría y 5) no se aplica de ningún modo a los modelos que ellos precisamente discuten, que son el estructuralista y el etnocientífico. Vayamos por partes. Para empezar, es obvio que la diferencia entre los modelos "descriptivos" y las teorías "explicativas" es una materia bastante más complicada de lo que estos autores insinúan, como tendremos ocasión de comprobarlo en los capítulos siguientes. Anticipemos un ejemplo. Nuestros programas lógicos constituyen modelos que (a) están realizados según los cánones descriptivos de determinadas teorías, o (b) constituyen modelizaciones de supuestos o procedimientos teóricos, o (c) pueden pergeñar explicaciones a partir y en función de una descripción tanto del ámbito empírico al cual se aplican como de la teoría que define su estructura. Que un modelo sea descriptivo versus explicativo (o hipotético versus nomológico) depende de la interpretación que se realice de sus términos (o de la evaluación que se asigne a esas interpretaciones) y no de una estructura diferencial o específica de representación o de inferencia. En la actividad científica, la relación entre modelos y teorías no está estipulada autoritariamente, de una vez y para siempre, sino que depende del marco conceptual y de la perspectiva que se adopten. Véanse, por ejemplo, las disquisiciones por demás barrocas de Stegmüller (1983) y de otros 456 epistemólogos estructuralistas para apreciar el grado de complejidad de este tipo de distinciones. Lo más productivo, además, puesto que nos estamos refiriendo a una cuestión de suma generalidad, es que en su caracterización recíproca las teorías (o los modelos) admitan una configuración anidada, jerárquica y recursiva, y no el carácter lineal que le confiere la epistemología clásica, como la que Kaplan y Manners representan con cierto fervor mecánico. Esta epistemología -urge reconocerlojamás supo proponer una clasificación de las entidades teoréricas que hiciera justicia a la diversidad existente y a la libertad necesaria. La ansiedad escolástica de prescribir obnubiló su capacidad efectiva de descripción. En programación lógica la regla ha sido menos dictatorial, y por ello se ha podido llegar a algún resultado operativo más allá de la semblanza clasificatoria. Nadie acaricia la ilusión de que lo representado en un modelo sea la cosa misma. Según algunas de las perspectivas hoy vigentes en esa disciplina, los contenidos conceptuales y las formas de un modelo constituyen, representan o encarnan la envoltura formal de una teoría aplicada a un problema; la descripción del mundo que conforma un programa lógico, refleja implícita o explícitamente las distinciones que sobre aquél define una postura teórica. Un programa lógico expresa una forma teórica, elabora reflexivamente una formulación discursiva y al mismo tiempo utiliza una teoría axiomática para representar un dominio del conocimiento. Una interpretación de la teoría inherente a un programa lógico constituye un modelo. En otras palabras, un modelo expresado en un lenguaje representacional axiomáticamente fundado, deviene una teoría axiomática, por más que su interpretación en términos de la disciplina involucrada en su ámbito predicativo no constituya lo que se dice siquiera una teoría: Utilizamos la palabra sistema para referirnos a cierta parte limitada del mundo. El conocimiento sobre un sistema es equivalente al análisis de la estructura del sistema. [...] El cálculo de predicados es un ejemplo de formalismo representacional, porque es posible describir la estructura de un sistema mediante una teoría axiomática de la lógica de predicados. [...] Un conjunto completo de reglas de inferencia permite a un lógico derivar las consecuencias de una teoría axiomática [...] Una interpretación de una teoría es una asignación de cada símbolo que ocurre en la teoría a algún componente (entidad, función o relación) del sistema. [...] Un programa en Prolog puede representar el conocimiento sobre un sistema de una manera muy parecida a la forma en que una teoría axiomática del cálculo de predicados puede describir un campo de conocimiento. Para hacer esta comparación explícita, cada cláusula de Prolog en el programa equivale a un axioma, y la totalidad del programa equivale a una teoría (Malpas 1987:254-255). Además, y como ya hemos visto, los modelos de la programación lógica son mucho menos icónicos -en el sentido peirceano- que simbólicos o conceptuales. Y entre las cosas que son posibles de simbolizarse o conceptualizarse en un modelo están también las explicaciones y las teorías. Se puede escribir un programa lógico que constituye incuestionablemente un modelo y cuyo contenido sea una teoría, o la aplicación de una teoría: en tal caso, modelo y teoría se corresponderían como forma y contenido de la misma entidad; y tal como se sabe desde siempre, la correspondencia entre forma y contenido es compleja. Este estado de cosas define un círculo epistemológico incompatible con el que promueven Kaplan y Manners, al que estimamos no sólo infiel a la realidad sino autocontradictorio. En efecto, sea lo que fuere lo que hayan pretendido establecer esos autores, todo se viene abajo cuando ellos terminan disolviendo la naturaleza conceptual de los modelos en una empiria ilusoria, con estas palabras que debieron mejor callar: Por supuesto que un modelo formal puede ser convertido en una teoría asignando un contenido empírico específico a los diferentes símbolos del modelo; de esta forma, los modelos de un modelo [!] se convertirán en 457 entidades empíricas, y la relación entre éstas será una relación empírica, en lugar de una relación puramente formal (Idem:277). Primera objeción: Los epistemólogos distinguen entre términos teóricos, como "clase social", y términos empíricos u observacionales, como "Napoleón". En un modelo se puede definir una nueva clase de términos, puramente formal, a la que podemos denotar como "X", pero también (sin modificar estructuralmente al modelo) como cadenas de caracteres que incluyen tanto a las clases sociales como a los Napoleones. La caracterización de Kaplan y Manners parecería reservar el marbete de "teoría" para las construcciones conceptuales que incluyen "términos empíricos"; con lo cual tendríamos que llegar a la conclusión de que o bien la distinción entre modelos y teorías pasa por otra parte, o bien (extraño corolario) que el locus de los "términos teóricos" no son las teorías, sino alguna otra cosa. Segunda objeción: Existen innumerables modelos científicos; excepto en esferas muy especiales, como las matemáticas y la lógica, todos estos modelos están interpretados, ello es, todos sus símbolos están mapeados sobre lo que se llama un "dominio de interpretación", y en este sentido se les ha asignado un "contenido empírico". Naturalmente, fuera de esas empresas que medran en la abstracción perpetua, a nadie le serviría un modelo puramente formal. Pero existe una diferencia sutil entre "otorgar contenido empírico" en base a referentes puntuales (p.ej., afirmar que Juan piensa de tal manera debido a su pertenencia a la clase gerencial, a sus intereses económicos específicos y a su educación conservadora) y hacerlo en función de términos genéricos o "teóricos" (p. ej., afirmar que el ser social determina la conciencia). Nuestra postura epistemológica no utiliza la naturaleza de los referentes como criterio para trazar una distinción, pero la de estos autores sí. En un sistema lógico no hay ni términos observacionales ni términos teóricos, sino sencillamente términos. No hay razones lógicas que permitan prescribir la naturaleza observacional o teórica, concreta o abstracta, real o imaginaria, hipotética o legaliforme, literal o metafórica de los términos que participan en un modelo. Pero retomemos nuestro ejemplo. Aunque no hablan en ese contexto de las diversas clases de términos, Kaplan y Manners ejemplifican de manera parecida a nuestro caso hipotético cuando se refieren, respectivamente, a la medición de las distancias entre determinadas ciudades concretas de los Estados Unidos y a la geometría euclidiana en un sentido abstracto (p.277). Lo llamativo del caso es que en la postura de estos autores la aplicación más concreta acaba identificándose con la teoría y la más abstracta con el modelo, lo cual contradice tanto los usos canónicos de las palabras como la idea eminentemente icónica y convencional que ellos mismos sustentan a propósito de la modelización. Afirmar que la proposición sobre Juan es de orden teorético, mientras que el enunciado sobre la determinación social de la conciencia pertenece al orden de los modelos no parece muy convincente, ni coincide con ninguno de los usos registrados o potenciales de la noción de modelos en la praxis científica. Si, como afirman, las teorías poseen contenidos empíricos, mientras los modelos no, ¿cuál sería el sentido práctico del uso de modelos? ¿No resulta contradictorio representar lo más concreto y empírico a través de entidades puramente lógicas y formales? ¿Se construye un modelo para corporizar entidades conceptuales o más bien para disolver la empiria en una representación sin referentes? En todos estos razonamientos, ¿no se están confundiendo, identificando o cruzando diversas y fragmentarias concepciones de los mismos términos? ¿Es posible establecer por un lado distinciones absolutas (los modelos no son teorías) como si todo estuviera tipificado y por el otro semblanzas 458 genéricas (existen muchas clases de modelos) como si nada fuera tipificable, cuando de lo que se habla es de epistemologías que no son la propia? El enredo es más grave de lo que parece, porque todo ese discurso no es más que el prolegómeno para desprestigiar dos paradigmas que utilizan "modelos" en un sentido radicalmente distinto a los que Kaplan y Manners caracterizan. Aunque los golpes se asestan, el holocausto fracasa. Ni los modelos estructuralistas ni los etnocientíficos constituyen modelos en el sentido de ser extrapolaciones metafóricas, analogías proyectivas entre objetos pertenecientes a disciplinas distintas o representaciones a escala. Ninguno de ellos puede casar con su idea (de raíces blackianas) de que "es mejor definir, o por lo menos pensar un modelo como una analogía o una metáfora" (p.274), de modo que todas sus advertencias respecto a no extraer falsas conclusiones, a no confundir el mapa con el territorio, etc., devienen por completo irrelevantes. Kaplan y Manners saben que "existen muchos tipos de modelos" (p.276); pero no se detienen a pensar que, por eso mismo, una crítica de los modelos "formales" en general en función de características que son específicas de ciertos tipos muy distintos de modelos, acaba siendo menos digna de confianza que aquello que cuestiona. También cabe impugnar la idea que estos autores tienen respecto de lo que en un marco teórico se acostumbra considerar "lo empírico". En la imaginación icónica de Kaplan y Manners, los contenidos empíricos de los símbolos de un modelo convertido en teoría son como si fueran "cosas de verdad", al punto que las relaciones entre ellos se transforman de pronto en "relaciones empíricas". ¿La cuestión no es acaso más compleja, su articulación no es más delicada? Corrijamos la perspectiva. Una relación es algo que se postula acerca de la realidad; no concebimos ninguna operación interpretativa tras la cual resulte legítimo afirmar que las relaciones simbolizadas en un modelo sean, en su mera simbolización, relaciones empíricas, por otorgárseles una interpretación o un contenido en lugar de otro. Ni los referentes ni las interpretaciones pertenecen a los modelos, que son siempre constructos de índole formal. En el interior de un modelo, una cláusula lógica no se transforma en una entidad empírica (o en un enunciado teórico) sólo porque se escriba "lucha de clases" en vez de "X": ambos términos son nada más que símbolos, y como bien sabe quien ha tenido que desarrollar un modelo, tanto uno como el otro están aún pendientes de interpretación. La concepción de los modelos que sostienen Kaplan y Manners es, en fin, simplista y enrevesada, porque mezcla los atributos de los modelos "icónicos" o "analógicos" (los más concretos) y de los modelos "formales" o "teoréticos" (los más abstractos) para formular una crítica que termina oscureciendo no sólo nuestra nueva intuición sobre lo que es un modelo, sino nuestra certidumbre originaria sobre lo que era una teoría. Hemos expuesto la postura levistraussiana, sus derivaciones y sus contrapartidas para forzar un contraste que ilumine la cabal significación de la posibilidad de una genuina instancia modélica en la antropología, inaugurada por la programación lógica. Existen otras vías potenciales para alcanzar ese objetivo; la decisión de no analizarlas no implica que se las desprecie y, mucho menos, que se las domine lo suficiente como para tasar su valor en un precio justo. Algunos preferirán el LISP o el C++ en lugar del Prolog, o el método de tableaux en vez del algoritmo de resolución. Nuestra propuesta no alardea de ser la única sensata, si bien es la primera en pretender zanjar el abismo que se ha abierto entre las sutilezas de las teorías axiomáticas, la materia bruta de los objetos que nos han tocado en el reparto y los métodos que hasta ahora se han arbitrado para tratarlos. 459 De ningún modo insinuamos que las máquinas son, en lo que al trazado de modelos respecta, garantía necesaria y suficiente. La cosa no es tan simple que se reduzca a la identificación de modelos ya no con estructuras o sistemas, sino con programas grabados en un soporte magnético o con un switch que les infunde impulso dinámico. Lo importante no es que el modelo sea físicamente tangible (que lo es), sino que sea lógicamente especificable (que deberá serlo). Lo que en la epistemología de Lévi-Strauss y de otros pioneros constituía un enigma o por lo menos una mancha oscura, aquí ha de ser objeto de cuidadosa especificación; y es esta especificación la que a continuación se despliega. 3. LA ESTRUCTURA LÓGICA DEL PROLOG Quo facto, quando orientur controversiae, non magis disputatione opus erit inter duos philosophos, quam inter duos computistas. Sufficiet enim calamos in manus sumere sedereque ad abacos, et sibi mutuo (accito si placet amico) dicere: calculemus. Gottfried Wilhelm Leibniz Para materializar un contraste significativo entre la naturaleza de la modelización que proponemos y la que ha sido moneda corriente en antropología habría bastado el material expuesto en los capítulos introductorios. En ellos comentamos los aspectos básicos de la programación declarativa, presentamos un instrumento capaz de expresar relaciones cualitativas y de producir inferencias a partir de una representación de nuestro conocimiento, y deslindamos las diferencias entre la confección de modelos consistentes (bajo la forma de programas lógicos) y una profesión de fe (positivista o metafísica) respecto de la coherencia del mundo. Pero un discurso riguroso sobre la modelización antropológica, una genuina teoría de modelos, debe necesariamente explorar otras dimensiones de problematicidad, y ante todo la atinente a las premisas lógicas en que ella misma se basa. Cuáles hayan de ser en concreto esas dimensiones quedará claro después de caracterizar en profundidad las herramientas de las que disponemos y la forma en que ellas nos permiten expresar, cotejar y validar modelos, así como elucidar cuáles son las fases y zonas de la elaboración metodológica que no pueden ni podrán jamás formalizarse. Todo discurso sobre la conveniencia del uso de modelos en una ciencia debe basarse, a nuestro entender, en una demostración previa de que existe un conjunto conexo y estructurado de medios (un soporte físico, un lenguaje, una preceptiva de representación, un mecanismo inobjetable de inferencia, una heurística) sobre el cual los modelos puedan ser construidos. Sin estos requisitos, jamás podría hacerse otra cosa que idealizar las bondades de un método que no se posee o cuya instrumentación puede ponerse seriamente en tela de juicio. La disponibilidad de dicho conjunto de medios es necesaria, pero los elementos que lo integran son contingentes, en tanto cumplan la función que les compete o integren una entidad que satisfaga un conjunto análogo de funciones. El aparato más sofisticado no siempre es el mejor. Ante ciertas problemáticas, un pizarrón puede reemplazar ventajosamente a una computadora y la teoría axiomática de la lógica del primer orden puede resultar más embarazosa que un simple diagrama de Venn. Luego se verá mejor cuáles son los umbrales, los confines y las condiciones. 460 De lo que aquí se trata es de caracterizar no la única modelización posible, sino la que es al mismo tiempo, por muchas razones, la más general, la más precisa y la más poderosa, o la que mejor combina, a la fecha, generalidad aplicativa, precisión representacional y potencia de resolución. Los modelos que aquí proponemos son programas lógicos, una entidad inexistente cuando Lévi-Strauss comenzó a hablar del asunto. Un programa lógico suma a las precisiones de la lógica carnal la certidumbre de que no existen zonas oscuras, desviaciones ideológicas o supuestos clandestinos en las definiciones que fundamentan las operaciones de inferencia, garantía que hoy por hoy sólo una computadora puede aportar. Aunque en la introducción ya hemos esbozado una semblanza genérica de las entidades que conforman un programa lógico, conviene recorrer una serie de perspectivas convergentes sobre las mismas, variadamente axiomáticas, a fin de que se las pueda comprender mejor. Lo que nos interesa en este apartado no es enseñar Prolog (para lo cual hay muchos y excelentes manuales), sino establecer con mayor claridad la correspondencia entre sus entidades fundamentales y los elementos de un planteamiento antropológico, examinar la fuerza de los respaldos formales de esta modalidad de representación, homogeneizar una terminología que los didactas han alborotado, corregir algunos errores no triviales que los axiómatas de profesión han dejado deslizar y brindar todos los elementos necesarios para que se pueda justipreciar, descifrar y replicar los programas que figuran en los apéndices. Antes de comenzar nuestros desarrollos técnicos es menester una advertencia que podrá parecer desalentadora. Nuestra tesis parte de la base de que todo modelo se realiza en una convención simbólica que por comodidad llamamos un lenguaje. Si ese lenguaje es una lengua natural, la exigencia mínima para construir un modelo será la de ser un hablante competente de esa lengua. Si ese lenguaje es, en cambio, un lenguaje de computación, la plena replicabilidad del modelo estará supeditada a la capacidad efectiva para programar en ese lenguaje. Para decirlo sin eufemismos, digamos que para desarrollar un programa lógico es razonable exigir que el modelista sea un programador. Como este es un requisito inexcusable, y como la formación académica en vigencia determina que ser antropólogo y programador sea una doble cualidad rara vez satisfecha, procuraremos ser lo suficientemente explícitos para que la misma exigencia no se haga extensible a la inteligibilidad de lo que se modelice. Otorgamos consecuentemente el derecho de consignar como no probado el aserto que no encuentre su explicación técnica en los confines de esta tesis, o que dé por supuesto y trivial un saber circunscripto y esotérico. La organización estructurada de los capítulos subsiguientes pretende compensar el efecto de atomización que se manifiesta al tratar una a una las correspondencias entre un problema y su planteamiento y las diferentes dimensiones y jerarquías de problematicidad. Es conveniente aclarar que este efecto indeseable es, en último análisis, una constante inevitable de toda técnica de escritura y no la consecuencia de una estrategia analítica que promueva la descomposición del problema como método deliberado. La estructura de este capítulo aparece en cierta forma invertida: tomamos como punto de partida la definición de los elementos que participan en el planteamiento de problemas en lenguaje Prolog, y recién después examinamos los sólidos fundamentos que rigen la capacidad del lenguaje para aportar una solución. 461 1. Elementos sintácticos a) Predicados lógicos Atomos, Términos y Predicados El Prolog es un lenguaje de computación, lo que entraña que antes que nada es un lenguaje. Como todos los demás lenguajes, su estructura comprende lo que podría llamarse una "doble articulación". La primera articulación de este lenguaje concierne a un número finito y más bien reducido de elementos discretos que sólo tienen una dimensión posicional, y la segunda a configuraciones que adquieren ya cierto valor de hecho, regla o consulta, construidas a partir de los elementos de la primera articulación. Los elementos básicos del Prolog se denominan términos, y según el punto de vista, el nivel de análisis y el contenido pueden ser de distintos tipos: átomos, estructuras, variables, listas y números. Por ahora nos interesan sólo los dos primeros. De los números sólo cabe decir que constituyen los únicos términos que el intérprete del lenguaje efectivamente interpreta y que pueden ser utilizados en cálculos matemáticos. Fuera de los números, el lenguaje no interpreta los demás términos atómicos, y lo más que puede hacer con ellos en tanto términos de una expresión es (a) expedirse sobre su identidad o desigualdad en las operaciones que implican compararlos, o (b) determinar si tienen o no asignado un valor. La denominación de átomo deriva, probablemente, de las ideas de Wittgenstein y Russell acerca del atomismo lógico, una visión filosófica que no es preciso compartir al adoptar este lenguaje (cf. Russell 1965). En esa epistemología, ya superada, se creía necesario iniciar el análisis desde "partículas-acontecimientos", tales como la posesión de una propiedad por una sustancia, ascendiendo progresivamente a formas más complejas de predicación. Nada de ello se impone en esta tesis, donde se presume la máxima libertad constructiva y donde no se propondrán (como diría Lakatos) ni inyecciones inductivas de verdad desde la base empírica, ni infalibilidades deductivas que fluyen desde la cúspide de las leyes universales. En programación lógica, un átomo es nada más que el nombre de un objeto o de un predicado. Como estamos refiriéndonos al nivel más abstracto de la sintaxis, caracterizaremos los "objetos" como meros elementos discretos, sin referirlos todavía a las "cosas del mundo". Contrariamente a lo que nos exigen otros formalismos, ni aún cuando se los interprete los objetos deberán ser necesariamente significantes de cosas tangibles, individuales u observables; un objeto en Prolog es sólo (o nada menos que) cualquier idea que se desee simbolizar, desde un individuo con un nombre propio hasta una clase de definición escurridiza. Estamos hablando de objetos; aún en un nivel presemántico hay que establecer la significación que les es propia, subrayar su carácter de símbolos. Para la epistemología que estamos construyendo, es esencial retener el concepto de que los objetos básicos que constituyen el lenguaje son ideas más que cosas. Como diría Bachelard, lo que hay que conseguir es plantear el problema sistemáticamente en términos de objetivación, más que en términos de objetividad (1973:39). Por lo tanto, no manipulamos relaciones objetivas entre cosas, ni cantidades objetivamente recabadas, sino consecuencias sistemáticas de las relaciones que habrán de darse entre las ideas que constituyen nuestro asunto. 462 Diagrama 2.1 - Términos Al átomo que es el nombre de un objeto se lo llama argumento, y al átomo que es el nombre de un predicado se lo llama functor (o, según la Academia, funtor). A veces se denomina también predicados a los functores; esto, empero, no introduce ninguna anfibología, pues en la práctica de la programación lógica la denotación de estos vocablos siempre puede inferirse de su contexto de uso. Una estructura consiste de un átomo functor, una apertura de paréntesis, uno o más argumentos separados por comas y un cierre de paréntesis. Se puede considerar que un átomo es también una estructura, sólo que sin argumentos. Naturalmente, de todo esto se deduce que un predicado se expresa mediante una estructura. El número de argumentos de un predicado se denomina su aridez (o aridad, como prefiere Mosterín), término que proviene del álgebra relacional y que equivale a lo que en un registro de base de datos se llama una tupla. Cuando un predicado posee un solo término se dice que es monádico (si se prefiere la nomenclatura griega) o unario (si se prefiere la elocución latina); los predicados relacionales de aridez progresivamente mayor se denominan diádico, triádico, tetrádico, ..., n-ádico (o binario, ternario, cuaternario, ..., n-ario), según el caso. Existen formas pautadas de transformar predicados monádicos a poliádicos y viceversa, aunque ello es infrecuentemente necesario en lógica computada. La aridez de un predicado puede ser cualquiera, desde cero hasta la cifra que tolere la versión del lenguaje que se utilice. La práctica, empero, aconseja que la aridez de un predicado nunca sea más que cinco o siete, para preservar la legibilidad de la cláusula. La variabilidad en la aridez no posee, hasta donde alcanzamos a ver, ninguna consecuencia lógica, pues toda relación n-aria puede ser expresada como la unión de n+1 relaciones binarias (Kowalski 1986:49). El único concepto del Prolog que no admite una definición anidada o recursiva es el de átomo. Como en la física de Demócrito, el "átomo" es una partícula que no puede dividirse en sub-partículas o componentes más elementales. Un objeto o un término en Prolog no necesariamente es atómico, pues uno de los objetos o términos de una expresión (a excepción del functor) puede ser, recursivamente, otra expresión de la misma naturaleza y de similar complejidad. No nos ocuparemos por el momento de esa posibilidad. El ejemplo 2.1 ilustra la anatomía sintáctica de un predicado de elementos atómicos y de aridez tres. Si uno o más de los argumentos de una estructura es también una estructura, se considera functor principal al predicado exterior y functores secundarios a los más interiores o anidados. El nombre de "functores" es también una supervivencia de la concepción funcional de la lógica neopositivista de principios de siglo. Aunque es posible simular la lógica funcional mediante el cálculo de predicados (cf. Maier y Warren 1988), ningún functor de Prolog equivale a las funciones de otros lenguajes de programación, las cuales a su vez tampoco remiten necesariamente a esa lógica. En Fortran o en Pascal una función equivale a una operación que debe ejecutarse entre sus argumentos; un functor de Prolog no es una operación, sino el simple encabezamiento de una estructura de datos que denota alguna relación entre los argumentos que le corresponden. La diferencia entre functores y objetos, sentada ya por Frege, confiere a cada entidad características diferenciales y suplementarias, hasta cubrir toda la amplitud de los predicados lógicos posibles. Recordemos que, de acuerdo con Frege, los objetos incluyen toda suerte de cosas que no sean funciones, "esto es, no sólo palos, piedras y hombres, sino asimismo números y valores de verdad" 463 (Kneale 1972:461). En el mismo marco, una función radica en una cierta conexión o coordinación entre los objetos que constituyen sus argumentos. Es posible definir las relaciones denotadas por los términos que ofician de functores o predicados de un modo genérico. En su versión clásica, peirceana, y dadas estructuras tales como r(I,J), las relaciones podían definirse como las clases cuyos elementos son todos los agrupamientos de las cosas I y J tales que, como se diría corrientemente, I es un r de J. Esta concepción, sin embargo, sólo vale para las estructuras binarias. Como se verá más adelante, las relaciones más complejas requieren una definición predicativa más variable y elástica. Está visto que a pesar de que los functores son entidades sintácticas, su definición y razón de ser involucran cuestiones de semanticidad, y por lo tanto se verán después con mayor detenimiento. Más adelante estableceremos también la correspondencia entre estas piezas sintácticas del lenguaje y las estructuras sintácticas de las formas lógicas que se expresan mediante él. Expuesto ya el cuadro nomenclatorio de las partículas abstractas y genéricas, nos ocuparemos seguidamente de los constructos especializados que en base a ellas pueden definirse. Hechos En el segundo nivel de articulación del lenguaje, los elementos sintácticos comienzan a contaminarse con contenidos semánticos y pragmáticos. Desarrollar una teoría, deslindar la estructura de una hipótesis y describir un dominio del conocimiento antropológico en Prolog, en una palabra, construir un modelo en este lenguaje, presupone entonces la implementación de un programa en la máquina. La programación en un lenguaje de este tipo consiste en (a) la declaración de algunos hechos sobre objetos del mundo y sus correspondientes relaciones, (b) la definición de algunas reglas sobre esos mismos objetos y relaciones, y (c) la formulación de preguntas o consultas sobre el dominio de conocimiento representado por las instancias anteriores. Todo esto se desenvuelve dinámica e interactivamente: en la mayoría de los dialectos de Prolog que se consiguen en el mercado, existe alguna prestación conversacional que permite optimizar el programa o replantearlo a medida que se observa su comportamiento. Sin necesidad de atribuir a la máquina comprensión de los hechos representados ni inteligencia alguna, podríamos decir que el usuario dialoga o interactúa con su propio modelo, en base a un protocolo y a un código que habremos de caracterizar en los capítulos que se ocupan del plano pragmático. En Prolog, los hechos, que pueden ser de un rango de complejidad indefinidamente amplio, se identifican por un conjunto de convenciones sintácticas. Un hecho se escribe mediante una estructura o predicado. Por ejemplo: Hagamos de cuenta que estas aserciones enumeran algunos de los casos de residencia posmatrimonial en Truk según la estimación de Goodenough (1956). Comprobamos de inmediato que (a diferencia de lo que es el caso en los empeños axiomáticos autoconscientes) las exigencias de la notación no son desmesuradas ni crípticas. La especificación ampliada y cuasi "natural" de los elementos 464 significantes no involucra -como sucedería en la lógica simbólica meramente escrita- una depreciación del valor de la escritura como planteamiento de un cálculo. En adelante, no será preciso reducir los signos a los "P" y a los "Q" abigarrados e ilegibles de los tratados técnicos, puesto que la plenitud lingüística de los significantes no impide a la máquina operar conforme a la estructura formal de los enunciados. Al escribir los hechos, los nombres de las relaciones y de los objetos se estipulan en minúscula. Las relaciones se escriben primero y los objetos seguidamente, entre paréntesis y separados por comas, terminando la enunciación de un hecho con un punto, al igual que en una frase en lengua vulgar. El orden de las clases de objetos dentro del paréntesis es arbitrario, pero debe mantenerse constante a lo largo del programa. La misma constancia debe conservarse en cuanto a la interpretación semántica de cada una de las entidades y relaciones representadas. Al contrario de lo que sucede en la lógica simbólica convencional, las diferentes coacciones sintácticas que este lenguaje ejerce sobre la libre escritura obedecen menos a una intencionalidad taquigráfica (y a la larga criptográfica) que a una razón operativa; el lenguaje es tanto un simbolismo lógico como un código lo suficientemente inambiguo como para ser aceptado por una máquina. Si el Prolog es más legible que la lógica simbólica diseñada para la lectura humana, es porque hay menos signos y porque a la máquina le es indiferente la apariencia de un símbolo en tanto se la mantenga invariable en sus sucesivas referencias. Comparativamente, el taquigrafismo de la lógica común resulta excesivo: no hace falta, después de todo, estrechar tanto la simbolización. Aunque sería necio aseverar que la escritura en este lenguaje posee un valor estético suplementario, nadie puede afirmar honestamente que la estructura sintáctica del Prolog introduce de por sí una distorsión en los significados que los predicados conllevan, o que la estipulación separada de los elementos que constituyen un enunciado aniquile la atmósfera connotativa de la enunciación original. La interpretación última de lo que los procesos de inferencia determinen como falso o verdadero, a nivel de las connotaciones, los valores estéticos de los asertos y los significados afectivos, sigue estando en manos del sujeto programador, lo mismo que si el proceso inferencial se realizara en cláusulas del lenguaje común. En tanto se escojan adecuadamente los términos sintácticos, las cláusulas lógicas no enajenan ni escabullen las resonancias subjetivas de la expresión; más bien agregan una representación complementaria a lo que la expresión natural denota, echando mano de un simbolismo harto menos ofensivo a la lectura que los grafemas convencionales de la lógica. Si respetamos las denotaciones esenciales en la interpretación de los procesos y los resultados, podemos preservar a partir de allí toda la estética de las asociaciones de ideas y todos los valores literarios que muchos estiman propios de nuestra ciencia, considerando su nuevo rigor como un valor agregado. Más adelante, cuando hayamos reunido suficientes elementos conceptuales, abordaremos la descripción de la formidable teoría semántica subyacente al Prolog y de los recursos que ella aporta al siempre espinoso problema de la interpretación. Pasando a aspectos más prosaicos, habrá que resignarse a aplicar la jerga que antes construimos. Como ya hemos visto, los objetos encerrados entre paréntesis se llaman argumentos; algunos autores llaman relaciones a los predicados, porque la denotación de un fenómeno relacional es su función más habitual o acaso la única función posible en algunas acepciones de la palabra. Según esta nomenclatura, "residencia" sería un predicado que posee tres argumentos, o más técnicamente, un predicado de aridez 3 o una relación ternaria. 465 La aridez que puede tener un predicado varía conforme a las necesidades de la representación; pero una vez definida una aridez para todos los hechos correspondientes a una misma relación se debe respetar el significado posicional de cada uno de los argumentos. Si en un programa lógico se escriben predicados del mismo nombre pero de distinta aridez, el sistema considerará que esos predicados refieren relaciones o propiedades distintas, y no simples variantes de una misma relación. Es la unión de un nombre de predicado con su aridez lo que determina, desde el punto de vista del sistema, su mismidad. Ahora que nos hemos apropiado de los rudimentos del vocabulario, podemos redefinir los hechos como una propiedad de un objeto individual, o como una relación entre objetos múltiples. La enunciación de los hechos puede responder a un simple encadenamiento de átomos: O puede echar mano de lo que ya hemos llamado "estructuras" u "objetos compuestos", especificando functores y componentes subordinados. En este nivel de articulación, el functor define el nombre el tipo de estructura, y los componentes actúan como los objetos del hecho cuyo atributo o relación define el functor: La primera versión representa al dato como una relación entre seis ítems; la segunda los reduce a tres sin perder información y ganando en precisión categorial. Una estructura "compleja", pese a su nombre, refleja los hechos con más elegancia que un hecho linealmente expuesto. La sintaxis de las estructuras es la misma que la de los hechos: el functor de la estructura es además un predicado, y los componentes de una estructura son los argumentos de ese predicado. Una vez más hay que decir que la idea de "relación" no tiene aquí el sello de primitividad, la inmediatez intuitiva y el carácter de piedra angular que poseía en el sistema russelliano y que suscitara los escrúpulos de Lakatos (1981:28). En rigor, despues de la Lógica de los Relativos de Peirce (mucho antes de Russell o del positivismo lógico) las relaciones han dejado de ser algo extraño o especial. Cualquier predicación implica "relaciones" que no es preciso hiperanalizar ni subdescomponer para construir con ellas una representación aceptable de un dominio de conocimiento. El uso de las estructuras incrustadas responde a necesidades de programación o de metaprogramación muy precisas que no pueden ser detalladas en este contexto, pero que se clarificarán en los comentarios a los programas de aplicación que figuran en el apéndice. Uno de esos usos bien podría ser, por poner un caso, la clasificación de los componentes individuales en jerarquías de múltiples niveles, insertando así la lengua maring en el conjunto de las lenguas oceánicas, a Nueva Guinea en el ámbito global de la Melanesia, a la población tsembaga en el censo demográfico del mundo, y así sucesivamente. A la vista de las necesidades representacionales comunes en nuestra disciplina, no existen limitaciones en la complejidad de anidamiento de los hechos que dependan de la implementación del lenguaje que se utilice. 466 Reglas Desde cierto punto de vista, las reglas del Prolog son simplemente fórmulas para inferir hechos a partir de otros hechos. Otra forma de expresar esto es diciendo que una regla es una conclusión que se puede considerar verdadera si una o más conclusiones son también verdaderas19. Es decir, las reglas son relaciones dependientes o aserciones condicionales: permiten inferir una pieza de observación a partir de otra, que puede ser a su vez un conjunto de hechos y/o reglas. En Prolog todas las reglas tienen tres partes: una cabeza, un símbolo "si" y un cuerpo. La cabeza es el hecho que sería verdad si se cumplieran ciertas condiciones; también se la llama "conclusión" o "relación dependiente". El símbolo "si" que separa la cabeza del cuerpo puede escribirse con los caracteres :- o mediante la palabra if. En caso de definir la palabra española "si" (o cualquier otra) como operador de condicionalidad, se puede utilizar directamente el nuevo operador en lugar del signo condicional. La secuencia de caracteres :- pretende ser una flecha que apunta de los antecedentes al consecuente, o como antes se decía, de la prótasis a la apódosis. El cuerpo es el conjunto de condiciones (o la lista de hechos) que deben cumplirse, uno tras otro, para que se pueda probar que la cabeza de la regla es un hecho verdadero. En principio, el orden en que se estipulan o satisfacen las condiciones es irrelevante, aunque en la práctica las cosas disten de ser tan simples. La existencia de más de una condición o hecho a probar en el cuerpo de la regla equivale a la conjunción lógica; la existencia de más de una regla con la misma cabeza y distinto cuerpo equivale a una disyunción. Es posible asimismo denotar una disyunción separando los diferentes predicados del cuerpo que forman una unidad disyuntiva mediante punto y coma. Al igual que en la lógica simbólica convencional, se utiliza la conjunción para expresar más de una condición a cumplir para que sea verdadera la cabeza de una regla y la disyunción para denotar para denotar más una forma de arribar a la misma conclusión. Desde el punto de vista lógico, la relación que media entre la cabeza y el cuerpo de la regla es la de la condicionalidad, lo que no debe confundirse con la implicación. La condicionalidad es una arquitectura que se introduce arbitrariamente y que no está en principio garantizada por ninguna prueba taxativa en el momento en que se enuncia. La implicación, en cambio, llamada también "implicación veritativo-funcional", es la relación lógica puramente formal que un enunciado guarda con otro cuando el segundo se sigue del primero por medio tan solo de consideraciones lógicas pertenecientes a la teoría de las funciones veritativas (cf. Quine 1986:68). 19 O posibles, o probables, o verosímiles; como luego se verá, los valores veritativos dependen del paradigma lógico y de la interpretación que se adopte. 467 Comprender la diferencia entre condicionalidad e implicación es fundamental en nuestra epistemología, sobre todo si tenemos en cuenta que lógicos tan prestigiosos como Russell y Whitehead mezclaban despreocupadamente ambos conceptos, o que estudiosos tan finos como Kowalski o Hogger siguen obstinados en confundirlos (cf. Kowalski 1982: 11-12; Hogger 1984:18-22). Aunque muchos de los textos clásicos de programación lógica estén igualmente equivocados a este respecto, el lenguaje Prolog demuestra y simboliza la diferencia abismal entre la condicionalidad y la implicación a partir del hecho de que la primera es escrita al acaso por quien realiza el programa y la segunda es calculada axiomáticamente por la máquina, merced a un algoritmo que se explicará en su momento. Dicho de otra forma, la validez de una conclusión estipulada en una expresión condicional se demuestra mediante la implicación lógica. Veamos un sencillo ejemplo: La regla inicial es nítidamente un condicional: el programador decide condicionar que la tía de A sea B al hecho de que la madre de A sea C y la hermana de ésta sea B. Ningún sistema lógico del universo podría sacar esa conclusión de esos antecedentes, sencillamente porque la condicionalidad no es una operación. Si una vez escrito el programa se solicita al sistema que verifique si la expresión es verdadera, el sistema contesta que sí. Las reglas y los hechos expuestos han hecho que esa expresión se siga implicativamente. Desde el punto de vista de la implicación, la condicionalidad es una premisa que, aunque se simbolice como regla, tiene carácter de hecho. Como escribía Quine, con la opacidad rígida de que hacen gala los lógicos, "la implicación es la validez del condicional" (1986:64). Aunque este vocabulario cuadra más a la implicación, podría decirse que el carácter de la condicionalidad denotada por el signo :- puede ser tanto "material" como "estricto", dependiendo de la interpretación de la regla y de su contexto circundante. En condiciones lógicas normales (es decir, bajo las premisas de una lógica estándar) la conversa de la implicancia es el entrañamiento: la conclusión de una regla entraña (el cumplimiento de) las condiciones expresadas en el cuerpo. El operador de la condicionalidad lógica, el símbolo :-, satisface distintas características y modalidades del proceso de inferencia que también dependen de la interpretación. La condicionalidad sería subjuntiva de serlo la interpretación de los verbos correspondientes ("Si vinieran lluvias sobrevivirían las plantas"), y sería contrafáctica en caso de ser falso el antecedente ("Si se hubieran reducido los impuestos ahora tendríamos el capital necesario"). En una expresión regular común, la interpretación mínima del signo de condicionalidad considera el cuerpo de la regla como condición suficiente para arribar a la conclusión denotada en la cabeza. Si esta conclusión se derivara además necesariamente de sus condiciones, y sólo de ellas, éstas serían entonces condiciones necesarias y suficientes, y el condicional se transformaría en lo que se llama un bicondicional: "si y sólo si cuerpo, entonces cabeza". El carácter de la condicionalidad es en todo caso un factor extralógico, o eventualmente un elemento de juicio que depende del contexto total de las reglas. Lo que importa es que todos los matices de la condicionalidad se pueden expresar utilizando para ello el mismo símbolo, o reservando para éste determinada interpretación y definiendo operadores específicos para las restantes. Combinando la expresividad semántica de otras condicionalidades (posibilidad, necesidad, contrafacticidad) con 468 la fuerza de cálculo de la implicación pueden lograrse efectos que en poco difieren, fuera de su mayor rigor, de los razonamientos más sutiles y dúctiles de que es capaz la inferencia humana. Debería ser innecesario aclarar que las "reglas" del Prolog lo son sólo con respecto al modelo. No existe ningún paralelismo entre el uso de reglas en un modelo de este tipo y la suposición de que el mundo o la conducta humana se rigen por reglas dicotómicas e invariantes. Una regla del lenguaje lógico bien puede cubrir una referencia a una situación empírica de la más absoluta anarquía. No es preciso además mapear atomísticamente un hecho real discreto sobre cada regla. Pueden asentarse tantas reglas alternativas como se quiera, escribiendo diferentes cuerpos para las mismas cabezas o utilizando en el cuerpo el operador de disyunción. La conclusión de una regla lógica puede denotar tanto una aserción taxativa como una vaga suposición o una probabilidad muy remota. La denotación de lo que se afirma mediante una regla, en otras palabras, podría corresponder a un evento sumamente improbable, sin que ello afecte al rigor de la implicación. La existencia de reglas que utilizan variables de objeto es lo que caracteriza más centralmente al cálculo de predicados, en oposición al silogismo o al cálculo de sentencias o proposiciones. A diferencia de los hechos, que se utilizaban para representar relaciones entre constantes o valores conocidos, las reglas relacionan constantes con variables, variables solas o más raramente sólo constantes. Cualquiera sea el espesor de las operaciones intermedias, todos los predicados del cuerpo de una regla remiten en última instancia a la aserción o negación de algún hecho. Sintácticamente las variables se identifican con letra inicial mayúscula en el Prolog de Edinburgo o con minúscula en el original marsellés (cf. Giannesini et al 1989). Hay algunas otras diferencias al respecto entre las distintas versiones del lenguaje; en algunas de ellas, por ejemplo, no es permitido incluir variables en el cuerpo de una regla. Todos los dialectos, empero, comparten los rasgos esenciales e instrumentan un concepto de variable que no tiene equivalentes en otros lenguajes de computación. En estos últimos una variable es el nombre de un espacio de almacenamiento en la memoria; en Prolog, en cambio, es una entidad que está en lugar de un hecho o constante (o que representa a todo hecho, o a algún hecho) que posee la misma estructura sintáctica de predicado. El uso de tecnicismos tales como "variables" y "constantes" no debe intimidar. Una variable es nada más que un símbolo que indica que en su lugar pueden ir diversos valores, y esos valores son las constantes. La jerga del Prolog no debe encubrir el hecho de que lo aparentemente específico de este lenguaje es, bien mirado, general y extensivo a todo modelo. Podría decirse que en el cálculo de predicados en sentido estricto sólo existen variables, pero que a las variables ligadas a un valor conocido se las considera constantes. La implementación computacional de los lenguajes lógicos incluye un tercer tipo de elemento, que se ha dado en llamar "variable anónima". En Prolog la variable anónima se denota con el signo de subrayado (_) y se interpreta en el sentido de "cualquiera", "alguno" o "al menos uno". La interpretación depende del contexto, y no es improbable que a veces se la interprete como "todo". Toda variable que aparezca una sola vez en una regla puede (o debe) ser reemplazada por la variable anónima. En la práctica, los razonamientos complejos no sólo se realizan en función de hechos y reglas. Las operaciones que mencionamos antes pueden ser de variadas magnitudes de complejidad, y a veces dependen de la programación de una serie de cláusulas que combinan hechos, reglas y procedimientos, y que recurren a los llamados predicados "preconstruidos" [built-in] del lenguaje Prolog. Estos son predicados que el sistema ya posee y que no precisan ser estipulados; aparte de dinamizar la inferencia, dichos predicados permiten realizar operaciones imposibles o difíciles de definir 469 mediante cláusulas específicamente lógicas o relacionales: escribir en pantalla, formatear literales, efectuar cálculos aritméticos, guardar los datos en un archivo, convertir una descripción verbal en un esquema gráfico. Pese a que (o debido a que) dichos predicados suplementarios son por definición extralógicos, su incidencia en el encadenamiento deductivo de un programa ha sido objeto de un examen formal escrupuloso, como luego veremos en un capítulo específico (p.ej. Kowalski 1984). Hechos y reglas completan, en principio, las estructuras básicas de descripción necesarias en el lenguaje, y hasta podríamos decir las estructuras básicas subyacentes a la descripción del conocimiento sobre cualquier dominio en cualquier lenguaje, con las modificaciones notacionales que correspondan. Por lo común, la conversión de un fondo de conocimientos expresados en lenguaje natural a un programa en Prolog se realiza con cierta facilidad; algunos lógicos insisten en que esta recodificación es casi siempre straightforward, fluida, no problemática (cf. Parsaye 1988:76). Pero no todo el mundo está de acuerdo en que la trascodificación del nudo de perceptos, juicios y prejuicios que forman parte de cualquier conocimiento es así de sencilla: El problema principal en la representación del conocimiento radica en la traducción de afirmaciones o descripciones en el metalenguaje a lenguaje objeto. Por ejemplo ¿qué predicado deberíamos usar, cuántos argumentos debe tener, qué constantes tenemos? El cálculo de predicados nada dice sobre tales cuestiones y deja la decisión al criterio del analista. Estas decisiones, las elecciones de los predicados, funciones y constantes, son probablemente las más importantes que hayan de hacerse en inteligencia artificial (Thayse 1988:112). La verdad se encuentra a mitad de camino. Difícil o trivial, el procedimiento es a fin de cuentas posible, aunque una codificación pueda revelarse ineficaz cuando ya es demasiado tarde. Es importante notar (y luego insistiremos en este punto) que este proceso no está axiomatizado, difícilmente pueda estarlo algún día y dudosamente sea razonable exigir que lo esté; lo mismo se aplica, desde ya, a cualquier otro formalismo: no existe ninguna forma axiomática de predefinir qué aspectos del mundo son relevantes y cómo se los debe necesariamente representar. Esto depende de cada marco teórico, y está perfectamente bien que así sea. Se han propuesto, empero, algunas reglas de cocina ampliamente genéricas, dictadas por lo que parecería ser sentido común: expresar primero el conocimiento mediante proposiciones o frases lingüísticas, y mapear luego los verbos de esas frases mediante nombre de predicado y los sujetos y objetos de las frases como sus respectivos argumentos. Evitar siempre predicaciones demasiado básicas, del tipo de "es" o "es un", e introducir a cambio expresiones más variadas; cuidar de que los conjuntos de predicados sean conexos, es decir, verificar que haya alguna forma de intervincularlos mediante reglas o metarreglas. Asignar a las variables valores mnemónicos, evitando las "X" y las "Y" a que nos han acostumbrado el álgebra y la lógica simbólica. Estas podrían ser recetas de una preceptiva aceptable, aunque con certeza no conviene tomar la "predicación" de los predicados en un sentido gramatical demasiado estrecho. El mismo nombre de "cálculo de predicados" para denotar la modalidad lógica que estamos caracterizando es otra de las pesadas herencias de la concepción neopositivista de la epistemología como análisis (lógico) del lenguaje científico, idea que no es necesario compartir para hacer uso de la herramienta que aquí se propone. Del hecho de que el traspaso de los datos crudos al formalismo requerido para la construcción del modelo no sea axiomático, no se ha de inferir que las articulaciones metodológicas importantes son indecidibles. Ninguna metodología de formalización nos dirá jamás por dónde debe empezarse, y en esta tesitura los lenguajes lógicos entran en las generales de la ley. No es una teoría de modelos la que debe dictar cuáles son los elementos pertinentes a codificar: eso debe emanar de la formulación discursiva que le precede, ya que en su especificación las estructuras teoréticas no se trasmutan; sólo 470 se tornan visibles y evidentes. El hecho de construir un modelo efectivizará después, cuando se lo ponga en funcionamiento, sus propias coacciones; pero ellas de ningún modo tienen que ver con ese dictado. En otras palabras, la relevancia de los hechos y reglas a considerar no se desprende tanto del lenguaje objeto que se agrega, como de la teoría que se posee independientemente de él. Lo que se codifica en un programa lógico no es un acopio de conocimientos directamente tomados de la realidad mediante una abstracción axiomáticamente fundada, sino lo que una formulación discursiva convencional ha definido ya como relevante. La máquina no suplanta a la teoría, mucho menos la segrega, y todavía menos impone la adopción de ninguna. Ni una comprensión acabada de las posibilidades de especificar hechos, ni un dominio excepcional en la estipulación de reglas para derivar hechos nuevos son suficientes para construir un modelo que funcione y que justifique el costo intelectual de la formalización. El objetivo de todo modelo ha de ser más bien el de proporcionar respuestas, lo cual impone prestar una atención particular a la tercera clase de entidades que conforma un programa lógico (la consulta, pregunta, goal u objetivo), a caracterizarse en el apartado siguiente. Preguntas La respuesta es "sí". Pero ¿cuál es la pregunta? Woody Allen Una vez que se han representado algunos hechos y que se ha estructurado el conjunto mediante reglas, podemos plantear preguntas, consultas [queries] u objetivos [goals] al sistema. En este lenguaje, la apariencia de los hechos y las preguntas puede ser la misma; pero conceptual y pragmáticamente los hechos se estipulan en la escritura del programa y las preguntas durante su ejecución. En el corrimiento de un programa común, las preguntas con argumentos en mayúsculas o variables retornan respuestas extensionales y las preguntas con argumentos en minúscula (es decir, las hipótesis, que siempre involucran constantes) se contestan invariablemente con "si" o con "no". Como se verá en detalle en el próximo apartado, "no" significa en este contexto que el sistema no puede probar la aserción que la pregunta supone en función de los predicados que se han estipulado como hechos y de las reglas que los relacionan y sistematizan. Por si las lecturas esporádicas de epistemología no lo han dejado claro, señalemos que "si" y "no" no son respuestas esquemáticas que trasuntan información escasa, ocasionadas por el hecho de trabajar con una máquina, sino el resultado natural y pertinente del planteo de una hipótesis. Una hipótesis, sea que se la promueva en Prolog o en cualquier otra forma, siempre se contesta por "si" o por "no". Este es un imperativo al que los diseños de investigación propios de nuestra disciplina rara vez conceden la atención debida. Una respuesta extensional, que refiere cifras, nombres y casos, será la contestación a otra clase de requerimiento (una consulta, una búsqueda, un cálculo), pero no de una hipótesis. Esto quiere decir, trasladado a Prolog, que las preguntas con variables no instanciadas (¿quién?, ¿cuándo?, ¿cómo?, ¿cuánto?, ¿dónde?) obtienen respuestas extensionales, producen una enumeración de casos o 471 instancias, y no cabe calificarlas como hipótesis, sino como tanteos exploratorios en un contexto de trabajo interactivo. Una hipótesis es un query peculiar que no comporta variables libres, sino que relaciona valores conocidos o probables, pero en todo caso siempre explícitos. En un diseño de investigación concreto, la pregunta "¿A cuánto asciende el número máximo de individuos que componen las sociedades que se rigen primordialmente por relaciones de parentesco?" no es de ningún modo una hipótesis. Para que lo sea, se debe plantear como un hecho definido que debe ser probado: "En una sociedad que se rige primordialmente por relaciones de parentesco, el número máximo de individuos que la componen es de ..."; y aquí va una cifra, un rango, o una caracterización cualitativa, pero que no es ni puede ser una incógnita. La estructura de una hipótesis, si se lo piensa bien (y la sintaxis del Prolog lo trasluce espléndidamente) no es la de la pregunta, sino la de los hechos: una hipótesis es un hecho a probar. Y a la inversa los hechos, en un sentido estricto, son hipótesis: los "hechos" de la teoría son "hechos" de la realidad en un sentido precario, es decir, en tanto la teoría (o el paradigma del cual ésta depende) pueda sostenerse. En general la hipótesis es un hecho conjuntivo, condicionado a la validez de otros hechos, a su vez ramificados en otros más, como una pauta que los atraviesa y los conecta y que, invisible al principio de la demostración, tiene que ser imaginativamente construida antes de ofrecérsela a la máquina para que la demuestre. Existe una trabazón lógica profunda entre las tres estructuras básicas del Prolog cuya naturaleza iremos esclareciendo en el transcurso de este estudio. Si consideramos, por ejemplo, que las reglas constituyen las afirmaciones más básicas y generales, podemos considerar los hechos como reglas sin cuerpo (en las que nada resta demostrar) y las preguntas como reglas sin cabeza (en las que nada se ha demostrado aún). La naturaleza lógica de una pregunta con variables no ligadas y de una hipótesis son distintas, aunque desde un punto de vista técnico ambas sean queries. Una respuesta extensional es informativa y orientadora, pero no puede decirse que pruebe gran cosa. La respuesta a una hipótesis, en cambio, aunque fuere negativa, es prueba pura. En ambos casos la naturaleza de la prueba sólo puede ser de orden lógico, y no factual, independientemente del carácter que, previo a su codificación, tuvieren los hechos representados. La consideración de la dialéctica de la pregunta y la respuesta en términos de variables versus constantes, clarifica el proceso infinitamente más de lo que fue posible en la epistemología convencional. A nuestro juicio, la caracterización de los tipos de preguntas y problemas reconocidos por la filosofía científica tradicional deja bastante que desear. Polya, por ejemplo, distingue los "problemas de hallar" de los "problemas de demostrar", correspondientes a los "problemas de construcción" y a los "problemas referidos a las consecuencias lógicas de los supuestos" de la filosofía de Papo (cf. Polya 1957). Más allá de la fealdad y la precariedad que connotan todos estos rótulos categoriales, lo que se ha elaborado a este respecto en la preceptiva científica dominada por la filosofía analítica es enredado y poco parsimonioso. La siguiente clasificación de Mario Bunge es representativa de ese desorden: Los problemas de hallar son un subconjunto de lo que Aristóteles llamó problemas del qué, mientras que los problemas de demostrar se incluyen en sus cuestiones de alternativa, o dialécticas. Además, los problemas de demostrar son un subconjunto de los problemas de hallar, puesto que demostrar un teorema consiste en hallar un conjunto de supuestos que impliquen el teorema dado, y esto, según nuestra clasificación, es un problema sobre individuos. La diferencia entre unos y otros no es lógica ni metodológica, sino ontológica: la solución de un "problema de hallar" consiste en presentar un objeto que no sea un enunciado, mientras que los "problemas de 472 demostrar" se refieren a enunciados y a sus relaciones lógicas. Nuestra clasificación de los problemas elementales no concede tampoco ningún lugar especial a los problemas de decisión, esto es, problemas cuya solución es un simple "Sí" o un simple "No". Los problemas de decisión son casos especiales de problemas sobre individuos, particularmente de los que se refieren a la determinación de valores veritativos. [...] La cuestión de si un problema dado es o no un problema de decisión no es una cuestión lógica sino metodológica: los medios disponibles y el objetivo considerado nos permitirán decidir acerca de si determinados problemas son cuestiones de sí-o-no (Bunge 1985: 202). La programación lógica ha ordenado este caos de intrusiones ontológicas y metodológicas, demostrando que el contraste entre los dos (y no tres) tipos de "problemas" es siempre cuestión de lógica, y encima de una lógica axiomática, por cuanto puede resolverse en los cánones del cálculo de predicados del primer orden. En el esquema que proponemos, no hay necesidad de "decidir" la omisión de "problemas de decisión" presuntamente marginales, ni de fabricar un jeroglífico clasificatorio en el que todas las clases acaban siendo "casos especiales" o "subconjuntos" de las clases opuestas. Como se muestra en el diagrama 2.2, la cosa es maravillosamente simple. En la computación de un programa, la formulación de una pregunta con al menos una variable libre (un "problema de hallar") determina una respuesta extensional que consiste en la enumeración de los casos posibles, o (en caso de tratarse de números) en los cálculos aritméticos a que haya lugar; cuando todas las variables están ligadas, la pregunta es una hipótesis (o sea, un "problema de demostración") y la única respuesta posible es "Sí" o "No". "Si" o "No" quieren decir en este contexto que el hecho que la pregunta implica puede (o no puede) agregarse a los hechos y reglas originarios sin generar contradicción. ) Pregunta predicado(X predicado(v alor) Variable Libre Respuesta Extensional Categoría "Hallar" Ligada Si/No "Demostrar" Diagrama 2.2 - Tipos de Preguntas No existen lógicamente otros tipos de pregunta, ni es preciso salirse de la lógica para categorizarlas. No importa tampoco que los términos (libres o ligados) se refieran a "individuos" o a alguna suerte de colectivo; por un lado, éste es un problema de interpretación, y como tal es por completo extralógico; por el otro, un individuo lógico puede denotar un nombre de clase, de modo que la distinción no es pertinente en este nivel de análisis. Desde un punto de vista veritativo-funcional formal, por último, los problemas de decisión no constituyen clase aparte: la necesidad de decidir valores de verdad es inherente al proceso de pregunta y respuesta; que se requiera directamente "¿Es verdad que la tribu X habita el territorio Y?" o que se pregunte "¿Cuáles son las tribus que viven en Y?" no incide sobre la realización del cálculo veritativo propiamente dicho. Técnicamente, se puede obtener la misma respuesta intensional (sí o no) preguntando por un hecho ya afirmado o tratando de derivar un hecho de las aserciones previamente establecidas, conforme a las reglas que rigen la inferencia en el interior de un programa. Este es un peligro sobre el que los libros en general no advierten: la construcción de un sistema formal puede constituir una fachada que 473 justifica el hallazgo de pruebas que se han introducido clandestinamente bajo el manto de la aserción de los "consecuentes" como hechos no condicionales. En nuestros cursos de programación lógica para antropólogos, muchas veces nuestros colegas se mostraron más bien desilusionados del hecho de que la productividad de un modelo se restringiera a teoremas o consecuencias que de alguna manera están ya implicados y contenidos en las premisas. Esta observación es fruto de una muy pobre comprensión de las fuerzas y alcances de un sistema deductivo, imputable de lleno a las deficiencias de nuestra formación profesional, que nos ha ilusionado con la promesa implícita de formulaciones teoréticas "predictivas" o "explicitivas", que serían capaces no sólo de conservar los valores de verdad, sino de originarlos, poniendo al descubierto "hechos" que no estaban siquiera latentes. La lógica legítima es tautológica, pero puede serlo en dos sentidos contrapuestos: derivando limpiamente nuevos hechos a partir de los inicialmente asertados, o repitiendo alguna aserción sin pasar por ninguna operación de cálculo. No existe, aparentemente, ninguna forma de distinguir una conclusión válida de una tautología insidiosa, como no sea el de seguir el curso del procedimiento de prueba y asegurarse que el hecho que se afirma o se niega resulte de la aplicación de una regla. Algunos dialectos del Prolog, atentos a este efecto lógico, incluyen predicados que determinan si un hecho es "originario" o si se trata del efecto de la aplicación de alguna regla que ha debido superar cierto grado de condicionalidad. En el proceso de la computación una aserción tautológica no es propiamente lo que los manuales sindican como falacia: su carácter de tal depende del contexto en que se formule la pregunta y de la interpretación que se otorgue al hecho de formularla. Algunos capítulos más adelante abordaremos el problema de la instanciación de variables en Prolog, es decir, el modo en que el intérprete resuelve las preguntas mediante un proceso de apareo de patrones cuya posibilidad está definida por el algoritmo de unificación inventado por Robinson, y cuyo orden "de arriba hacia abajo y de izquierda a derecha" está regido por otro algoritmo, llamado backtracking (de autor anónimo) relativamente fácil de integrar a heurísticas y a estrategias selectivas. Desarrollaremos el asunto en forma muy sucinta, pues se trata de un tema tan frecuentemente descrito en los textos que carece de sentido explayarse sobre el particular (cf. Clocksin y Mellish 1987: 6-13; Malpas 1987; Covington et al 1988:10-13, 78-79, 94-100). Por el momento, digamos que nada hay de peculiar en las implementaciones antropológicas que justifique sospechas respecto de que el cálculo conceptual que le atañe no sea viable por estos medios. b) Predicados extralógicos Una dificultad que los "modelos" mentales o dibujados en papel no experimentaban eran la de necesitar cláusulas y mecanismos que no están directamente ligados a la naturaleza y a los contenidos del problema que todo modelo representa. Un modelo convencional era capaz, en principio, de resolver la pregunta "¿cuáles son las tribus que habitaban la Patagonia?" sin que fuera preciso especificar en algún momento "escriba la respuesta correspondiente" o "mantenga los resultados en la memoria". Cualesquiera fueren las ventajas de este hecho, una computadora no es un autómata lógico o un instrumento abstracto, sino un dispositivo real que envuelve físicamente a todo modelo que en ella se implemente y que le impone su propia lógica; lógica que hasta cierto punto es, desde el punto de vista del modelo, o bien irrelevante o bien extralógica. 474 La mayor parte de los dialectos de Prolog incluyen numerosos predicados extralógicos que complementan a un núcleo de resolución estrictamente formal que se denomina Prolog puro. Ciertos dialectos, que se jactan de rigurosos, aceptan sólo unos pocos, en tanto que otros, que se precian de prácticos, incorporan docenas; el hecho es que todos incluyen alguno, típicamente assert, consult, save, nl, integer, write, read, retract. De hecho, cabe interpretar como extralógicos a todos los predicados y elementos del lenguaje, con excepción de los conectivos lógicos convencionales que son expresables en forma clausal: el condicional (:-), la conjunción (and o coma), la disyunción (punto y coma) y la negación (not). Algunos predicados extralógicos desarrollan operaciones fundamentales; otros, como el ifthenelse del Arity Prolog, procuran preservar la atmósfera procedimental de los lenguajes clásicos. En el Apéndice II incluimos una tabla razonada de predicados extralógicos, necesaria y suficiente para decodificar las operaciones involucradas en los predicados built-in de todos los programas adjuntos. El problema práctico que presentan ciertos predicados extralógicos es el de los efectos lógicos colaterales. Veamos, por ejemplo, el caso de dos predicados clásicos de entrada/salida, correspondientes a las operaciones de leer y escribir (de teclado y en pantalla, respectivamente, a menos que se estipule otra alternativa). El procedimiento de lectura liga una variable a un valor introducido, y el de escritura retorna el valor de una variable ligada o de una constante. Pese a que desde un punto de vista lógico ambas operaciones parecerían simétricas, existe entre ellas una marcada diferencia operacional. Si todas las invocaciones que realiza un programa a la rutina de escritura se reemplazaran con un procedimiento vacío que siempre se ejecuta exitosamente, la semántica del programa no se vería afectada. Lo mismo no se aplica, por desdicha, a las operaciones de lectura; en estas últimas, los valores asumidos por las variables correspondientes podrían modificar la naturaleza de las conclusiones a las que se llega. Como la intrusión de esquirlas extralógicas en un tejido lógico axiomático entraña problemas sumamente delicados, los formalistas contemplan todas las capacidades prácticas de las computadoras (y sus cláusulas correlativas en el lenguaje lógico) con cierto recelo. Kowalski (1984), por ejemplo, ha discutido los peligros de utilizar predicados de tipo assert y retract. Su actitud es más tolerante respecto del primero que del segundo, por cuanto la aserción de una nueva cláusula en un programa que se está computando se asemeja a la generación de lemma, una técnica de prueba habitual en el cálculo de predicados. En las diversas implementaciones del Prolog la generación de lemma puede instrumentarse realizando la aserción de una prueba que acaba de deducirse (o de un resultado parcial) al conjunto global de hechos y reglas: La vez siguiente que se intente probar el objetivo , el sistema utilizará la solución hallada, y no será preciso volver a computar todo el proceso. Este uso formal de la aserción solamente es válido cuando el proceso denotado por es determinista, es decir, cuando tiene una única solución posible. Debemos tomar nota de una diferencia entre la generación de lemma en un programa lógico y la introducción de lemmas en un marco teórico tal cual se ha venido caracterizando en la filosofía de la ciencia. En este ámbito, un lemma es una hipótesis demostrada como teorema en otra teoría y que se toma en préstamo "cuando hace falta" (Bunge 1985:437). Los lemmas son harto frecuentes en las deducciones propias de la ciencia factual. En programación lógica las cosas son algo más estrictas: 475 un lemma debe ser o bien demostrado a través de un proceso determinista a partir de las premisas iniciales, o debe ser incluido entre ellas desde un principio, a título de axioma. Los demás usos de la aserción y retracción de hechos y cláusulas en tiempo real no están aún bien delimitados. Dicen Sterling y Shapiro: Los predicados assert y retract introducen en el Prolog la posibilidad de programar con efectos colaterales. El código que depende de efectos colaterales para su ejecución adecuada es difícil de leer, difícil de optimizar y difícil de tratar formalmente. De allí que estos predicados sean un tanto controvertibles, y que utilizarlos sea a veces resultado de pereza intelectual y/o incompetencia. [...] A medida que avance la tecnología de los compiladores de Prolog, la ineficiencia del uso de assert y retract será más evidente. [...] Los programas que se automodifican son un concepto olvidado de la ciencia computacional. Los modernos lenguajes de programación eliminan esta posibilidad, y la buena práctica con lenguaje ensambladores también evita estos trucos de programador. Es una ironía histórica que un lenguaje de programación que pretende abrir una nueva era en computación abra la puerta del frente a tales técnicas arcaicas, utilizando los predicados assert y retract (1986:180). La realidad es algo menos alarmante, y la noción de programas capaces de automodificarse (correlato, en lógica, de la noción de no-monotonía) constituye una posibilidad seductora que no debería descartarse por las dificultades formales que acarrea. Es posible, de todas maneras, proporcionar una justificación lógica para algunos usos limitados de la aserción y la retracción. Realizar la aserción de una cláusula, por ejemplo, se justifica si dicha cláusula ya se sigue deductivamente del programa. Agregar esa cláusula no modificará entonces el significado del mismo, sino que a lo sumo mejorará su performance. Del mismo modo, retirar una cláusula se justifica cuando ella sea lógicamente redundante. Las operaciones de entrada/salida y aserción/retracción, en síntesis, nunca han estado demasiado bien combinadas con la estructura global del lenguaje, y por ello su uso ha de ser discrecional. Su implementación reposa sólo en la llamada semántica procedimental20 del lenguaje, y no tiene conexión alguna con el modelo estricto de la programación lógica, representado por un formalismo más abstracto. Tenemos que tener permanentemente en cuenta que la tecnología disponible es transicional. La existencia de predicados de entrada/salida lógicamente "impuros" será evitada en el corto plazo con la puesta en marcha de programas lógicos concurrentes basados en el Prolog; en ellos, las estructuras de datos modificables se podrán implementar mediante monitores que tienen una definición puramente lógica, y que actúan como si constituyeran un proceso recursivo perpetuo (cf. Shapiro 1984). No existe, por último, una clasificación lógicamente aceptable de los tipos de predicados extralógicos posibles. Su espectro, por otro lado, varía conforme a la evolución de las técnicas computacionales comunes, lo cual quiere decir que se expande con suma rapidez. Es habitual que los manuales consignen predicados aritméticos, para lectura y escritura de archivos, para tratamiento de ristras de caracteres, para conversión de tipos de datos, para manejo de ventanas y menúes, para gestión de bases de datos, para realización de gráficos o sonidos y para programación de máquina a bajo nivel. El cuadro no es exhaustivo ni sistemático; en todo sentido, y en tanto no sean interferentes, las operaciones a las que alude quedan por completo fuera de la lógica. 20 Véanse los siguientes apartados sobre los diferentes modelos semánticos del lenguaje. 476 c) La forma lógica clausal Este es el momento de examinar dos cuestiones fundamentales para nuestros propósitos: la relación de la sintaxis del Prolog con la notación lógica y los aspectos concernientes a su semántica. Examinemos primero las características lógicas. El lector, sin duda, habrá notado cierta diferencia entre las estructuras lógicas que constituyen el lenguaje y las notaciones simbólicas que pueblan los libros de texto como los de Quine, Church, Gödel, Carnap o Von Wright. Esta diferencia no es sólo sintáctica. La sintaxis del Prolog no sólo encarna una modalidad definida de cálculo de inferencia (el cálculo de predicados)21 sino que responde a un estilo de notación, intermedio entre la escritura simbólica y el lenguaje natural, que se denomina forma clausal. Todo sistema de cálculo lógico que haya adoptado la notación simbólica dispone de varias formas alternativas de escritura, y de procedimientos específicos de transformación para pasar de un tipo de forma a otro. La más común de todas recibe el nombre dudosamente imaginativo de forma normal o forma canónica; otras formas habituales son las llamadas forma prenexa, las formas de Skolem, las formas prenexas skolemizadas, la forma normal disyuntiva y, naturalmente, la forma clausal. Las razones de la existencia de diversas formas en el interior de un método de cálculo son diversas: determinadas operaciones son más fáciles de realizar en una forma que en otra, ciertos razonamientos resultan más comprensibles, y algunos métodos de prueba de consistencia pueden llegar a simplificarse cuando se incluyen o se eliminan cuantificadores, o cuando se quitan o agregan conectivas lógicas. Eventualmente, procedimientos de prueba que son posibles bajo una forma no lo son bajo otra forma distinta. Por ejemplo, Alonzo Church probó que la lógica de primer orden es indecidible respecto a satisfacibilidad. Esto quiere decir que para un conjunto de fórmulas de lógica pura del primer orden no existe un procedimiento automático tal que para cada fórmula perteneciente a él nos permita decidir en un número finito de pasos si esa fórmula es satisfacible o no. En 1930 Gödel probó que ciertos conjuntos de la lógica de primer orden son decidibles, y esos conjuntos coinciden con las propias fórmulas del cálculo de predicado cuando se las expresa en forma prenexa. Como es bien sabido, toda fórmula normal es equivalente (es satisfecha por las mismas interpretaciones que) alguna fórmula prenexa (cf. Gödel 1982:37-39). No interesa aquí, en rigor, al menos por ahora, qué signifique la satisfacibilidad de una fórmula o qué estructura peculiar tengan las formas prenexas. El objetivo es simplemente demostrar que las diversas formas de expresión lógica se comportan diferentemente frente a los problemas de la consistencia, la completud, la decibilidad o la computabilidad. A diferencia de lo que presuponían las teorías modélicas informales (o amorfas) de la antropología, la forma, en definitiva, no es neutral, por cuanto determina el campo de posibilidades y los procedimientos de prueba que afectan a un lenguaje. La elección de una forma adecuada es crucial cuando se trata de diseñar un procedimiento para que una computadora sea capaz de reconocer y validar una cláusula de la manera más económica y eficaz posible. Por diversas razones, tanto formales como contingentes, la forma clausal es, entre otras cosas, una forma que admite una computación más cercana a lo óptimo que la que es peculiar de otras formas alternativas. Los siguientes 21 Nos ocupamos del cálculo de predicados en la cuarta parte de la tesis, al desarrollar el contraste entre ese formalismo y el cálculo de proposiciones (secuela anacrónica del silogismo) que acompaña desde siempre a la lógica y a la epistemología no computacionales. 477 ejemplos están en forma clausal, aunque no (todavía) en el tipo de forma clausal que es capaz de aceptar el intérprete de Prolog: Obsérvese una peculiaridad de los conectores de la forma clausal en su versión originaria: pese a que estén denotados por el mismo signo (la coma), los de la cabeza corresponden a la disyunción ("o"), y los del cuerpo a la conjunción ("y"). En su versión computacional sólo esta segunda propiedad habría de mantenerse; luego se verá por qué. Ya hemos descripto la estructura notacional de las cláusulas del Prolog, señalando en el trámite sus diversos componentes y su variada nomenclatura: predicado, functor o relación, átomos, objetos, argumentos o términos, cabeza y cuerpo, variables y constantes. Todos estos elementos preexisten al lenguaje de computación; los diseñadores de éste sólo han introducido ligeras modificaciones en los signos, en función de las limitaciones tipográficas características de los teclados de consola. En términos históricos, la forma clausal es hasta cierto punto independiente del cálculo de predicados, pero se ha desarrollado de hecho en conjunción con éste. De hecho, en el excelente texto de programación lógica editado por Thayse (1988:26-29), las cláusulas de Horn se explican como si formaran parte del cálculo proposicional. La forma clausal no es sino una convención de escritura que busca superar algunas ambigüedades del lenguaje natural, pero sin perder su innegable poder expresivo. La práctica ha demostrado que no es necesario pasar por la forma normal de la notación lógica antes de escribir formas clausales. Por el contrario, en general es la llamada forma normal la que se clarifica cuando se transcribe a notación de cláusula. El paso de la forma natural del lenguaje a la forma clausal de la lógica (a diferencia de lo que sucedería con otro formalismo simbólico) es de una notable fluidez, al punto que casi carece de toda preceptiva categórica, con la excepción de un régimen sumamente escueto que pasamos a describir. Amén del uso de paréntesis, la forma clausal acostumbra invertir el orden en que aparecen las conclusiones respecto de las premisas. Por consiguiente, en vez de escribir "si A entonces B", la cláusulas deben atenerse a la expresión "B si A". La razón de ser de esta prescriptiva es puramente analógica: se procura atraer la atención hacia la conclusión o consecuente de la cláusula. Además, por razones técnicas, dentro del conjunto de las formas clausales, en programación lógica se ha adoptado una convención más específica en favor de una notación propuesta por Alfred Horn (1951). Las cláusulas de Horn son aquellas que contienen una sola conclusión: es decir, la cabeza de una cláusula de esta clase contiene un solo término, en lugar de varios términos disjuntos. Para que una cláusula de esta forma califique como cláusula de Horn debe cumplir además dos condiciones: la conclusión debe ser afirmativa, y por lo menos uno de sus términos (en la cola) no debe ser negado22. Horn demostró que cualquier problema que pueda ser expresado en forma lógica se puede transformar en un conjunto de cláusulas de ese tipo; la mayor parte de los formalismos utiliza- 22 Existen otras definiciones, por cierto: Malpas dice que "una cláusula de Horn es una cláusula que contiene un solo literal positivo" (1987:44). Un literal positivo es una afirmación lógica; un literal negativo es una negación (_P). El Prolog original marsellés utiliza la terminología de literales positivos y negativos que había instrumentado Kowalski en su teoría de la resolución, de modo que la cláusula A :B1,...,Bn se escribía +A-B1...-Bn. Nosotros optamos por la definición original, que es más clara y completa. 478 dos en la programación de computadoras se parece mucho más a las cláusulas de Horn que a las que Kowalski denomina "no-Horn" (1986:28-29). Algunos lógicos han llamado la atención sobre el hecho de que las cláusulas de Horn se pueden considerar como si fueran reglas de reescritura de proposiciones o predicados y que, en consecuencia, un conjunto de cláusulas de Horn equivaldría a una especie de gramática context free (no determinista), análoga a las que se han desarrollado en lingüística (cf. Thayse 1988:29). En efecto, una cláusula de Prolog de este tipo: Se puede interpretar análogamente a esta regla generativa o de reescritura, donde el signo denota "se reescribe" en lugar de la condición: Aunque esta es una analogía significativa, existe, sin embargo, una diferencia importante: en una regla de reescritura, el orden de los elementos del cuerpo es crucial, mientras que en una cláusula de lógica pura el orden sería indiferente debido al principio de conmutatividad de las operaciones conjuntivas. Con todo, de ser preciso sería posible justificar la analogía, introduciendo una serie de restricciones cuyo carácter analizaremos al desarrollar los comentarios sobre nuestros modelos generativos. Las cláusulas de Horn son tan simples como expresivas. Todo el Prolog se basa en ellas, al punto que un programa se puede redefinir como un conjunto de cláusulas de Horn que expresa la información pertinente para la resolución de un problema o para responder a una consulta. Desde el punto de vista lógico, una cláusula de este tipo puede ser: a) una simple aserción atómica, como "los arunta viven en Australia", o b) una condición, como ser "x heredará el bien y si x es el hijo de z y z es el actual poseedor de y"23. Las aserciones e implicaciones son lo mismo que con referencia a los elementos sintácticos del lenguaje hemos llamado respectivamente "hechos" y "reglas". Sería posible escribir cláusulas de Horn mediante una notación infija, que es muy común en matemáticas, por ejemplo 2+2 en lugar de +(2,2); pero en lógica simbólica se ha popularizado una notación prefijada, en la que por lo común se antepone el elemento indicador de la relación: la idea de que los arunta viven en Australia se expresaría . La notación infija es más natural, por lo menos para los hablantes de lenguas indoeuropeas; pero la notación prefijada es a la larga más precisa, porque el orden de los elementos trasunta una cierta estructura funcional, lo cual además simplifica su descomposición analítica y facilita su lectura por parte de una máquina. 23 Kowalski (1982:6) dice "implicación"; a menos que consideremos la condicionalidad como una especie de forma débil de la implicación, esta aseveración es equívoca. Es necesario reiterarlo: condicionar y definir son prerrogativa del análisis que realiza un estudioso que escribe un programa lógico. La implicación, en cambio, no se aserta: se calcula. Calcular una implicación es tarea de la máquina. 479 La programación lógica no está ligada, en teoría, a ninguna forma específica de notación. Si fuera preciso, se podrían diseñar operadores infijos o sufijos para expresar las cláusulas en el orden que se desee, o para escribir directamente en una forma que no sea clausal. Aunque esto es en principio posible, la configuración actual de los programas intérpretes hace que dicho procedimiento no resulte demasiado práctico y que vaya a contramano de una tendencia tecnológica que al menos ha demostrado ser eficaz. Subrayemos por último una discrepancia adicional entre la forma clausal del Prolog y las notaciones lógicas convencionales: aquélla carece de cuantificadores y en consecuencia, de los signos requeridos para denotarlos. La lógica estándar posee dos cuantificadores básicos: el cuantificador universal ("para todo X") y el existencial ("existe un X"). Si bien al introducir la cuantificación en la lógica se gana un innegable poder expresivo, es evidente que aumenta también la complejidad de la notación. El Prolog no explicita cuantificador alguno, lo que no significa que no se pueda cuantificar lógicamente en ese lenguaje cuando sea preciso hacerlo. Suele decirse que en él se asume que todas las variables están universalmente cuantificadas, pero es más correcto pensar que la cuantificación de las variables de la cabeza de la regla es universal y la de las variables locales del cuerpo de la regla es existencial. Este rasgo acerca otro paso más el Prolog a las formas naturales de plantear un problema e insinúa que ciertos planteamientos lógicos del pasado seguían pistas innecesariamente enrevesadas. La forma en que se puede cuantificar existencialmente en Prolog es quizá más expresiva que la forma clásica, aunque es muy rara la ocasión en que la cuantificación existencial se pone de manifiesto en tanto tal; no es que en los problemas de la vida real que se modelizan no surjan instancias que la lógica convencional resolvería mediante una cuantificación de ese tipo: más bien se trata de que el estilo de resolución de un programa lógico no pone en foco el hecho de que se está cuantificando de una u otra manera, aunque sea eso lo que se está haciendo cuando se contempla el problema desde cierta óptica. Veamos un caso de cuantificación existencial implícita. Si no pudiéramos cuantificar existencialmente, la siguiente regla de Prolog sería impropia: La regla expresa que alguien es madre de P si P es una persona. Pero "alguien" pretende ser aquí una constante, no una variable. La expresión anterior implica que "alguien" es madre universal de cualquier persona, que no es lo que se quiere expresar. La solución consiste, con perdón por el neologismo, en skolemizar. Esto es, introducir una función llamada "función de Skolem" en honor del matemático noruego Thoralf Skolem, quien las introdujo como una técnica para eliminar cuantificadores, utilizando en su lugar símbolos de función. La función denota la dependencia con respecto a P. En esta forma, la frase podría leerse como: "Para todo P, progenitora de P es una madre de P, si P es una persona". La skolemización, desde ya, no necesita ser tan tautológica y autoevidente. El programador de Prolog típico skolemiza constantemente sin tener conciencia de ello. Nuestro programa de ejemplo de relaciones pa480 rentales skolemiza en forma más discreta y aún así es susceptible de leerse conforme a la intención que orientó su escritura. El cálculo de predicados que respalda a la programación lógica es llamado también cálculo de cuantores (o cuantificadores); es notable que su rasgo más conspicuo prácticamente haya desaparecido en su encarnación computacional. La skolemización es la forma más frecuente ya no de expresar cuantificadores existenciales, sino de hacerlos desaparecer del horizonte sin incurrir en falacias lógicas. Existen otras maneras de hacer lo mismo y de introducir determinadas sutilezas de cuantificación, como las metavariables descriptas por John Sowa o los focalizadores de McCord, que resultaría excesivamente preciosista referir aquí (cf. McCord 1987; Sowa 1987). d) El Algoritmo de Resolución En la vida real o en la práctica de una lógica estándar, los procesos de inferencia se realizan en función de los llamados procedimientos de prueba, que ponen en marcha las leyes que rigen el modo de razonamiento de que se trate. Un procedimiento de prueba consiste en el encadenamiento de una serie de pasos lógicos en los que se desenvuelven operaciones y transformaciones que resultan aceptables en función de la aceptación de determinadas leyes o principios lógicos, fundadas a su vez en la demostración formal de un teorema. En el cálculo de proposiciones, por ejemplo, dichas leyes podrían ser la "ley de la doble negación", la "ley de contraposición del condicional", la "ley de la conmutatividad de la disyunción", las leyes de De Morgan, el modus tollendo tollens, etcétera (Deaño 1987:107-112). Los procedimientos de prueba que se consideran aceptables para el desarrollo de un razonamiento dependen de numerosos factores y varían irremisiblemente según se acate uno u otro marco de teoría. La pregunta ahora es: ¿cuáles son los procedimientos de prueba subyacentes al uso del lenguaje en que fundamos nuestra modelización? Nuestra herramienta lógica es un procedimiento mecánico de prueba y por lo tanto descansa en el uso de una máquina de computación. La pregunta podría reescribirse: ¿cómo se hace para materializar una demostración lógica en una máquina? Controladamente antropomorfizado, ese interrogante se podría también formular así: Todos sabemos que una computadora realiza cálculos numéricos con una eficacia que nadie discute, pero ¿cómo es posible que una máquina desarrolle un razonamiento? Imaginemos por un momento que estamos intentando modelar un fenómeno o sistema cualquiera de la vida real en el cual cabe discernir cierto número de variables. Supongamos también (y luego se comprobará que ésta es una suposición de pesadilla) que debemos construir nuestro modelo de acuerdo con los cánones de la lógica convencional, valiéndonos de las conocidas tablas veritativas. Recurriendo a la tabla de la figura 2.3, observemos qué sucede en el caso de tomar como punto de partida un número de tres componentes proposicionales y sus correspondientes interrelaciones: Nótese que el número de líneas de una tabla veritativa es 2n, donde n es el número de variables presentes en la fórmula. Esto causa que sea completamente impracticable utilizar tablas de valores de verdad o cualquier otro sucedáneo similar para verificar la corrección de inferencias cuando se parte de un número superior (digamos) a las veinte o treinta variables. Una tabla de verdad de 40 variables tendría algo así como 1.099.511.627.776 renglones (unos quince o veinte mil millones de páginas), lo cual hasta para una computadora es demasiado. 481 A B C A o B B & C V V V V F F F F V V F F V V F F V F V F V F V F V V V V V V F F V F F F V F F F B&C si AoB V F F F V F V V Diagrama 2.3 - Tablas veritativas Una forma mejor y más directa consiste en inventar una regla de inferencia que legitime la conclusión de una afirmación a partir de otras aserciones. Por ejemplo, para deducir: (C1) El pueblo migrará si no hay suficientes lluvias. A partir de las premisas: (P1) El pueblo migrará si sobreviene el hambre. (P2) Sobrevendrá el hambre si no hay suficientes lluvias. Utilizamos una regla de la forma A esta regla la podríamos considerar la transitividad de "si". Se puede probar que una aserción tal como C1 se sigue de una serie de otras aserciones, mediante el uso sucesivo de reglas de prueba, de las que la transitividad es sólo una. Una prueba es entonces una secuencia de correctas aplicaciones de reglas a premisas y a teoremas, es decir, a aserciones que ya han sido probadas. Pero aquí viene lo interesante: la regla de transitividad para "si" se puede formular de una manera ligeramente distinta. Dado que las fórmulas que contienen el condicional "si" se pueden reescribir con "o" utilizando este principio de equivalencia: podemos reescribir la regla de transitividad bajo la forma de la llamada regla de resolución, la cual constituye la base oculta de todas las máquinas de inferencia de los dialectos del Prolog y de otros lenguajes emparentados: 482 Existen muchas otras reglas de prueba aparte de la resolución. Incluso podemos inventar nuevas reglas, utilizando otros conectores. Pero para un mecanismo computacional de resolución de problemas, es más sencillo tener sólo una regla de inferencia y restringir todas las fórmulas a una única modalidad correspondiente. Las fórmulas resultantes de la aplicación del principio de equivalencia mencionado responden, casualmente, a las restricciones impuestas por la forma clausal. En este punto, conviene ilustrar lo que resulta cuando se intenta probar un tipo específico de aserciones en forma clausal: Las cláusulas P1 y P2 se llaman a menudo cláusulas madres [parent clauses] de la cláusula C1, conocida a su vez como resolvente. Aquí el signo {} denota lo que se llama "cláusula vacía", que no es otra cosa que la contradicción. Una cláusula vacía se contradice a sí misma, y sólo puede derivarse de un conjunto contradictorio de premisas. En realidad, por razones técnicas muy precisas, el mecanismo de resolución del Prolog trabaja exactamente al revés de lo que cabría esperar, introduciendo una cierta reminiscencia popperiana en el procedimiento de prueba: el intérprete primero niega la hipótesis que corresponde probar; si de esta negación resulta la cláusula vacía, la hipótesis se estima correcta. Podría decirse, en otros términos, que el principio de resolución es una única regla de inferencia que puede utilizarse para producir todas las conclusiones posibles que pueden emanar de un conjunto determinado de hechos y aserciones. La regla de resolución comprende dos momentos: una cláusula definida (que es la aserción implicada en un objetivo) y una cláusula negada, que es otra afirmación que niega la afirmación definida o la considera falsa. El cálculo lógico resultante de la aplicación de esta regla funciona aproximadamente así: el intérprete primero construye la negación del goal que se pretende demostrar y luego procura establecer que esta negación (si se afirmara) sería inconsistente al agregarse a los demás hechos conocidos. En realidad, el cálculo de resolución ideado por Robinson no es completo en el sentido en que dentro de él sea posible derivar todas las consecuencias de una fórmula. En una aplicación relativa al mundo real esta noción de completud significaría muy poco, dado el carácter masivo que en seguida asume la derivación. La resolución posee en cambio la propiedad, infinitamente más valiosa, de ser completa en cuanto a la refutación. De un conjunto no satisfacible de cláusulas siempre es posible derivar la cláusula vacía, la contradicción elemental, un aserto falso en todas las interpretaciones posibles. Esta propiedad es suficiente para probar todas las consecuencias. Sería sumamente impráctico si para comprobar la inconsistencia de un conjunto de premisas generando todas sus consecuencias lógicas. No se parte entonces del dictamen de sentido común de que hay que calcular todas las consecuencias de un conjunto de aserciones para probar si una de ellas coincide con la pregunta que se formule; se parte del principio, mucho más pragmático, de que un conjunto de aserciones inconsistente genera la cláusula vacía. O lo que es lo mismo, que sólo de un 483 conjunto de premisas inconsistente se puede derivar una contradicción, aunque el dominio de referencia sea infinito24. Al nivel de la interpretación, podría decirse que el método de resolución del Prolog es a la vez fundado (no permite inferir ninguna aserción que no se siga de otras aserciones) y completo (todas las aserciones que se sigan de otras se pueden inferir mediante este método). Esta posibilidad se abre porque incorpora no sólo un simbolismo lógico apto para expresar predicados de primer orden, sino además un lenguaje de computación capaz de desarrollar procesos de inferencia que escapan a las posibilidades de la lógica clásica, en base a representaciones imposibles de estipular en computación convencional. Las posibilidades de la lógica tradicional no son otras que las de la combinatoria ciega, la expansión exponencial y la recursividad infinita. Las posibilidades de la computación convencional son las de ejecutar órdenes impartidas a una máquina. No existen procedimientos para calcular de una manera eficiente todas las conclusiones que se pueden derivar de un conjunto de premisas. El intérprete de Prolog no combina posibilidades conforme a tablas veritativas, sino que desarrolla una heurística, algoritmo, estrategia o regla de resolución que no implica revisar una a una las conclusiones de una serie de premisas para determinar el valor de una pregunta; en su lugar ejecuta un procedimiento que, según se ha descubierto, tiene plena validez para ciertos casos y formas lógicas específicas. Da la casualidad que esas formas lógicas (y en particular la forma conjuntiva) son las que vienen al caso en todos los usos que podamos imaginar, aunque desde un punto de vista abstracto y absoluto sigan existiendo regiones indecidibles, im-probables o incalculables. Luego veremos con todo detalle lo que significan estas características en cotejo con las limitaciones supuestas que algunos antropólogos endilgan a todos los sistemas formales a raíz de una lectura atroz -alimentada por intereses irracionalistas- de la llamada "prueba de Gödel". Lo que aquí hemos presentado no es una descripción detallada de los fundamentos operativos del lenguaje, pero alcanza para nuestros fines. A pesar que todavía los programas en Prolog se desarrollan en máquinas de arquitectura Von Neumann, nada hay en sus procedimientos resolutivos que no esté minuciosamente especificado, que resulte sospechable o que haya sido alguna vez motivo de crítica seria por parte de los entendidos. El trabajo de fundamentación prosigue día a día, al punto que el estado actual de (por ejemplo) la investigación sobre la decidibilidad de la resolución en operaciones distributivas se consultará más probablemente a través de revistas periódicas (Journal of Artificial Intelligence, The Journal of Automated Reasoning, Journal of Symbolic Computation, International Journal of Approximate Reasoning) que en las páginas de los libros, siempre demasiado viejos en relación con el crecimiento exponencial de los métodos. 2. Semántica de los programas lógicos Más interesantes aún nos resultan los aspectos semánticos del Prolog, aquellos en los que se relaciona con su fundamentación lógica por un lado y con su utilidad antropológica por el otro. ¿Qué tipo de saber modeliza efectivamente este lenguaje, y cómo es que logra hacerlo? ¿Qué correspondencia existe entre la "interpretación" semántica de las cláusulas, los "datos" de la disciplina y los 24 Véase en el capítulo siguiente la restricción necesaria del dominio lógico a un universo acotado, y la correlativa posibilidad de que todo conjunto inconsistente de cláusulas admita un subconjunto inconsistente finito. 484 "hechos" del mundo real? ¿Cuáles son los supuestos de la descripción? ¿En qué consiste el isomorfismo entre las relaciones que constituyen o que subyacen a los problemas antropológicos esenciales y el carácter relacional del lenguaje, y cómo es concretamente que logra éste representar o iluminar a aquéllas? Lo primero que hay que decir es que hay un significado lógico que tiene que ver con lo que un programador pretende expresar y un significado computacional, relacionado con el comportamiento que se espera adopte la máquina en la ejecución de una cláusula. Luego veremos que por encima de esta doble semántica (por fortuna, reductible a una sola) existe otra, más rica y compleja, que rige las relaciones entre un programa en tanto modelo y el mundo que resulta modelado. Veamos primero la semántica de orden más bajo, que ya de por sí nos presenta una doble problemática. El "significado" de una fórmula en lógica simbólica se refiere a su valor de verdad. Esta es una decisión que se remonta a Frege, quien se vio impelido a identificar el valor veritativo de un enunciado con su referencia (Frege 1985:51-86). Pese a que debiera ser transparente, el valor de verdad de una aserción es, para los practicantes de una ciencia concreta, una entidad oscura que es necesario esclarecer. Afortunadamente esto no parece ser difícil: la ambigüedad de la noción es un efecto de la forma en que se enuncia. La significación de un símbolo constante dentro de una fórmula o cláusula se refiere a su valor veritativo con respecto a un dominio de interpretación: es verdad o no lo que se afirma en ella. Sintaxis es una tautología, ÃÄ es consistente es inconsistente es deducible de , ÃÄ equivale a una sentencia positiva equivale a una sentencia condicional Semántica es válido, ÆÍ es satisfacible es refutable es consecuencia de , ÆÍ es incremental y no válido o refutable se preserva en intersecciones Diagrama 2.4 - Equivalencias entre semántica y sintaxis (según Chang y Keisler 1973:16) No tenemos que demostrar aquí que entre la sintaxis y la llamada semántica lógica existe un bien afiatado conjunto de correspondencias (cf. diagrama 2.4). Pero nuestros modelos no son abstractos sino computacionales, y en computación la semántica de un constructo en lenguaje de computadora se refiere usualmente al comportamiento de la computadora cuando ese constructo se evalúa. Desde este punto de vista, la semántica implica la asignación de significado a los programas: discutir la semántica permite entonces describir más formalmente las relaciones que un programa computa. Dado que el Prolog es a la vez un lenguaje lógico y un lenguaje de computadora, ambas nociones de semántica le resultan aplicables. Dado también que el lenguaje en cuestión es de tipo descriptivo, todo cuanto tenga que ver con su semántica es esencial, y por lo tanto ha sido objeto de una elaboración particularmente precisa. La problemática impone una descripción separada de las cuestiones semánticas involucradas por la lógica del Prolog en relación con la máquina y de la relación (por así decirlo) entre el modelo y el 485 mundo. Tenemos entonces dos órdenes de semanticidad vinculados en el mismo modelo, más que contrastados en concepciones distintas de la significación: por una parte está la semántica que llamaremos "de primer orden", que se refiere a la interpretación modelo-teorética o axiomática del formalismo computacional, y por el otro la semántica que de aquí en más se llamará "de segundo orden", y que se refiere a la representación del conocimiento de un dominio de interpretación a través de dicho formalismo. Trataremos inicialmente la semántica del lenguaje como formalismo lógico, y luego la semántica de un modelo escrito en ese lenguaje en tanto representación de un dominio empírico. Informalmente, puede considerarse que el significado de un programa lógico es el conjunto de instancias fundadas que son deducibles de sus cláusulas por medio de un número finito de aplicaciones de una regla de inferencia como, por ejemplo, el modus ponens. El hecho de que internamente el intérprete se ciña más bien a una versión más fuerte del modus tollendo ponens (identificado con la regla de resolución) es semánticamente irrelevante. El conjunto de instancias fundadas es la totalidad de los hechos que pueden deducirse, mediante reglas, de los hechos iniciales: fundar una instancia quiere decir ligar una variable a un valor constante, demostrar que hay un caso que corresponde a una relación. Pero esta versión informal del significado no es suficientemente clara. Existen cuatro modelos semánticos formales concurrentes que explican el "significado" de un programa, y que nosotros hemos sintetizado, homogeneizado e interrelacionado a partir de elaboraciones dispersas y de estructura literaria muy disímil: el modelo declarativo, el modelo de punto fijo, el procedimental y el de la máquina abstracta o autómata. A estos modelos se puede agregar, en otro nivel de análisis, una semántica en términos de metalenguaje. Los siguientes apartados explican en base a qué fundamentos lógicos el comportamiento de una máquina se puede referir significativamente a un problema relativo a un dominio empírico, o en otros términos, mediante qué formalismos se vinculan un lenguaje, un cálculo lógico, un dispositivo de procesamiento de símbolos y un universo de significación. a) Modelo semántico declarativo El modelo semántico declarativo del Prolog especifica el valor de verdad de sus relaciones. De todos los modelos, este es el que más enfatiza las cuestiones lógicas. Se usa el término "declarativo" porque bajo esta interpretación se asume que una cláusula declara que existe una relación entre sus argumentos si se satisfacen todas las condiciones estipuladas en la cláusula. Tomemos el siguiente caso: Esta especificación puede leerse como: "Cualquiera (Individuo) es adulto si él o ella es una persona con una edad igual o mayor a dieciocho años". Leídas de acuerdo con el modelo declarativo, las cláusulas de Prolog son fórmulas basadas en la lógica de predicados del primer orden, escritas mediante cláusulas de Horn. Los únicos conectores lógicos que pueden ocurrir son "si", "y" y "o". Según este modelo, el orden de las condiciones de una cláusula no es significativo, puesto que se interpreta 486 que todas ellas se sostienen simultáneamente. El conjunto de cláusulas que conforma un programa en Prolog describe la estructura lógica relevante de su dominio de aplicación. Lo que acaba de enunciarse completa la idea de la interpretación declarativa en una tesitura aproximadamente informal, en el sentido cotidiano de la palabra; conjeturamos que un antropólogo aceptablemente escrupuloso puede conformarse con esa versión de las cosas, que en rigor es más que suficiente para alcanzar cierta comprensión de lo que significa leer declarativamente un programa. Pero para que dicha interpretación fuese siquiera posible, ha sido preciso desarrollar una formulación harto más rigurosa, en términos de procesos y relaciones lógicas mucho más fuertes; los párrafos que siguen reproducen esa fundamentación. La exposición es difícil, como que se refiere a un conjunto de teoremas abstractos, pero no es ininteligible; los conceptos definidos engranan mutuamente, como las entradas de un diccionario, y a pesar de que la construcción del modelo ha sido un proceso colectivo, todo se articula con la fundamentación procedimental del intérprete lógico que se ha analizado en el capítulo anterior con una congruencia que tiene algo de estremecedora. El punto de partida es el hecho de que el cálculo de predicados introduce la cuantificación lógica para formalizar aserciones sobre todas las cosas posibles. Para otorgar alguna significación a tales aserciones, necesitamos denotar expresamente su rango de posibilidades. Una abstracción hecha a partir del mundo contra la cual se deba interpretar una fórmula en cálculo de predicados incluye un dominio de objetos, que hace las veces de "todas las cosas posibles" que pueden reemplazar a una variable. Las asignaciones de verdad serán entonces relativas a ese dominio. Pero esto no es tan sencillo. En el interior de un dominio, existen innumerables opciones posibles, y no es infrecuente que el dominio sea infinito o por lo menos "innumerable". Si se define la implicación lógica con respecto a la verdad en todos los modelos, ¿cómo se puede poner a prueba la implicación en presencia de una infinidad de modelos? El problema se ha resuelto utilizando un tipo de expresiones propias del cálculo de predicados llamadas "fórmulas universales". En el caso de estas fórmulas, es factible determinar la implicación relativa a modelos sobre un dominio en particular, un dominio abstracto llamado Universo de Herbrand. Este universo debería ser llamado de Skolem, más que de Herbrand, pues fue el mismo lógico que introdujo la eliminación de los cuantificadores quien propuso la idea tan tempranamente como en 1928. La iniciativa de Skolem le permitió desarrollar procedimientos mecánicos de prueba cuyos conceptos fundamentales constituyen la base de todos los sistemas deductivos contemporáneos (cf. Bläsius y Bürckert 1989:19). Antes de explicar la noción de universo de Herbrand debemos caracterizar un sustrato aún más fundamental, el que los manuales refieren como la semántica formal de un sistema lógico. Como es sabido, el codificador de esa semántica fue el polaco Alfred Tarski (1936). Dado un conjunto no vacío, llamado el universo o dominio de discurso, se llama interpretación a la operación que asocia los objetos sintácticos (símbolos constantes, símbolos de función y de predicación) con objetos semánticos tales como miembros de ese universo y relaciones entre ellos. Supongamos, para mayor claridad, que nuestro sistema es literalmente oscuro y que la naturaleza de las funciones ha sido expresada a través de una sintaxis abstracta, aunque ello no sea necesario dada la capacidad de nuestros lenguajes para operar con sintagmas complejos. Consideremos que el universo está formado por los símbolos constantes a y c, por el símbolo de función siguiente y por el símbolo de predicado menor_que. Tomemos inicialmente dos interpretaciones convencionales posibles, J y K; la primera tiene como universo los números naturales, la segunda los días de la semana de lunes a domingo, sin reciclar. Se dice entonces que en la interpretación J, la función siguiente mapea con el sucesor y el sím487 bolo de predicado menor_que con la relación aritmética del mismo nombre. De igual modo, bajo la interpretación K, el símbolo de función siguiente corresponde al mapeado de "mañana" y el predicado menor_que con la idea de "día anterior". Asignemos ahora valores a las constantes c y a conforme a este cuadro arbitrario. Constantes a c Interpretación J 0 2 Interpretación K Domingo Martes Diagrama 2.5 - Interpretaciones Bajo una interpretación determinada, cada término fundado se debe evaluar contra un elemento del universo. Por ejemplo, un término como evalúa contra el número natural 4 en J y con el día Jueves en K. Dada una serie de elementos atómicos t1, , tn, correspondientes a los miembros de los respectivos universos, la evaluación resulta en una tupla de elementos que se deben evaluar conforme a la relación asociada con el símbolo de predicado P. La evaluación consiste en determinar si la tupla pertenece a la relación asociada con dicho símbolo. Cuando este sea el caso, diremos que la interpretación satisface al átomo, o que el átomo es verdadero bajo dicha interpretación; de otro modo, se dirá que la interpretación de marras falsa al átomo, o que el átomo es falso bajo esa interpretación. Por ejemplo, la interpretación J satisface al átomo: puesto que cero es efectivamente menor que cuatro; la interpretación K, en cambio, falsa este átomo o estructura, pues de acuerdo con lo establecido Domingo no precede a Jueves. Así como se puede determinar el valor de verdad para átomos o estructuras, se puede hacer lo propio con cualquier fórmula de cualquier complejidad que pueda formarse a partir de los elementos del lenguaje. De todo este ejemplo deberá retenerse lo siguiente: una interpretación que satisface a una fórmula F es llamada un modelo de F. Las fórmulas a su vez se llaman: Válidas Si son satisfechas por todas las interpretaciones. Satisfacibles Si son satisfechas por al menos una interpretación. Falsables Si son falsadas por al menos una interpretación. Insatisfacibles Si son falsadas por todas las interpretaciones. En el modelo declarativo, el conjunto de todos los términos fundados25 que pueden formarse a partir de los símbolos constantes y de las funciones que aparecen en un programa constituye lo que 25 Es decir, un símbolo constante o la aplicación de una función cuyos argumentos son todos términos fundados. 488 se denomina un universo de Herbrand o dominio de Herbrand. De cualquier conjunto finito o "alfabeto" de constantes, por ejemplo y de otro conjunto finito de functores, por ejemplo se pueden construir dominios conglomerando todos los términos constructibles a partir de esos alfabetos de constantes y functores. Un universo de Herbrand es un dominio combinatorio que poseería una estructura de este tipo: El concepto de universo de Herbrand puede parecen en principio oscuro a los programadores de Prolog o a los antropólogos, porque intuitivamente las descripciones en un programa concreto nunca consideran por separado un conjunto de constantes y otro conjunto de functores. En realidad la noción es más simple de lo que parece, y el ejemplo dado basta para caracterizarla aunque su utilidad pueda parecer al comienzo un tanto enigmática. Así como antes vimos que una interpretación que satisface a una fórmula F es llamada un modelo de F, también puede decirse que toda fórmula satisfacible en un sistema lógico posee un modelo de Herbrand. En muchísimos casos, la programación lógica se hace posible porque no es preciso considerar todas las interpretaciones posibles (y todos los modelos posibles) de un programa, sino tan sólo las interpretaciones y modelos de Herbrand. La base de Herbrand es el conjunto de todos los goals, demostraciones u objetivos fundados que se pueden formar a partir de los predicados de un programa y de los términos del universo de Herbrand. Una base es infinita si el universo lo es: por ejemplo, si el programa consistiera en un predicado que denota los "números naturales", la base de Herbrand de ese programa sería: Paradójicamente, que la base sea infinita no quiere decir que el universo lo sea. En correlación con la universalidad de su cuantificación, para el cálculo de predicados el universo de Herbrand es finito, lo que significa que una fórmula sólo posee como implicación un conjunto finito de modelos de Herbrand, es decir, modelos cuyo dominio es el universo de Herbrand. Hay que tener en cuenta que el teorema de Jacques Herbrand (o mejor dicho, el teorema de Löwenheim-Skolem) fue formulado en realidad pensando en la lógica funcional, y no en el cálculo de predicados. En este último contexto, la base de Herbrand es finita en virtud tanto de la cuantificación universal como del uso de variables, lo que no es necesariamente verdad en el caso de la lógica funcional. Como se ha visto, en este esquema conceptual, una interpretación de un programa lógico equivale a un subconjunto de la base de Herbrand. Esto es, una interpretación asigna verdad o falsedad a los elementos de la base de Herbrand. Una demostración en la base de Herbrand es verdad con respecto a una interpretación si es miembro de esa base, y el falsa si no lo es (Sterling y Shapiro 1986:80-81). Esto se puede expresar con más sencillez exponiendo las cosas de otra manera. En rigor, estas definiciones se originan en el hecho de que no existe ningún algoritmo general de decisión que nos pueda determinar si una fórmula arbitraria del cálculo de predicados es válida, contingente o inconsistente, porque las formas de ese cálculo (al operar con variables y al no imponer límites al 489 encadenamiento de conjunciones) están sujetas a una infinidad de interpretaciones posibles. Esto es lo que quiso decir Church en 1936 cuando probó que la lógica de primer orden es indecidible. Ello implica que, en la práctica, no se pueden tomar en cuenta todas las interpretaciones posibles para testear si una fórmula es consistente o no. Ante esta circunstancia, reminiscente del problema de la inducción, Herbrand propuso una solución de sumo interés que a la larga llevó a una prueba muy simple para verificar la validez de una fórmula. El principio de Herbrand estipula que una forma clausal es inconsistente si y sólo si es falsa en todas las interpretaciones posibles. Como existen innumerables dominios posibles, sería conveniente definir un dominio especial tal que una forma clausal fuera inconsistente si (y sólo si) fuera asignada como falsa por todas las interpretaciones posibles de ese dominio. Dicho dominio existe, y es precisamente el dominio de Herbrand. Este es un dominio "universal", un microcosmos distinguido, cuyos términos (los términos de Herbrand) no poseen sentido específico alguno; son meros términos sintácticos. Las limitaciones asentadas por Gödel y por Church no afectan en modo alguno a programas lógicos referidos a dominios empíricos normales, analizados a través de conceptos semejantes a los que se han dado históricamente o de otros conceptos acaso más sutiles. Un universo de Herbrand comprende harto más posibilidades de anidamiento y recursión que las que son propias de cualquier universo conceptual de las ciencias sociales, porque incluye la combinación recursiva de todos los valores de objeto con todas las relaciones y nombres de atributo susceptibles de concebirse. En un modelo antropológico real los valores de objeto sólo se hallan incrustados en predicados que expresan algunas de las relaciones posibles, pues ninguna teoría sensata comprende el mundo como el conjunto de todas las relaciones entre todos los elementos. Una combinatoria relacional de una potencia semejante a un dominio de Herbrand no tiene siquiera correlatos conceptuales imaginables en una ciencia social: en síntesis, la oferta de la lógica desborda de antemano a las demandas categoriales posibles, aún sobre la base de una implementación computacional en su expresión mínima. Toda aserción puede expresarse en forma lógica; toda forma lógica puede expresarse mediante una cláusula de Horn. Los lógicos húngaros Andreka y Nemeti (1976) han demostrado primero que toda función computable sobre cualquier universo de Herbrand se puede definir mediante un programa escrito en cláusulas de Horn, y luego que un programa lógico destinado a computar una función sobre un universo de Herbrand se puede construir utilizando solamente las constantes y functores definidos en los alfabetos de ese universo. Aquí debemos practicar una disyunción entre lo que intuitivamente llamamos "modelo" (y que puede ser desde una representación analógica a una metaforización extendida) y lo que por ese término se comprende en un plano semántico más formal. Tenemos aquí que afrontar la definición de lo que se entiende por "modelo" dentro de un "modelo" de interpretación. Es importante retener la idea que esta profusión de homónimos no intenta disolver la noción vulgar de modelo sino precisarla en diferentes y bien especificados ámbitos de interpretación. Los modelos a los que nos estamos refiriendo en este párrafo nada tienen que ver con la naturaleza de los programas lógicos en tanto "modelos" de una u otra realidad empírica, sino a los aspectos formales e internos de su significación lógica, observados desde una determinada perspectiva. Con estas salvaguardas, una interpretación es un modelo para un programa lógico si para cada instancia fundada de una cláusula en un programa hay una interpretación correspondiente. Intuitivamente, puede decirse entonces que los modelos son interpretaciones con respecto a la lectura declarativa de las cláusulas de un programa. 490 Por ejemplo, ya que está en todos los modelos, también lo estará. Es fácil darse cuenta que la intersección de dos modelos para un programa lógico es también un modelo. Se dice que el modelo obtenido por intersección de todos los modelos es el modelo mínimo de un programa lógico; el modelo mínimo es, por definición, el significado declarativo de dicho programa (cf. Sterling y Shapiro 1986:80-82; Maier y Warren 1988:192-194, 364-366). En este punto es oportuna una breve nota de orden histórico: M. Davis y H. Putnam propusieron un método automático para demostrar teoremas tan tempranamente como en 1960; este método ya utilizaba el teorema de Herbrand pero aún no -por desdicha- el algoritmo de unificación, de modo que no podía implementarse todavía en ninguna máquina real. Desde el punto de vista lógico el método era fundado, pero ineficiente, por cuanto analizaba todas las potencialidades de las reglas y las sustituía de acuerdo con principios operativos oscuros. El sistema de prueba automática de teoremas de Davis y Putnam (y habrá que acostumbrarse a llamar teorema a todo nuevo hecho o regla fundado en hechos y reglas precedentes) consistía en dos secciones: la primera tenía que ver con la generación del universo de Herbrand y con la sustitución de éste por las correspondientes fórmulas del cálculo de predicados; la segunda evaluaba las fórmulas así generadas, y era tenida por los autores como su contribución más importante. Pronto se hizo evidente, sin embargo, que el problema no radicaba tanto en probar la propiedad tautológica en la segunda sección como en sustituir sistemáticamente todas las instanciaciones de Herbrand en la primera. La idea de utilizar la unificación como complemento de un método basado en el teorema de Herbrand se debió a una cadena de estudiosos que va desde Dag Prawitz, D. McIlroy y L. Wos hasta J.A. Robinson; con esa decisión se logró aventar todos los mitos vigentes respecto de la impracticabilidad de la programación lógica. Sólo faltaba escoger una regla de inferencia adecuada, y esa regla fue la de resolución, "hallada" por Robinson entre 1963 y 1964. Más tarde el mismo Robinson probó que la resolución es completa para las cláusulas de Horn bajo ciertas condiciones especificables (resoluciones binarias, no factorialización) que minimizan el impacto de la mal llamada "prueba de Gödel", tornando obsoletas, por lo menos, algunas de sus lecturas irracionalistas (cf. Davis y Putnam 1960; Robinson 1965; Henschen y Wos 1974). Pese a que la unificación y la resolución las desplazaron a un cono de sombra, sobre las definiciones de Herbrand se ha elaborado una serie de teoremas lógicos de enorme importancia teórica y práctica en el desarrollo de la programación lógica, por cuanto han logrado minimizar o neutralizar los tres problemas clásicos que se presentan a la verificación de la consistencia de una fórmula en el cálculo de predicados, y que podríamos sintetizar como sigue: 1) Existen infinitamente muchos posibles dominios de interpretación. 2) Si el dominio escogido es infinito, existen infinitamente muchas instancias de la fórmula. 3) En este dominio infinito, existen infinitamente muchas interpretaciones posibles, y cada una de ellas asigna un valor de verdad a infinitamente muchos literales. Los resultados de las elaboraciones de Herbrand eliminan de cuajo la primera dificultad, pues lo único que debe considerarse en el modelo es el dominio de Herbrand, que sólo incluye la combinación de los elementos y relaciones especificados; las otras dos dificultades desaparecen cuando el dominio es finito. Los enunciados de los teoremas que constituyen el núcleo de hierro del 491 modelo semántico declarativo -y que reproducimos en los apéndices- establecen, consecuentemente, que: 1) Un conjunto de cláusulas es inconsistente si y sólo si es falso para todas las interpretaciones de Herbrand. 2) Un conjunto de fórmulas del cálculo de predicados es consistente si y sólo si todos sus subconjuntos finitos son consistentes. 3) Todo conjunto de fórmulas enumerable y consistente admite un modelo contable o enumerable. Este último principio es lo que se conoce como el teorema de Löwenheim y Skolem. Recientemente estos modelos teoréticos se han complementado con otros métodos de prueba y otras semánticas que no habrá ocasión de revisar aquí. Mención especial requiere los métodos de conexión o de matrices, desarrollados independientemente por Peter Andrews en Carnegie-Mellon y por Wolfgang Bibel en la Universidad de Munich. Se trata de los modelos más promisorios, que involucran una mecanización de la lógica aún más radical. Mientras que los métodos anteriores, incluido el de resolución, todavía se basaban en el concepto de una prueba humana (y antes que nada en la idea de una serie de pasos bien definida), las nuevas concepciones descartan estas tradiciones lógicas y se concentran específicamente en las capacidades de las máquinas. Las pruebas generadas mediante estructuras de matrices ya no tienen demasiado en común con nuestras concepciones de la prueba, aunque siguen reposando en instanciaciones y apareamientos en un universo de Herbrand y pueden ser transformadas en demostraciones intuitivamente aceptables (cf. Siekmann 1989). Nuestros colegas informáticos de la cátedra de inteligencia artificial de la Facultad de Ciencias Exactas de la Universidad de Buenos Aires confían, según nos han dicho, en otros modelos que hoy se encuentra en fases prototípicas. La difusión de estos hallazgos y búsquedas es cosa de futuro. Los modelos semánticos definidos por Van Emden y Kowalski (1976) y luego retomados y reordenados por otros autores reconocen una transición suave entre la problemática que desarrollamos hasta este punto (y que podría referenciarse como model-theoretic semantics) y la llamada fixpoint semantics o semántica de punto fijo que ahora pasamos a caracterizar. b) Modelo semántico de punto fijo Esta semántica, claramente no-procedimental, es análoga en cierto modo a la que se encuentra en la base de los programas escritos en el lenguaje de definición de funciones recursivas. La formalización de esta semántica depende de un conjunto de conceptos algo más intrincados que los requeridos por las demás; dado su carácter más bien formal y complementario, el lector interesado más bien en la antropología que en la lógica puede saltear su caracterización. Expresemos de otra manera una definición que ya hemos dado: La asignación de valores de verdad a las instancias de un conjunto P de procedimientos lógicos mediante la sustitución de las variables por los términos del dominio H(P) es lo que se denomina una interpretación de Herbrand. Si el conjunto P de procedimientos se particiona en un subconjunto I y en otro subconjunto J, que denotan respectivamente todos los antecedentes y todos los consecuentes que posean valor de verdad positi492 vo, se puede demostrar que la interpretación de P sobre la base de dichos valores de verdad es un modelo para P sí y sólo si J es un subconjunto de I. En la jerga propia del Prolog, el subconjunto I incluye a todos los cuerpos de regla, mientras que subconjunto J incluye todas las cabezas. Pese a la proliferación de símbolos, lo que se pretende decir en este modelo es en realidad muy simple: una vez que se ha escogido I, J queda totalmente determinado por las reglas que se establecen. Esto significa que no se puede probar nada que no esté implicado por las premisas, y que sólo es posible probar lo que ellas implican. En otras palabras, existe una función T que mapea ambos conjuntos de átomos tal que T(I)=J; esta función se conoce habitualmente como la transformación asociada con el conjunto de procedimientos P. Llegamos así a un teorema importantísimo que dice lo siguiente: para cada conjunto P de procedimientos, existen conjuntos de átomos I que satisfacen la condición T(I)=I. Es decir que para ciertos conjuntos de átomos, la transformación asociada al conjunto de procedimientos (condicionados e incondicionales) sería igual a esos conjuntos. Esos conjuntos de átomos se conocen como los puntos fijos de T; y entre ellos existe exactamente uno al que se llama punto fijo mínimo de T, denotado pfm(T). La razón por la que el punto fijo se llama de ese modo es porque se lo puede definir como un conjunto estable o estacionario de fórmulas del que no se puede inferir ninguna fórmula adicional de una manera consistente. En otros términos, cada conjunto de procedimientos P posee muchos modelos, incluyendo los modelos I de Herbrand, todos los cuales satisfacen que T(I) sea un subconjunto de I. El más pequeño de todos los I, llamado el modelo mínimo de Herbrand, satisface también la exigencia de que T(I)=I, y es por lo tanto el punto fijo mínimo de T. Veamos ahora en qué inciden estas cuestiones formales en la definición de una semántica. La denotación de cualquier símbolo p de predicado en el conjunto de procedimientos P se puede definir como la siguiente relación: Esta definición, desarrollada por Van Emden y Kowalski, caracteriza la semántica de punto fijo de los programas lógicos. En esta semántica un conjunto P de procedimientos se concibe en términos de la ecuación de punto fijo que le está asociada I=T(I), la que puede interpretarse como si las tuplas computables a partir de P (es decir, las soluciones de sus átomos consecuentes) fueran exactamente aquéllas que pueden ser evaluadas por las invocaciones o átomos antecedentes del conjunto P. El logro más importante del estudio de Van Emden y Kowalski es la elegancia de la prueba respecto de que los modelos procedimentales, declarativos y de punto fijo para los programas consistentes en cláusulas de Horn son equivalentes, en el sentido de que determinan idénticas denotaciones para sus símbolos de predicado. La equivalencia de los dos primeros se debe al Teorema de Completud de Gödel que relaciona (en el ámbito de la lógica de predicados del primer orden) la posibilidad de probar [provability] con la validez (cf. Gödel 1981:20-34). La equivalencia de los dos restantes se establece demostrando que el punto fijo mínimo de T es el modelo mínimo de P, y que P implica lógicamente a p(t) sí y sólo sí p(t) es verdad en ese modelo. En un artículo posterior, Apt y Van Emden (1982) presentan la semántica del punto fijo mínimo bajo la forma de una teoría formal de retículas, y la utilizan luego para probar la fundamentación y la completud de la estrategia estándar de resolución para los programas escritos con cláusulas de Horn. 493 Los autores definen también el punto fijo máximo de T, y a partir de él caracterizan la naturaleza formal de los problemas insolubles que fallan en un tiempo finito debido a la ausencia de computaciones exitosas en el espacio de búsqueda. La exposición anterior, pese a su tono un tanto seco, posee dos consecuencias interesantes frente a la adopción de una práctica modélica por parte de una ciencia empírica. Cada conjunto finito y consistente de cláusulas de Horn, como hemos visto, admite un único modelo mínimo. Ello implica, en primer lugar, que fundarse en un modelo mínimo significa admitir la verdad de los hechos explícitamente mencionados y de sus consecuencias lógicas a través de reglas, pero de nada más. Esta idea equivale a lo que ha dado en llamarse "supuesto del mundo cerrado", consistente en dar por irrelevante o falso todo aquello que no se estipule como verdadero. En segundo lugar, todo este desarrollo ha conducido al concepto, que algunos estiman extraño, de la "negación como falla": en una consulta de Prolog, la respuesta "no", más que un juicio existencial u ontológico, involucra que el sistema ha fallado en demostrar la verdad del objetivo que se le plantea. c) Modelo semántico procedimental La contraposición de una estrategia semántica declarativa y de una estrategia procedimental es bastante más vieja que las computadoras y refleja la distinción de Tarski (1936) entre -respectivamente- la concepción de teoremas construida en función de una teoría de modelos [model-theoretic] y la que resulta de la aplicación de un procedimiento de prueba [proof-theoretic]. En la teoría de modelos, un teorema es una fórmula que es verdad para todos los modelos posibles de los axiomas. En la teoría de la prueba, un teorema es la conclusión de una prueba, la cual a su vez es una secuencia de fórmulas derivadas a partir de axiomas mediante reglas de inferencia. Es como si existiera una diferencia intrínseca, independiente del uso de una computadora, entre las fórmulas lógicas que pueden sostenerse en una estructura teoremática abstracta que no implica ninguna secuencia concreta de procedimientos demostrativos y las que pueden sostenerse al cabo de un procedimiento secuencial de prueba, de tipo algorítmico, aunque ambos conjuntos de pruebas sean semejantes o idénticos. Existen otros dobleces y otras lecturas de la misma dicotomía, puesto que existen también dos modos diferentes de utilizar las reglas de inferencia. Por una parte se puede partir de los axiomas lógicos y aplicar reglas de inferencia hasta que la fórmula a ser probada (válida o insatisfacible, dependiendo que el cálculo sea positivo o negativo) finalmente se deriva. Este sería un cálculo deductivo. La segunda modalidad consiste en partir de la fórmula cuya validez o insatisfacibilidad debe demostrarse y aplicar reglas de inferencia hasta llegar a los axiomas; este procedimiento es el que se conoce como cálculo de prueba (Eisinger y Ohlbach 1989). Existe alguna correspondencia entre el cálculo deductivo y el encadenamiento hacia adelante y entre el procedimiento de prueba y el encadenamiento hacia atrás, nociones que explicaremos en su oportunidad. Pero la disyunción primordial no pasa por aquí, sino por la oposición entre la lógica pura de la teoría de modelos y la prueba lógica de los algoritmos. Pese a que en 1930 Gödel probó que para el cálculo lógico de primer orden el conjunto de fórmulas que puede probarse a partir de un conjunto de axiomas es idéntico al conjunto de fórmulas que 494 son verdaderas en todos los modelos posibles de esos axiomas, y que por lo tanto, las dos definiciones son equivalentes (1981:20-34), el mundo se dividió entre procedimentalistas y logicistas. Aquellos argüían que los procedimientos de prueba son más eficientes que la prueba de teoremas, pues es más rápido evaluar una denotación en un único modelo finito que llevar a cabo una prueba general para todos los modelos posibles, finitos o infinitos. Sería más sencillo, afirmaban, expresar acciones como cláusulas de programación que como una serie de axiomas. William Woods (1981) aseguraba que una definición en términos de procedimientos eliminaría los infinitos mundos posibles que surgen en la teoría de modelos. El movimiento logicista devolvió el golpe implementando lenguajes como el propio Prolog, que son esencialmente probadores de teoremas de alta velocidad. Jaakko Hintikka (1973) proporcionó una forma de eliminar la infinidad de los mundos con sus "modelos de superficie", y otros autores, como John Sowa (1984), adaptaron estas ideas a la elaboración de grafos conceptuales, reminiscentes de los calculadores hipotéticos imaginados por Peirce. En suma, pruebas y modelos constituyen dos aspectos complementarios de la misma teoría: una estrategia procedimental evalúa la denotación de una fórmula en un modelo particular, mientras que un probador de teoremas muestra que una fórmula es verdad en todos los modelos posibles. De acuerdo con el modelo procedimental de la semántica del Prolog, también llamado operacional, las condiciones de una cláusula especifican un proceso para establecer el valor de verdad de sus conclusiones. Es decir, las condiciones se interpretan como un conjunto de pasos que se deben evaluar exitosamente para que se sostenga la conclusión especificada en la cabeza de la cláusula. Un conjunto de cláusulas con el mismo nombre de predicado y el mismo número de argumentos se interpreta como un procedimiento. Una pregunta o hipótesis con el mismo nombre de predicado y el mismo número de términos se considera como un llamado (call) a ese procedimiento. Retomemos un ejemplo previo: Leída en forma procedimental, la cláusula anterior se especifica como "Para determinar si cualquiera (Individuo) es un adulto, demostrar primero que es una persona, y verificar luego si su edad es igual o mayor a dieciocho años". De acuerdo con esta lectura, el orden en que se evalúan las cláusulas es significativo. Determinar primero que el individuo es una persona, por ejemplo, define un espacio de búsqueda que elimina otras posibilidades. Es importante dejar en claro que no se trata de que la interpretación semántica declarativa "se refiera", "enfatice" o "privilegie" al dominio modelado, mientras que la interpretación procedimental "tiene que ver" más bien con las máquinas. En rigor, siempre se trata de una fundamentación que es menos de orden empírico o computacional que de orden lógico. Conforme al modelo semántico que ahora nos ocupa, se podría decir que el Prolog deriva su capacidad de cálculo de una interpretación procedimental de la lógica, es decir, de una representación del conocimiento en términos de definiciones que involucran procedimientos, de modo tal que el "razonar" deviene un simple proceso consistente en invocar los procedimientos correctos de demostración. d) Modelo semántico de máquina abstracta Este modelo es similar el modelo semántico conductual de los lenguajes convencionales de computación, en la medida en que especifica la conducta del intérprete en respuesta a la evaluación 495 de un constructo del lenguaje. El intérprete de Prolog aplica una estrategia de resolución de problemas para evaluar una pregunta en contraste con un conjunto de cláusulas; computacionalmente, esa estrategia se puede caracterizar (siguiendo a Von Neumann) como un autómata o máquina abstracta. En general, la caracterización de las "máquinas abstractas" en teoría computacional no se realiza en términos de la teoría de autómatas de Von Neumann, aunque sería factible y esclarecedor hacerlo; lo que se aplica, en general, es un análisis más o menos formalizado de tipo "qué es lo que hace una máquina para resolver la cláusula X". Esta máquina es abstracta por cuanto no es una máquina verdadera, cuyos detalles técnicos de fabricación podrían hacer que las cosas fueran en realidad de otro modo. Una pregunta en Prolog, junto con el conjunto de cláusulas del programa, tienen una significación computacional, en la medida en que disparan una cierta conducta por parte del intérprete: el modelo semántico de la máquina abstracta especifica el significado de una pregunta y de un conjunto de cláusulas en términos de acciones por parte de una máquina abstracta. En este caso, las acciones de esta máquina se pueden explicar como una aplicación de la regla de inferencia conocida como resolución. La propiedad básica que hace que la lógica u otros lenguajes declarativos no resulten coaccionados por el concepto neumanniano de computación es su neutralidad semántica con respecto a la estrategia de ejecución, lo que técnicamente se llama el "desacople" de la lógica con referencia al control del flujo del programa. Este desacople dista de ser completo, y es por ello que el llamado modelo de máquina abstracta no está integrado axiomáticamente al resto de las construcciones semánticas alrededor del Prolog. En los hechos, la especificación de este modelo se ha transformado en una descripción de la forma en que el intérprete realiza las operaciones pendientes en una pila o stack de requerimientos (cf. Malpas 1988:121-147). La posibilidad de simular diferentes tipos de autómatas en Prolog ha sido reiteradamente demostrada en la bibliografía especializada. Sterling y Shapiro (1986:224-228) ilustran los modelos computacionales básicos de autómata finito y autómatas de almacén pushdown y proporcionan programas que desarrollan intérpretes para máquinas de Turing, con lo cual quedan envueltos y satisfechos todos los modelos posibles. A partir de este modelo tan pobremente desarrollado en un principio, comenzó a construirse una elaborada fundamentación que posibilitó el uso del Prolog como el prototipo por excelencia de los lenguajes aptos para el procesamiento paralelo en máquinas de quinta y sexta generación. No vamos a ahondar aquí en esta temática, suficientemente tratada por los especialistas pero por el momento demasiado novedosa como para pretender atarla a una aplicación específica en ciencias sociales, donde el modo dominante de planteamiento de problemas sigue siendo secuencial (cf. Hogger 1984:253-258). e) Modelo semántico metalingüístico Después de Russell y Tarski se considera que un método de prueba lógico concierne específicamente a determinado nivel de análisis. Las reglas de juego de una lógica rigen para cierto conjunto lógico-lingüístico, y no necesariamente para un lenguaje que se refiera a ese conjunto. Esta peculiaridad es la que permite, después de todo, hacer referencia a la lógica desde fuera y superar las más insidiosas paradojas. A despecho de las falencias de sus propias lecturas y exégesis, Gregory Bateson (1980, 1985) ha familiarizado a los antropólogos con el concepto de tipificación lógica, llevado por Anthony Wilden (1979) y los terapistas familiares hasta el punto de la saturación. Como hemos dicho alguna vez, un lenguaje como el Prolog es capaz de ser su propio metalenguaje. Un predicado en Prolog no sólo puede hacer una referencia igualitaria a otros predicados en 496 términos de implicación y cálculo, sino que puede definir inflexiones tan delicadas como la naturaleza de los procedimientos de inferencia que se asocian a los demás predicados, incluido él mismo. Esto significa que es posible escribir cláusulas en Prolog que actúen como predicados de metalenguaje. Más que posible, ello es sumamente habitual, al punto que el programador no siempre es consciente de haber atravesado los límites que separan a los diversos niveles de tipificación. Las razones para escribir un programa semejante son las de reemplazar el significado implícito en una pregunta, ya sea (a) utilizando una estrategia de resolución de problemas diferente a la que usa el intérprete o (b) considerando una fuente de conocimiento distinta a la de las cláusulas estipuladas. Pero una potencia semejante impone una serie de fundamentaciones de otro orden de abstracción. Agregar un simple hecho adicional a un conjunto preexistente de premisas constituye un acto lógico que puede tornar inválidas las conclusiones obtenidas hasta el momento o puede introducir una contradicción fatal en el sistema. En un modelo en el que las premisas incluyen la descripción de lo que se sabe, un dato más constituye una premisa adicional que determina nuevas posibilidades para el valor de las conclusiones que hayan de calcularse. Lo mismo, pero con signo contrario, vale para el caso de que se eliminen datos (y por ende premisas) anteriormente actuantes. Todos estos procesos que modifican las reglas del juego lógico no están reglados por una lógica sino, consecuentemente, por una metalógica. Ahora bien, estas metalógicas deben ser expresamente validadas y, de ser posibles, amalgamadas en un tejido coherente con el de la lógica de base, a fin de que los fundamentos de un modelo no varíen incontrolablemente conforme se extiende o se contrae la altura del nivel de tipicación desde el que se contempla el plano del lenguaje. En suma, tiene que haber una semántica formal para los predicados extra y metalógicos. El modelo semántico que se refiere a dicha amalgama ha sido elaborado por diversos estudiosos y aún hoy se sigue perfeccionando (Kowalski 1979; Bowen y Kowalski 1982; Miyachi y otros 1984). No describiremos aquí este modelo, por cuanto parte de lo que se le aplica se solapa con nuestro tratamiento de las lógicas aternativas en la cuarta sección de la Tesis. 4. PRAGMÁTICA En esta sección se analizarán dos rangos de problemas pragmáticos. El primero concierne a un conjunto conexo de problemas característicos de la práctica teórica que ninguna otra propuesta modélica en antropología se molestado en esclarecer, tal vez porque éste era un gesto que se sospechaba inútil en un entorno que no estaba destinado a materializarse: cómo es posible concretamente convertir un problema antropológico en un modelo expresado en términos de cierto formalismo, cuál es la secuencia metodológica que debe respetarse, qué garantías existen de que un modelo semejante vaya a funcionar con una mínima eficacia, cuál es la estructura formal de este proceso, en qué grado el trabajo material con un modelo se encuentra involucrado en una axiomática. El segundo aspecto es de gran interés, aunque sea más específico de la mecánica subyacente al formalismo y de la praxis computacional que de la disciplina beneficiaria del recurso. Cuando abordemos este punto, desarrollaremos una caracterización formal (a) del entorno interactivo de trabajo con un lenguaje de programación lógica (de qué manera el antropólogo -en este caso- dialoga con y reflexiona sobre el modelo que va generando) y (b) de los fundamentos operativos axiomáticos de esta forma de trabajo. La caracterización que emprenderemos no se refiere al paisaje que el usuario encuentra cuando implementa un producto determinado, sino a la naturaleza de las operaciones que 497 el intérprete de un lenguaje lógico (mediador necesario entre el científico y el modelo) ejecuta en el tratamiento de un formalismo. a) Desarrollo e implementación de un programa lógico Aunque las cuestiones más puramente antropológicas (concernientes a la semántica) siguen aún pendientes de desarrollo cabal, hemos hablado de cierto número de aspectos concernientes a la fundamentación "subyacente", por así llamarla, que define la posibilidad misma de un planteo de esta naturaleza. Hemos probado, en suma, que a despecho de los rumores en contrario, la programación lógica es posible en teoría. Ahora bien, de nada serviría a nuestros efectos disponer de una fundamentación teórica formidable, si en la práctica concreta y mundana nos enfrentáramos con dificultades insolubles. A fin de eliminar discontinuidades de razonamiento, resta por ver entonces no sólo cómo es material y pragmáticamente posible programar en forma declarativa un problema determinado, sino cuál es la fundamentación formal de este procedimiento. Evaluar pragmáticamente un modelo es un proceso que debe distinguirse tanto de la computación de una prueba como de la contrastación empírica de los eductos de un programa. Dada la peculiar fundamentación axiomática de la programación lógica, "correr" un programa (vale decir, el proceso que formalmente podríamos llamar "computación") forma parte del proceso mismo de resolución del problema que el programa plantea. Dado que un programa lógico es un conjunto de axiomas, la computación puede interpretarse como la prueba constructiva de una aserción (de hecho un teorema, aunque suene pedante llamarlo así) relativa a o perteneciente a un programa. Probar constructivamente quiere decir calcular; y este cálculo se realiza mediante una operación consistente en un procedimiento de prueba que se atiene a determinada regla de inferencia (cf. Bläsius y Bürckert 1989:19-21). La afirmación lógica a probar es lo que se llama un objetivo o goal, y este objetivo puede ser una consulta extensional, la simulación de un proceso o el planteo de una hipótesis. Pero una cosa es que la ejecución de un programa lógico pueda entenderse como una prueba constructiva integrada al conjunto axiomático del modelo y otra muy distinta que el programa esté bien hecho desde el punto de vista computacional. Nos guiaremos por un indicio: a pesar de que se ha trabajado formalmente, este costado "pragmático" de la formalización computacional se encuentra relativamente poco desarrollado. Como dice Hogger, Actualmente no existe ninguna implementación automatizada que sea capaz de derivar necesariamente programas lógicos eficientes a partir de especificaciones arbitrarias, y no parece probable que surja ninguna en un futuro cercano (1984:179). Este estado de cosas denota, quizá, una posible discontinuidad en los procedimientos que conducen a la formalización, una grieta en el escudo de la tecnología. El inconveniente, como se verá, no es fatal, pero al menos exige que quien formula un modelo sea, aparte de científico, un programador aceptable. La programación lógica ha heredado de la computación convencional una modalidad "analítica" de resolver la construcción paulatina de un programa que puede no ser el método más adecuado a su filosofía de resolución. El programador "típico" prefiere desarrollar un programa en forma intuitiva y experimental, basándose en una vaga imagen mental o en algún algoritmo preconcebido que dirija la sucesión de cláusulas. Esta estrategia analítica consiste en una especie de 498 búsqueda a tientas en la que se van incorporando poco a poco (de hecho, a medida que se fracasa) las optimizaciones y los refinamientos pertinentes. En los últimos años ha surgido una estrategia sintética, en la que los pasos que sigue el programador se derivan lógicamente de la especificación del problema. La prioridad es en este caso obtener una versión inicial del programa que entregue necesariamente las soluciones correctas, postergando las cuestiones de eficiencia para un momento ulterior, en el que se implementan cuidadosamente modificaciones que vayan preservando la corrección inicial. Kowalski (1982:4) ha sugerido que el problema de desarrollar un programa correcto y eficiente se puede descomponer en dos subproblemas más simples: 1. Especificación. La primera tarea consiste en especificar el problema a ser resuelto y la información que se necesita a efectos de su solución. 2. Eficiencia. Es posible identificar y eliminar las ineficiencias implícitas en el planteamiento de un problema, transformando la especificación en un programa efectivo. Esta separación refleja algo bien sabido: que la especificación es más fácil de formular que el programa completo, pues sólo necesita ser trivialmente "pertinente" o "correcta", mientras que el programa necesita ser tanto correcto como eficiente. Dado que la programación lógica discurre en un entorno computacional, y dado que el lenguaje de especificación es nada menos que un lenguaje de computación, los problemas de eficiencia se pueden simplificar considerablemente. La tecnología actual propia de las diversas implementaciones del Prolog es eminentemente interactiva, por lo que el avance mediante métodos de "ensayo y error" es en la práctica más rápido de lo que permitirían presuponer todas las especulaciones construidas en torno de los procesos de feedback. Crear un programa es un proceso complejo de planteamientos, reformulaciones, verificaciones y pruebas, que se acelera y optimiza, ceteris paribus, cuanta más experiencia se posea y cuanto mejor estipulada se encuentre la teoría discursiva que es objeto de modelización. Casi siempre sucede que en la interacción con el sistema, al margen de las modificaciones que haya que introducir por la idiosincracia de la herramienta, se manifiesta un retorno inmediato de directivas, indicios y constricciones para el replanteamiento metodológico del problema, que poseen incidencia más allá del hecho de que el programa haya o no de consumarse en su totalidad conforme a lo proyectado. Lo notable del caso es que la praxis interactiva y el desarrollo de prestaciones ingeniosas de debugging, presentes en todos los dialectos conocidos, aparece complementada por una heurística formal del desarrollo empírico de la programación lógica, que por su amplitud y robustez configura un capítulo aparte del amplio material de fundamentación (cf. Clark 1977, 1978; Clark y Sickel 1977; Clark y Darlington 1980; Hogger 1978, 1979; Hansson y Tårnlund 1979). Estas aportaciones tienen cierto aire de familia con la "síntesis de programas" propia de la computación convencional; sin embargo, acorde con la doble lectura semántica de los lenguajes declarativos, se pueden interpretar también como una aplicación de reglas deductivas puras. Esto quiere decir que los programas derivados mediante tales reglas a partir de las especificaciones están lógicamente implicados por éstas: son, en otras palabras, una parte específica de sus consecuencias lógicas, de modo tal que la derivación, al mismo tiempo que elimina ineficiencias, preserva la corrección formal de los procedimientos. Los consejos en favor de un desarrollo efectivo de los programas lógicos enfatizan el uso de una especificación en términos de un lenguaje de computación de alto nivel que sea al mismo tiempo (como el Prolog) un lenguaje de programación. Superficialmente, este requerimiento entraría en conflicto con la idea de que el lenguaje de especificación sea relativamente "natural" y fácil de utilizar. 499 Los especialistas han superado este escollo desarrollando una heurística de re-expresión de las especificaciones, a través de tres etapas sucesivas: 1. Empleo de un lenguaje natural impreciso. 2. Empleo de un lenguaje natural preciso y no ambiguo. 3. Empleo de un lenguaje formal preciso. En la primera formulación la especificación del problema puede ser incompleta, ambigua y quizá contradictoria. Numerosos proyectos de especificación y la mayor parte de los proyectos de inteligencia artificial sobre lenguajes naturales aceptan ese lenguaje impreciso como insumo estándar. Después de todo, desarrollar parsers y scanners que acepten cláusulas en lengua natural es un proceso de programación más largo y tedioso que propiamente difícil. "Aceptar" tiene aquí un sentido formal que nada tiene que ver, a esta altura del desarrollo de la inteligencia artificial, con algún tipo de "comprensión" inteligente por parte de la máquina. En una segunda instancia, las especificaciones se re-escriben en términos de esquemas bien conocidos relativos al lenguaje natural, como ser redes semánticas, grafos causales, frames y scripts, extremadamente fáciles de tratar en lógica simbólica y en lenguajes formales, aunque en rigor su desarrollo haya sido independiente de dichos ámbitos. En esta etapa intermedia si eliminan las ambigüedades y se tornan explícitos los supuestos implícitos26. La re-escritura en un lenguaje formal preciso es casi indiscernible de la resultante de la transformación de las expresiones en lenguaje natural mediante su representación en esquemas. Si el lenguaje simbólico utiliza directamente la forma clausal, y si las cláusulas se reducen a cláusulas de Horn, introduciendo los caracteres de representación aceptables por el parser del intérprete e inteligibles para la máquina, la especificación se convierte sin discontinuidades ofensivas en un programa lógico en Prolog. Como hemos venido demostrando, la profundidad de las fundamentaciones en programación lógica acostumbra superar todas las expectativas y todos los antecedentes. Para cada pequeña faceta del desarrollo, para cada problemática experimentada o potencial, existe una profusa elaboración lógica y un enorme acopio de demostraciones experimentales. Uno de los aspectos que han sido objeto de estudio formal y que en este punto relativo a la pragmática vienen inmediatamente al caso es el de la relación entre lo que un programador pretende y el "significado formal" resultante de un programa27. El significado formal de un programa (en tanto equivalente al modelo mínimo de un programa lógico) no puede ser ni correcto ni incorrecto. Pero bien puede suceder que el "significado" de un programa no sea lo que el programador tenía en mente en el momento de plantear el problema que el programa refleja. Los lógicos han formalizado, por ende, todo cuanto se refiere a lo que se denomina el "significado pretendido" o "significado intencional" de un programa, el cual se define como un conjunto de objetivos fundados; éstos son, sin más, las respuestas positivas que puede producir un programa en opción de consulta y que habían sido previstas como tales por el programador: Un programa P es correcto con respecto a un significado intencional M, si M(P) está contenido en M; un programa P es completo con respecto a un significado intencional M, si 26 Abordamos esos y otros formalismos más adelante, en base a contenidos y problemas antropológicos. 27 Este "significado formal" es lo que hemos caracterizado más arriba al ocuparnos del modelo semántico declarativo del lenguaje Prolog. 500 M está contenido en M(P). Un programa es en consecuencia correcto y completo con respecto a un significado pretendido si ambos significados coinciden exactamente (Sterling y Shapiro 1986:82-83). Un aspecto importante de un programa lógico es si éste es capaz de terminar todos los cálculos potenciales que inicia. Se ha definido como dominio de terminación de un programa al dominio de objetivos en el cual cada cálculo inherente al programa logra llevarse a cabo. Por lo general, un programa útil debe tener un dominio de terminación tal que incluya su significado intencional. Aquí es donde pueden comenzar a surgir problemas: dado que el modelo computacional de los programas lógicos produce un número relativamente elevado (si es que no innumerable) de respuestas terminables como educto de una consulta, no cabe duda que por bien diseñado que esté un programa, la mayoría de las respuestas que entregue serán juzgadas triviales. Pero esta no es una limitación de la lógica, sino la clave de su singular apertura: una vez que se ha construido un programa computacionalmente correcto y semánticamente apropiado, la iniciativa "hermenéutica" pasa al proceso de pregunta, que -en una ciencia inmadura- es donde radican las principales dificultades (cf. Gadamer 1977). En un modelo real, en el que se suman las consecuencias de todos los antecedentes, y en el que cada generación de consecuencias se agrega como nuevo conjunto recursivo de antecedentes al sistema total, es la pregunta lo único que puede introducir una desagregación científicamente útil, un recorte a la profusión de combinatorias en estampida. Es desde las preguntas que se comienza a definir un sistema de esta naturaleza. Como veremos, el modelo del Prolog, deliberadamente más "restrictivo" en el tratamiento de las búsquedas que un modelo de instanciación a ciegas, hace posible componer programas no triviales sobre dominios relevantes cuyo dominio de terminación coincide con el significado intencional, vale decir, coincide con las respuestas pertinentes a las preguntas del científico. b) La modelización como proceso interactivo Una calculadora electrónica que efectúa operaciones aritméticas no es una caja negra; quien se sirve de ella sabe (o intuye) que existen ciertas garantías formales en su comportamiento, y que los resultados que haya de entregarnos han de ser razonablemente dignos de confianza. Es posible, además, averiguar cuáles son las operaciones reales de binarización, conversión a decimal, representación digital o cálculo logarítmico que la máquina realiza tras el espejismo de las apariencias. Las cuatro operaciones básicas, como se sabe, se ejecutan interiormente como otras tantas modalidades de la suma, y una simple raíz cuadrada desencadena aproximaciones, reintentos y tanteos cuya trayectoria no deja rastros. Interactuar con una computadora que proporciona confirmaciones de hipótesis, deriva conclusiones a partir de premisas, relaciona hechos hasta entonces inconexos o determina el valor de verdad de una aserción es algo más inquietante que operar un artificio que sólo acepta o devuelve números, pero no es (o no debería ser) más misterioso. Algunas operaciones matemáticas, de hecho, son más contraintuitivas, sutiles y dificultosas que muchos de los cálculos conceptuales que nuestras ciencias plantean. La inteligencia artificial contemporánea ya no persigue un antropomorfismo difuso, sino que se funda en el comportamiento inteligente de las personas para formular estrategias mecánicas más sagaces que la combinatoria o el ensayo-y-error. La máquina no tiene ninguna inteligencia, no la tendrá jamás, y no es preciso tampoco jugar a imaginar que la tiene, porque la interacción no consiste 501 en ningún fingimiento que sea más mimético o más metafórico de lo que lo es -por ejemplo- el desarrollo de una multiplicación. Si se parte de la base de un dominio del conocimiento ya modelado en términos de la declaración de un conjunto de hechos y reglas, lo que cabe explicar es la forma en que el intérprete de un lenguaje lógico evalúa un requerimiento, efectúa un cálculo y entrega una respuesta, en un proceso análogo al que describe una calculadora digital. Saber cómo opera esta última no parece excesivamente necesario, porque hace mucho que los cálculos numéricos se confían a una instancia mecánica sin que nadie proteste por la deshumanización del saber. Averiguar cómo se comporta un programa lógico es algo más informativo y esencial, sobre todo porque ciertas corrientes de opinión siguen obstinadas en creer que este comportamiento es imposible. Exponemos seguidamente las operaciones reales clandestinas que confieren a una sesión con una máquina que ejecuta un programa lógico su virtualidad de interacción inteligente. La operación de un intérprete de Prolog se puede comprender como un ciclo recursivo de unificación (apareamiento de patrones o pattern matching) y evaluación de objetivos parciales. Impulsado por un requerimiento o consulta (query), el intérprete descenderá tan profundamente como sea necesario en la estructura del programa para encontrar hechos que validen el requerimiento, para luego retornar habiéndolo probado o fracasando al intentarlo. El proceso se inicia cuando el investigador que ha construido el modelo -o un usuario eventual- activa un requerimiento ingresando la secuencia de caracteres convencionalmente necesaria a través del teclado o por otro medio. La estructura estática de un programa en Prolog consiste en un conjunto de hechos y reglas que se dinamiza cuando se dispara, introduce o ejecuta una consulta. Toda la estructura del formalismo se centra en su capacidad de aceptar y procesar preguntas, y por ello no es azaroso que las tres entidades se hallen morfológicamente relacionadas. Como ya se ha visto, la forma de una consulta es la de una regla sin cuerpo, y en el contexto de la ejecución de un programa se la considera como un hecho puro, con referencia al cual se solicita al intérprete que entregue una validación. Conforme se indiquen variables, constantes o variables anónimas, la pregunta puede asumir tres naturalezas cualitativamente distintas: a) ¿Es verdad lo que afirma esta consulta sin variables? O bien ¿Puede sostenerse este hecho (una conclusión, una conjetura, una hipótesis) a la luz de los hechos ya estipulados como verdaderos? ¿Es la presente una conclusión válida a partir de los hechos conocidos? b) ¿Cuáles son los valores conocidos que pueden asumir las incógnitas que se especifican en esta pregunta bajo la forma de variables? ¿Cuáles son los elementos de la base de conocimientos que responden a estas condiciones formales? c) ¿Hay algún caso conocido (no importa cual) que corresponda a estas condiciones? O bien ¿Existen algún caso conocido que case con algunos de estos requerimientos? Las condiciones formales especificadas en el objetivo admiten una inmensa variedad relacional y una infinita heterogeneidad semántica, incluyendo la especificación de operaciones disyuntivas, comparaciones, rangos de valores posibles, excepciones, cálculos intermedios, etcétera; después ejemplificaremos algunas posibilidades de modulación del significado de los objetivos de acuerdo con los propósitos de una consulta. Una vez formulada la pregunta, el intérprete sucesivamente (a) define lo que está pendiente de demostración como resolvente, el cual es por lo común una conjunción de objetivos a ser probados a 502 la que después se irán agregando otras conjunciones subordinadas, (b) coloca el primer objetivo a demostrar en una pila interna de objetivos pendientes o stack, y (c) busca a través de las cláusulas que han sido estipuladas como parte de la declaración del programa la primera cláusula cuya cabeza unifique con la consulta. Una unificación de dos términos es una sustitución que hace que esos términos sean momentáneamente idénticos. Esta operación tiene un análogo aritmético inmediato: cuando ante una ecuación de primer grado "se despeja X", lo que se hace en rigor es unificar X con los valores que pueda asumir. Previo a la unificación, "X" es el nombre de la incógnita; tras la unificación, es el nombre de un valor. En todo cálculo, la unificación está formalmente condicionada. En un programa lógico, para que una pregunta unifique con la cabeza de una cláusula, ambas deben tener el mismo nombre de predicado y la misma aridez. Dadas las siguientes reglas y hechos, el proceso de unificación es autoevidente, a condición de que no se confunda la unificación con la resolución positiva de la cláusula: La respuesta "verdadera" a una expresión de consulta tal como , y que es sin duda , resulta de unificar conjuntiva y afirmativamente los dos predicados del cuerpo de la regla. La forma peculiar que asume la unificación es la de un algoritmo, es decir, un conjunto de reglas que gobiernan lo que cabe llamar "unificación de términos" en la computación de un programa lógico. El problema de unificar dos listas de argumentos (por ejemplo {s1,...,sn} y {t1,...,tn} se puede ver también como si consistiera en resolver el sistema de ecuaciones =(s1=t1,...sn=tn) para las variables involucradas. El algoritmo de unificación, que es "el corazón del modelo computacional de los programas lógicos" (Sterling y Shapiro 1986:68) consiste en las siguientes reglas recursivas: 1) Una variable unifica con una constante o una estructura; como resultado, la variable queda instanciada con el valor de la constante o la estructura. 2) Una variable unifica con una variable; ambas variables se transforman en la misma, indistintamente denotada. 3) La variable anónima (_) unifica con cualquier otra entidad. 4) Una constante unifica con otra constante, solo si ambas son iguales. 5) Una estructura unifica con una estructura si ambas tienen el mismo nombre de predicado y el mismo número de argumentos, y si los argumentos pueden ser unificados. La primera descripción del algoritmo de unificación (mucho más formalizada que lo que trasunta este esquema) se encuentra en los trabajos de J.A. Robinson (1965). Por su importancia en el diseño global de la demostración automática de teoremas, se puede decir que el algoritmo de unificación es, en lo que respecta a la computación de una consulta, tan importante como lo es el 503 cálculo axiomático de predicados como formalismo básico, el algoritmo de resolución como procedimiento de prueba, o la forma clausal como criterio de notación (cf. Paterson y Wegman 1978; Martelli y Montanari 1982; Sterling y Shapiro 1986:68-79). Una variable que aún no tiene ningún valor instanciado posee el status de variable libre. Cuando dos términos unifican, la variable queda ligada al valor de la constante y pierde la libertad que antes tenía; la asignación de un valor a una variable se conoce también como la instanciación de la misma. Si una variable sólo puede unificar con un cierto valor y sólo con uno, se dice que el cálculo de su instanciación es determinista, e indeterminista cuando el número de los valores posibles no está restringido de antemano a uno solo. Cuando se encuentra una cláusula que unifica con la consulta, se dice que esta cláusula se activa, se convierte en la cláusula actual, y cada uno de los términos o sub-objetivos del cuerpo de la cláusula comienza a evaluarse siguiendo el mismo procedimiento que se había seguido con la pregunta original. Si la cláusula que unifica con la pregunta no tiene cuerpo (es decir, si es un "hecho" incondicional), se dice que la consulta inmediatamente tiene éxito. De existir sub-objetivos pendientes en el stack, se van activando los mismos, repitiéndose el procedimiento de unificación. Si el intérprete no puede encontrar una cláusula en la base de datos que unifique con un objetivo, "vuelve sobre sus pasos", realiza un movimiento de retroceso conocido como backtracking: esto es, retorna al último sub-objetivo exitoso, deshace la instanciación de cualquier variable que pudiera haberse hecho como parte de las comprobaciones parciales del camino desandado y comienza a buscar la cabeza de otra cláusula que unifique con ese subobjetivo. El proceso de computación finaliza cuando el resolvente queda vacío. Cuando el proceso termina se entregan las respuestas pertinentes: los valores constantes que unifican con las variables indicadas en las consultas, o "yes" o "no" si se ha tenido éxito o se ha fallado, respectivamente, en la demostración de la verdad del hecho propuesto. El orden en que el intérprete va realizando las diferentes pruebas y los diversos reintentos es "de izquierda a derecha y de arriba abajo". Cada ramificación se explora exhaustivamente en profundidad antes de continuar hacia otras ramificaciones. Esta forma de buscar por las ramas de un árbol se llama depth-first search, porque involucra ir tan lejos como se pueda por determinado camino antes de volver e intentar la exploración de otro. 504 La estrategia en cuestión no deja rama o nodo sin explorar, de modo que el rastreo cubre todo el árbol. Salvo que se prescriba otro orden de búsqueda o que se implemente lo que se ha dado en llamar una heurística, esta es estrategia que asume el sistema by default, sea o no ella aconsejable o práctica en función de la interpretación intuitiva del problema a resolver. El curso del backtracking no es una búsqueda a ciegas cuya amplitud "crece en forma exponencial conforme a la magnitud de la base de datos"; tampoco es cierto que todo cálculo racional está sujeto a dicha explosión combinatoria, como alucina el antropólogo Sheldon Klein en la fundamentación de su analógica (1983:151). La explosión combinatoria no tiene nada que ver con las cantidad de elementos o con la cantidad de clases de elementos que pueda haber en una base de conocimientos. Más bien se diría que la complejidad de un proceso de cálculo tiene menos que ver con la amplitud global de la base de conocimientos que con la cantidad de valores diferentes que puedan asumir los términos conjuntivos que se encadenan en una prueba individual. En general el tiempo de computación crece linealmente con la complejidad de la resolución, a menos, claro, que se instrumente un procedimiento heurístico adecuado, en cuyo caso la demora podría ser aún menor (Shapiro 1984). Nótese que el desarrollo de una prueba en Prolog no implica el hallazgo de todas las consecuencias posibles derivables de todas las premisas originales y de sus respectivas conjunciones, sino que, en función de un objetivo planteado, define sucesivos espacios de búsqueda (los resolventes) dentro de los cuales se realizan sólo las unificaciones que correspondan. Debido al modo de operación del proceso de búsqueda en las ramas del árbol, un planteamiento conjuntivo adecuadamente expresado equivale a la división de un problema global en una serie de resoluciones parciales. En principio, el conjunto de las respuestas que entregue el intérprete a una consulta dada no depende del orden en que se hayan estipulado los hechos y reglas que constituyen la base de datos. Después de todo, la regla conmutativa rige también para el cálculo de predicados. Si se modifica el orden de ingreso de los datos o el orden de los términos en las consultas en un programa sin efectos lógicos colaterales, resultará afectado el orden de entrega de las respuestas y (posiblemente) la complejidad de la búsqueda, pero no, en teoría, el valor absoluto de la contestación. Es preciso detenerse un instante para analizar el significado lógico de una falla en el proceso de unificación; que el intérprete no sea capaz de probar un objetivo implica que dicho objetivo no puede sostenerse como un hecho válido, deducible de la base de datos tras un número finito de pasos en un procedimiento de prueba. Si la base de datos que simboliza el conocimiento que tiene un científico de un dominio de investigación equivale conceptualmente al conjunto de los axiomas de un sistema deductivo, la falla del sistema para probar una conclusión propuesta como objetivo equivale entonces a negarla, a otorgarle "falso" como valor de verdad. Esto es lo que se quiere significar con el conocido apotegma negation as failure, que ha ocasionado tantas disquisiciones en el mundillo de la inteligencia artificial. Esta equivalencia no tiene nada de paradójica, una vez que se asume que todos los conocimientos necesarios para fundamentar una conclusión han sido explícitamente asentados. Dicho de otra manera, se asume que toda la información que no aparece en el conjunto establecido de cláusulas es falsa, y que el intérprete debe actuar como si se hubiera asertado su negación. La incapacidad del intérprete para distinguir entre una cláusula desconocida y otra cuyo valor de verdad no puede calcular responde a lo que Raymond Reiter (1978) ha llamado "hipótesis del mundo cerrado". 505 La vigencia de la hipótesis del mundo cerrado incide sobre numerosas articulaciones lógicas en el interior del sistema, entre ellos el sentido del condicional; en un mundo cerrado, el condicional simple se transforma en un bicondicional, y una cláusula en Prolog de la forma se interpreta entonces como "A si y sólo si B". Esta hipótesis es un efecto del predicado de metalenguaje implícito que gobierna el significado de una cláusula en Prolog, y de ser preciso puede ser suplantada por otra. Entretanto vale la pena insistir en ello: a menos que se coordine otra línea de acción, el sistema asume que el conocimiento representado es el único pertinente al efecto de las demostraciones que se procesen, y que ese conocimiento (al mismo efecto) ha sido estipulado en su totalidad. El algoritmo de unificación, la forma pautada de recorrer los senderos conexos del espacio de búsqueda, de asumir la falla como negación y de entregar los resultados constituyen el esqueleto, el cimiento, el modelo mínimo del proceso interactivo. Infinidad de posibilidades se abren cuando las preguntas se complementan con predicados capaces, por ejemplo, de graficar la solución de un problema, de archivar las soluciones intermedias o de abrir interfaces con lenguajes orientados a la cuantificación. Todo ello depende sin embargo de la versión del lenguaje que se utilice, de los recursos que haya decidido agregarle el departamento de marketing que lo promueve, de la experiencia computacional del programador y de otros factores contingentes que no hacen a la base axiomática de una teoría de modelos, centrada en el núcleo puro de la programación lógica más que en sus encarnaciones ocasionales. Basta saber que allá afuera hay más instrumentos del intelecto que los que hasta hoy (resignados a la impotencia metodológica) nos hemos atrevido a probar. Aún ciñéndonos al núcleo del formalismo, es imposible describir aquí el paisaje de las interacciones posibles entre el científico y el modelo. Este panorama depende, en lo esencial, de la naturaleza del dominio modelado, del tipo de modelo que se implemente (generativo, descriptivo, analítico, explicativo, clasificatorio, estadístico, experto, diagnóstico, predictivo, simulador) y de la estrategia antropológica o computacional a la que se recurra. Lo que suele suceder en la mayoría de los casos es que la estructura del modelo se vaya replanteando a medida que el diseñador lo testea mediante preguntas, en un proceso que tiene cierto aire de familia y una potencialidad semejante a la de los circuitos de realimentación. Ningún modelo de los anteriormente adoptados en nuestra disciplina poseía un lenguaje bien definido, una semántica generalizada, un procedimiento de prueba, una instancia interactiva con el investigador que lo manipula y un mecanismo efectivo de producción. No es impropio conjeturar que, de confluir todos ellos en un formalismo comparable, la riqueza de un marco teórico particular podrá medirse por la fuerza eductiva de los modelos que produzca. Los programas desarrollados en los apéndices ilustran algunas de las estrategias de modelización que este poderoso formalismo, el más expresivo y general que podamos implementar, aporta a una disciplina hasta hoy metodológicamente carenciada. c) Estrategias y Heurísticas Cuando se posee una máquina relativamente veloz, la tentación inicial es documentar todos los aspectos del fenómeno modelado, combinar todas las variables entre sí, recorrer exhaustivamente el terreno de las posibilidades, correlacionar estadísticamente todo con todo, no dejar ninguna pista sin explorar. Esta ansiedad de compleción, este grado cero de la estrategia constituye, precisamente, una forma de pensar que bloqueó durante algunos decenios el desarrollo de la inteligencia artificial. No ayudaría en mucho, de cara a las cercanías del infinito, que las máquinas fueran mil, diez mil o un 506 millón de veces más rápidas. Los problemas cuantitativos, los obstáculos que presenta la explosión de los números, no se superan con fuerzas contrapuestas (pues siempre se iría en pérdida) sino con recursos persuasivos, con inteligencia, con heurísticas. Heurística (o eurística) tiene, casualmente, el mismo origen que eureka, la palabra griega que se refiere al descubrimiento. Una heurística es una regla empírica para formular una suposición acertada, para elaborar una estrategia de resolución lo más óptima posible. La heurística no garantiza los resultados como lo hacen o pretenden hacerlo los algoritmos convencionales, pero ofrece en compensación resultados cuyo carácter les hace casi siempre útiles. Una heurística no rompe, necesariamente, la mágica continuidad implicativa requerida por una fundamentación axiomática. Más bien, una heurística constituye algo así como un atajo cualitativo en la encrucijada de la cantidad; y esta peculiaridad -en un contexto de programación declarativa- representa una instancia de suma coherencia conceptual y de un inusitado interés epistemológico. Desearíamos que no se viera a la heurística como una especie de mal necesario; las pruebas lógicas emergentes de una heurística correcta son tan taxativas como las que surgen de una comprobación totalizadora. La prueba total no es una prueba posible. El problema de la explosión combinatoria ante modelos de la vida real tampoco es una cuestión que pueda superarse en el futuro, cuando se cuente con una tecnología más apropiada, o, en concreto, con procesadores más rápidos y memorias más extensas. Por el contrario, se trata de un límite teórico absoluto, como el límite que aparece cuando se investigan las interacciones subatómicas de la materia. Las grandes cantidades tienen una cualidad que les es propia. Y es increíble las pocas cosas que deben reunirse para que su interacción comporte una magnitud gigantesca, para que un sendero antes familiar se transforme en un laberinto. Examinado en profundidad, un problema trivial de ajedrez, por ejemplo, impondría una serie de posibilidades cuya representación exhaustiva (no digamos ya su tratamiento) implicaría una cifra muy superior a la del número de electrones que hay en el universo. El simple problema de encontrar las rutas posibles entre veinte ciudades, que se reduce a la sencilla fórmula de factorial (20-1)!/2, da como resultado la enumeración de 60.8222.550.204.416.000 posibilidades: escribir mil soluciones por segundo, demandaría algo así como 1.928.670 años, más unos tres meses. Es obvio que tales representaciones y tácticas son formal y materialmente imposibles, sea cual fuere el grado de sofisticación tecnológica que se haya alcanzado. En aplicaciones computacionales que conciernen a representaciones del mundo real se corre con frecuencia el riesgo de caer en el clásico problema de la explosión combinatoria, por más acotado que parezca ser el dominio de referencia. Aunque se ha fantaseado mucho con esta amenaza, lo cierto es que no existe un procedimiento formal para calcular por anticipado si un problema no determinístico se precipitará o no en un proceso de crecimiento exponencial conforme se incrementa la densidad de los objetivos encadenados28. Una o dos variables que se agreguen a la estructura del query o a la ramificación de los sub-objetivos, y un planteamiento al principio plausible deviene un proyecto demencial. 28 Nótese que nunca coordinamos el problema del crecimiento exponencial del tiempo de resolución con la cuestión del tamaño de la base de datos, que es lo que dictaría el sentido común. Aún cuando una cierta magnitud en una base física impondría la multiplicación redundante de punteros y la necesidad de implementar algoritmos de búsqueda eficiente, este aspecto de la cuestión atañe casi siempre a correlaciones lineales. 507 Estas son algunas de las razones que han conducido al desarrollo de métodos de resolución controlada de problemas; con estos métodos se han podido al fin implementar exitosamente programas de razonamiento automático de propósito general que alguna vez se creyeron impracticables. Una de las formas que ha asumido la elaboración de estrategias heurísticas tiene que ver con la pautación de lo que un poco displiscentemente se han dado en llamar "reglas de inferencia". Numerosas aplicaciones contemporáneas de programación lógica involucran la implementación de cierto número de estas reglas de inferencia, tanto positivas como negativas; las primeras inician procesos de resolución y las segundas imponen restricciones a esos procesos que mantienen la amplitud del cálculo en una cota razonable de complejidad. Existen innumerables modelos pautados de procedimientos de inferencia, algunos de ellos sumamente prácticos; es de esperar que en los próximos años los recursos más utilizados se vayan subsumiendo en tipos heurísticos y en cánones de medios-a-fines garantidos por la experiencia, que convertirán el cálculo del razonamiento en algo muy diferente de lo que es hoy. No es casual que algunas de las estrategias canónicas de inferencia hayan cristalizado en modalidades de trabajo que, antes que nada, tienen un nombre que les otorga identidad conceptual y que facilita su replicación (cf. Tello 1988:418-419; Bläsius y Bürckert 1989). En teoría y a priori, cuando se trata de encontrar una prueba en un sistema deductivo (que, en términos dinámicos, se puede interpretar como un sistema de transiciones de estados lógicos), lo que se corresponde según el dictado del sentido común es enumerar exhaustivamente todos los estados a los que puede llegarse a partir del estado inicial. En la práctica, y luego de innumerables experiencias fallidas, los sistemas de deducción sólo son viables si se encuentran los medios para evitar las transiciones "malas" o "inútiles". El problema radica en que la selección de las transiciones "buenas" requiere, de hecho, conocimiento específico sobre el dominio al que se refieren las aserciones a ser probadas. Existen, sin embargo, criterios puramente sintácticos que solamente explotan la estructura de las fórmulas y que pueden aplicarse en consecuencia independientemente del dominio de aplicación que se trate. Aunque estos recursos a la fecha son más bien de bajo poder, lo concreto es que los métodos que se han desarrollado sirven para eludir las ineficiencias más groseras. En el estado actual de las investigaciones, los criterios sintácticos de heurística mínima y control de estrategias en programas lógicos se han tornado decisivos para que el funcionamiento de éstos sea satisfactorio. El número de estas estrategias ha llegado a ser lo suficientemente significativo como para que se haya sentido la necesidad de tipologizarlas. Los estudiosos reconocen en general dos grandes tipos: las estrategias de restricción y las de ordenamiento. Las primeras prohiben la exploración de ciertas ramas de la derivación deductiva, a veces al precio de la ampliación en profundidad de la longitud de la prueba. Las segundas no restringen la exploración de rama alguna, sino que establecen el orden en que han de ser tratadas. Algunos de los procedimientos de inferencia más conocidos y de uso más común son los siguientes: 1. Unificación. La unificación (que no debe confundirse con el algoritmo del mismo nombre, definido por Robinson para el apareo de patrones y la instanciación de variables) es una regla de inferencia en la cual dos fórmulas se unifican para formar una cláusula. La regla opera encontrando una variable de reemplazo que hace que las dos fórmulas tengan valores idénticos, con una posible diferencia de signo. Por ejemplo: 508 2. Resolución binaria. Es una regla de inferencia que produce una nueva cláusula a partir de dos cláusulas preexistentes, ejecutando una unificación de los predicados en cada una que posean el mismo valor pero signo opuesto. Por ejemplo: y conduce a por resolución binaria. 3. Resolución UR. Es la regla de inferencia que deriva una cláusula simple de un conjunto de cláusulas, tal que el conjunto de variables más general es satisfecho por todas las cláusulas. Por ejemplo: y conduce a mediante resolución-UR 4. Hiper-resolución. Es una regla de inferencia que pueda derivar una cláusula compuesta positiva a partir de un conjunto de cláusulas, una de las cuales (por lo menos) incluye una fórmula negativa, de manera tal que el conjunto de valores de las variables más generales permita que todas las expresiones de satisfagan. 5. Hiper-resolución negativa. Esta regla de inferencia es idéntica a la anterior, excepto en el hecho de que los valores positivo y negativo están invertidos; por ejemplo: conduce a por hiper-resolución negativa 6. Paramodulación. Cuando se aplica esta regla de resolución a un par de cláusulas, una de las cuales incluye un predicado positivo de igualdad, produce una cláusula en la que se ha sustituido la igualdad correspondiente. Por ejemplo: conduce a por paramodulación. 7. Demodulación. Es una técnica que puede utilizarse como regla de inferencia, consistente en reescribir expresiones como expresiones de igualdad, en las que el predicado de igualdad se expresa 509 como una cláusula simple y las variables se reemplazan sólo en algunos predicados de igualdad. Por ejemplo: y se reduce a por demodulación. 8. Subsunción. Es una técnica, que puede utilizarse como regla de inferencia, en la que se descartan todas las cláusulas que son menos generales o que duplican la cláusula disponible más general. Por ejemplo: reemplazaría a por subsunción. 9. Pesado. Es una técnica en la que se asignan prioridades a los diversos elementos que componen un problema, incluyendo sus términos, cláusulas y conceptos. Se trata de una herramienta que permite al diseñador de un programa controlar la forma en que éste evoluciona al resolver un problema. Asignando los pesos apropiados, el investigador puede hacer que el programa se concentre alrededor de los aspectos que se consideran más cruciales para la solución del problema. 10. Factoreo. El factoreo es una técnica que opera sobre una sola cláusula, seleccionando dos fórmulas con el mismo predicado, e intenta producir una nueva cláusula unificándolas con los valores adecuados. Hasta cierto punto, las recetas citadas hasta aquí son formales y abstractas. Pero existen otras posibilidades. Una de las heurísticas desarrolladas en los últimos meses es especialmente significativa para la antropología. Nos referimos al llamado algoritmo genético, el cual ha venido no sólo a expandir el campo de aplicación de las heurísticas, sino a esclarecer la naturaleza de ciertas formas de metaforización en el uso de modelos que siempre se han dado por descontadas. El algoritmo genético también parece destinado a revelar, en forma dramática, la capacidad de expansión temática de estrategias analíticas y sintéticas que durante muchos años se creyeron ligadas a objetos fenoménicos restringidos (cf. Austin 1990; Goldberg 1989; Holland 1975; Grefenstette 1985, 1986, 1987; Schaffer 1989). Uno de los objetivos de las estrategias sintéticas en inteligencia artificial es el de desarrollar sistemas que pongan en relieve, sin aprendizaje forzado, reglas semánticas explícitas o capacidades para reconocer patrones, categorizar y asociar. Tales sistemas deberían ser capaces de autoorganizarse y de adaptarse sobre las bases, solamente, de su exposición al entorno. Por fortuna, existe un ejemplo viviente de ese tipo de sistema: los organismos biológicos. Como lo expresa Austin: Durante su evolución, los sistemas biológicos han desarrollado exitosas estrategias de adaptación conductual y de síntesis para aumentar las probabilidades de supervivencia y propagación. Las constricciones ambientales a las que deben enfrentarse tales estrategias han impuesto profundos cambios en los organismos biológicos. Estos cambios se manifiestan en especializaciones estructurales y funcionales, organización informacional y representaciones internas del conocimiento (1990: 49). Detrás de esta sencilla caracterización se esconde uno de los campos más vigorosamente desarrollados, cuyos conceptos han sido discutidos con la mayor precisión: la selección natural. Una de 510 las ideas más interesantes que aquí fructificó fue la de selección acumulativa; ésta se refiere a un proceso en el cual los procesos al azar se transforman en procesos deterministas, o por lo menos, regidos por reglas más pautadas y restrictas que las del azar. En la selección acumulativa, cada perfeccionamiento incremental sucesivo en una estructura de soluciones se convierte en la base para la generación siguiente. En contraste, la selección por pasos separados situaba cada nueva estructura de soluciones independientemente de las anteriores. En el proceso así concebido, ninguna adquisición acumulativa del conocimiento definía lo que podría constituir una buena performance y su recompensa correspondiente en el espacio de problemas. En este paradigma, el término "ambiental" se utiliza en el sentido más amplio posible, denotando cualquier espacio de problemas susceptible de definirse mediante parámetros. En la evolución biológica, la supervivencia es la medida de la performance y la reproducción en la generación siguiente es la recompensa. Desde este punto de vista, toda criatura viviente puede considerarse como una estructura de soluciones en su ecosistema. Discusiones ulteriores entre biólogos darwinianos, sociobiólogos y otros científicos, en las que participaron Brooks, Wiley y el Premio Nobel Ilya Prigogine, perfeccionaron la conceptualización de las teorías biológicas de base y fueron limando sus asperezas y puntos discutibles. Pero lo importante no es tanto la exactitud de estas teorías en lo que respecta a los hechos de la evolución biológica, sino que el principio de la selección natural y la genética de poblaciones constituyen ideas intrínsecamente poderosas. Lo son a tal extremo que han servido de inspiración para construir algoritmos que se han aplicado con éxito total en campos tan disímiles como el aprendizaje de máquinas y la optimización de funciones (Goldberg 1989). Un algoritmo genético es [...] un procedimiento iterativo que mantiene a una población de estructuras que son soluciones posibles a desafíos específicos del ambiente. Durante cada incremento temporal (llamado una generación), las estructuras en la población actual se califican por su efectividad como soluciones locales, y sobre la base de esas evaluaciones, se forma una nueva población de soluciones potenciales utilizando "operadores genéticos" específicos, tales como reproducción, cruzamiento y mutación (Grefenstette 1986: 123). Los algoritmos genéticos han demostrado ser harto superiores a la búsqueda a ciegas, por cuanto utilizan la información acumulada para podar el espacio de búsqueda y generar soluciones posibles, a despecho de que las técnicas anteriores no hayan sido óptimas. El principio del que se parte es que el comportamiento exitoso de un sistema en un entorno dinámico exige a menudo soluciones adaptativas. Habitualmente, la complejidad inherente al entorno (ruido, elevada dimensionalidad, respuestas multimodales e incertidumbre) impide la especificación de soluciones a priori aceptables. Los sistemas adaptativos, en sus diversas aplicaciones, intentan resolver problemas acumulando conocimiento sobre el mismo y utilizando esa información para generar soluciones aceptables; estas soluciones no siempre son óptimas pero a la larga acostumbran ser satisfactorias. Pero ¿en qué consisten, después de todo, los famosos algoritmos genéticos? Las sucesivas investigaciones han definido un marco de referencia sumamente general en la especificación de los algoritmos genéticos, ateniéndose a unos pocos supuestos: 1) El ambiente, los insumos y los productos se pueden representar mediante hileras de símbolos de longitud fija sobre un alfabeto A. A menudo, y siguiendo pistas que indican que el alfabeto binario es óptimo, ese alfabeto resulta ser {1,0}. Se han investigado numerosos alfabetos arbitrarios para representar los diferentes espacios de problemas, pero su mayor o menor efectividad es todavía materia de conjeturas. 511 2) Se puede considerar que cada punto en el espacio de problemas es un individuo representado solamente dentro del sistema mediante una secuencia de caracteres generada a partir del alfabeto ambiental del sistema. Esta serie oficia de material genético cuyas posiciones específicas (loci) en la secuencia (cromosoma) contienen símbolos o señales únicas (genes) que asumen determinados valores (alelos). 3) En un instante dado, el sistema mantiene una población P(t) de series (también llamadas clasificadores) que representan el conjunto actual de soluciones al problema. El proceso comienza por generación al azar o por especificación explícita de la población inicial. 4) La única realimentación disponible para una estrategia adaptativa es el valor de la medida de la performance (adecuación). Este feedback se llama a veces "realimentación de orden cero"; la información mínima requerida para la adaptación es un indicador de la optimicidad de la forma en que se está afrontando el proceso adaptativo. 5) El tiempo se mide en intervalos discretos llamados "generaciones". 6) En una estrategia adaptativa, no se requiere ninguna información a priori concerniente al espacio de problemas, aunque esta limitación puede relajarse. Pese a lo que pueda sugerir el vocabulario que despliegan los especialistas (tanto más enigmático cuanto más alejado se encuentra el lector de los problemas conceptuales de la teoría neodarwiniana), los algoritmos genéticos han demostrado ser extremadamente versátiles: sus insumos y sus productos pueden representar una amplia variedad de fenómenos, cuyo límite resta fijar. Esta "variedad de fenómenos" incluye, de hecho, problemas de optimización combinatoria, procesamiento de imágenes, sistemas de control industrial y aprendizaje de máquinas (Davis 1987; Grefenstette 1985, 1987; Schaffer 1989). No hay razones para que los algoritmos genéticos no resulten de aplicación a problemas antropológicos (no necesariamente "evolutivos") expresados en un lenguaje declarativo como el Prolog. Se ha vuelto común, por ejemplo, utilizar algoritmos genéticos para resolver problemas de inducción y optimización de reglas. En este tipo de aplicaciones (similares a las que se ejemplifican en nuestros programas "generadores de reglas"), los interrogantes principales tienen que ver con la forma de descubrir reglas que funcionen, de eliminar las que no sirven (asumiendo que el espacio de memoria es limitado y que el ruido es potencialmente disruptivo) y de generalizar hacia la optimización las reglas que se van reteniendo. También es habitual servirse de algoritmos genéticos para simular modelos biológicos de comportamiento y evolución (Dress 1989; Wilson 1987) y para descubrir arquitecturas y topologías de conectividad novedosas en sistemas de redes neuronales, en un nuevo paradigma combinado que Edelman ha bautizado como "darwinismo neuronal" (Edelman 1987). Deseamos llamar la atención sobre el paralelismo que existe entre este darwinismo neuronal y algunas otras estrategias y heurísticas que acabamos de ver y el "esquema evolucionista" mediante el cual Popper metaforiza la vida, muerte o supervivencia de las teorías en un "tercer mundo" de ideas y conceptos que en cierta forma podríamos asimilar a la cultura (cf. Popper 1988). Si bien el nivel de análisis al que operan ambas concepciones es en general distinto, su forma lógica es sin duda idéntica. En algún otro momento sacaremos de esta coincidencia no fortuita las conclusiones que hagan falta. 512 5. UNIVERSO LÓGICO Y REPRESENTACIÓN Al contrario de lo que parecían pensar los levistraussianos y demás antropólogos inclinados a proponer formalismos modelizadores, el objetivo de la construcción de un modelo no es primordialmente obtener un calco descriptivo de la realidad para examinar las relaciones entre cosas con mayor claridad. Sin que ese fin quede excluido por completo29, y sin que sea preciso discutir la idea trivial de que toda representación siempre será más simple que lo representado30, el propósito fundamental de la representación del conocimiento sobre un dominio es, en nuestro caso, obtener un programa cuyo comportamiento refleje la estructura del dominio en algun(os) aspecto(s) relevante(s). Si ese programa logra su cometido, podrá solucionar problemas lógicos relativos a ese dominio o simular su comportamiento, además de retornarnos reflexivamente la estructura y los supuestos de nuestra propia descripción. Es necesario abordar aquí una cuestión ya elucidada desde otros ángulos, a la que nunca está de más volver: ¿cómo es posible simular el comportamiento de un sistema u objeto real a partir de un modelo puramente lógico? Al proponer nuestras representaciones de lo real ¿no estamos hablando, en rigor, de un orden lógico oculto en lo real, de una especie de providencia rectora? La respuesta a esta segunda pregunta es negativa. Una simulación de esta naturaleza no encubre ninguna afirmación de carácter metafísico acerca de un orden inmanente a las cosas, o de una correspondencia entre el mundo y las leyes de la lógica, como ingenuamente han afirmado algunos irracionalistas que no distinguen claramente entre un modelo y la realidad que éste representa. No es necesario partir de la hipótesis de la naturaleza racional del mundo para construir un modelo: lo que en un modelo se afirma implícitamente no es que el mundo sea racional o que esté regido por leyes, sino que desde la perspectiva de una teoría, el mundo es como el modelo lo describe. Y para que algo sea como se lo describe (es decir, para que la descripción sea inteligible y no faculte lecturas infinitamente incontroladas) la descripción ha de ser no contradictoria. No es necesario tampoco partir de la base de que en el mundo existen regularidades para construir el modelo de un caso: la extensibilidad del caso modelado a otras esferas (otras culturas, otros sistemas), o como dicen los epistemólogos, la amplitud y la ampliación de su ámbito de predicación -por curioso que pueda parecer- es una cuestión extralógica, atinente a la interpretación del modelo y no a su estructura. Y esta interpretación (de acuerdo con Gödel y con la teoría de los tipos lógicos) no puede formar parte del mismo modelo. La interpretación de un modelo bien puede ser congruente con una teoría que afirme -como lo propugna Geertz (1983)- la validez estrictamente local del conocimiento. Las "cosas del mundo" no tienen por qué ser racionales o no contradictorias; la contrapartida de esto -y esto es algo que no admite ninguna componenda- es que los modelos no pueden dejar de 29 Es propio de la naturaleza de los modelos, sin embargo, demostrarse a menudo más complejos (menos ingenuamente sencillos) que la percepción no modelada de la realidad (cf. Popper 1985:128-136). 30 En rigor la representación no es ni más simple ni más compleja que lo representado, sino que es sencillamente de otro orden. 513 serlo. La exigencia de que los modelos (o las descripciones, o las teorías) no sean contradictorias no depende, como pudiera pensarse, de una toma de partido en favor de una tendencia logicista. Más allá de algunas ocasionales resistencias fundamentalmente equivocadas (como la de Feyerabend 1982), es un imperativo del conocimiento. Detrás de esto último anida una demostración convincente, debida en principio a Bertrand Russell: a partir de cualquier conjunto contradictorio de premisas, es lógicamente posible demostrar lo que se desee. Dicho de otro modo, un enunciado incoherente entraña todo enunciado, entre ellos aquél que uno quiera; de la misma forma, cualquier aserción (sin que importe su contenido) puede ser un posible falsador de una fórmula contradictoria. La demostración de esta paradoja aparente puede encontrarse desarrollada en Popper (1985:87), aunque en ese desarrollo se ha deslizado un error que es fruto del sesgo refutacionista que se la ha impreso. Que el modelo sea congruente y que reproduzca o simule aceptablemente los procesos propios del dominio de realidad que en él se representa no implica que "la realidad sea lógica", sino que el modelo lo es: podemos, de hecho, modelar tanto un proceso evolutivo que rime con los dictados de la razón como un estallido de locura. Nuestro objeto podría ser hoy el razonamiento cartesiano, mañana la lógica de Auschwitz. Aseverar (o negar) que la realidad esté sujeta a leyes no es lo mismo que aseverar (o negar) que pueda ser modelizada; aquél no es un problema que se aborde frontal ni oblicuamente en esta tesis, pues las leyes, al salirse fuera de lo que a través de un modelo es demostrable, pertenecen a un orden que no es el de la lógica que dicho modelo cubre. En lo que respecta a la relación entre el modelo y el mundo, entre la representación y la realidad, lo primero que hay que decir es que los "hechos" del Prolog no son tales con referencia a las entidades del mundo, sino con referencia al modelo que se construye, y que es admitidamente un constructo lógico, del que dependerán los valores de verdad. Esta es la noción de modelo que, en contraposición a las aventuras especulativas que se desataron después de Lévi-Strauss, deseamos enfatizar. En el proyecto del positivismo lógico, tal como lo expresó Carnap (1965: 69), los hechos iniciales de un sistema deductivo remitían a "proposiciones de observación" o "proposiciones protocolares". Esta idea era consonante con una filosofía que afirmaba que el propósito de la teoría del conocimiento es "esclarecer por medio del análisis lógico el contenido cognoscitivo de las proposiciones científicas y, a través de ello, el significado de las palabras que aparecen en dichas proposiciones" (1965:66). Estas ideas ontológicas penetraron en el temprano cálculo de predicados: "Ser -decía Quine- es ser el valor de una variable" (cf. Ayer 1965:32). Sin excluir que la epistemología pueda reivindicar esos u otros objetivos, está claro que ninguno de ellos tiene nada que ver con una teoría de modelos; es esencial comprender que ésta sólo atañe a las relaciones formales de implicación en un conjunto de enunciados cuyo valor objetivo de verdad y cuyo "significado" no podrá jamás dirimirse en el interior de dicha teoría. La correspondencia de los "hechos" lógicos con los "hechos" empíricos no puede determinarse internamente, pues nuestra estipulación puede ser intencional o accidentalmente falaz desde el punto de partida. Un modelo deliberadamente mentiroso posee, ceteris paribus, exactamente la misma estructura lógica que un modelo denodadamente veraz. Es posible construir, en efecto, un modelo de simulación de lo que sería el mundo si fueran válidas determinadas afirmaciones absurdas, y este modelo debe funcionar tan redondamente como uno construido sobre premisas correctas. 514 No existe entonces ninguna marca formal que distinga un modelo cuya interpretación constituya una falsedad de otro que conduzca a conclusiones verdaderas. Y esto sucede porque, al contrario de lo que suele pensarse, las ideas intuitivas de verdad y falsedad como adequatio (o inadequatio) mentis ad rem no constituyen rasgos intrínsecos de la lógica. A menudo se parte deliberadamente de premisas falsas con el propósito de demostrar más allá de toda duda que cierto sistema de pensamiento es erróneo, y que si las cosas fueran como ese sistema dice que son, el mundo sería distinto de lo que es; esto es lo que ha hecho magistralmente Emanuel Peterfreund para demoler con excepcional agudeza didáctica el concepto freudiano de energía (1976:43-58). Un logicial en Prolog no es un oráculo; sencillamente no existen en inteligencia artificial herramientas que operen sobre un diseño oracular y que acumulen "conocimientos" o "hechos" más allá de un marco teórico que establece cuáles son los hechos pertinentes y por qué. La inteligencia artificial moderna busca menos fabricar máquinas inteligentes que formalizar la naturaleza de su estupidez y aprovechar esta debilidad aparente como una fuerza escondida. La ignorancia en que una máquina se mantenga garantizará, por ejemplo, que tengamos que explicitar todos nuestros supuestos y que ella no esté en condiciones de introducir clandestinamente ninguno. Si escribimos en un programa una cláusula que afirma que los trobriandeses viven en América, la máquina lo creerá. Un programa en Prolog no "sabe" nada, ni necesita hacerlo: si de lo que se trata es de estipular un modelo, que la máquina "sepa" lo que no le digamos expresamente, más que ventajoso sería tal vez inoportuno. Al igual que sucede al pensador humano en actitud natural de razonamiento, las inferencias se desviarían por caminos colaterales, considerando cuestiones poco relevantes y efectuando cálculos que no vienen al caso. Lo más que nos puede y nos debe decir un cálculo lógico (de esta índole o de cualquier otra) es qué pasaría si en un universo que nosotros describimos, las premisas que afirmamos fuesen verdaderas. Y la máquina en general no dice esto espontáneamente, sino que se limita a responder si una conclusión se sigue o no de las premisas que asertamos. Subrayemos que las descripciones involucradas por la estipulación de "hechos" en Prolog no atañen tanto a "cosas" como a "relaciones", expresadas en notación funcional. En su propia estructura el lenguaje satisface el viejo sueño estructuralista de pensar en términos de relaciones, una empresa que los estructuralistas mismos abordaban con categorías relacionales muy pobres (las más pobres de toda la epistemología contemporánea), como las discutidas "oposiciones binarias" de Trubetzkoy y Jakobson o las "mediaciones" de Lévi-Strauss. No está del todo mal que los "hechos" del Prolog tengan el nombre que tienen. Este aparente atropello empirista nos permite poner de manifiesto que los "hechos" claros y sencillos de la observación no poseen nunca una sencillez y transparencia tales que no reciban su propio carácter de "hechos" dentro de cierto marco de interpretaciones y supuestos: pues hasta el presunto hecho más elemental, formulado en el enunciado observacional más corriente, presupone ya un marco conceptual dentro del cual pueda tener una significación y un valor que trasciendan "la idiocia bruta de la pura sensación" (Wartofsky 1978: 240). No producimos cosas, sino modelos; los modelos a su vez no producen cosas (el sabor de la sopa, como diría Einstein), sino consecuencias lógicas de sus premisas, consecuencias que cabe contrastar (en una investigación que retorna en ello a sus cauces naturales) con la misma realidad en que se origina la representación. Pero si los "hechos" del Prolog son diferentes a los "hechos" del sentido común (o a las "cosas" de la fenomenología), la "lógica" de la programación lógica es también diferente a la de los escolásticos y a la de los epistemólogos. Es abismal la diferencia estilística que media entre los tratados dis515 cursivos de lógica y los textos que abordan desarrollos realizados sobre computadoras, en los que la falta de rigor y de pertinencia son más difíciles de disimular tras la cortina impenetrable de la simbología. Los practicantes de la lógica computacional aún no han elaborado filosóficamente esta circunstancia, lo que nos deja el campo expedito para intentarlo nosotros. Tómese cualquier texto de epistemología, de filosofía de la ciencia, de filosofía analítica o como se la quiera llamar, y se verá prestamente que en ellos se prescriben métodos de trabajo y se problematizan asuntos de los que aquí ni siquiera hablamos: definiciones, "frases bien formadas" (fbf), reglas sintácticas de transformación, términos teóricos, términos empíricos, leyes de la naturaleza, operacionalización, falsabilidad, magnitudes y escalas, axiomatización mediante teoría intuitiva de conjuntos, causalidad, criterios de delimitación entre ciencia y seudociencia o criterios de demarcación entre ciencia y metafísica. No obstante ofrecerse bajo el envoltorio de una declamada "lógica de la investigación", nada o casi nada de todo ese inventario de programas de discusión inconcluyentes tiene que ver un ápice con la lógica. Estamos proponiendo aquí una formalización que no pasa por una elaboración abstracta conscientemente axiomática, que no define en el significado convencional de esta palabra y que no cuantifica a menos que sea necesario y relevante, y que sin embargo es rigurosa, en la medida en que preserva la coherencia interna de lo que afirmemos y nos permite modelizar en un sentido que nada tiene de figurado. Podemos en lo sucesivo construir modelos bastante más tangibles que los embrollos levistraussianos, y en una escala de potencia y precisión que no se había alcanzado jamás. Estamos haciendo pasar el rigor por donde lógicos y filósofos de la ciencia, privados de una máquina de cálculo conceptual y sujetos a las limitaciones de continuidad deductiva demostradas por Miller (1983), no habían siquiera imaginado que podía pasar algún día. Se está demostrando que el rigor puede lograrse sin tabular valores de verdad, sin definir, sin cuantificar compulsivamente, sin utilizar una simbología algebraica. No es que se esté postulando un principio de ciencia radicalmente distinto, sino que las operaciones axiomáticas de orden más bajo están confiadas al instrumento en el cual nos basamos, a la lógica operativa del intérprete del lenguaje, al principio de resolución, al algoritmo de unificación y a la prueba de la cláusula vacía. Descender al plano de la formulación euclideana -como lo ha hecho en antropología William Geoghegan- carece ya por completo de justificación, como no sea la de deslumbrar a quienes no han asimilado siquiera el estructuralismo por reputarlo difícil. En cierto sentido, la adopción de la herramienta permite hacer de cuenta que la axiomatización ya está hecha desde el principio, y que en lo esencial corre a cargo del instrumento; nosotros podemos dedicarnos, por ende, a la antropología. Podemos situarnos entonces en un nivel descriptivo, considerablemente más relajado y menos ofensivo a la sensibilidad del antropólogo que las cifras de los estadísticos y los símbolos de la lógica, y formular una ciencia parecida a la que acostumbrábamos. La notación clausal puede ser, en todo caso, nuestra notación íntima, y eventualmente nuestro lenguaje de debate. Este es, en parte, nuestro programa, cuyas dificultades comenzamos seguidamente a explorar. Después habrá ocasión de investigar si la escasez de preocupaciones en común entre nuestra propuesta y el dogma que prescribe adoptar los métodos de las ciencias naturales se debe a que nosotros situamos lo nuestro en otro momento de la indagación, o en otra dimensión del conocimiento. 516 6. TEORÍAS Y MODELOS LÓGICOS En este capítulo se establece la forma en que el cálculo de predicados (bajo la forma clausal típica de la programación lógica) se puede adaptar a la semántica de dominios específicos, de modo de producir teorías acerca de esos dominios. Para que esta producción sea posible, para que el modelo o la teoría dispongan de una fundamentación axiomática (requisito indispensable para conjurar el fantasma de los enunciados contradictorios y las arbitrariedades deductivas) es preciso abismarnos en una lógica de la construcción de modelos mucho más concentrada en lo formal que -por ejemplo- la "lógica" de la investigación científica que nos han propuesto los epistemólogos, en la que se entremezclan en confusa algarabía principios lógicos de los más abstractos con la necesidad de no mostrarse exageradamente positivistas, de construir un discurso sobre la práctica social de la ciencia o de refutar los títulos de cientificidad del marxismo o el psicoanálisis. Pero esta concentración no apareja simplicidad. Este es otro punto de nuestra exposición en el que, sin dejar de referirse a una fundamentación rigurosa, los conceptos metateóricos siguen manifestando su propensión a la polisemia. Ninguna entidad tiene una sola cara, ni siquiera en un contexto formal; una teoría es, entre otras cosas, un cuerpo tangible de escrituras, una intertextualidad de perfiles borrosos, tanto como una constelación ideológica, una estructura axiomática, un conjunto de elementos de un lenguaje, un fragmento de cosmovisión. Lo mismo vale para otros conceptos, tales como "estructura", "lenguaje" y "modelo". En un mundo en el que una mesa puede ser tanto un concepto estático como un referente mutable, tanto un conjunto de maderas y clavos como una masa de átomos, aquella multivocidad sólo expresa la multitud de los puntos de vista, y no la imposibilidad de mirar las cosas desde un enclave racional. El nuestro es un paradigma cosmopolita, no la solitaria elucubración de un genio. No es una sola concepción de la construcción de modelos y teorías en programación lógica la que tenemos que contrastar con la misma actividad tal como se ha dado en -por ejemplo- el estructuralismo: son muchas concepciones, a las que se añade el hecho conocido de que hay harto más disponibilidad de conceptos que de palabras, de que cada instancia metodológica se puede analizar desde diversos ángulos y de que cada estudioso ha aportado, junto con sus ideas valiosas, su grano de arena a la causa de la confusión general. Como hemos asimilado y reelaborado numerosos mundos conceptuales en función de una postura que procura no mimetizarse con los dogmatismos que nos han precedido, y como también hemos jugado en ocasiones el papel de demiurgos, no existe problema alguno en considerar que todos esos mundos son válidos simultáneamente, en tanto las aguas y las tierras de cada uno no se mezclen con las de los otros. Es importante subrayar entonces que la proliferación de homónimos de diversos sentidos no les resta significado, en tanto se conserve el valor relativo que cada término ostenta en sus contextos particulares de definición. Preferible a la definición de un significado uniforme para cada vocablo, es la proliferación de significados relativos a puntos de vista que no es posible derogar y que constituyen formalmente parte de un universo ordenado de significaciones. El problema, si se lo piensa bien, es exactamente el inverso al de la existencia de diversos significantes con contenidos intercambiables, dilema que, en el viejo estructuralismo, nos impedía la construcción de todo modelo. 517 Por otro lado, existe una razón formal para que los términos metateóricos se presenten en una configuración multifoliada: la herramienta de la que estamos hablando es, según se la mire, tanto un lenguaje de la lógica simbólica, una axiomática, un método mecánico de resolución de problemas, una forma de representación propia de una ciencia empírica, un modelo abstracto y un lenguaje de computación. En ese cosmos de confluencias históricas y de comunicación de ideas, las ecuaciones curriculares de cada responsable son disímiles. Cada autor participante traza el mapa de las cosas a su manera, manera que eventualmente se traduce o se extrapola sin una estricta preocupación por las homologías; cada corriente llena además sus conceptos de connotaciones discrepantes, correlacionadas con ideologías "fuertes", "conciliadoras" o "débiles" acerca del cometido epistemológico y la misión histórica de las formalizaciones. Sería irrazonable esperar que cada perspectiva posea un léxico distinto y no redundante, emancipado de toda asociación. Los diversos ángulos desde los cuales se contempla la herramienta no pueden dejar de presentar cruzamientos. Podríamos falsear la realidad y escoger (o construir) una sola serie de definiciones canónicas, a acatar de aquí en más; pero con ello no se construiría un paradigma más riguroso, sino un dogma más estrecho. Escogemos deliberadamente, pues, la proliferación de lecturas posibles, advirtiendo que ello no excusa de definir las palabras a quien escribe, ni de recurrir al contexto para recuperar la plena y exacta significación de los términos a quien está leyendo. Conviene evocar inicialmente, en un vocabulario apropiado a las caracterizaciones y comparaciones que han de seguir, los significados y atributos usuales de las entidades que acostumbramos llamar teorías. Cualquiera sea el dominio descripto por una teoría, ésta consiste primordialmente de un lenguaje en el que se pueden expresar afirmaciones o negaciones. Anotemos este primer contraste: el estructuralismo o la etnosemántica (en tanto teorías o metateorías de la modelización) no poseían un lenguaje sino en el mejor de los casos una jerga técnica esporádica; esta jerga se hallaba sintácticamente incrustada en el discurrir amorfo y sin consecuencias de una forma literaria de expresión, semánticamente plagada de ambigüedades y pragmáticamente imposibilitada de realizarse en un modelo. Tenemos entonces una teoría que se expresa en un lenguaje, de diccionario finito pero de potencialidades expresivas innumerables. Ciertas afirmaciones de la teoría poseen un carácter especial, y se las llama axiomas o postulados; éstos constituyen, por así decirlo, las verdades básicas de una teoría. Mediante determinadas reglas de razonamiento, se derivan o infieren afirmaciones más complejas o variadas a partir del conjunto inicial de postulados, que también se consideran verdaderos y que se denominan consecuencias. Ejemplos de teoría en este sentido informal podrían ser el psicoanálisis, el marxismo, la cross-cultural anthropology y el materialismo cultural; como ya comprobamos, estas teorías se expresan aproximadamente en lenguaje natural, con el añadido de un conjunto -más bien exiguo- de terminología técnica. Los axiomas o postulados de estas teorías no siempre son explícitos y tampoco funcionan siempre como tales, fundando o justificando las conclusiones a las que se llega. Todo esto no implica que no se pueda expresar esas teorías de una manera más rigurosa; pero nadie afirmaría que este ha sido el caso. A un nivel tanto estructural como de contenidos, un programa lógico basado en el cálculo de predicados, tal como se lo ha caracterizado hasta el momento, se puede comprender como una especie de equivalente formal de la noción vulgar de teoría. Lo que este cálculo añade a una teoría convencional es un sistema axiomático fundado y completo: todas las fórmulas válidas (afirmaciones) del lenguaje se pueden obtener a partir de un pequeño conjunto de postulados y de reglas de inferencia. Las consecuencias de las premisas constituyen teoremas, que pueden a su vez funcionar como premisas de teoremas ulteriores. 518 Pero el cálculo de predicados muy rara vez se usa en ese sentido. La mayor parte de las veces, quien utiliza dicha herramienta está interesado en un dominio particular, y no en las propiedades genéricas, abstractas o axiomáticas de un cálculo lógico determinado. Si se aplican las capacidades de representación y resolución del cálculo de predicados a un dominio empírico, se obtendrá un modelo posible relativo a dicho dominio. Este es sólo uno de los muchos sentidos de la noción de modelo; más tarde haremos referencia a otros. Marquemos ahora un nuevo contraste que pone en crisis las definiciones de -por ejemploKaplan y Manners: el dominio empírico puede ser tanto genérico y abstracto como concreto y particular. Aunque este juego rara vez se consuma, podemos asignar diferentes dominios empíricos a un modelo construido en función de entidades sin denotación inicial. En la medida en que los referentes empíricos dependen de una interpretación que no puede introducirse en un modelo ni ligarse a sus símbolos significantes salvo como comentario no computable, el ámbito referencial de un modelo formal es irrelevante como norma para definir lo que es un modelo y distinguirlo, a través de esa definición, de lo que se supone que es una teoría. Otra diferencia surge de inmediato. Los epistemólogos distinguen a menudo una construcción deductiva hipotética de una construcción deductiva nomológica. Sobre esta distinción se basan otros tantos tipos, dispuestos en una jerarquía de méritos a veces explícita. Una teoría "hipotético deductiva" toma hipótesis o conjeturas probables como punto de partida; una teoría "nomológica deductiva", en cambio, se funda en leyes establecidas o "universales nómicos". A partir de unas y otras se comienza a plasmar el tejido lógico de las inferencias, constituyendo en ese proceso la "lógica de la investigación científica" según el paradigma deductivo. A menudo se exige la presencia de una "ley universal" o de más de una ley universal entre las premisas para garantizar la cientificidad de un constructo, o se establece la obligatoriedad de que las premisas sean independientes, o que sean "compatibles con los datos observacionales" o con los "hechos conocidos" (Nagel 1981:39-55; Hempel y Oppenheim 1953). Otras autoridades exigen que las premisas sean atinentes a "individuos", en oposición a "clases", o viceversa, que se cumplimente cierto ritual de experimentaciones concomitantes o que la finalidad del modelo sea la de establecer o justificar una explicación (Popper 1985:62-68). Pero estos requerimientos no son de un orden estrictamente lógico, y no se pueden integrar a una teoría de modelos sin sesgarla en favor o en contra de determinada concepción de la ciencia. Por plausibles que puedan parecer, las exigencias en el sentido de que las premisas sean "leyes de la naturaleza", "individuos", "objetos con denotata observables" o cosas por el estilo, jamás podrán ser integradas a la misma lógica que garantiza la coherencia interna de un modelo. Las recomendaciones de la epistemología convencional no son un conjunto de principios lógicos, sino un tejido heterogéneo de opiniones, apreciaciones más o menos sensatas y recetas prácticas de sentido común. Una vez más, hay que decir que la calidad sustantiva de las premisas es tan irrelevante para la esencia de un modelo lógico como su verdad empírica, puesto que tales aspectos pertenecen tanto a las interpretaciones que sobre ellas se aplican (a su "mapeado sobre la realidad") cuanto al estatuto axiológico de esas interpretaciones, a la mayor o menor "aceptabilidad" de su valor de ley o de hipótesis por parte de una comunidad científica en un momento dado. No es que esos factores carezcan de importancia; al contrario, pensamos que ninguna antropología seria podría construirse sin reflexionar sobre ellos. El hecho es más bien que su discusión carece de pertinencia en la estipulación de una teoría axiomática y general de los modelos como la que aquí se desenvuelve. En una teoría de esta índole, la especificación carnapiana de la naturaleza de las premisas no forma parte del 519 problema. Urge recuperar toda la potencia de las operaciones formales, lo cual se hace antes que nada fijando sus límites. Como decía Schlick: Que lo lógico es en cierto sentido lo puramente formal se ha dicho hace ya mucho tiempo y con frecuencia; pero no estaba verdaderamente clara la naturaleza de las formas puras. El camino hacia tal claridad parte del hecho de que todo conocimiento es una expresión, una representación. Es decir, expresa la situación de hecho que es conocida en ella. Esto puede ocurrir en cualquier número de modos, en cualquier idioma, por medio de cualquier sistema arbitrario de signos. Todos esos modos posibles de representación -si de otra manera expresan realmente el mismo conocimiento- deben tener algo en común, y lo que les es común es su forma lógica. [...] Sólo ella es importante para el conocimiento. Todo lo demás es material inesencial y accidental de la expresión, no diferente, digamos, de la tinta con la cual escribimos un enunciado (Schlick 1965:61). La descripción de un dominio se realiza, como lo hemos visto, a través de un conjunto más o menos extenso de predicados y constantes funcionales. En Francia y en Bélgica se acostumbra llamar signatura a una colección de predicados, cada uno con una aridez bien definida. Mediante las reglas sintácticas del cálculo de predicados, se obtiene un lenguaje a partir de esa signatura, y este lenguaje es el conjunto de términos y fórmulas generados a partir de la signatura. Tal como lo consideran ciertos autores, en especial en Francia, la interpretación de ese lenguaje (de acuerdo con las reglas del cálculo de predicados) constituye su estructura. Según esta concepción (alternativa a otras que ya se han expuesto o se expondrán luego) una teoría relativa a un lenguaje es un conjunto de fórmulas del mismo, a las que se llama axiomas; un teorema es, en este sentido, una consecuencia lógica de los axiomas. Y una estructura para la cual todos los axiomas de una teoría son verdaderos, se llama un modelo de esta teoría (Thayse 1988:78-80). Existe la posibilidad de que determinadas teorías se basen en sistemas lógicos más poderosos que el cálculo de predicados, pero esta posibilidad no será explorada en este contexto, ni se corresponde todavía -en nuestro estado de desarrollo tecnológico- con ninguna implementación viable. En un marco de referencia en que se tome en cuenta la jerarquía de los sistemas lógicos, las teorías basadas en el cálculo de predicados podrían llamarse teorías de primer orden. Esta definición enfatiza el hecho de que las variables de todas las cláusulas se interpretan como objetos individuales: no existen variables funcionales ni variables de predicado. Esto parecería imponer un límite: las lógicas de orden más elevado podrían ser, con mucho, más expresivas que la lógica del primer orden. Pero, por desdicha, a un alto poder expresivo corresponde un poder deductivo más bien bajo: no existen a la fecha sistemas axiomáticos completos para las lógicas de orden más elevado, ni es probable que existan algún día, ni es de esperar tampoco que en caso de existir lleguen a ser prácticas. El cálculo de predicados es un sistema lógico amplio y compacto. No todo el cálculo de predicados puede incluirse en una fundamentación: como hemos visto, si no se quiere caer en formulaciones indecidibles o en procesos interminables, es preciso restringir el lenguaje de la teoría a un subconjunto de dicho cálculo, mediante determinadas estipulaciones adicionales: el uso de la forma clausal, la restricción de las cláusulas posibles a cláusulas de Horn, la cuantificación universal implícita, las reglas de Skolem, el uso de unos pocos procedimientos específicos de resolución, o mejor aún de uno solo. Hemos dicho antes que el método de resolución del Prolog es a la vez fundado (no permite inferir ninguna aserción que no se siga de otras aserciones) y completo (todas las aserciones que se sigan de otras se pueden inferir mediante este método). Deseamos ahora destacar una diferencia importante 520 entre la naturaleza fundada y completa del Prolog como lenguaje para construir modelos teoréticos y la posibilidad de estipular teorías completas y categóricas en base a él. Ambos niveles de análisis no deben confundirse, porque lo primero no implica lo segundo. Pero esta limitación no es tan grave como parece. Está demostrado que a partir de un lenguaje basado en una signatura muy escueta se pueden demostrar teorías muy poderosas, y más que nada teorías adecuadas a las necesidades de las disciplinas establecidas. En lo sucesivo llamaremos teorías categóricas a las que sólo admiten modelos finitos, tal como resulta del teorema de Löwenheim y Skolem. Pese a las resonancias colosales de su nombre, las teorías categóricas no son en general demasiado interesantes, dado que los dominios finitos se pueden abordar mediante métodos más simples y cercanos a la intuición que los que impone un tratamiento formal. Llamaremos teorías completas a las que dan cuenta de todos los hechos posibles en un determinado dominio, con independencia de los criterios seguidos en una modelización determinada. Las teorías desarrolladas mediante programación lógica rara vez son completas; de hecho, una teoría comprensiva sobre determinado dominio de la realidad no siempre es deseable, porque lo más común es que no sea fácil de tratar en la práctica. A menudo es preferible una teoría incompleta, es decir, una teoría consistente en enunciados cuyos valores de verdad valgan sólo dentro del mundo cerrado que describen. En suma, las teorías a las que nos referiremos cuando no se estipule ninguna cualificación adicional habrán de ser teorías incompletas y no categóricas. Diversos ejemplos de estos atributos aparecen en los programas o modelos que incluimos como suplemento ilustrativo. Lo importante de todo esto es que de ningún modo este carácter incompleto y no categórico es imputable al estado de desarrollo de nuestra disciplina o a la naturaleza peculiar de sus objetos. A menudo se afirma lo siguiente como expresión de deseos, pero aquí entendemos haber expuesto en los capítulos anteriores una demostración acabada: en lo que a la construcción de modelos y teorías concierne, desde un punto de vista formal todas las ciencias empíricas se encuentran en la misma situación (cf. Carrithers 1990). Tal vez sea conveniente diagramar la forma en que se inserta el proceso de modelización que propugnamos en el conjunto del trabajo científico. El siguiente diagrama de flujo, sumamente metafórico, ilustra nuestro esquema global, identificando convencionalmente los conjuntos de enunciados y símbolos que constituyen (1) la "realidad", (2) los marcos ideológicos o paradigmáticos, (3) las estrategias, marcos teóricos o programas de investigación antropológicos, (4) la teoría axiomática del cálculo de predicados, (5) las formulaciones discursivas o estudios informales de casos, (6) los modelos o programas lógicos y (7) los eductos de los modelos mediante cuadrados de líneas gruesas, y los procesos de mediación que definen y analizan la realidad, determinan los paradigmas, sintetizan formulaciones discursivas, codifican modelos formales, computan programas lógicos y contrastan eductos utilizando rectángulos de líneas finas. El número de conjuntos de enunciados y símbolos y de sus operadores de conexión ronda la cifra de 7, y es una muestra deliberada de la conveniencia de atenerse a los hallazgos de Miller (1983). El orden que hemos impuesto es arbitrario y persigue una finalidad didáctica, al tiempo que asume una representación plausible de las operaciones metodológicas: entre un conjunto de enunciados y otro de diversa categoría, naturaleza o nivel de abstracción hay siempre un proceso que transforma o define al que viene antes y determina al que viene después. Los conjuntos de enunciados que se aparean mediante un procedimiento o una relación de determinación, se pueden 521 considerar pares ordenados de insumo y producto, cuyo carácter de tales no siempre está reglado por una operación axiomática. Esta configuración, por supuesto, no pretende reglar ni describir la forma en que epistemologías que no son las nuestras desenvuelven su vida teórica; lo que se busca es apenas trazar una imagen comprensible de la inserción de un momento formal en un proceso global de trabajo teórico expuesto como un grafo controladamente idealizado, en el que se han omitido aspectos tan cruciales como el trabajo de campo, la experimentación y la forma en que el saber interactúa que una realidad que no es necesariamente la que el científico construye. Los epistemólogos estructuralistas encontrarán que nuestra mención de los "conjuntos de enunciados" evoca la llamada statement view, para ellos detestable. Los estructuralistas niegan, como es sabido, que las teorías constituyan conjuntos de enunciados en el sentido lógico, y esto es precisamente lo que afirmarían los partidarios fantasmáticos de la "concepción enunciativa". No nos entretendremos en justificar nuestra nomenclatura, pues ella se basta a sí misma; en cierta forma tampoco interesa lo que las teorías sean, que es lo que, pensando en Kuhn, importa a los estructuralistas: que las teorías, cosmovisiones o formulaciones discursivas (incluida la statement view) se pueden considerar como conjuntos de enunciados (no necesariamente axiomáticos, enumerables o consistentes) lo prueba el mismo hecho de que se pueda hablar de ellas en términos de lo que ellas enuncian. Dado que la mayor parte del esquema no denota procedimientos formales ni hechos taxativos, el esquema en sí es nada más que una heurística útil, una ficción ocasional, que se deberá descartar apenas se la comprenda y sobre la que no volveremos a insistir fuera de este trabajo. El esquema es autoevidente, y esperamos que no ofrezca mayores dificultades ni en lo que respecta a aceptar nuestra idea de que los conjuntos de enunciados y símbolos son tales (realidad incluida), ni en relación con la imagen de que esos ámbitos se encuentran existencialmente ligados mediante determinados procesos y coacciones, más o menos explícitos, evidentes y formalizables: a) La determinación de las estrategias o programas de investigación por marcos ideológicos o paradigmáticos (el llamado "contexto de descubrimiento"). b) El análisis y la definición de la realidad a través de los dictámenes y conceptos de una teoría (la llamada "construcción social de la realidad"). Nuestro esquema expresa que "la sociedad" no construye su realidad sin mediaciones; hemos preferido mediar lo real y lo contextual a través de lo teórico, lo cual define la posibilidad de existencia de tantas realidades como teorías se postulen. c) La producción sintética de enunciados discursivos concretos en dependencia de un marco teórico determinado, o en otra escala, la capacidad que tiene una perspectiva teórica, estrategia o programa de investigación para expedirse discursivamente sobre la realidad. d) La posibilidad de construir un modelo o programa lógico codificando dicha formulación conforme a los cánones sintácticos y semánticos de una teoría axiomática. e) La prueba constructiva del modelo, su puesta en marcha, para obtener un educto, realizar un cálculo atinente, generar la imagen de un fenómeno o simular un comportamiento. 522 f) La crucial contrastación de ese educto o comportamiento, por último, con (una definición de) la realidad. El esquema comporta diferentes niveles de referencia, y por lo tanto diferentes sentidos para la concepción de los "conjuntos de enunciados" como entidades que son diferentes manifestaciones, en su conjunto, de lo que comúnmente se acostumbra llamar "teoría". El marco paradigmático abarca un cosmos o una ecumene, el marco teórico concierne a un dominio dentro de ese cosmos y la formulación discursiva concreta a un problema acotado dentro de ese dominio. De este modo, el estudio de Marvin Harris sobre las razones de la prohibición de consumo de carne vacuna en la India constituye la formulación discursiva de un problema, el Materialismo Cultural constituye el marco teórico de referencia y el materialismo en general el paradigma, cosmovisión, tradición filosófica o marco ideológico determinante. Si se desea, se puede reemplazar la nomenclatura que aquí se propone por alguna otra que haya sido consagrada por el uso y que apunte al mismo conjunto politético: las "tradiciones de investigación" de Barnes o Laudan, las "disciplinas" de Toulmin, las "matrices disciplinares" de Kuhn, las "orientaciones teoréticas" de Merton, Kaplan y Manners, las "estrategias de investigación" de Marvin Harris, los "programas de investigación" de Lakatos, las "redes teóricas" de Stegmüller y Moulines o las "escuelas invisibles" de Price (cf. Barnes 1982; Laudan 1977; Toulmin 1977; Kuhn 1979; Merton 1967; Kaplan y Manners 1979; Harris 1978; Lakatos 1983; Stegmüller 1976; Moulines 1983; Price 1961; González Echevarría 1987). Los procesos que se interponen entre los diversos conjuntos de enunciados equivalen a las "mediaciones" y "determinaciones" en que abunda la literatura antropológica. No todas esas mediaciones parecen formalizables, lo cual es otra forma de decir que la transformación de uno a otro conjunto no siempre se rige por operaciones especificables mediante una axiomática. Parecería ser que cuanto más axiomáticamente esté especificado (o sea especificable) el mecanismo de transformación, tanto más estará el educto sustantivo de esa transformación determinado por (y sólo por) los contenidos del conjunto antecedente. La línea de puntos delimita, diacríticamente, lo que el buen sentido indica que es posible formalizar: ni un ápice más, pero tampoco menos. Dentro del espacio de actuación de la teoría axiomática, es posible a lo sumo construir un modelo a partir de una especificación "natural" y probar la consistencia absoluta del constructo resultante. Lo que se encuentra fuera de su ámbito no forma parte de ninguna "lógica" de la investigación, sino cuando mucho de una ideología plausible, de una directriz que en algún momento ha resultado práctica. Ni falta que hace decir que con técnicas convencionales sólo se pueden producir y contrastar lo que hemos llamado "formulaciones discursivas" de validez siempre opinable, mientras que con técnicas de programación lógica cualquier programa de investigación puede producir y contrastar eductos harto más refinados, con ciertas garantías de coherencia interna fundadas en la utilización de la teoría axiomática del cálculo de predicados y en sus extensiones computacionales. Al llamar "discursiva" a una formulación no la estamos sometiendo a un juicio peyorativo; las construcciones de este tipo son inevitables aún en el proceso de desarrollo de un modelo formal. No se codifica, operacionaliza, mapea ni formaliza ninguna realidad en estado crudo, sino un conjunto más o menos ordenado de aserciones que se le refieren. Una formulación discursiva constituye así la materia prima de todo modelo, y ha venido siendo la forma normal de expresión de nuestra disciplina. Dinámicamente consideradas, las formulaciones discursivas equivalen a lo que se ha 523 llamado el "significado intencional" de un modelo [intended meaning], lo que un modelo pretende denotar (cf. Van Emden y Kowalski 1976; Sterling y Shapiro 1987:15-16); al utilizar el otro término pensamos preservar el sentido de una epistemología en la que no todos los constructos teóricos están destinados a formalizarse. De mediar un mapeado razonablemente prolijo (una codificación correcta) entre una formulación discursiva y un programa lógico expresado en cláusulas de Horn, aquélla constituye nada menos que la interpretación de éste. El campo formal no subsume la totalidad de cada una de las formulaciones discursivas imaginables, porque algunas de ellas no son suficientemente explícitas, son sobreabundantes, diseminan connotaciones o son inherentemente contradictorias. La mayor parte de las formulaciones que conocemos incluyen operaciones (como la "oposición binaria" levistraussiana o la "mediación cultural" de Marshall Sahlins) cuya falta de especificación les impide alcanzar el estatuto de tales, y que en un modelo habrán de funcionar tan pobremente (o no funcionar en absoluto) como lo hacen en su versión original. En el dibujo, la inserción parcial de las formulaciones discursivas dentro del área de consistencia garantida es entonces deliberada: con ello se implica por un lado que toda teoría en lenguaje natural (contradictoria o no) es expresable en un lenguaje formal, y por el otro que si esa teoría llegara a ser en efecto contradictoria pueden suceder varias cosas, entre ellas: (a) si la contradicción es conscientemente introducida y si no se formaliza, con cierta habilidad operacional el investigador podrá demostrar la conclusión que desee; (b) si la contradicción no es deliberada y si se construye el modelo, más temprano que tarde se generará la cláusula vacía y el carácter contradictorio del modelo se hará manifiesto. La contrastación queda fuera del círculo formal, pues las operaciones que involucra no forman, por lo regular, parte del modelo. Nótese que aunque la naturaleza de la contrastación impide formalizarla, lo que se contrasta en uno u otro caso son cosas diferentes; en una teoría informal se contrasta lo que verbalmente se afirma que podría ser su output o su comportamiento, minimizando las consecuencias que se derivan del hecho de que un modelo que no funciona (como el estructuralista) no genera ningún comportamiento o educto susceptible de contrastarse; en un modelo computacional, en cambio, se contrasta, inevitablemente, un comportamiento real. Como sucede con los niños, un modelo computacional se comporta mal o bien, pero se comporta de algún modo, y en base a ese comportamiento el modelo bien podría llegar a replantearse. De los modelos verbales no se sabe a ciencia cierta si se comportan o no, y es por ello que, por elegantes y meticulosos que sean, sus diseñadores vivirán por siempre en el limbo de los métodos im-probables o en la sospecha de que su funcionamiento es ilusorio. No saber si un modelo actúa como se espera teóricamente que actúe es, a nuestro juicio, demasiado no saber. Se considere grave o no esta amenaza, es importante señalar que, a diferencia de lo que ocasionalmente se afirma, los verdaderos modelos jamás se contrastan: lo que se contrasta es su comportamiento productivo, su performance, la información de salida, la trayectoria que simulan, la respuesta que devuelven. La peregrina idea de que se puede contrastar un modelo (y no su comportamiento) engrana sin duda con el prejuicio de que aún un modelo "ligeramente contradictorio" podría producir algo coherente, o de que no es necesario que un modelo produzca o re-produzca nada. ¿Será, tal vez, que los modelos formales se siguen diseñando a imagen y semejanza de los modelos icónicos o analógicos, y que por eso mismo se piensa más en su isomorfismo que en su consistencia? El dilema es "isomorfismo o consistencia", correspondencia con la realidad o coherencia interna, operacionalización inductiva o poder deductivo. Lo último que resta decir sobre los modelos denota524 dos en el esquema es que, si se admite la taxonomía que distingue los modelos analógicos (o icónicos) de los modelos formales (o conceptuales), lo nuestro atañe solamente a los segundos. Ninguna operación formal de mapeado garantiza el isomorfismo de dos entidades diferentes, y lo que signifique la consistencia de una analogía es algo que no se sabrá nunca, porque la analogía (o aún la homología estricta) es una operación externa de proyección entre dos entidades disjuntas y la consistencia una prueba lógica interna en un conjunto conexo. No hay formalismo que determine o que pueda justificar el procedimiento de mapeado de un dominio sobre otro de diferente estructura, y es por ello que discernir dónde termina una analogía rigurosa y dónde comienza una metáfora casual resulta tan difícil. El mismo término "mapeado" (que describe una suerte de correspondencia miembro a miembro, pero que no esclarece ni el significado proyectivo de la correspondencia ni el de la membrecía) es un sucedáneo seudoformal evidente de los "espejos", "iconos", "reflejos" y "homologías" de esas epistemologías arcaicas estudiadas alguna vez por Bachelard, Eco o Foucault. No hay mapeados axiomáticos. Los formalismos que garantizan la consistencia de un sistema formal, en cambio, se cuentan por docenas. Los únicos modelos que aquí nos preocupan, por ende, son los modelos formales, que no tienen la obligación de ser evocativos (aunque sean modelos de simulación), sino la posibilidad de ser consistentes. La consistencia no es una exigencia entre otras. Si la consistencia es el requisito básico, el vehículo de la modelización no puede ser otro que la lógica. Se descartan, por ende, otros candidatos igualmente tentadores, como la teoría intuitiva de conjuntos ilustrada por Suppes (1988) con ejemplos de la psicología, el álgebra instrumentada por los etnosemánticos, la topología matemática de Leach (1971) o las matemáticas estructuralistas subyacentes a la obra de Piaget o Lévi-Strauss, porque ninguno de esos marcos fundantes problematiza la consistencia, contentándose con un rigor de otro orden, casi siempre analógico. Sólo un modelo consistente puede producir conclusiones basadas en un cuerpo de premisas, y sólo en el interior de un modelo cuya consistencia ya se haya verificado tiene sentido insertar formalizaciones de otro tipo, que no están en absoluto excluidas. El problema con los modelos que incluyen aserciones contradictorias no es que no produzcan nada, sino que pueden producirlo todo: como dijimos tantas veces, de un conjunto contradictorio de premisas es posible inferir cualquier aserción. Por tal motivo, las implementaciones más cuidadosas de los lenguajes de programación lógica poseen prestaciones de debugging y control que niegan la supervivencia de modelos basados en premisas contradictorias. El Prolog clarifica hasta la náusea el viejo precepto lógico que establece, a veces tras un enrevesado proceso de prueba, que de un conjunto de premisas contradictorio puede derivarse cualquier conclusión. La reformulación de esta consigna en cláusulas de Horn es muy sencilla, y proponermos expresarla como sigue: de una disyunción contradictoria puede probarse la pertenencia de cualquier elemento a cualquier categoría, y de la conjunción de contradicciones nada puede derivarse. Si la disyunción es como sigue: cualquier instancia ligada de la variable X calificará como caso aceptable del atributo o relación denotada en el predicado, incluso aquellas que no se hayan referido en el conjunto de los hechos iniciales. Sometiendo a prueba la pregunta , donde el término constante podría ser cualquiera, la máquina respondería afirmativamente. Advirtamos que este no es un defecto del Prolog, 525 sino una consecuencia legítima del modo de expresión de la regla en cualquier lógica imaginable. Si, por el contrario, planteamos una conjunción como ésta: ni siquiera los casos estipulados como hechos producirán un proceso de computación finito, y toda pregunta al respecto estará destinada a abortar. Es preciso establecer ahora cuál es el rol de la lógica en la construcción de teorías y modelos, pues hasta el momento sólo hablamos en general de "fundamentación". Lo que hemos fundamentado es hasta ahora la herramienta y el lenguaje con que la modelización se consuma; resta hacer lo propio con los modelos lógicos en tanto instrumento de la disciplina, salvando la distancia que media entre la antropología y la disponibilidad de un recurso lógicamente fundado. La pregunta que cabe hacer es cómo se usa la lógica en antropología, o cómo se transforman las formulaciones discursivas de siempre en modelos formales de una nueva naturaleza. Toda formulación antropológica ha presumido de estar lógicamente fundada, de modo que la idea no es nueva. Ningún antropólogo (a excepción de Stephen Tyler) presume de contradictorio. En los modelos antropológicos que definimos como parámetros para que se pueda luego ponderar nuestro aporte, la lógica era una instancia consabida, cuyo rol fundante y legitimador se daba por supuesto. En ellos se insinuaba que la lógica era respetable en sí misma, y algo más implícitamente se la calificaba como instrumento indispensable, sin que quedara demasiado claro por qué. Si la documentación del trabajo de campo, la retórica del "haber estado allí", satisfacía los requerimientos de la autoridad etnográfica, la exhibición de formalismos (tanto más apreciados cuanto más esotéricos) fundaba algo así como el emblema de la autoridad metodológica. Como consecuencia de ello, en la antropología de avanzada el papel de la lógica siempre fue un tanto inespecífico, en especial en la obra de los autores que hacían gala de vanguardismo; éstos desparramaron promesas formales que muy pocas veces alcanzaban algún desarrollo y menos aún resultaban en la invención de instrumentos de aplicación permanente. El valor de uso de las herramientas no importaba tanto como el valor de cambio de su ostentación en el mercado académico. Con frecuencia, la apropiación de los recursos formales adoptó la sospechable contextura de lo que podríamos llamar "amontonamiento referencial" o "sopa de teorías", en el que unas cuantas citas bibliográficas, unas fórmulas simbólicas o un oportuno name-dropping suplían la exigencia de la asimilación real de un saber. Esto ha sido más evidente en los Estados Unidos que en Europa, en donde la erudición (necesariamente real) es una cualidad más común y más apreciada que la capacidad técnica (posiblemente ilusoria). Anthony Wallace, por ejemplo, deploraba que los antropólogos sólo hubieran mantenido "relaciones periféricas" con "la lógica formal, las matemáticas, la estadística descriptiva, etc." (1972:12). Su antropología es representativa de un espíritu de geometría que dominó la escena norteamericana durante la década infame del análisis componencial, cuyo fracaso ulterior sólo sirvió para confirmar en el imaginario antropológico la idea de que todo intento formal está condenado a la misma suerte. En la etapa racionalista, cualquier recurso formal venía al caso, por el solo hecho de serlo. Los etnocientíficos utilizaban el álgebra de Boole para establecer relaciones lógicas entre clases, y no perdían ocasión para enfatizarlo; Floyd Lounsbury echó mano de un par de operadores booleanos conmutativos, y a falta de un formalismo más fuerte los rudimentos del álgebra de conjuntos se desperdigaron durante algunos años en las páginas de los informes etnosemánticos, hasta 526 que William Geoghegan (1971) formuló el primer sistema axiomático de la antropología, en términos euclidianos, en un artículo tan riguroso como oscuro y, en el fondo, trivial (cf. Reynoso 1989). En estas experiencias, nunca se pasó de definir una notación que en ninguno de los casos cubría todo el espacio discursivo de los modelos, y que mezclaba alegremente (lo que hubiera desesperado a Quine) la lógica con la teoría de conjuntos o con cualquier especie indefinida de regularidad. David Cooper, de la Universidad de Surrey, ha identificado frecuentes usos espurios de la noción de lógica en antropología: Algunos escritores utilizan "lógica" para referirse a cualquier aspecto de los pensamientos y creencias nativas. Lévi-Strauss, por ejemplo, titula su discusión general de la clasificación nativa "La Lógica de la Clasificación Totémica". Encuentro que esto es oscurecedor. Una tribu bien puede creer que las almas de los elefantes vuelan al cielo cuando ellos mueren. Otra tribu puede creer que, aunque los elefantes no tienen alma, algunas enfermedades son ocasionadas por la mala voluntad de las almas de los elefantes. Ambas tribus tienen creencias particulares, pero en el segundo caso hay una peculiaridad adicional y radicalmente distinta. Parecería razonable restringir el término "lógica" a esta segunda peculiaridad: la cuestión de la inconsistencia. Paradójicamente, algunos antropólogos que han defendido al pensamiento primitivo contra cargos de ilogicidad e inconsistencia han hecho su trabajo más difícil al tomar como ejemplos putativos de lo ilógico lo que no son siquiera casos putativos de inconsistencia en ningún sentido lógico (Cooper 1975:238-239). Las demostraciones aportadas por Cooper son elocuentes. John Beattie, por ejemplo, toma la afirmación de los nuer que reza que "Los gemelos son aves" como caso putativo de creencia "autocontradictoria" (1966:68). Pero aunque esta creencia nuer pueda sonar extravagante, tal como está no es más candidata a calificar como contradicción que una aserción que afirme que "Los pollos son aves". Debido a que es una propiedad relacional, la inconsistencia requiere por lo menos dos enunciados o una proposición compuesta para manifestarse. Dice Cooper que la proposición de los nuer podría conducir prestamente a una contradicción si la ligáramos a otras proposiciones que nosotros reputamos verdaderas. Pero a menos que podamos adscribir estos u otros pensamientos a los nuer mismos, no es legítimo acusarlos a ellos de inconsistencia (loc. cit.). Sean cuales fueren los dilemas implicados por las creencias erróneas, no cabe confundirlos automáticamente con la falacia. Uno de los casos más alucinantes que conocemos de vaciamiento semántico del concepto de lógica se encuentra en el conocido ensayo de Edmund Leach sobre comunicación y cultura. Dice Leach: En nuestra propia sociedad occidental, alfabetizada, organizada mecánicamente, la lógica aristotélica "verdadera" se ha incrustado de tal manera en el sistema cultural que casi siempre damos por supuesto que este tipo de lógica es un componente esencial del sentido común. Sin embargo, en la práctica sólo utilizamos los principios lógicos formales en ejemplos relativamente raros, en los que tratamos de transmitir información exacta desde lejos empleando un único canal o comunicación, como cuando escribimos una carta o un libro o cuando hablamos con alguien por teléfono (1985:95). No vale la pena entretenerse en desconstruir afirmaciones de este jaez, típicas de una concepción de la antropología incapaz de divulgar el saber científico sin distorsionarlo. La idea de que en sus comunicaciones epistolares o telefónicas los seres humanos se rigen cotidianamente por "principios lógicos formales" es tan poco precisa, tan poco formal, tan analíticamente vacua y acaso tan falaz que no creemos que pueda aplicarse siquiera a la correspondencia sobre cuestiones lógicas que en su momento mantuvieran Russell y Whitehead. 527 Los antropólogos, con la honrosa excepción de los que se embarcaron -con epicentro en Inglaterra- en las discusiones en torno a las lógicas alternativas, a la racionalidad y al neotylorismo, no han sido demasiado consecuentes en sus referencias a la lógica. Aún en esa polémica excepcional, la revisión de la lógica se restringía al examen de las modalidades veritativo-funcionales, y sus conclusiones establecían apenas la necesidad de agregar un par de columnas a las viejas tablas de verdad. Fuera de ese círculo, el término se ha usado en multitud de sentidos heterogéneos, a menudo tan figurados o ambiguos que no parecen haber sido objeto de ninguna reflexión preliminar. Por poner un caso, es difícil saber qué quería decir concretamente Georges Balandier cuando hablaba de "las lógicas que operan en todas las sociedades, [lógicas] implicadas hasta el presente por toda vida social; y a las que, precisamente por esta razón, se las debe reconocer como antropo-lógicas" (1975:14). Frente a este racionalismo panteísta, frente a esta usurpación que confunde la especificidad de la lógica con la generalidad de los órdenes, afirmamos que no cabe investigar ninguna lógica que no sea la propia, en su capacidad de dar cuenta de un problema que desde las coordenadas de una teoría igualmente reflexiva se defina como tal. Nuestros modelos no han de tener por objetivo representar, digamos, "la lógica de los nuer", construir una maqueta de un hecho cultural para jugar con ella y así redimirnos de nuestra incapacidad experimental, sino analizar las formas en que podemos dar cuenta sistemáticamente de un fenómeno, problematizar la resistencia que él opone a nuestra capacidad para comprenderlo o explicarlo. El modelo pone a prueba la consistencia de la teoría, permite reflexionar sobre sus arbitrariedades conceptuales y verifica su productividad. No creemos ser caprichosos si concluimos que la antropología, en general, ha bastardeado el concepto de lógica. Cuando no se utilizó un instrumento de escasa cobertura (una operación algebraica ocasional, perdida en un océano de thick description), o cuando no se hizo referencia a una lógica que era en realidad otra cosa, la alternativa siempre fue el eclecticismo. Benjamin Colby, típicamente, se manifestaba en deuda con "la ciencia cognoscitiva, la filosofía, la semiótica, la lingüística, [...] el análisis proposicional, el procesamiento de información, la toma de decisiones" y otras áreas más o menos básicas o aplicadas de investigación (1986:39). ¿Qué finalidad persigue esta multiplicación de acreedores, que no sea la de postergar indefinidamente el pago de las deudas contraídas? El bricolage con ruinas de discurso, evidentemente, no es prerrogativa del salvaje. Declaraciones de principios similares se encuentran desperdigadas por toda la antropología más o menos reciente. Pero su significado cabal es muy incierto; la "lógica" que se menciona es una entidad demasiado genérica, y afirmar que se es respetuoso de sus avances o utilizar de tarde en tarde algún simbolismo emergente de ella no supone ningún compromiso epistemológico tangible, ningún ejercicio sistemático, y mucho menos una fundamentación. En la antropología de avanzada, la promiscuidad de la lógica con disciplinas o especializaciones concretas (que acaso también la subsumen implícitamente) acaba disolviendo la identidad del rol que aquélla juega en el conjunto de una construcción metodológica. Nosotros pretendemos una fundamentación más fuerte, y ésta sólo se alcanza con un compromiso más específico. Nos hemos impuesto mirar el problema desde otro ángulo, situando esa fundamentación que ya sabemos existente o potencial en campos instrumentalmente más definidos. Para ello recuperamos, modificándola, una útil distinción elaborada por los lógicos belgas del equipo de André Thayse (1988:159): a) La lógica puede ser vista como una técnica efectiva y directa para representar el conocimiento y el razonamiento que se ejerce sobre él. En este caso, se podría decir que la lógi- 528 ca opera como una herramienta universal que puede o no ser utilizada en conjunción y complementariedad con otras herramientas. b) La lógica su puede considerar también como una herramienta fundamental para abordar el análisis semántico del conocimiento y la validación de los razonamientos que sobre él se ejercen. c) Por último, la lógica se puede concebir como un formalismo de referencia contra el que se pueden comparar otros formalismos, ayudando a definir a éstos de una manera más rigurosa. Ni que decir que de los múltiples roles de la lógica nos interesan todos. Tomando la caracterización antexpuesta como esquema de ordenamiento, comenzaremos por analizar el rol de la lógica como vehículo para la representación del conocimiento disciplinario. 529 III 7. FORMALISMOS DE REPRESENTACIÓN DEL CONOCIMIENTO ANTROPOLÓGICO 0. Introducción En el proceso metodológico que estamos delineando, un modelo se construye en base a un programa lógico, al punto de identificarse con él. Un programa lógico vincula un núcleo descriptivo y un mecanismo de inferencia en una misma unidad modélica y computacional. Nada más alejado que un programa lógico de la concepción ingenua de la inteligencia artificial, la misma que prevaleciera el tiempo suficiente como para imponer su nombre al proyecto: desde el punto de vista semántico, el núcleo descriptivo de un programa lógico no es una enciclopedia del mundo, sino una descripción del conocimiento que (en este caso) un antropólogo tiene sobre determinado dominio restringido, expresado en cláusulas de un lenguaje computacional adecuado, de preferencia Prolog. El mecanismo de inferencia trabaja luego sobre esa descripción para verificar si determinadas hipótesis pueden derivarse o no del conocimiento inicial, para re-producir instancias posibles de los casos representados o para una multitud de fines sintéticos o analíticos. Motor de inferencia y representación cognitiva no siempre son, desde luego, partes separadas de un programa; se han desarrollado estupendos modelos sin rastros de esa dicotomía, que en algunas instancias no es más que una heurística útil. La descripción es un proceso no axiomático para el cual no rige una legislación irrevocable. Existe, eso sí, una creciente masa de tradición oral y de sapiencia práctica que no conviene soslayar. Lo primero es acotar el dominio. Que no sea un conjunto vacío es un requisito obvio; que no sea el universo es una decisión perspicaz. Que sea más restringido que amplio -por último- no es una exigencia apremiante, sino una recomendación saludable: cuanto mayor sea el rango referencial de un modelo, menor será su correspondencia con los casos particulares y su eficacia pre y posdictiva, y más enrevesado será el proceso de interpretación de los resultados que arroje. Sorprendentemente, al incorporarse la fuerza de las máquinas las pretensiones de la ciencia se encogen, en lugar de expandirse. Edificar modelos omnicomprensivos como los que proliferan en nuestra disciplina parece sencillo en tanto uno se mantenga en el terreno de la discursividad informal; esto sucede porque las implicancias y las relaciones cruzadas que se desencadenan no están a la vista y en realidad nunca se disparan. El teorizador informal no tiene modo de percibir problemas habituales, tales como la explosión combinatoria, la trivialidad, la circularidad, la generación de consecuencias indeseadas, el carácter impráctico que van asumiendo los procesos de cálculo lógico y la regresión infinita. En general, nuestra experiencia de trabajo cooperativo nos indica que la formalización de un modelo referencialmente ambicioso persuade a quien la emprende de lo resbaladizo que es el terreno de la teoría holística trascendental y lo fácil que es extraviarse cuando se vuela demasiado alto. El Prolog ha demostrado ser un espléndido y drástico inductor de reducción de escala en el desarrollo de la teoría y el método disciplinar. Lo que sigue inmediatamente a la elección de un dominio empírico es la adopción de una forma de representación del conocimiento que se tiene sobre el mismo. Esta instancia poco tiene que ver 530 con la expresión sintáctica de los términos, tópico que ya hemos cubierto; cuando hablamos de una forma de representación nos referimos esta vez a la semántica concerniente al objeto disciplinar, la cual comprende, por un lado, la estructura relacional que engloba a todos los hechos y reglas que participan de la descripción y, por el otro, los procedimientos de inferencia que habrán de recorrer esa estructura para responder a una pregunta, plantear una hipótesis, simular un proceso o realizar un diagnóstico. Se debe decidir, entonces, cuál ha de ser la organización interna del conocimiento a describir, con vistas a la implementación ulterior de las operaciones de búsqueda y cálculo conceptual más acordes con el problema que se trata de resolver. En este punto se presentan dos alternativas, no del todo excluyentes: se puede escoger un formato ad hoc que dé cabida a la estipulación de variables que intuitivamente parezcan ser las más importantes, o se puede recurrir a un tipo más o menos consagrado de representación, incorporando toda la experiencia computacional sedimentada alrededor suyo en materia de heurísticas, comprobación de límites, beneficios, riesgos y efectos colaterales, algoritmos de búsqueda, estructuras de datos subsidiarias y técnicas auxiliares. La segunda alternativa favorece la modularidad y la portabilidad del sistema que vaya a programarse, e incrementa las posibilidades de comunicarlo a otros estudiosos sin abundar en detalles que sólo interesan a una implementación o a una temática en particular. Cuando decíamos, empero, que ambas modalidades de trabajo no eran excluyentes, queríamos significar más bien que toda representación, aunque no adscriba exteriormente a una forma reconocida, responde a un esquema o a una combinación de unos pocos esquemas fundamentales, ya sea en su totalidad o en cada uno de sus segmentos heterogéneos. Pese a que ciertos bastiones proclives a la actitud antimetodológica han difundido recientemente la idea de que los saberes disciplinarios de la era contemporánea son extraordinariamente heterogéneos e inconmensurables (cf. Geertz 1983:147-166), lo cierto es que las estructuras subyacentes a las representaciones, emic o etic, científicas o literarias, se agotan en unos pocos tipos fundamentales. En otros términos, parecería ser que las formas de representación del conocimiento no son tantas, después de todo, y que la mayor parte de ellas puede encontrar cabida en nuestra disciplina, sin que sea digna de mencionarse ninguna peculiaridad global de la representación emergente del tipo de fenómenos que una ciencia blanda (como la nuestra) reclama como su objeto. En este punto cabe subrayar que la mera existencia de una estructura de representación marca una diferencia importante entre el formalismo que aquí se propone y las teorías de modelos de la lógica, la epistemología, la antropología y la computación tradicional. En confrontación con cada uno de esos campos, esa diferencia asume un sentido específico y una forma distinta: 1) Modelos lógicos y epistemológicos. Como correlato de su carácter excesivamente abstracto, en la teoría de modelos y, en general, en la totalidad de las corrientes de la lógica pura, la lógica aplicada y la epistemología (cualquiera sea el compromiso de las diversas escuelas con la lógica estándar), no existe nada parecido a una teoría de las estructuras de representación, y mucho menos una praxis alrededor de ellas. En la lógica convencional, los elementos que participan de las analíticas de la inferencia o bien son abstractos, o semánticamente vacíos, o puntuales; los términos de la referencia (los "Sócrates", los "hombres" y los "mortales"), fuera de su actuación específica en el mecanismo de cálculo cuando les toca el turno, se incrustan de una manera indiferente en una masa amorfa de inclusión de clases con respecto a la cual ni siquiera las lógicas más realistas y existenciales tienen nada que decir. Curiosamente, se ha reservado el término de "formas lógicas" para denotar diversas pautas de procesos de inferencia; con ello se afirma, implícitamente, que la forma concep531 tual del universo lógico al que corresponden los términos de las ecuaciones lógicas es irrelevante. La cosa no varía cuando se habla de "lógica de clases": en ella todo se agota en la pertenencia de elementos sin relieve a clases sin estructura. Daría la impresión de que los lógicos teoréticos han comenzado sus construcciones por el extremo indebido, llamando "modelos" a las interpretaciones válidas de una expresión al principio abstracta, una entidad formal, platónica, en espera de su aplicación a las cosas del mundo. 2) Modelos antropológicos. Nuestro modelo difiere de los que se han propuesto en antropología en numerosos aspectos; pero en lo que concierne a su contraste con las formas de representación del conocimiento propias de los modelos inscritos en la antropología estructuralista y de los esquemas descriptivos pertenecientes a la antropología cognitiva derivada de Goodenough, es oportuno enfatizar una especie de quiasma o de divergencia ortogonal. a) A diferencia de lo que sucedía en el caso de los modelos levistraussianos (en los que este particular no constituía problema alguno), en el modelo que se caracteriza en esta tesis existe algo así como una estructura de representación inherente e ineludible. En nuestra epistemología, la estructura de representación del conocimiento, más allá de que arroje o no efectos colaterales de orden técnico sobre las operaciones de inferencia, no constituye una opción susceptible de pasarse por alto, sino prácticamente un prerrequisito de la operación sobre el modelo. El punto de origen de un modelo de este tipo es un conjunto de hechos y de reglas que relacionan esos hechos, y es casi inevitable que ese conjunto se estructure de alguna manera. Aunque exista, desde ya, la posibilidad de implementar un modelo total o parcialmente desestructurado, o de no reflexionar acerca de la estructura de una representación, las actitudes elípticas recortan la eficacia del modelo como instrumento de reflexión sobre el conocimiento disciplinar. En los modelos antropológicos estructuralistas y en algunas de sus reelaboraciones matemáticas, como decíamos, la estructuración de la base de conocimientos o bien no está tipificada o es irreflexiva (cf. El Guindi y Read 1979; Weil 1985). Aunque pueda sonar paradójico, es notoria la falta de una estructura representacional genuina en el discurso estructuralista. En él se discurre sobre estructuras, por supuesto; pero las estructuras de las que se habla son (o deberían ser) posicionales, formales o sintácticas, sin relación alguna con las estructuras semánticas de los dominios modelados. b) En relación con los modelos descriptivos de la etnociencia nos encontramos en una situación diferente: en estos modelos lo único discernible es una estructura de representación a la que no está asociado ningún proceso de inferencia, a excepción de una posible generalización en el interior de los casos que, por definición, no puede extenderse más allá del ámbito de un dominio particular (parentesco, terminología cromática, taxonomía natural, recetas de cocina) en una cultura dada. En otros términos, el esquema etnocientífico es un modelo que comienza y acaba en una descripción y que no está ligado, de hecho, a ninguna teoría. A diferencia del nuestro, que postula la representación como formalismo a partir del cual comenzar a operar consecuencias, el modelo etnocientífico se limita a una especificación descriptiva o a la botanización transcultural de una estructura (cf. Reynoso 1986b). 3) Modelos Computacionales. La computación convencional no pretendía representar conocimientos, sino cuando mucho manipular "datos". En la disponibilidad de una amplísima gama de formalismos de representación del conocimiento radica entonces una de las diferencias esenciales entre 532 (por ejemplo) la tecnología de la programación lógica y la de las bases de datos convencionales. Si bien ambas, en hipótesis, cubren un mismo campo de posibilidades relacionales en las operaciones de búsqueda, en programación lógica el ensamblado de la representación sobre la cual se ejecuta la búsqueda es infinitamente más transitable y versátil que en DBMS. Ninguna base de datos, hoy por hoy, puede incluir representaciones arboladas, listas recursivas ni listas de diferencia. La relación entre ambas tecnologías es asimétrica: todo lo que puede hacerse en un excelente DBMS se puede hacer en programación lógica, mientras que lo inverso no alcanza a ser verdad. Y por añadidura, un buen lenguaje de programación lógica posee, entre sus prestaciones procedimentales, un método de acceso a estructuras de datos expresadas en DBMS o en planillas de cálculo. Es por ello que, en algún momento, incluiremos las bases de datos relacionales y las matrices como formalismos de representación a tener en cuenta. Decíamos que los desarrollos de programación lógica en antropología exigen, desde el principio, alguna clase de representación del conocimiento, bajo la forma de un análisis de la estructura del dominio que debe ser descripto. Ya hemos visto que es posible describir la estructura de un sistema mediante la teoría axiomática del cálculo de predicados, dado que éste es un formalismo representacional. Entiéndase que no es el mapeado de la realidad sobre las estructuras representacionales del modelo lo que queda garantizado axiomáticamente en lo que respecta a su consistencia, sino el conjunto de conclusiones que pueden derivarse desde la representación de los hechos en adelante. La representación del conocimiento y el desarrollo formal de una teoría están de todos modos inextricablemente vinculados: no hay modelo posible sin una mínima conciencia de esta ligadura. La representación del conocimiento acerca de un dominio involucra la descripción de los aspectos relevantes de la estructura del dominio en un lenguaje descriptivo. Una vez asertados los hechos y las reglas que constituyen ese conocimiento, se tiene fundada la base del modelo y es posible ingresar en el ámbito de los problemas formales, en donde los términos epistemológicos conocidos adquieren otra dimensión. Se dice luego que el significado formal de una descripción es análogo a las respuestas o conductas que la estructura procesual del formalismo puede producir sobre la base de esa descripción. Aclaremos que dicho significado formal es análogo entonces al conjunto de consecuencias de la teoría, en tanto que la estructura procesual del formalismo es análoga a un conjunto de reglas de inferencia. Si la semántica formal de un lenguaje de computación (revisada en el capítulo II.3.2) concierne a la naturaleza de las entidades que lo conforman y al comportamiento de los programas escritos en él, la semántica de la representación del conocimiento tiene que ver ya con una interpretación disciplinar relativa a un dominio de aplicación del formalismo. Podríamos llamar a aquélla semántica de primer orden y a ésta semántica de segundo orden, situando en un solo registro conexo aspectos de la significación que hasta el día de hoy han desconcertado a los autores de obras de síntesis sobre el significado; éstos nunca han podido vincular satisfactoriamente la semántica de los lógicos con la de los lingüistas, manteniéndolas como dominios de conceptualización que sólo tienen en común su nombre (cf. Lyons 1980). El registro semántico del segundo orden (que es el que ahora nos ocupa) es casi siempre un campo estructurado de alguna manera. Dicho de otra forma, toda representación del objeto disciplinar posee, desde el inicio o a la larga, cierta estructura. Hoy en día los tipos y subtipos básicos para la representación del conocimiento suman un par de docenas, cómputo del que habría que descontar unos pocos casos que son más bien variantes notacionales, combinaciones, transformaciones o metatipos de los tipos básicos. Al fin y al cabo, existe toda una nueva disciplina (la ingeniería del conoci533 miento31) abocada a explorar su taxonomía y su funcionalidad. Sin ánimo de ser exhaustivos, ejemplificaremos algunos de los tipos de representación candidatos a ser utilizados en antropología, señalando su espacio de actuación, sus beneficios y sus inconvenientes. Antes de ello deberíamos dejar sentado que la elección de un tipo en detrimento de otro difícilmente pueda prescribirse sobre una base formal, por más acotado que se encuentre el fenómeno que deba representarse. Este es un nivel de decisión hasta cierto punto subjetivo, aunque la experiencia acumulada alrededor de determinados tipos bien conocidos (y más que nada en torno de los frames) sea un factor digno de ser tenido en cuenta en el diseño de un programa inteligente. Disciplina Ciencia Cognitiva e Ingeniería del Conocimiento Estructura Reglas de Producción Frames, Esquemas y Guiones Redes Semánticas, Grafos Conceptuales Grillas de Repertorio Lingüística, Antropología y Psicología cognitiva Listas Cadenas o complejos encadenados Series Secuencias Analógicas Arboles Claves Taxonomías Partonomías Paradigmas Tipologías Tipos-Token Prototipos Conglomerados o congeries focalizadas Ordenamientos temáticos Grupos de interacción recíproca Montón o congeries Escalas Computación Listas Arboles Matrices y arrays Representación orientada al objeto Bases de Datos Redes Neuronales Diagrama 3.1 - Estructuras de Representación del Conocimiento Como es sabido, se han propuesto varios tipos de representación del conocimiento, algunos de los cuales están aún a la espera de un equivalente adecuado para su nombre en lengua española: frames, redes semánticas, scripts, grafos causales, grafos existenciales, grillas de repertorio, retículas, objetos, actores, planes, líneas-K, reglas y, por supuesto, lógica. Uno de los problemas en esta proliferación de notaciones, señalado por Walker (1987:221), es que no se dispone de un estudio acabado de sus respectivas virtudes y defectos; en la medida en que cada sistema de notación reside en su 31 Que sepamos, la denominación de Ingeniería del Conocimiento fue acuñada por Edward Feigenbaum, quien se inspiró en la "ingeniería epistemológica" de Donald Michie. Ambos términos ganaron dominio público no antes de 1974. 534 propia esfera de experiencias y responde a criterios e ideologías disímiles, históricamente accidentales, esta situación parece llamada a perdurar. Afortunadamente, la programación lógica en Prolog ofrece una base común y una tecnología práctica como para intentar alguna vez esta comparación, que por el momento diferimos en beneficio de una caracterización más circunstancial. Pero aunque la comparación formal se posponga y aunque las duplicaciones encubiertas de tipos similares hayan procurado evitarse, la que sigue es con mucho la catalogación más amplia y heterogénea de formas de representación del conocimiento sociocultural en programación lógica de la que tengamos noticia. Ello sucede porque hemos considerado tres fuentes de insumo: sucesivamente, (a) Las que se han propuesto en psicología o en Ciencia cognitiva, y más tarde en ingeniería del conocimiento, por lo general en correlación con ciertas teorías sobre la memoria y la representación mental humana; en este ámbito, las estructuras propuestas se interpretan como organizaciones de la información. (b) Las que se han desarrollado en las ciencias sociales semi-formales de los últimos veinte o treinta años, en particular en la semántica lingüística y en la antropología cognitiva; en estas disciplinas, las estructuras asumen la forma de organizaciones del significado. (c) Las que resultan emergentes de la práctica computacional genérica en torno a los lenguajes, sean éstos declarativos, procedimentales, funcionales u orientados al objeto; en esta actividad, por último, las estructuras se refieren siempre a las organizaciones de los datos. Lo importante no es evocar la anécdota de la existencia o la abundancia de los modos pautados de representación, sino someterlos a examen mientras se analiza, metalingüísticamente, la capacidad de la signatura propuesta para representarlos. Las modalidades reepresentacionales se prestarían a acomodarse en una serie de correspondencias laxas que estructuran analógicamente distintos momentos, campos o niveles del proceso metodológico global. El cuadro resultante (que exponemos a título de una intuición no desarrollada) sería como sigue: Momento Estructuración del lenguaje Operación metodológica Sistemas Expertos y KBS Unidad Semántica Predicado Hecho Estipulación de datos Base de conocimiento Inferencia Cláusula Regla Organización Motor de Inferencia Prueba Goal Pregunta Pruebas de teorías y casos Diagnosis El cuadro anterior puede leerse en términos de gruesas correlaciones estructurales, de este tipo: hecho : regla :: base de conocimiento : motor de inferencia :: pregunta : prueba lo que involucra que existen correspondencias o analogías que vinculan y atraviesan respectivamente las unidades de representación, los mecanismos deductivos o paradigmas lógicos reconocidos y las operaciones de testeo de hipótesis y producción de eductos. Habría, entonces, una especie de fitness casi "natural" entre la estructura declarativa del lenguaje y el diseño conceptual del modelo. De lo que se trata ahora es de esclarecer las posibilidades de la columna marcada. En la caracterización siguiente de las estructuras de representación del conocimiento se superponen tres pruebas críticas: 535 (a) la estipulación de un conjunto de "hechos" o "datos" antropológicos representables de manera óptima en cada estructura indagada; (b) la escritura de cada forma de representación en cláusulas del lenguaje Prolog; (c) un análisis somero de la productividad propia de los distintos formalismos y de los inconvenientes que presentan, de presentar alguno. Toda vez que esta capacidad representativa en sentido amplio nunca antes se había formulado como cuestión susceptible de examen, la adecuada respuesta que el Prolog brinda a todas estas formulaciones debe entenderse no como una recopilación de hechos consabidos, sino como demostración de uno de nuestros ejes esenciales. Bastará agotar el repertorio de las formas semánticas de la antropología y volcarlas en sintaxis de Prolog para que una de las dudas que por costumbre se arrojan contra los modelos formales (su asemanticidad) quede aventada para siempre. No es necesario estar de acuerdo con la estructura que hemos impuesto al conjunto clasificatorio que revisaremos; ella no es importante, pese a que desde el punto de vista formal pueda revestir interés para quienes buscan un (meta)lenguaje descriptivo adecuado para expresar esos fenómenos conceptuales. Reconocer tres perspectivas separadas (pero convergentes) ha generado ciertos interesantes efectos de correspondencia, paralelismo, contraposición o coincidencia parcial entre los respectivos formalismos. Estos efectos insinúan quizá un nuevo concepto de interdisciplinariedad. En él subsiste la idea de una dimensión puramente formal que encoge el número de las estructuras universales, pero entretejida con cierto respeto a las especificidades históricamente dadas que vuelve a expandirlo conforme al número de disciplinas intervinientes; y de este entrecruzamiento se desprende, a su vez, un mapa móvil y bastante complicado de las posibilidades de conmensurabilidad entre los diferentes campos del saber. Uno de los objetivos de los siguientes apartados ha de ser redibujar el cuadro 3.1 marcando la actuación de esos efectos. Esto no es tan fácil como parece, pues las respuestas metodológicas fabricadas en una disciplina no siempre coinciden con las preguntas que otras disciplinas formulan. Las diferentes ciencias encuadran objetos diversos, aunque sus nombres engañosamente se repitan. Como se ha subrayado alguna vez, un fenómeno tan anodino y primario como la "percepción" entraña más bien "fisiología" para ciertas ciencias, "mecanismos" para algunas otras y "conocimiento" para otras más. "Interpretación" remite en lógica a los rigores de Tarski, en antropología a las libertades de Geertz. Los foucaultianos no cabrían en su gozo, ya que para percibir las discrepancias no hace falta siquiera esperar una transición de epistemes. Pero aquí se quiere subrayar un efecto de signo contrario, como lo es el carácter representacional que comparten las estructuras (hasta hoy divergentes) de la información, el significado y el tratamiento de datos, y el escaso número de estructuras discernibles a despecho de la proliferación de significaciones. Algo debe importar que la computación, pese a su desinterés innato y rotundo por las formas que asumen las hebras de significados culturalmente compartidos, se las arregle con más o menos las mismas categorías de ordenamiento que la etnociencia. Que algunos hablen de datos donde otros ven interpretaciones es cuestión de jerga, más que de genuina divergencia estructural. La computación proporcionará, llegado el momento, formas genéricas para plantear modelos y resolver problemas lógicos; genérico quiere decir aquí que el dominio de aplicación puede ser cualquiera, en tanto la representación inicial obedezca a una determinada estructura y a condición de que esa estructura resulte aceptable o "natural" para la ciencia usuaria. Y esta no es una ilusión aristotélica o cartesiana, supeditada al cientificismo o al sesgo etic de la corriente antropológica que escojamos para demostrar536 la; hay pruebas históricas, documentos y testimonios: incluso cuando se quiso abandonar para siempre la semántica de límites taxativos y de condiciones necesarias y suficientes (acatando exigencias que estremecieron en la misma época a todos los campos del conocimiento), ambas ciencias desarrollaron por separado (pero en estricto paralelismo) el mismo género de ideas: por aquí la semántica de prototipos y la filosofía wittgensteiniana de los aires de familia; por allá, los fuzzy systems y los sistemas de cálculo aproximado. Luego profundizaremos este punto. El análisis de esos efectos sería aún más seductor en el caso de que nos decidiéramos a una exploración exhaustiva; pero la nuestra no pretende serlo, ni siquiera tentada por este aliciente. La función de nuestro ordenamiento es ante todo sugestiva de un ámbito indefinido de posibilidades representacionales, y el ordenamiento mismo -como una prueba inductiva- sólo tiene el propósito (retórico, si se quiere) de destruir el estereotipo que proclama el "esquematismo" de las descripciones formales y de encoger así el territorio de la imposibilidad. Hay sin duda una entropía en la propuesta de diseñar formas genéricas, capaz de acoger contenidos diversos. Pero ¿no decía acaso Weber que los modelos deben ser duros, y que conviene que atraviesen lo real oblicuamente, para no enceguecerse con la complejidad de las cosas? 1. Estructuras cognitivas de representación El campo cognitivo del que extraemos estas caracterizaciones iniciales para homogeneizarlas y contrastarlas posee confines difusos y cambiantes. Hace unos años se hablaba de psicología cognitiva, hoy se ha dejado de hacerlo en beneficio de una cognición transdisciplinaria (compárese Mayer 1985 o Cohen 1983 con Norman 1987 o Gardner 1987a). Los estudiosos que han concebido los diversos formalismos se definen algunas veces como practicantes de la ciencia cognitiva, otras como tributarios de la inteligencia artificial, otras más como especialistas en ingeniería del conocimiento. ¿Puede haber orden y formas fijas en un campo móvil, en una práctica sin siquiera nombre? ¿Es razonable buscar en una zona borrosa el meollo semántico de un formalismo que se dice axiomáticamente fundado? Las respuestas son afirmativas. Por el momento, ni esta indefinición, ni el hecho de que otros encuadres, diferentes al ofrecido, puedan resultar eventualmente más plausibles, parecen representar un problema mayor. Lo único que motiva la separación de este tipo de estructuras de las restantes es que su convertibilidad mutua ha sido explícitamente objeto de estudio con anterioridad. Son estructuras de representación del conocimiento con conciencia de serlo, y no meras anatomías objetivas del "significado". Por otra parte, las estructuras que llamamos cognitivas (al igual que las computacionales y a diferencia de las lingüístico-antropológicas) han sido formuladas como alternativas de estructuración a las que se puede recurrir en todo momento, con mayor o menor adecuación conforme al asunto modelado. Su dominio es primordialmente lógico y reflexivo, antes que objetivo y empírico. Se usan para representar enfatizando el artificio a los fines analíticos, y no para pintar sintéticamente las cosas como son. Sólo muy de tarde en tarde se ha afirmado que tal o cual fragmento de realidad posee necesariamente (en la cabeza de alguien, nativo o científico) la estructuración conceptual de que ellas dan cuenta, o que determinado dominio conceptual en una cultura se articule necesariamente según una estructura dada. La moraleja de las estructuras representacionales de ese campo laberíntico y obeso conformado por la inteligencia artificial, la ingeniería del conocimiento y la ciencia cognitiva, establece que, en hipótesis, cualquier dominio del conocimiento se puede expresar a través de cualquier 537 estructura, y que las configuraciones aparentes con que los dominios responden a la indagación son consecuencia directa de la forma en que se los interroga y de los fines que se pretenden alcanzar. Los parágrafos siguientes exploran sucesivamente, sin pretender agotar el tópico y sin abismarse en la complejidad real de las discusiones puntuales, la posibilidad de implementar antropológicamente reglas de producción, frames, redes semánticas, grafos conceptuales y grillas de repertorio. Advirtamos que es un tanteo provisional, no un inventario. La ciencia cognitiva conoce muchas estructuras más, aunque podríamos apostar que la mayoría de ellas subsume en alguna de las clases enumeradas. a) Reglas de producción Aunque la regla de producción sea el formalismo representacional que primero salta a la imaginación cuando se piensa en transferirlo a cláusulas de programación lógica, su status en el ámbito de la ingeniería del conocimiento es hoy en día precario. Sin duda, se trata del método más elemental: las reglas de producción expresan un conocimiento granular y compuesto de meras adiciones declarativas, sin estructura interna. Las reglas de producción son, junto con una base o conjunto de datos y un mecanismo de interpretación, uno de los componentes de los llamados Sistemas de Producción, propuestos ya por Post en la década del 40 (cf. Davis y King 1985). Las reglas de producción fueron implementadas en inteligencia artificial por el científico cognitivo Allen Newell, quien había visto aplicarlas a Robert Floyd en el diseño de lenguajes formales y compiladores en Carnegie-Mellon, hacia 1960. Existe una profunda analogía entre las reglas de producción, las cadenas de Markov de las matemáticas y las reglas de reescritura (o reglas generativas) de la gramática chomskyana. De los sistemas expertos que se han hecho famosos, tan sólo el más antiguo, MYCIN, utiliza reglas de producción; PROSPECTOR usa además redes asociativas particionadas, PIP implementa frames, CADUCEUS redes causales taxonómicas, CASNET redes causales asociativas y CRIB esquemas de tipo frame sobre una base de datos relacional. Pero no todo programa lógico (conviene aclararlo) está destinado a convertirse en un Sistema Experto, de modo que la escasa presencia de las reglas de producción en este ámbito no puede interpretarse como signo de su paulatina desaparición. Una regla de producción en el sentido de la ingeniería del conocimiento no es necesariamente lo mismo que una "regla" en tanto estructura básica del Prolog o que una "regla" sociocultural real conceptualmente reflejada. Una regla en Prolog posee variables que ligan el cuerpo y la cabeza; una regla de producción puede construirse combinando variables o constantes. Los sistemas de producción son, de hecho, varios años anteriores a la invención de este lenguaje, y en ellos la regla es menos un artificio mandatorio o prescriptivo que la descripción de un fragmento o chunk de conocimiento. Una regla de producción puede anotarse en Prolog mediante una o más cláusulas. Por ejemplo: O bien: 538 El primer par de ejemplos (3.1) es en realidad uno solo, de estructura recursiva. Dado que la forma clausal invierte las pautas secuenciales del lenguaje natural, conviene leer la regla en orden inverso a la escritura de la cláusula y con los signos especiales ya interpretados: "si el progenitor de D es A, o si el progenitor de D es P y el descendiente de A es P, entonces el descendiente de A es D"; o bien "si una pieza posee decoración incisa y motivos ornitomorfos, y si además proviene de los Valles Calchaquíes, entonces corresponde a la cerámica tipo A". Lo que es lo mismo que decir que ejecutando ciertos procedimientos (o instanciando ciertas variables) se obtendrán ciertos resultados, o se demostrará cierta aserción. En casi todas las máquinas de inferencia, shells o demostradores de teoremas, la acción de una regla es habitualmente más compleja de lo que trasunta la cabeza de una sola regla en Prolog; es posible que en la ejecución correspondiente a la demostración de una regla se modifiquen datos de la base de conocimiento, se escriban resultados o se ejecuten procesos variados. Dado que disparar una regla produce típicamente una situación nueva, dichas reglas se llaman reglas de producción. Sistemas de reglas Símil longitudinal Símil vertical Figura latina Inferencia Orientación Encadenamiento hacia adelante Encadenamiento hacia atrás Arriba-abajo Abajo-arriba Modus ponens Modus tollens Deducción Abducción Por los hechos Por las hipótesis Diagrama 3.2 - Sistemas de Reglas Es posible definir un programa eficiente que consista en unos pocos hechos incondicionales y en una discreta constelación informal de reglas. Cuando las reglas se acumulan, se reenvían e intervinculan, definen una estructura de inferencia, ejecución o encadenamiento. Las reglas están asociadas a dos modalidades de ejecutar el proceso de inferencia, que ordinariamente se caracterizan como "encadenamiento hacia adelante" (forward chaining) y "encadenamiento hacia atrás" (backward chaining). En los sistemas de razonamiento hacia adelante, dirigidos por el antecedente o down-top, las reglas de deducción se aplican a los hechos y las reglas para producir un nuevo conocimiento, finalizando la ejecución del algoritmo cuando se obtiene la fórmula buscada o todas las fórmulas posibles. Para realizar encadenamiento hacia adelante, el sistema se asegura que se han establecido todas las premisas de una regla, y luego considera que la conclusión puede sostenerse. Este encadenamiento constituye un proceso deductivo en sentido estricto. Consecuentemente, se puede redefinir un sistema de razonamiento hacia adelante como una máquina de inferencia que comienza trabajando con hechos y se dirige a averiguar sus consecuencias. Un sistema de deducción de este tipo se puede interpretar como una aplicación controlada del teorema de deducción hacia adelante (Thayse 1988:123), que reza como sigue: Dadas las expresiones lógicas F1, ..., Fn y G, se dice que la expresión G es una consecuencia lógica de F1, ..., Fn si la expresión lógica ((F1, ..., Fn) & G) es falsa o inconsistente. 539 El paradigma del encadenamiento hacia adelante parecería ser el de una especie de búsqueda a ciegas, pero esto no es por completo fidedigno, ya que en el uso corriente se utilizan numerosas heurísticas de restricción, cuyas relaciones con estas reglas han sido particularmente bien estudiadas. Un sistema con encadenamiento hacia atrás o top-down, por el contrario, comienza con un objetivo (al que se trata como si fuera una hipótesis) y luego busca hechos que lo confirmen. En este encadenamiento, el sistema trata la conclusión de una regla como un objetivo (goal) a ser establecido, y se impone a sí mismo el sub-objetivo de establecer cada una de las premisas de la regla; este sub-objetivo puede a su vez originar otros; pero en una inferencia con encadenamiento hacia atrás exitosa, algunos goals coincidirán eventualmente con hechos conocidos. De esta forma, los valores resultantes parciales se pasan a partir de los hechos y a través de diversos niveles de reglas, hasta llegar al goal original. Dicho de otra manera, en los sistemas con encadenamiento hacia atrás las reglas de deducción se aplican al objetivo y a las reglas para producir sub-objetivos nuevos; la ejecución del algoritmo finaliza cuando todos estos sub-objetivos corresponden a hechos. A diferencia de la modalidad anterior, este encadenamiento encarna fundamentalmente un proceso de abducción. Aunque este procedimiento se ha reputado propio de la mente humana y arquetípico de la imaginación intuitiva o estética, el Prolog en su forma nativa trabaja naturalmente según este principio. El pequeño sistema experto incluido en los apéndices ejemplifica el uso de reglas de producción con encadenamiento hacia atrás como método de demostración. Desde un punto de vista lógico, los sistemas de deducción de esta clase se pueden interpretar como una aplicación controlada del teorema de deducción hacia atrás (Thayse 1988:124) que reza como sigue: Dadas las expresiones lógicas F1, ..., Fn y G, se dice que la expresión G es una consecuencia lógica de F1, ..., Fn si la expresión lógica (F1, ..., Fn & G) es verdadera o válida. Los sistemas de razonamiento hacia adelante y hacia atrás son, como se ha dicho, opuestos. Aunque el segundo es el más afín a la naturaleza de la máquina de inferencia del Prolog y el que encaja más de cerca con las estrategias heurísticas de las tendencias contemporáneas en inteligencia artificial, la elección de una forma de razonamiento en lugar de otra depende de la naturaleza y la amplitud del problema. Es pragmáticamente posible y lógicamente correcto utilizar una combinación de ambas estrategias, o servirse de meta-reglas que establezcan cuál es la más adecuada en determinado contexto. Los sistemas de razonamiento hacia atrás y hacia adelante, asimismo, pueden estar compuestos de otras figuras representacionales aparte de las reglas de producción, aunque ha sido pensando en ellas que se los ha caracterizado. A la inversa, es posible "leer" el contenido de un programa cualquiera como un conjunto de reglas de producción que responden a una u otra estrategia, aún cuando el formalismo específico para la representación del conocimiento no sean reglas sino, por ejemplo, frames o redes semánticas. Lo que es lo mismo, podríamos decir que, de todos los formalismos de representación del conocimiento que se han definido, las reglas de producción constituyen el de nivel de generalidad más bajo, conformando una especie de grado cero de la estructuración en la que ésta coincide con y se limita a una estrategia de tratamiento. Aunque existe la posibilidad de expresar todo el conocimiento relativo a un dominio en forma de reglas, fundiendo de alguna manera la representación y los algoritmos de procesamiento, es bastante común que las reglas constituyan un nivel aparte, basado en una representación precedente de hechos puros. La cláusula 3.1, que establece el 540 cálculo de la descendencia, corresponde a este tipo, en tanto que la 3.2, que describe un estilo cerámico, incorpora valores constantes en la expresión condicional. El uso de reglas como forma de representación trae aparejados ciertos efectos que dependen de la textura y complejidad del dominio empírico y de su articulación teorética. En determinados casos, el orden en que el intérprete considera cada una de las soluciones potenciales pudiera ser pertinente e incluso crítico. En el estado actual de la tecnología de PC, la máquina de inferencia no puede considerar todas las reglas simultáneamente. El proceso de escoger qué reglas deben procesarse primero se conoce como resolución de conflictos [conflict resolution]; este elemento de juicio pragmático es tan esencial que podría decirse que forma parte inseparable de la experiencia computacional en torno de los sistemas de conocimientos basados en reglas. Si consideramos que un sistema basado en reglas constituye el paradigma de la programación declarativa, podríamos decir que un programa diseñado según sus principios (que típicamente incluye escasa información sobre el orden en que se dispararán las reglas durante el proceso de cómputo) posee alta transparencia, pero exhibe escasa visibilidad de conducta. Una regla es transparente porque su significado, contenido en el interior de la regla misma, es independiente de su ubicación en una base de datos. Que su visibilidad sea pobre significa que el orden en que se ha de procesar una regla no es de inmediato evidente a través de una lectura casual (cf. Davis y King 1977; Pedersen 1989). Naturalmente, un programa procedimental común en un lenguaje clásico exhibe las virtudes y defectos complementarios: máxima visibilidad y mínima transparencia. En una modelización de un fenómeno o proceso del mundo real, lo habitual es que las reglas de producción engranen con otras modalidades más envolventes. En general se ha reconocido que existen dos formas de materializar este encaje: estructurando las reglas primarias mediante reglas de mayor abarcatividad para formar un esquema jerárquico o utilizando meta-reglas que establecen secuencias o estrategias de decisión. Una tercera alternativa sería la de transformar reglas primarias de producción en formas de articulación más complejas o específicas de cada dominio. La bibliografía asequible abunda en ejemplos (cf. Davis y Buchanan 1985); nuestro sistema experto AGENI3.PRO incorpora metarreglas y rutinas para transformar reglas en frames. b) Frames Si el número de reglas de producción que conforman una descripción es moderado, no hay mayores problemas; pero en el caso de los sistemas de conocimiento de cierta magnitud, las reglas pronto se vuelven incontrolables, por más que se implementen estrategias de encadenamiento hacia atrás o heurísticas que minimicen el espacio de búsqueda y la profundidad de la exploración. A pesar de que el cálculo está a cargo de una máquina especializada y veloz, la acumulación de unos pocos centenares de reglas torna inmanejable a cualquier motor de inferencia. Un buen sistema de representación del conocimiento se caracteriza por una forma sucinta de notación y un mecanismo implícito para que sus diversos aspectos se puedan modificar a voluntad y comparar sobre un criterio preestablecido. Y las reglas, si bien sirven con eficacia a determinados propósitos, no constituyen un sistema óptimo, pues su estructura interna prácticamente es nula. 541 Entre las alternativas que se han propuesto se destacan los "marcos" o frames32. En rigor, los frames son uno de los mejores sistemas de representación que se conocen, y aunque muchos antropólogos no lo tengan claro, constituyen también una entidad en la que convergen sin saberlo los formalistas más acérrimos, los partidarios de la linguística emic, los relativistas culturales y los fenomenólogos (cf. Kenneth Pike 1954; Metzger y Williams 1966; Goffman 1974; Bateson 1985; Minsky 1986). El frame es también una forma de representación muy general, que puede servir de vehículo para la expresión de taxonomías, partonomías, secuencias de producción, prototipos y congeries de diverso orden y de variada atmósfera de denotación. El contexto de descubrimiento de esta modalidad representacional es nada menos que el de una reacción histórica de las facciones humanistas de la inteligencia artificial en contra de los modos mecánicos, acontextuales y planares que reducían el conocimiento a datos, hechos objetivados o información abstracta. Los frames y otros muchos constructos conexionistas de la misma naturaleza, como las líneas-K de Minsky, las estructuras beta de Moore y Newell, los scripts de Schank y Abelson, los esquemas de Bobrow y Norman, las perspectivas de Bobrow y Winograd y los memory organizing packets de Roger Schank responden a la necesidad de crear formas representativas que reproduzcan la sutileza y la abundancia de matices propias del pensamiento y el lenguaje humano en la vida real (cf. Moore y Newell 1973; Minsky 1975; Schank y Abelson 1987; Bobrow y Norman 1975; Bobrow y Winograd 1977; Minsky 1987; Schank 1987). Formalismo Dependencia conceptual Estructuras Beta Frames Esquemas Scripts (guiones) Planes Prototipos, Perspectivas Líneas-K Paquetes de organizaciónde la Memoria (MOPs) Autor D.G. Hays Roger Schank James Moore y Allen Newell Marvin Minsky Daniel Bobrow y Donald Norman Roger Schank y Robert Abelson Roger Schank y Robert Abelson Daniel Bobrow y Terry Winograd Marvin Minsky Roger Schank Año 1964 1969 1973 1975 1975 1977 1977 1977 1981 1981 Diagrama 3.3 - Estructuras de Tipo Frame Un frame es, en cierta acepción, un estereotipo, un arquetipo, un esquema mental, un lugar común o, como diría Alfred Schutz, una tipificación. Husserl, insospechable de tecnicismo deshumanizante, hablaba de noemata, y Bartlett denominó schemata a constructos similares. Para algunos psicólogos cognitivos un frame es un modelo de la mente que posee "realidad psicológica", vale decir, una descripción de estructuras, funciones, almacenes de memoria o estados mentales. El ser humano, según esta perspectiva, descansa en un enorme cuerpo de conocimiento implícito, de transmisión y modulación cultural, que utiliza para interpretar las situaciones de la vida diaria. Pero el uso de este concepto en inteligencia artificial no presupone la aceptación de esos supuestos ontológicos: a nuestros fines, sólo basta que el frame sea un medio adecuado de representación. 32 Se ha propuesto el empleo de "marco" como equivalente en español de frame (p.ej. Hernández y Pazos Sierras 1988). Pero este último uso es tan frecuente en la literatura especializada que por ahora preferimos dejarlo así. 542 Los frames son estructuras de representación que proporcionan formas de organizar datos acerca de objetos, acciones o sucesos en una jerarquía. Un caso particular pertenece a una clase de fenómenos; ésto es trivial. Una vez que caracterizamos un animal como "perro", asumimos una serie de atributos que posee un perro como miembro de una clase mayor que lo engloba: tiene cuatro patas, pelo y esqueleto interno, es mamífero, se reproduce de determinada manera, casi siempre ladra. Si el ejemplo apesta a sentido común, es porque se trata de eso; la ciencia tiene otros recursos, a veces axiomáticos, que no son los que se pretende caracterizar aquí. Pues bien, en terminología de inteligencia artificial, un perro en particular hereda una propiedad (tener cuatro patas, etc) por el hecho de pertenecer a la clase "perro"; esta clase a su vez posee automáticamente ciertas características que dependen de los niveles superordinados (ser mamífero, poseer esqueleto interno, ser multicelular), y así sucesivamente hasta el tope de la jerarquía de las clases. Un ejemplar posee todos los atributos de su clase (o en sistemas no jerárquicos, de su "arquetipo" o "prototipo") a menos que se estipule lo contrario. Estos atributos tienen, además, una serie de valores posibles. Si un aspecto en un frame no está explícitamente estipulado, el frame heredará el valor por defecto (default value) del frame con respecto al cual esté subordinado o de su forma prototípica: si en el mundo del sentido común, de la interacción cotidiana y de la actitud natural alguien pide un vaso de agua, supongamos, se asume que el agua debe ser potable, que debe estar en estado líquido y que no debe ser ni destilada ni oxigenada. De más está decir que un formalismo de este tipo no es reflejo inmediato de una realidad, sino una construcción que le atañe, y que tanto podría responder a una sistemática etic epistemológicamente refinada como a una forma emic de ordenar el mundo. En antropología se han utilizado conceptos análogos al frame en numerosas ocasiones, eventualmente bajo el rótulo de "esquemas culturales" (cultural schemata) y casi siempre en modelos que nunca experimentaron tratamiento y verificación en una máquina (Basso 1967; Rice 1980; Frake 1981; Agar 1982; Casson 1983). En su versión originaria (Minsky 1975), un frame era una forma de representar una situación, un constructo cultural, una convención. Cada frame posee slots (literalmente "ranuras" o "cavidades") que identifican esa situación o que especifican los parámetros de una situación particular. Un frame es una estructura de datos para representar una situación estereotipada, como estar en cierta clase de habitación, o ir a una fiesta infantil de cumpleaños. Asociadas a cada frame hay diversas clases de información. Parte de esta información se refiere al uso del propio frame. Otra parte se refiere a lo que puede esperarse que suceda después. Otra se refiere a lo que hay que hacer si estas expectativas no se confirman (Minsky 1981). Los frames facilitan la identificación taxonómica y la comparación entre casos, tanto al hombre de la calle en su actividad vulgar como al científico en las operaciones comparativas formales. Podría decirse que los archivos de la HRAF en la Universidad de Yale son un gigantesco frame, con otros frames anidados: cada sociedad consiste en una serie de slots que los antropólogos llaman "componentes" o "categorías culturales" (economía de subsistencia, organización comunitaria, religión, sistema de parentesco, organización política); en cada caso esos slots asumen valores cambiantes. En un análisis comparativo concreto, algunas variables poseen valores tan constantes que no se tienen en cuenta, se "simplifican" (como en las ecuaciones aritméticas) o se dan por descontadas; otras (la poliandria, por ejemplo) sólo se mencionan allí donde excepcionalmente se manifiestan, de modo que si no se especifican se asume que no ocurren, o que el valor de la variable MATRIMONIO en ese ejemplar es "neutro" o "normal", por el efecto de herencia respecto del arquetipo o frame supraordinado del que dependen. 543 A su vez, los slots de un frame pueden contener procedimientos que se activan para calcular el valor numérico de un atributo, o bien reglas de producción incorporadas que activan un procedimiento para averiguar un valor. Al contrario de los sistemas de reglas, que se pueden amontonar y resultar confusos y contradictorios, en un frame el orden es parte inherente de la base de conocimientos. El lenguaje Prolog es especialmente adecuado para la estipulación de frames; sus estructuras de datos, en particular las listas y los árboles, se prestan espléndidamente para el anidamiento y la recursión características de los frames, y los procedimientos permiten representar de una manera muy transparente el proceso de inclusión y la herencia de atributos. Una serie de artículos en revistas especializadas ilustran esta prestación con toda claridad (Jay y Knaus 1989; Floyd, 1988). A ellos remitimos para probar este punto, no sin antes ejemplificar un frame para la estructuración de historias tradicionales operacionalizado por la antropóloga Elizabeth Rice (1980), de la Universidad de Arizona, reminiscente de nuestra propia modelización del análisis eidocrónico de Benjamin Colby. Cuando sus slots se instancian con contenidos concretos, el esquema de Rice corresponde a una clase específica de frame que se denomina guión o script: El modelo, naturalmente, está considerablemente estilizado y sólo intenta demostrar la naturaleza jerárquica del conjunto. Los literales establecidos como "hechos" de Prolog pueden remitir a estructuras anidadas adicionales con opciones múltiples, o a una especificación de los contenidos posibles. La puesta en marcha de un programa que utilizara un frame de este tipo no sólo nos permitiría deslindar la estructura del educto, sino simular el proceso diagramado mediante reglas que, por su estructura pautada y jerárquica, devienen frames. Uno de los máximos especialistas reconocidos en Prolog, Rodger Knaus, quien alguna vez fuera colaborador de Benjamin Colby en las primeras experiencias computacionales de la antropología, está desarrollando desde hace algunos años formas de expresar frames en dicho lenguaje (cf. Jay y Knaus 1989). Knaus utiliza un operador específico para definir frames, aunque ello no es estrictamente preciso. Nosotros hemos estructurado como frames los predicados en que se describen los elementos en los sistemas de análisis de representaciones plásticas que acompañan a esta tesis, aprovechando la tipificación exigida por el dialecto Turbo Prolog como operador inherente, tal como se muestra en el ejemplo adjunto. 544 545 El ejemplo anterior corresponde a la estructura de representación de un conjunto de calabazas pirograbadas prehispánicas de la Puna Centro-Oriental (provincia de Jujuy, Argentina) conforme a la descripción inicial de la lic. María Isabel Hernández Llosas, investigadora del CONICET. La codificación resultante no comporta una simplificación de los datos originales, sino que traduce con naturalidad conceptos ya presentes en la formulación originaria (Hernández Llosas s/f), la cual ofrece una semblanza descriptiva homogéneamente parametrizada, al punto que no ha hecho falta prever valores asignados por defecto. Los predicados binarios y sintetizan las claves de codificación de las unidades morfológicas y los modos de articulación presentes en su decoración. El frame descriptor propiamente dicho se articula encadenando jerárquicamente los slots , , , y , que denotan en ese mismo orden el número y forma global de la pieza, el número de franjas de cada una, los motivos y la articulación de cada hilera y relaciones analíticas adicionales entre diversas franjas e hileras. El predicado insinúa aspectos complementarios de la jerarquización de los datos, a efectos de llegar a correlaciones analíticas de carácter más general. La herencia entre los niveles más altos y los más puntuales es, en general, una regla de inferencia tan débil como lo han querido los que inventaron la estructura: los detalles están subordinados al conjunto, sin que la existencia de conjuntos (aquí franjas o pares) implique necesariamente que siempre se dará el caso de subordinación. Es notoria la adecuación del frame para ordenar información ampliamente variable, como la relativa a estas calabazas: nótese que una pieza simple no deja casilleros vacíos ni desperdicia almacenamiento en la computadora, mientras que un ejemplar complejo admite incrustaciones recursivas hasta el nivel de detalle que haga falta. Tanto las piezas sencillas como las complicadas conservan la suficiente comparabilidad como para que sea posible abstraer regularidades significativas por poco que la dimensión de la muestra justifique hacerlo. Ni que decir tiene que el objeto empírico del frame no necesita afinidad tipológica con un tiesto: existen frames para tratar de secuencias de acontecimientos (en cuyo caso se habla de scripts) o para pautar normas de conducta (y aquí caben todas las reglas y cláusulas de la etnometodología). La jerarquía de los frames se puede recorrer hacia adentro, afuera, arriba y abajo, definiendo archi o microestructuras que pueden tratarse como frames incrustados o bajo la forma de otros órdenes, y en especial redes; Minsky sugiere una tipificación profusa (polinemas, líneas de conexión, transmarcos, micronemas, pronomos, isonomos, paranomos, agencias, transmarcos, unimarcos) y una semántica integrada que prometemos recorrer algún día (cf. Minsky 1986). 546 Otras formas posibles de representación mediante frames pueden encontrarse en los textos elementales de Prolog (cf. Malpas 1987; Rowe 1988; Weiskamp y Hengl 1988). Según todos los indicios, la nuestra constituye, sin embargo, la primera implementación antropológica del concepto a nivel de la programación de un sistema. Por lo demás, casi todos los frames a los que se hacen referencia en la literatura computacional son de carácter técnico y abstracto, y están incorporados a artículos programáticos en los que es más frecuente leer promesas sobre las bondades de la estructura que demostraciones empíricas de su versatilidad. Los frames han poblado la literatura antropológica de orientación neocognitiva de los años 70, al uso de los colaboradores compulsivos de American Ethnologist; pero su adopción no se hizo carne en la disciplina debido a la volatilidad conceptual de las teorías que hicieron uso de ellos y a la frivolidad epistemológica con que, de Lévi-Strauss en más, los antropólogos afrontamos el diseño de modelos. Los énfasis simbolistas tuvieron siempre precedencia, en detrimento de la documentación de los programas y de los detalles técnicos de los desarrollos, protocolos sin los cuales los frames son cháchara. La plena elaboración de representaciones mediantes frames por parte de los antropólogos para modelar su propio conocimiento o el de los sujetos que se estudian aún es meramente un proyecto. Es preciso documentar también que ha habido cierta oposición al concepto de frames; cuatro años después del trabajo inaugural de Minsky, Hayes (1979), en un ensayo brillante y de fastuoso estilo, analizó los logros de sus implementaciones y los pliegues de sus supuestos lógicos, llegando a conclusiones más bien negativas. Hayes desarrolla su discusión examinando tres concepciones distintas de esta modalidad: (1) Los frames como lenguaje formal para la representación del conocimiento, comparable a (digamos) el cálculo de predicados. (2) Los frames como sistemas que presuponen la representación de cierto tipo de conocimiento (esta sería la que Hayes denomina "interpretación metafísica"). (3) Los frames como un método de implementación computacional para la organización de la memoria, recuperación de información e inferencia. Esta última vendría a ser la concepción "heurística". Hayes considera, tras una nutrida ejemplificación, que los frames constituyen sólo una sintaxis alternativa a la lógica de predicados, por cuanto en general expresan relaciones entre individuos lógicos. Pero aunque los significados parecen ser los mismos, las conclusiones que habitualmente se derivan del uso de frames son diferentes a aquellas sancionadas por la lógica, y que se refieren siempre a mecanismos de inferencia. Hayes anota como factores negativos la falta de reglas de inferencia deductivamente fundadas, la imposibilidad de distinguir entre metáforas ("meras caricaturas") por un lado y aserciones reales por el otro, y la falta de monotonía (en el sentido lógico) suscitada por la noción de valores por defecto33. Los estudiosos han respondido a las críticas de Hayes con enorme contundencia, y puede decirse que más allá de esta polémica, que nada tuvo de colateral, la popularidad del método sigue aún hoy en ascenso. Israel (1983) demolió las distinciones y confusiones de Hayes entre representación y razonamiento, estableciendo que el uso de una representación no compromete con ningún mecanismo particular de inferencia; Etherington y Reiter (1983) enfatizaron la relación entre el uso de representaciones estereotípicas y los sistemas de lógica no-monotónicos, cuestionando el propio compromiso de Hayes con la lógica monótona del primer orden. El éxito de 33 El concepto de lógica no monotónica se desarrolla en la cuarta sección de la Tesis. 547 los frames, además, se demostró andando, optimizando innúmeras bases de conocimientos antes expresadas en reglas de producción sin estructurar y mejorando la eficacia de los sistemas (Ringland 1988:99). El artículo de Hayes, empero, es signo de un desvío saludable ante la aceptación a veces mecánica que suscitan ideas que, como la fenomenología que quiérase o no que subyace al frame, se basan a menudo en un cuestionamiento demasiado genérico de los modos lógicos estándar y en un examen insuficiente de algunos de sus propios resortes. c) Redes semánticas Desde el estructuralismo a la etnociencia, los modelos antropológicos convencionales recurrieron con frecuencia a la graficación analógica de determinadas ideas, fenómenos y representaciones. Este grafismo es sumamente variado, y recorre desde los árboles chomskyanos de Colby a las matrices multidimensionales de Osgood, pasando por todas las posibilidades intermedias. A esta variedad subyace una constante: en ninguno de los ejemplos consultados existe un nexo formal e invariante entre la estructura gráfica de la representación y la estructura conceptual o empírica representada. Los textos formalistas de la antropología contemporánea están atestados de esquemas gráficos; pero la forma en que el grafismo contribuye a esclarecer una idea compleja (si es que efectivamente lo hace) ha permanecido en gran parte sin examinar. Se recurre al dibujo que sea para trasuntar la idea que corresponda, dando por descontado que la grafía aporta un suplemento didáctico, por fundarse en un código (no analizado, e implícitamente no analizable) que presuntamente comparten autor y lector. En contadas ocasiones, es cierto, el autor proporciona una tabla de correspondencias para posibilitar una trascodificación entre lo graficado y lo conceptual; pero las correspondencias cambian de un dibujo a otro, aún dentro de los mismos conjuntos de argumentaciones. Para cada argumento, se nos obliga a aprender de nuevo las convenciones de un código tortuoso y a veces oculto. Tal como la concebimos e integramos, la programación lógica inaugura nuevas posibilidades de trascodificación al romper con el precepto que afirma que las representaciones analógicas o estéticas no admiten regirse por un código susceptible de explicitarse. Al lado de las formas convencionales de representación conceptual, están disponibles numerosas técnicas gráficas, conocidas genéricamente como redes. No hay que confundir las redes representacionales con el análisis de redes, desarrollado en ciertas áreas de las ciencias sociales, y a su vez fundado en una amplia apropiación de la teoría matemática de grafos (cf. Boissevain 1973). De este último nos ocuparemos en el primer estudio de casos. Las primeras constituyen en realidad una amplia familia de representaciones gráficas del conocimiento, cuyos miembros más conspicuos son las redes semánticas (o asociativas) y los grafos conceptuales. Se dice que las redes semánticas tienen su origen en Aristóteles, y en particular en sus ideas en torno del asociacionismo (la conducta está reglada por asociaciones aprendidas entre conceptos) y del reduccionismo (los conceptos se hallan constituidos por otros conceptos más elementales). Computacionalmente hablando, la historia de las redes se remonta a diversas experiencias con grafos conceptuales aplicados al problema de la traducción mecánica de textos, en los años 50 y 60. Los sistemas más elaborados de aquel entonces fueron las redes correlacionales de Silvio Ceccato (1961) y las redes semánticas de Margaret Masterman (1961), la reputada crítica de la epistemología kuhniana. Quillian (1966) propuso el primer sistema de computación importante que utilizó redes semánticas como modelo de la memoria, y desde allí en más se elaboraron muchísimos prototipos que exhi548 ben escasos puntos en común. Roger Schank y sus colaboradores desarrollaron grafos de dependencia conceptual para el tratamiento de insumos en lengua natural y para la mecanización de razonamientos. Hacia fines de los 70, cuando Nicholas Findler (1979) editó un variado conjunto de artículos a ese respecto, las implementaciones de grafos conceptuales ya eran innumerables (cf. Mac Randal 1988). Este ha sido desde siempre un campo en el que la teoría nunca estuvo a la altura de la práctica; o mejor dicho, como lo han advertido Woods (1975), McDermott, Israel y Brachman (1981) y John Sowa (1984), una actividad en la que las cuestiones lógicas y filosóficas subyacentes han sido abordadas con cierta negligencia. Aquí atacamos frontalmente dichas cuestiones, en relación con la posibilidad de la implementación antropológica de estos formalismos en el curso de elaboración de un modelo. Así como los diagramas de flujo que poblaban los libros antiguos de computación constituían la dimensión visual de los programas procedimentales, sugerimos considerar en lo sucesivo que redes y grafos constituyen la versión gráfica o el correlato visual del cálculo de predicados o de las diversas lógicas que ésta se halla en condiciones de represemtar. Los miembros más básicos del conjunto son los grafos conceptuales. Si tomamos el cálculo de predicados como entidad representacional de orden más bajo, podemos decir que los grafos conceptuales reemplazan los nombres de predicado, respectivamente, por dos distintas clases de nodo, con arcos que ligan nodos de distintos tipos. Cada grafo conceptual corresponde a una aserción lógica singular. PERSONA AG ENGULLE OBJ COCO INST CUCHILLO PAR MAT CASCARA Diagrama 3.4 - Grafo Conceptual con un ciclo "Una persona engulle coco con un cuchillo hecho de cáscara de coro" Las redes semánticas son mucho más abarcativas que los grafos semánticos; representan una colección de fórmulas, ilustran sus conexiones mutuas y las incluyen en un dominio de discurso. Los teóricos han subrayado que mientras las redes semánticas son útiles a nivel descriptivo porque representan una especie de retrato estructural de un conjunto de hechos, por el otro lado también ilustran algunas de las estructuras utilizadas en las implementaciones computacionales del cálculo de predicados (Thayse 1988:125). En una red semántica o red asociativa, las entidades y clases de entidades se identifican entonces mediante nodos, y las relaciones entre entidades se identifican mediante arcos que unen esos nodos. Al igual que en la notación con cláusulas de Horn, un arco conectado a un solo nodo establece una propiedad o atributo de ese nodo (cf. Findler 1979). Los nodos representan términos (nombres de relaciones físicas, situaciones, lugares, procesos, eventos, relaciones n-arias) y los arcos denotan relaciones binarias o argumentos de relaciones n-arias, para todo n igual o mayor que 2. Un ejemplo nítido de red semántica lo tenemos en las preguntas, encadenamientos conceptuales e interlinkages propios de la etnociencia: 549 ¿Para qué se usa X? ¿Qué clase de X es esto? ¿Qué clases de X hay? ¿Qué es este ingrediente de X? ¿Cuáles son todos los ingredientes de X? ¿Cuáles son las partes de componen X? En el momento más tormentoso del desarrollo de la antropología cognitiva, este tipo de representación del conocimiento caracterizaba, sin que los interesados lo advirtieran, casi toda la elicitación de dominios etnosemánticos. Lo que sigue es un fragmento de nuestra reescritura de una red semántica provista por Charles Frake (1965:142) para describir una fase de la selección de ingredientes para preparar bebidas fermentadas entre los subanum de Filipinas, expresada en hechos y cláusulas de Prolog. La representación original era como sigue: e/u mamaqen 'mascada de betel' i/u buna (3) 'constituyente' p/e gayu 'árbol' e/u buna (1) 'palma de areca' buna (2) 'fruto' e/u buna (4) 'nuez de areca' e/g buna (5) 'nuez de areca' Diagrama 3.4 - Red semántica Lo cual en Prolog se expresaría aproximadamente así: 550 Nótese que las "reglas" estipuladas en el segundo párrafo reducen los hechos posibles a unas pocas relaciones típicas inclusivas. En notación Prolog, los predicados expresan los arcos y los términos denotan los nodos. Desde el punto de vista funcional, una red semántica permite realizar inferencias a lo largo de caminos descriptos por determinados arcos. Si por una parte el etiquetado específico de los arcos permite conservar la semántica de las relaciones entre los elementos considerados, por la otra la abundancia en los tipos de enlaces llevaría a la ineficacia en la interpretación de la totalidad de la red. Un concepto esencial en el formalismo de las redes semánticas es el de jerarquía, que hace que esta estructura de representación sea especialmente adecuada para la formalización de taxonomías, secuencias, partonomías o tipologías, tanto etic como emic. Cada nivel de la taxonomía se representa mediante un nodo conectado por arcos de tipo es_un con los niveles superiores e inferiores. Las redes se adaptan igualmente para la representación de objetos no jerarquizados. Al igual que los frames, las redes, en sus diversas variedades, se originan en las especulaciones de la ciencia cognitiva acerca de las formas de representación del conocimiento "en la mente humana", supuesto que no es obligatorio suscribir en el modelo descriptivo que aquí se propone. Desde ya, las relaciones implicadas en un grafo semántico pueden ser mucho más elaboradas y teoréticamente ricas que las predicaciones simples de tipo es_un o es_parte_de, permitiendo traducir a reglas cualquier esquema de condicionalidades, tanto cualitativas como mensurables. Algunos han propuesto definir las ligaduras en función de la gramática de casos desarrollada por Fillmore (1966) para superar las limitaciones de las categorías de "sujeto" y "objeto"; los seis casos de relaciones sugeridos inicialmente (Agentivo, Instrumental, Objetivo, Dativo, Factitivo y Locativo), y que pretendían reflejar un conjunto de conceptos universales, y probablemente innatos, se incrementaron luego hasta alcanzar un número de primitivos relacionales pesado y difícil de manejar (Mac Randal 1988:54). La ventaja de las redes frente a otras alternativas radica en su atractivo gráfico, que las hace inmediatamente comprensibles (Hernández y Pazos Sierra 1988:193-212). La idea de que un diagrama que representa un conocimiento antropológico de carácter sintético sea convertible a predicados lógicos es sin duda seductora. Es posible que esa inmediata comprensibilidad oculte sin embargo una trampa, como todo lo que se tiende a dar por sentado o resuelto; en la vida práctica, la literatura de orden más técnico sobre la formalización con grafos tiende a ser de un fuerte gradiente de impenetrabilidad (p.ej. Sowa 1984). El exceso de pedagogía genera dificultades nuevas, oscuridades emergentes. El grafismo debe dosificarse a mínimos todavía no calculados, pues la acumulación de grafo tras grafo produce efectos de saturación que hacen que a la larga los textos devengan ilegibles. Se han señalado otros defectos en la representación mediante redes: los más importantes parecen ser la ausencia de una terminología relacional aceptada por todos y la falta de una semántica clara y precisa. El problema radica en que una notación no posee por sí misma significado alguno, y que en 551 este ámbito de estudios y aplicaciones la palabra "semántica" a menudo encubre un vacío de significación real: el dibujo es un mediador, y no es bueno que se arrogue un protagonismo desmedido. Una red no es más que una especie de estructura sintáctica, descriptible por una gramática gráfica que ocupa el lugar de una gramática de estructura de frase. Desde el punto de vista lógico el grafismo nada agrega, excepto claridad de percepción. Por este motivo, la mera adaptabilidad de una formulación teorética bajo el aspecto de un esquema visual no lo es todo: la teoría misma debe proporcionar de por sí la carnadura de las significaciones en forma de conceptos para evitar que el edificio formal se desplome. d) Grillas de repertorio Si hemos de ser estrictos, las grillas no pertenecen al mismo orden de tipificación lógica que los demás modos de representación que hemos revisado, pues constituyen más un método de elicitación del conocimiento que un formalismo descriptivo. Como formalismo, empero, se utiliza para describir objetos en términos de sus rasgos y valores, de una manera muy semejante a lo que en antropología cognitiva se conoció como análisis componencial (Reynoso 1986b). En rigor, el uso de grillas de repertorio es casi idéntico al interlinkage y a otros métodos de entrevista similares, utilizados por Frake, Metzger, Williams, Berlin, D'Andrade y demás etnógrafos cognitivistas entre mediados de la década del '50 y fines de los '60 (cf. Frake 1964; Metzger y Williams 1966). Por ahora no extraeremos conclusiones del hecho admirable de que una técnica de elicitación mecánica del conocimiento experto se asemeje hasta en los detalles más colaterales a una técnica etnográfica de análisis del "pensamiento salvaje". Utilizamos esta semejanza para comprobar una vez más, por si hiciera falta, la concordancia de la oferta informática con la demanda antropológica y para que no se piense en utilizar el aura tecnocrática de esta herramienta como un argumento en contra de su adecuación. El desarrollo de esta modalidad de representación se origina en la Teoría de los Constructos Personales de George Kelly (1955), la cual ha ejercido cierta influencia en las recientes estrategias de elicitación del conocimiento más allá de las grillas propiamente dichas. Los constructos de Kelly son templates o moldes que una persona crea y que luego intenta hacer coincidir con la realidad. La ventaja de este modelo (concebido en su origen para hacer frente a los mecanismos defensivos del sujeto en la práctica clínica) tienen la ventaja de servir directamente para recolectar conocimiento experto. Lamentablemente, tanto la teoría como la praxis de las grillas de repertorio están surcadas de notorias inconsistencias terminológicas, originadas por el hecho de que en su formulación han participado disciplinas y especialidades heterogéneas (técnicas de reconocimiento de patrones, psicometría, taxonomía numérica) cuyo único denominador común es la descripción y la taxonomía de objetos. La jerga de los repertoristas es variada: una tarea de toma de decisiones o de selección es un proceso en el que se selecciona un ejemplar entre un conjunto de alternativas posibles. Las selecciones se efectúan en el contexto de casos específicos, y a partir de la información que le corresponde. Cuando se toman numerosas decisiones en un caso, es común que se efectúen selecciones intermedias, que pueden llegar a asumir una estructura jerárquica. Pero no todas las decisiones se toman como si el problema fuese íntegramente novedoso: el experto, por lo común, relaciona algunas de ellas con su experiencia anterior y a las que se asemejan 552 con ésta las considera ejemplos. Los ejemplos ayudan a vincular concepciones abstractas con casos concretos, y es posible que sin tales nunca se logre estar seguro si el conocimiento capturado es realmente correcto. Muchos antropólogos observan con cierto recelo los hábitos epistemológicos de su propia disciplina, aduciendo que en la misma resulta más fácil y es más frecuente ejemplificar que definir. Cuando alguien ejemplifica un concepto en lugar de especificar las condiciones necesarias y suficientes que lo definen, se acostumbra tomar esa actitud como un indicio de debilidad teórica. La verdad de las cosas es que se ha reflexionado muy poco sobre la estructura y las capacidades de la expresión mediante ejemplos. La inteligencia artificial contemporánea ha rehabilitado el método de la ejemplificación, que posee a veces una eficacia operativa que las mejores definiciones categóricas envidiarían; la utilización de ejemplos se ha convertido incluso en una excelente heurística en la computación convencional, en el seno de las implementaciones de bases de datos relacionales que utilizan un lenguaje de búsqueda llamado QBE34. En principio, todas las operaciones axiomáticas del álgebra relacional se pueden denotar sin ambigüedad mediante una ejemplificación adecuada. Los que estudian la incorporación de prestaciones inteligentes a la tecnología de base de datos han verificado expresamente la excelencia del Prolog para expresar fórmulas de QBE (cf. Mouta, Williams y Neves 1988). Durante la toma de decisiones, los expertos realizan su selección considerando rasgos característicos para distinguir las alternativas. Se considera entonces que los rasgos son propiedades o cualidades que definen la selección en sí. Para identificar los rasgos (exactamente igual que en los interrogatorios etnográficos de los etnosemánticos) se comparan dos elementos alternativos de una selección y se solicita se indique en qué se parecen y en qué difieren. Dado que los rasgos reflejan características que se confrontan en una toma de decisiones, usualmente se considera que cada rasgo tiene su opuesto en el interior del conjunto. Este particular se parece más, de hecho, a la técnica del diferencial semántico, ideada por Osgood para investigar la connotación, las asociaciones de ideas y los significados afectivos, que al frío formalismo del análisis componencial, pensado por Goodenough para dar cuenta del significado denotativo. Con las características (traits) sucede lo mismo que con los rasgos (features): también existen opuestos a lo largo de determinada dimensión de posibilidades. Los valores posibles de una característica se conocen como atributos, cuyo conjunto define un rango de posibilidades y una dimensión distintiva. Por ejemplo: Característica Joven Rico Pesado Opuesto Viejo Pobre Liviano Atributo Edad Riqueza Peso La semejanza entre las tríadas propuestas por Kelly y el método de tríadas utilizada por los etnógrafos cognitivistas es sorprendente. Sospechamos que ni unos ni otros han sido conscientes del paralelismo metodológico, de la duplicación de esfuerzos o de la proliferación innecesaria de terminología. Pero los métodos no son por completo idénticos, ya que el producto que resulta de aplicarla varía. La diferencia esencial consiste en que en el caso de la entrevista etnográfica se obtenía un cua- 34 Es decir, Query By Example. Véase, por ejemplo, Alan Mayne y Michael Wood, Introducción a las Bases de Datos Relacionales, Madrid, Díaz de Santos, 1985. 553 dro componencial de un dominio (por lo general bajo la forma de un paradigma), mientras que en la elicitación experta se generan estructuras inferenciales que tienen la forma de las reglas de producción del Prolog. El método de las tríadas consiste en presentar tres ejemplares y en preguntar cuáles son los rasgos que dos de ellos comparten, pero no un tercero. El interrogatorio prosigue de la misma forma hasta que se identifica cierto número de características, número que varía, naturalmente, conforme a la dimensión del dominio que se releve. El sistema de relevamiento AQUINAS, por ejemplo, utiliza casi exclusivamente esta metodología. El método de las tríadas, sin embargo, tiene un punto débil: pese a que proporciona descripciones de una manera rápida y bastante práctica, de su aplicación no se derivan reglas discriminatorias generales; en otros términos, el método permite describir, pero no relacionar. selecciones coinciden ejemplos tienen tienen rasgos tienen llevan a características valores inducción exhiben atributos tienen conocimiento Diagrama 3.5 - Grillas de Repertorio Al lado de las similitudes, es justo destacar algunas diferencias técnicas relevantes, analizarlas y explicarlas reflexivamente. En su estudio de las categorías nativas del los tzeltal, Metzger y Williams (1966) emplean una terminología que difiere de la que emplean los analistas de grillas, aunque el propósito y el proceso de la elicitación se asemejan. Dichos autores sostienen que los datos que subyacen a una etnografía deberían representar respuestas culturales a cierto conjunto de condiciones. Pero las condiciones que rigen las respuestas nativas están presentes sólo por implicación; la descripción es replicable en un sentido muy general y está abierta a interpretaciones muy diversas y personales. Las "condiciones" son aquí la técnica investigativa, que define un mundo de interacción y choque cultural en sí. Es deseable que las condiciones se formulen en términos de contextos lingüísticos unitarios, a los que ellos llaman frames, y que se supone que responden a contrastes clasificatorios significativos para los informantes, pese a que de hecho surgen en el momento de interactuar con los antropólogos. La formulación de frames produce listas que constituyen conjuntos contrastantes, cuya organización posee, según se supone, una relación significativa con la configuración del "conocimiento" de los actores culturales. El contraste mayor entre los cuadros proporcionados por Metzger y Williams y la salida de una grilla de repertorio típica radica en la falta de regularidad y los matices y asimetrías de significancia que se perciben en los primeros, imputables a modos de organización de los frames ajenos a una mentalidad clasificatoria que podríamos llamar aristotélica o linneana, sin que ello implique poner en tela de juicio su riqueza semántica, su eficacia pragmática o su valor adaptativo. 554 La misma conclusión podría derivarse de tomar como parámetro otro estudio, esta vez correspondiente a las categorías de cobertura de otras taxonomías folk de la misma etnía tzeltal (cf. Berlin, Breedlove y Raven 1968). En este caso los procedimientos (y la terminología que les corresponde) son casi los mismos que se han popularizado entre los ingenieros del conocimiento que instrumentan grillas. Se despliegan tests de tríadas (inventados etnográficamente, al parecer, por Romney y D'Andrade), se induce a los informantes a construir claves binarias y se cubren los resultados de ambas operaciones con series de comparaciones apareadas. Las dimensiones y valores hallados por el equipo de Berlin corresponden sin duda a las características y atributos de los analistas de grillas. De nuevo la información de campo es más sinuosa y matizada que los insumos preparados para el tratamiento computacional, lo que incita a explicarlo, toda vez que no por su superior realismo la estructuración etnográfica es cualitativamente distinta. Los datos, sencillamente, son más ajenos, más extrañados. Tras varios años en el curso de los cuales los estudios cognitivos en antropología perdieron la masiva popularidad que disfrutaron en los 60, nos ha sorprendido hallar en un texto de inteligencia artificial una evaluación entusiasta de los métodos aplicados por los etnógrafos del conocimiento (cf. Benfer y Furbee 1989): Pocos ingenieros del conocimiento encontrarán problemas semejantes a los que afrontan los antropólogos. Sin embargo, utilizar los métodos que los antropólogos han desarrollado para capturar el conocimiento indígena de pueblos y dominios posee ventajas superiores a las de la experiencia cotidiana. El concepto primario más útil es la distinción entre emic y etic. Es bien sabido que la mayoría de nosotros no puede verbalizar fácilmente dominios del conocimiento, es especial aquéllos en los que somos expertos. Sin embargo, los antropólogos y los lingüistas han desarrollado métodos exactamente para ese propósito, los métodos de la etnociencia. [..] Los antropólogos poseen experiencia en sistemas bien conocidos para los expertos, pero a los cuales el antropólogo comprende sólo imperfectamente. [..] El ingeniero del conocimiento comparte muchos de los mismos problemas, si bien no el escenario, a menudo incómodo, que representa el campo (1989: 29). Estos ingenieros, sorprendentemente, ignoran la existencia misma de las grillas y la historia íntima de tecnologías del saber que con seguridad tejieron ellos antes y mejor; nosotros mismos, simultáneamente, parecemos ignorar el valor de lo que llevamos hecho. No viene al caso analizar punto por punto la forma en que se consuma el relevamiento automatizado del expertise del que resultan las grillas. Eso ha sido descripto con lujo de detalles en bibliografía accesible (Parsaye 1988). Lo que sí es importante es tomar nota de la posible equivalencia lógica entre la transferencia de ese expertise a un dispositivo mecánico que funciona según formas peculiares de inferencia y la trasmisión de un conocimiento especializado desde un informante etnográfico hasta un encuestador coaccionado por otras pautas de razonamiento. 2. Estructuras antropológico-lingüísticas de representación El propósito de este apartado es el de demostrar la posibilidad de expresar en Prolog primero, y luego comparar, perfeccionar y recuperar a través de modelos operativos las estructuras de significado y representación desarrolladas en las áreas de conjunción de la antropología y la lingüística desde el surgimiento de la antropología cognitiva de Goodenough (1956) hasta nuestros días (cf. Reynoso 1986b). La idea no consiste en aislar la capacidad del lenguaje para la reescritura de estructuras previamente formalizadas o pautadas, sino en demostrar su adecuación para expresar cualquier estructura, tomando aquellas que ya han sido abstraídas y nominadas como muestra representativa de una 555 totalidad que a primera vista tiende a lo innumerable. Nuestra dependencia de las formalizaciones lingüístico-antropológicas ya establecidas para la identificación del ámbito de posibilidades de las estructuras semánticas responde sólo a una conveniencia práctica, y no presupone que avalamos el orden clasificatorio que se ha inventado o descubierto ni la necesidad de reconocer estas (y no otras) formas de configuración del campo semántico. Trabajar con estructuras ya propuestas no involucra facilitar la gestión reproduciendo nexos predigeridos, sino hacerla más crítica poniendo a prueba la capacidad de la signatura del Prolog para tejer nexos deductivos a partir de ellas, sirviéndose del troquelado categorial de las representaciones como heurística que deberá orientar, llegado el momento, el análisis, las comparaciones y la generalización. Hay que evaluar tanto la fuerza sintáctica y pragmática del lenguaje para tratar la estructura, como la eficacia de la estructura para organizar el tratamiento lógico de lo real. Si hay o no dominios sin estructura, ello no es aquí relevante, aunque la no-estructura (como el caos) ha manifestado poseer pautas que justificaron definirla como una estructura más: el montón o congeries. Si la representación original se reputa no estructurable en el sentido de "ininteligible" o quizá "no racional" (Tyler 1978), tan difícil o imposible será sacar conclusiones en Prolog como en discurso antropológico natural. Pero si de la estructuración no se segrega una cierta eficacia modélica, ella será gratuita y podrá reputarse como formalismo superfluo. Es digna de señalarse una diferencia significativa entre las estructuras ya descriptas, originadas en la ciencia cognitiva o en la ingeniería del conocimiento, y las que revisaremos a continuación. Aquéllas se corresponden con teorías acerca del funcionamiento de la mente individual; éstas tienen que ver principalmente con representaciones colectivas. Si las primeras pretendían utilizar la "metáfora de la máquina" o el "paradigma del procesamiento de la información" como imágenes que permitieran modelar el pensamiento humano y reproducirlo mecánicamente, las segundas pretenden construir una representación inteligible para el científico, cuyo contenido no es otra cosa que un modelo del llamado "pensamiento salvaje", ya sea para mostrar su identidad o su diferencia con la mentalidad occidental. Unas y otras estructuras se pueden desplegar en un modelo de programación lógica como recursos heurísticos, sin adscribir, en cada caso, a las teorías en que se originan. Para ser consecuentes con su uso lingüístico y antropológico, utilizaremos el concepto de lexema para referirnos a las unidades verbales de significación en un campo u ordenamiento semántico. Un lexema es, de acuerdo con la caracterización de la semántica estructural, una unidad del vocabulario, análoga a una entrada de diccionario, no siempre equivalente a la palabra. Según los semanticistas, existen lexemas simples ("flauta"), lexemas complejos ("flautista") y lexemas compuestos ("flauta de Pan"), aunque esa distinción está ligada a las peculiaridades del idioma y parecerían ser relativas (cf. Lyons 1980:71-72). En su escritura en lenguaje Prolog (cuya dependencia de una lengua madre de tipo flexional habrá que analizar algún día), lo más probable es que un lexema se exprese mediante un término o un predicado. Si situamos al lexema en el centro de la escala de referencia, encontraremos estructura ya sea en el interior del lexema, a nivel de sus componentes parciales de significado (semas, sememas), como alrededor de él, determinando una macroestructura (campo, dominio) al cual el lexema pertenece cuando se lo considera desde cierto punto de vista, desde el cual el conjunto que integra se destaca como segregado o conjunto contrastante. En antropología lingüística, el análisis de la estructura semántica interna de los lexemas estuvo ligado históricamente al análisis componencial, codificado por la etnociencia, etnosemántica o antropología cognitiva derivada de Goodenough. No es preciso identificar las caracterizaciones siguientes 556 con los supuestos teóricos de esa escuela, seducida por los principios particularistas, emic, y en ocasiones anticientíficos (no obstante su formalismo) sustentados por el idealismo norteamericano. La antropología basada en el análisis componencial es una de las pocas corrientes respecto de la cual se admite abiertamente que fracasó. Se reconozca o no la validez del análisis componencial clásico, es menester reivindicar en este contexto la legitimidad del análisis semántico y subrayar la equivalencia lógica entre las operaciones de análisis del contenido semántico interno de los lexemas que componen un dominio, el deslinde de la estructura interna de ese dominio y la clasificación de las entidades que conforman el mismo. En lo que al Prolog respecta, el problema de las estructuras representacionales lingüísticas y antropológicas tiene tres caras: la primera es la capacidad de expresar conjuntos de hechos y reglas cuya mera estipulación determine la existencia de una estructura identificable obrando como nivel subyacente o implícito del conjunto; la segunda, la posibilidad de ordenar hechos preexistentes de modo que asuman una estructura que se desea imponer; la tercera, averiguar si una estructura definida se encuentra operante en un conjunto de hechos elicitados. En una prueba de aplicación de las capacidades del lenguaje se deben resolver las tres instancias. Algunas pruebas se suministrarán en este apartado; las que no, serán desplegadas en los programas y estudios de casos. Lo que sigue no es el listado de todas las estructuras de significado reconocidas en todas las corrientes constituidas en semántica lingüística, sino las de aquellas instrumentadas consecuentemente en la antropología, entendiendo que éstas constituyen una muestra representativa de las posibilidades teóricas. Lo que interesa de esas estructuras (que no serán estudiadas en todos sus aspectos ni presionadas hacia todas sus consecuencias) es su anatomía relacional; como este no es un tratado de semántica antropológica, sólo en algunos casos tantearemos terreno en otros sentidos. a) Listas Quienes han propuesto la idea afirman que una lista consiste en múltiples entradas léxicas que no están relacionadas más que por su orden ocasional, el cual es totalmente aleatorio. En su uso cultural común, en un procesamiento de información confiado a la memoria a corto plazo, las listas sólo son útiles para pequeños números de elementos (cf. Tyler 1978:255-256). En una circunstancia descriptiva cualquiera (las materias primas que constituyen un ergón, el número de textos que se refieren a un sitio arqueológico, el inventario de los elementos que componen una representación) las listas constituyen una forma de estructuración tan frecuente como poco analizada. Ya se ha visto que el lenguaje Prolog dispone de recursos preconstruidos para expresar sintácticamente la existencia de una lista, y de una serie de predicados tanto built-in como definidos por la tradición profesional, capaces de operar recursivamente sobre esas entidades. Véase, por ejemplo, el uso de los predicados findall, member, sort, reverse o append en los programas del apéndice y en el apartado 3.a de este capítulo. Pero no es preciso identificar las listas recursivas incorporadas al lenguaje con este tipo de estructuraciones conceptuales; es posible (y a veces puede resultar más práctico) representar los ítems mediante iteraciones de hechos. El ejemplo siguiente expresa las materias primas constituyentes de un ergón, primero como lista recursiva y luego en forma de hechos acumulados: 557 En Prolog sobran recursos para convertir conjuntos de hechos a listas y viceversa, lo cual, incidentalmente, sirve para demostrar la equivalencia semántica de las diversas estructuras de representación. La forma más sencilla de transformar un conjunto como el referido a una lista de ergones es mediante el predicado findall: Y a la inversa: Convertir una lista en un conjunto de hechos predicativos es algo más que instrumentar un mero cambio de formas. Computacionalmente, una lista es una estructura recursiva, y el mismo carácter asumen, como por contagio, los algoritmos que se le aplican. Un conjunto de hechos, en cambio, se puede tratar utilizando iteraciones en vez de recursión. Se sabe desde Gödel (1931) que las estructuras recursivas son peligrosas: todo sistema que las incluya se arriesga a la indecidibilidad, aunque en un programa bien diseñado esos límites se mantienen distantes. Algún día analizaremos por qué a los científicos sociales dominar las representaciones recursivas les insume mayor esfuerzo que ÄdigamosÄ a los programadores lógicos de profesión. En el capítulo dedicado a las estructuras computacionales de tipo lista revisaremos otras alternativas de tratamiento. b) Cadenas o complejos encadenados Una cadena es una secuencia de lexemas agrupados en la que no existe ningún principio homogéneo de agrupamiento. Cada lexema se relaciona con cada uno de los otros mediante un rasgo distinto (Vygotsky 1962:64-65; Bruner 1973:355-359; Tyler 1978:256). La representación de una cadena en Prolog es asaz directa, ya que puede exponerse mediante cualquier conjunto de expresiones que denoten algún tipo de análisis componencial. Para la codificación de un conjunto de datos destinados a reflejar una estructura de complejo encadenado se puede optar entre algoritmos recursivos sobre listas de listas, por ejemplo, y procedimientos iterativos sobre estructuras complejas de aridez múltiple. Diagnosticar que un dominio posee estructura de cadena, en cambio, requiere el diseño de procedimientos algorítmicos con un discreto despliegue de predicados extralógicos y una inevitable apelación a la variable anónima. c) Series. Una serie es un conjunto de lexemas relativos a elementos que se suceden o se preceden en el tiempo. En la antropología cognitiva clásica o en sus inmediaciones, las series daban cuenta, por ejemplo, de las etapas de ejecución de un ritual o de los pasos necesarios para producir determinado compuesto o confeccionar algún producto (pócimas, vasijas, viviendas, dramas sociales, actores culturales). En general, las series o secuencias etnográficas relevadas han sido bastante simples, con 558 escasas ramificaciones y paralelismos; pero la estructura en sí puede llegar a ser considerablemente compleja y a imponer, una vez en la máquina, procesos de producción o inferencia que deben ser descompuestos en otras estructuras más simples para poder simularse. Al contrario de lo que sucede en modelos que (como los estructuralistas) no tienen un correlato instrumental discernible, la introducción del tiempo en un modelo computacional no es de ningún modo una instancia crítica. La máquina de Von Neumann se encarga de establecer el isomorfismo entre el orden de la serie que se procesa y su orden efectivo de tratamiento. Al carácter serial del conocimiento o significado que se representa pudieran corresponderle exigencias de temporalidad sobre la lógica encargada de construir a partir de él inferencias emergentes. De la lógica temporal y de su simulación en Prolog trataremos en la cuarta sección de la tesis; nuestro programa SIMULA, a su turno, ilustra una sucesión seriada de acontecimientos cuyo isomorfismo con la secuencia temporal efectiva puede modularse, permitiendo jugar a la sincronía perfecta, a la aceleración y a la cámara lenta. El programa de marras disemina cantidades; para tratar series cualitativas, sólo deben reemplazarse los números por los símbolos que correspondan. Así como en el caso de las listas las posibilidades de la computadora desbordan las exigencias de las demandas antropológicas imaginables, en el de las series lineales la inminencia de las máquinas de procesamiento paralelo hace que la complejidad y amplitud de las demandas instrumentales sigan bajo control, con un añadido feliz: en casi todos las implementaciones que conocemos, la base estructural de los lenguajes para procesamiento paralelo es el mismo Prolog, modificado para la circunstancia (Clark y Gregory 1983; Eadline 1987; Shapiro 1986). d) Secuencias analógicas Estas secuencias proporcionan los ordenamientos propios de cosas tan comunes y heterogéneas como guías telefónicas, números de página y diversos dominios funcionales (cf. Tyler 1978:257). Se podría pensar en extender la definición de la categoría estructural hasta cubrir esquemas de representación tan bien conocidos por la etnografía como los llamados mapas cognitivos o los dominios culturales ad hoc que hicieran exclamar a Wierzbicka que "las manzanas no son una clase de frutas" (1984), insistiendo en que la categorización en las culturas reales a menudo se asemeja más al Emporio Celestial del Conocimiento Benevolente que a las clasificaciones lógicas y científicas. Como cualquier otro lenguaje de computación, el Prolog dispone de recursos para practicar y analizar los criterios de ordenamiento a que haya lugar. Hasta donde alcanzamos a ver, que un dominio sea funcional, contingente y ocasional en vez de estático, necesario y taxonómico no impone ningún obstáculo imaginable a su expresión en cláusulas de lógica. e) Arboles En oposición radical a los sistemas de definición de rasgos componenciales mínimamente redundantes o paradigmas, resultantes de la aplicación simultánea de distinciones componenciales, existe una estructura de máxima redundancia en el que ningún par de rasgos contrasta sobre más de una dimensión. Este sistema puede ser llamado un árbol, aunque esta nomenclatura induzca a confusiones con grafos conexos conmutativos capaces de trasuntar, en principio, todo tipo de relación o secuencia. 559 Para representar gráficamente un árbol se requiere un diagrama de conmutación apto para reflejar una estructura semántica ramificada. No se trata de que un árbol semántico no pueda representarse, por ejemplo, mediante matrices; es sólo que una figura matricial no sería económica como modo de diagramación, debido a la elevada redundancia de la articulación del dominio: la mayoría de las coordenadas, en efecto, aparecería ocupada por casilleros vacíos. En el diagrama arbolado el primer nodo indica típicamente la raíz o dominio, mientras que los nodos subsiguientes hacia abajo representan la elección de un solo rasgo o atributo a partir de una dimensión determinada. De acuerdo con la antropología cognitiva clásica, un árbol perfecto (que puede incluir o no una taxonomía) se representa por medio de un diagrama arbolado en el cual, para cada dimensión, existe un solo nodo sobre el cual se aplica. Paradigmas y árboles son lógicamente incompatibles, aunque cualquiera de ellos puede ocurrir en una taxonomía. Una vez más, la traducción de un árbol componencial o taxonómico a cláusulas de Prolog no ofrece ninguna dificultad especial. Una alternativa de codificación podría consistir en expresar mediante nombres de predicado las dimensiones que se contrastan y como términos sus valores sustantivos. Es posible que la representación más adecuada y directa sea la que implica el uso de estructuras específicas del lenguaje lógico, llamadas asimismo árboles, cuyo carácter analizaremos en el contexto oportuno. Como estructuras convencionales los árboles lógicos son quizá una pizca más complicadas de lo necesario; en compensación permiten tratar a las maravillas casos muy abstractos de isomorfismo. f) Claves En un campo semántico, las claves permiten contrastar rasgos simples de significado, de modo que se pueda referir la presencia o ausencia de algún atributo. Las claves se encuentran muy esporádicamente en contextos etnográficos, y existen motivos que conducen a sospechar que, allí donde aparecen, responden a un efecto clasificatorio que se produce como consecuencia de la estrategia utilizada por el etnógrafo en el trabajo de elicitación (Cf. Wierzbicka 1984; Fowler 1979). En Prolog la representación de claves y la determinación de la presencia de esta estructura en un conjunto elicitado no son mayormente problemáticas, con una salvedad. El mecanismo natural para expresar el carácter negativo de un atributo es la negación. Aquí es donde corre el riesgo de filtrarse una paradoja: pese a que la leyenda popular atribuye a la computación una eficacia restringida a los campos que se articulan taxativamente por "sí" o por "no", en un programa lógico una estructura semántica definida por afirmaciones y negaciones puras sería, de todas las imaginables, la más ambigua y la más indócil. Es que la negación tiene diferentes significados en un sistema lógico natural, en la lógica computada y ante el sentido común. La literatura técnica ya ha llamado la atención sobre este particular, que hace del uso de la negación en un programa lógico una instancia particularmente delicada (cf. Sterling y Shapiro 1987: 165-168; Covington et al 1988: 24-27). 560 Agujas en ramitos de 5 + Piñas con puntas gruesas + Piñas con puntas espinosas + Espinas curvas + - Piñas con 10-20 cm de largo + - Piñas de 7,5-20 cm abiertas + - P. balfouriana P. aristata P. flexis Pino blanco oriental P. strobus Pino blanco occidental P. monticola P. albicaulis Diagrama 3.6 - Clave parcial (cf. Preston 1966) El diagrama anterior, por ejemplo, sólo se podría expresar en Prolog al precio de cierta cuota de redundancia. Existen, sin embargo, numerosas alternativas a las claves, tanto en los árboles binarios de la teoría matemática de grafos, en los árboles B+ de la computación y en los métodos de pairing de la etnociencia reciente (cf. Lancy y Strathern 1981). En los apartados específicos trataremos ese punto. g) Taxonomías. Una taxonomía consiste en un grupo de lexemas relacionados por relaciones de inclusión: un terrier es un (tipo de) perro, un perro es un (tipo de) cuadrúpedo, un cuadrúpedo es (un tipo de) animal, y así sucesivamente. Una taxonomía es una estructura de ordenamiento de un tipo lógico claramente distinto al de Äpor ejemploÄ un árbol o un paradigma. En aquél caso nos encontramos ante una forma relacional precisa (la inclusión de clase) que puede no conceptualizarse en un aborde componencial, de un orden más abstracto. Casi todas las taxonomías reportadas por los etnógrafos se hallan ordenadas internamente conforme a estructuras de tipo árbol, y es posible que los niveles planos de una jerarquía taxonómica respondan casi siempre a configuraciones como las que aquí se filiarán como paradigmas. Técnicamente, una taxonomía es una relación de la forma aTb, donde T es una relación taxonómica que en lenguaje natural asume expresiones tales como "- es (una clase de) -", "todos los - son -" y posiblemente otras. Una taxonomía es irreflexiva (un taxon no puede ser subordinado o supraordinado de sí mismo), asimétrica (un taxon no puede ser a la vez sub y supraordinado) y transitiva (si aTb y bTc pertenecen a ella, luego aTc también). La condición de transitividad es tal vez la característica formal de la taxonomía de más amplios alcances (cf. Werner y Fenton 1970), en tanto que, para cierta etnología que se extiende entre Lévi-Strauss, el cognitivismo y Hallpike, la taxonomía en sí se ha transformado en el arquetipo del ejercicio intelectual típico de la pensée sauvage. El grosor que va adquiriendo esta tesis no nos permite más que esbozar lo que debería ser un tratamiento cumplido de este formalismo, uno de los que esconden articulaciones y consecuencias 561 más ricas para la antropología. Es esa misma riqueza la que ahora nos obliga a un abordaje sumario, a estipular algo que se parece más a un plan provisional que a un dictamen concluyente. Un desarrollo más ecuánime de estos menesteres no sería completo si no diera cuenta, en primera instancia, de la importancia de las taxonomías folk en el conjunto de los estudios cognitivos y de la forma en que los diferentes recursos computacionales (clásicos e inteligentes) podrían contribuir al esclarecimiento de formas emic de estructuración conceptual y a caracterizar mejor de lo que se ha venido haciendo hasta hoy su eventual diferencia con las pautas científicas de clasificación. Hay otros interrogantes agazapados: ¿es la taxonomía el grado cero de la ciencia? ¿hasta qué punto todo saber no es eminentemente taxonomizador? (cf. Benfer y Furbee 1989). En un segundo momento, cabría inspeccionar también la relación entre las taxonomías politéticas y el problema de la taxonomía numérica, tanto a nivel emic como etic. La taxonomía numérica o clasificación natural constituye a su vez una propuesta de orden inductivo que posee, según nos han comunicado colegas orientados a la antropología biológica, ciertas consecuencias metodológicas e ideológicas desagradables que no habría que pasar por alto. Así como las escalas de Guttman han propiciado especulaciones paleo-evolucionistas, la idea de la clasificación natural alimenta ideas que inclinan la práctica científica al irracionalismo (Needham 1975; Chaney 1978b). En tercer orden, aquí debe tratarse asimismo el consabido aserto referido al estatuto de "historia natural" de que disfrutarían, en la puerta misma de su promoción a ciencias plenas, determinadas formas del conocimiento, la antropología entre ellas. A este respecto viene a cuento la siguiente afirmación de Hempel, a encuadrar dentro del paradigma neopositivista: Con alguna simplificación, a menudo puede decirse que el desarrollo de una disciplina científica parte de una etapa inicial de la "historia natural", etapa en la que se busca primeramente describir los fenómenos en estudio y establecer generalizaciones empíricas simples acerca de ellos, para pasar a etapas cada vez más "teóricas", en las cuales se otorga creciente importancia al logro de explicaciones teóricas amplias del tema empírico en investigación. El vocabulario requerido en las primeras etapas de este desarrollo será en su mayor parte observacional. [...] El paso a la sistematización teórica se señala por la introducción de nuevos términos "teóricos", que se refieren a las diversas entidades postuladas teóricamente, a sus características y a los procesos que intervienen" (Hempel 1988:143-144). La ejemplificación de estas transiciones entre puntos de vista "sintomatológicos" y "etiológicos" podría tomar como punto de partida los supuestos de diversos programas clasificatorios (los archivos de la HRAF, por ejemplo) y luego simular o poner a prueba la derivación de un conjunto de afirmaciones teoréticas, tomadas de los estudios transculturales de Murdock, Naroll, Cohen o Whiting. En esta analítica habría que indagar también la relación entre "términos observacionales" y "hechos" de la notación lógica y entre "términos teóricos" y "reglas" o "procedimientos" lógicos, para ver si la transición hempeliana puede expresarse como la derivación (o construcción) de estos últimos a partir de aquéllos. Convendría quizá otorgar a esta diferencia un valor estrictamente relativo, por cuanto los "hechos" iniciales de un programa lógico (o de una etnología) podrían estar encuadrados con arreglo a categorías teóricas, más que observacionales. Si es verdad lo que consigna Hempel, sería preciso indagar formalmente lo que las técnicas de inteligencia artificial aquí propuestas podrían hacer para perfeccionar los saberes propios de la etapa en que nos hallamos y de las bifurcaciones a la vista. Por último habría que expedirse sobre los importantes hallazgos de John Gregg (1954) y tratar a fondo las analogías elaboradas por James Hamill en "Syllogistic reasoning and taxonomic semantics", adaptándolas a las modalidades propias del cálculo de predicados. 562 Mientras todos estos objetivos se anotan entre los numerosos proyectos emergentes de esta tesis, convengamos que, en tanto lenguaje relacional, el Prolog constituye un vehículo óptimo para la expresión de datos taxonómicos. Nuestro sistema experto, AGENI3.PRO, admite el ingreso y tratamiento de esa clase de datos. Las taxonomías no son formalmente tan especiales después de todo, y lo que las particulariza es el sentido de abarcatividad e inclusión de los términos a medida que se avanza hacia los lexemas terminales. El carácter de predicación clasificatoria de las reglas de producción que forman el nivel aparente de la base de conocimientos del modelo es una instancia interpretativa que no compromete la eficacia de las operaciones que la atraviesan. En dicho sistema, la condición de transitividad es coextensiva a la recursividad entre las categorías de inclusión. h) Partonomías La especificidad de la partonomía con respecto a otras estructuras de inclusión de clase finca en que, en aquél caso, las relaciones de transitividad sólo resultan válidas entre niveles conjuntos. Así, mientras en una taxonomía resulta correcto interpretar que "un perro es un mamífero" (aunque existan planos intermedios de discriminación), en un esquema partonómico no lo es deducir que "un dedo forma parte del brazo" sin tener en cuenta la existencia de partes intermedias vinculantes. La particularidad de las partonomías no sólo atañe a las operaciones interpretativas; para ser cabalmente correctas, las operaciones de inferencia que recorren las estructuras partonómicas o bien no deben dejar que las preguntas de inclusión disjuntas se realicen con éxito, o bien deben asentar en las respuestas la existencia y el carácter de las relaciones de inclusión intermedias. Para ello habrá que aniquilar la transitividad bloqueando todas las reglas recursivas o manteniéndolas bajo control. El objetivo no es difícil de alcanzar en Prolog, pero tampoco es de logro inmediato. Aunque no hemos estudiado el problema en detalle, el control de los encadenamientos deductivos no parece presentar dificultades insalvables una vez que se domine el flujo de la prueba lógica con el suficiente margen de virtuosismo. Nuestro sistema experto genérico AGENI3.PRO admite información partonómica como insumo, incluso bajo la forma de frames capaces de articular la comparación entre sistemas distintos. En la transacción de diagnosis, el sistema especifica qué condiciones corresponden a los niveles superiores de la clasificación. Hace ya casi un cuarto de siglo, la antropología del conocimiento descolló en modos de análisis partonómico de corte clásico. El estudio más típico, quizá, es el de Keith Basso (1967); en él se analiza la proyección del conocimiento partonómico del cuerpo humano sobre los automóviles y camiones transculturalmente adquiridos por los apache occidentales. En el esquema apache, el cableado eléctrico se identificaba con las venas, el tanque de gasolina con el estómago, el distribuidor con el corazón, la gordura con la grasa mecánica, las luces frontales con los ojos, los mecanismos bajo el capó con las tripas o intestinos y así el resto. Al margen de las enseñanzas que arroja sobre dominios semánticos previos y sobre los procesos de aculturación, el artículo de Basso, tan sencillo como ejemplar, nos sugiere que los recursos del Prolog bien podrían servir para determinar primero el isomorfismo entre esquemas arbolados y aprovechar después el análisis de los isomorfismos para otorgar calidad formal a la extrapolación de metáforas y analogías entre dominios cognitivos separados, o incluso entre diversas culturas. Ejemplificaremos el primer tópico al tratar sobre los árboles computacionales; el segundo, sin duda, requiere un tratamiento pausado y un diseño investigativo en los que por ahora no podemos entretenernos. Sacrificamos entonces otra excursión interesante, pese a que su promesa es más fundada que el 563 apego ritual de la antropología interpretativa hacia metaforizaciones no analizadas y no analizables, en principio, a través de la metodología que ella misma promueve (cf. Turner 1974; Geertz 1980). i) Paradigmas El paradigma es la estructura representacional más ordenada, menos redundante y más perfecta de todas las que se inventaron o descubrieron durante el auge fugaz del análisis componencial. Dado un dominio en el que se ha reconocido un número finito (idealmente, reducido) de dimensiones semánticas, cada una de las cuales puede asumir una cantidad acotada de valores posibles, se obtiene de inmediato un paradigma. B tú nos1 A nos3 C él yo vos ellos nos2 Suponiendo que el dominio en cuestión sean los pronombres personales de una lengua, como en la ilustración anterior, las dimensiones semánticas involucradas podrían ser (A) género, (B) número, (C) inclusión del hablante y (D) inclusión del oyente. Los valores posibles serían, respectivamente (a1) masculino, (a2) femenino y (a3) neutro; (b1) singular y (b2) plural; (c1) hablante incluido y (c2) hablante excluido; (d1) oyente incluido y (d2) oyente excluido. Queda claro que un paradigma sería entonces una intersección de clases de un tipo especial, conjuntiva, no reflexiva, intransitiva y no jerárquica. Un universo se encuentra estructurado paradigmáticamente cuando al partírselo en conjuntos (asimilables a dimensiones) no queden conjuntos con miembros en común y la suma de todos los conjuntos restituya el universo inicial. En lógica de conjuntos, se podría decir que la intersección de todos los conjuntos es un conjunto vacío, y la unión de todos los conjuntos es el universo. Los paradigmas admiten también una representación arbolada, lo cual no debe inducir a confundirlos con los árboles, que son estructuras con otras características de redundancia componencial. La que sigue es una versión arbolada del paradigma pronominal anterior: 564 D a2 a1 b2 b1 b1 b2 c1 c2 c1 c2 c1 c2 c1 c2 L1 L2 L3 L4 L5 L6 L7 L8 La aplicación de las definiciones componenciales estipuladas darían por resultado un dominio de ocho lexemas con la siguiente composición semántica: Se han reconocido dos modalidades de paradigmas, los llamados perfectos u ortogonales, que son los más apreciados por los analistas, y los imperfectos, que como siempre pasa son los más abundantes. En un paradigma perfecto, para cada conjunto de valores a1, ..., an en una dimensión dada A, existe un par de lexemas en el dominio cuyas definiciones componenciales son idénticas, excepto en lo que respecta al rasgo semántico considerado en esa dimensión. En ese mismo paradigma perfecto, para cada combinación posible de rasgos y valores existe uno y sólo un lexema. Los paradigmas perfectos poseen redundancia cero, lo cual implica que un cambio operado en un solo rasgo de la definición componencial resultará en la definición componencial de otro lexema del mismo dominio. Es oportuno un ejemplo aducido por Goodenough, aunque este autor no se expresa en términos de paradigmas: el lexema "tía" puede hacer referencia a la hermana de la madre, a la hermana del padre, a la esposa del hermano de la madre o a la esposa del hermano del padre; en todo caso, será un pariente de Ego que es simultáneamente (I) de sexo femenino, (II) ubicada a dos grados de distancia genealógica, (III) no lineal, (IV) de la generación mayor o "senior" y (V) no conectada por lazo marital en otra generación que no sea la mencionada. De esta manera, los diferentes denotata disyuntivos han sido integrados en una organización conjuntiva, constituyendo una clase unitaria que puede describirse como el producto cartesiano de la combinación de los distintos atributos. Si el dominio es reductible a un paradigma perfecto, se cumplirá la condición establecida en los párrafos anteriores; en efecto, si se varía la dimensión (I) se obtiene "tío", si se modifica (II) se tiene "tía abuela", si se altera (III) "abuela", "sobrina" si se cambia (IV) y "tía de la esposa" o "tía del marido" si se transforma (V). En rigor, el paradigma completo de nuestra terminología de parentesco no es perfecto, ya que no existen lexemas para todos los términos del producto cartesiano (cf. Goodenough 1967). La que sigue es una representación ortogonal (clase-producto) del paradigma de los términos básicos del parentesco en nuestra cultura. 565 c1 b1 b2 b3 b4 b5 a1 abuelo padre hijo nieto a2 abuela madre EGO hija nieta c2 c3 a1 a2 tío hermano sobrino tía hermana sobrina a1 primo a2 prima En base a estas convenciones nomenclatorias, la composición semántica (o definición componencial) de los distintos parientes se expresaría como a1b1c1 para "abuelo", a2b1c1 para "abuela" y así el resto. Desde ya, la forma de expresar la estructura semántica de los diferentes lexemas que componen un dominio varían de un autor a otro; lo esencial es que se especifiquen las claves del procedimiento, a fin de que el análisis resulte inteligible y replicable. Como no podría ser de otro modo en un lenguaje relacional, la representación de un paradigma en Prolog es sumamente sencilla y admite numerosas formas alternativas. El proceso para determinar si la estructuración conceptual de un dominio responde o no a un esquema paradigmático, es un poco más complicado, sobre todo si éste no es ortogonal. De todas formas, el proceso necesario para llegar a esta determinación reproduce los mismos pasos que serían propios de un procedimiento no mecánico; lo hemos aplicado con buen efecto en un programa aquí no incluido, COMPONEN.PRO, concebido como complemento analítico de nuestro sistema experto. j) Tipologías Según la caracterización de Stephen Tyler, "las tipologías difieren de los paradigmas sólo por el hecho de que sus rasgos son idealizaciones ejemplares y declaradas que no representan un estado de cosas factual" (1978:274). Dado que son idealizaciones, los rasgos se formulan con anterioridad al análisis y se aplican arbitrariamente a una clase de lexemas. A diferencia de lo que sucede con los paradigmas, los rasgos de una tipología no surgen de la inter-comparación de los lexemas a ordenar. Se podría decir que mientras con los paradigmas se procede en forma inductiva, con las tipologías se procede deductivamente (Conklin 1969:107). Las tipologías no se utilizan con frecuencia en contextos folk, y son muy raras en contextos no analíticos. Tanto una tipología como una taxonomía constituyen modos de ordenar un campo. La diferencia entre ambas consiste en que la primera se funda en la predicación de condiciones necesarias y/o suficientes (es decir, es un ordenamiento lógico eventualmente planar) en tanto que la segunda se origina en la pertenenencia de elementos a clases (y por ende es un sorting clasificatorio siempre jerárquico). Desde el punto de vista estructural, ambas estructuras podrían llegar a ser idénticas, variando sólo en la interpretación de los criterios que las originan. 566 Una tipología es una entidad quizá menos estructural que interpretativa de las relaciones que articulan una estructura. En un sistema lógico, las condiciones que definen los tipos pueden asimilarse a reglas de producción o a otras configuraciones más primarias. Nuestro Sistema Experto (programa AGENI3.PRO) admite una tipología como conjunto de entrada regido por una serie variable de condicionalidades más o menos laxas, aristotélicas o difusas. k) Tipos-token Dos trabajos antropológicos de cierta importancia teórica y metodológica están relacionados con una articulación del campo semántico que se ha llamado type-token (Gardner 1976:452-462; Randall 1976:546-553). Este ordenamiento semántico es similar a una tipología en el hecho de que utiliza tipos ideales, pero difiere de ella por no usar la intersección como medio para interrelacionar los tipos (Tyler 1978: 275). El tipo-token se caracteriza por una superposición parcial en el que los tokens periféricos se pueden ser considerar en parte de un tipo y en parte de otro, y en el que sólo los tokens más parecidos al tipo central están relacionados estrechamente con él. En esta estructura se puede hablar, en cierto sentido, de significados centrales y significados periféricos: la idea general es que existen colecciones de tipos confederados de acuerdo con un régimen muy tolerante, cada uno de los cuales posee un agrupamiento o constelación de tokens periféricos o satélites, ordenados conforme a su mayor o menor parecido con el tipo. El tipo en sí funciona como un estándar de comparación; los tokens que se arraciman en las periferias se consideran verbalmente como formas "inusuales", cuasi-anómalas o "raras" del tipo correspondiente. En inglés -la lengua en que esta estructura semántica fue originariamente definidaexisten indicadores lexicales de esta relación, usualmente palabras separadas por guiones ("bluegreen", "reddish-brown") o sufijadas con "like" ("hawk-like"). Los elementos que se encuentran en la periferia, más alejados de los tipos "ejemplares" suelen solaparse con otros tipos (cf. Berlin 1977:6796). Es típico que estas estructuras se ordenen conforme a pautas implícitas e intrínsecamente cambiantes, acordes con la heterogeneidad que la mente clasificadora intuye en lo real. Algunos teóricos de la antropología tendientes al irracionalismo ha subrayado con comprensible alborozo los problemas "lógicos" que presenta este tipo de ordenamientos. Esta heterogeneidad, con su inherente falta de transitividad, es responsable de la diferencia entre la clasificación tipo-token y la clasificación taxonómica. La clasificación tipo-token es una congeries en la cual diversos conceptos focales disjuntos sirven para ordenar los tokens centrales en clases exclusivas y los tokens periféricos en clases parcialmente solapadas mediante una variedad de rasgos o relaciones que no se intersectan. Esta es, con mucho, la forma más común de clasificación porque nos permite usar una gran variedad de información y, puesto que no requiere una estructura monolítica e internamente consistente, puede ser sumamente flexible, respondiendo prontamente a los diferentes propósitos y motivos que rigen nuestras clasificaciones. Desde el punto de vista de la lógica esto tiene sus inconvenientes; pero este es un problema para la lógica, no para nosotros, pues nosotros somos capaces de conducir nuestra vida cotidiana a despecho de su inherente ilogicidad (Tyler 1978:277-279; el subrayado es nuestro). El gozo de Tyler frente al carácter "ilógico" o inconsistentemente lógico de estas estructuraciones semánticas sólo se justificaría, desde ya, frente a un cientificismo esquemático para el cual la realidad se debe subsumir en una rígida conceptualización de tipo aristotélico. Lamentablemente para su causa, ni existen en la actualidad teóricos que sustenten una concepción tan square de la naturaleza o de los universos clasificatorios, ni representa para una lógica madura "problema" alguno 567 este tipo de representación. Más aún, desde el punto de vista de un lenguaje descriptivo poderoso, como el Prolog, da lo mismo que los campos semánticos estén ordenados conforme a uno u otro criterio, que lo que haya que representar sean delicados matices o duros contrastes. Casos clasificatorios como los que el propio Tyler nos proporciona (cf. Tyler 1978:278) serían resueltos por un programa en Prolog con entera facilidad y fluidez, por cuanto si un problema es susceptible de constituirse y expresarse como tal en un conjunto de enunciados, también será pasible de vertirse en cláusulas lógicas declarativas. Un modelo lógico proporciona, por añadidura, formas de ordenamiento intermedias entre lo cualititativo y lo cuantificacional en las que las dimensiones relativas de distancia semántica podrían expresarse, por ejemplo, a través del mero ordenamiento de las entidades que conforman el conjunto en una lista progresiva. l) Prototipos y "hedges" En este apartado se analiza lo que sospechamos puede llegar a ser una inflexión esencial de la representación del conocimiento en una antropología modelada. Para caracterizarla es menester, primero que nada, evocar con algún detenimiento una historia conceptual mal conocida y superficialmente tratada por nuestros estudiosos (cf. Vázquez 1988), para quienes los capítulos esenciales de los últimos treinta años de la antropología se reputan presurosamente de formalistas y se dejan por lo tanto sin explorar. Congruente con los giros y novedades categoriales que se introdujeron con la adopción de conceptos constructivistas del tipo de los esquemas y marcos, las ciencias cognitivas han desarrollado también una gramática de casos (Fillmore 1968) que hace que el modelo alcance, sin cambiar de forma, el plano de la predicación, una gramática cognitiva (Langacker 1976, 1986) que concibe el lenguaje como depósito y reflejo de un conocimiento enciclopédico, y una semántica de prototipos, que ha logrado trascender las dificultades lógicas y metodológicas más espesas de la antigua semántica estructural (cf. Rosch [Heider] 1972; Rosch 1977; Rosch y Mervis 1975; Mervis y Rosch 1981; Fillmore 1977, 1982; Coleman y Kay 1981; Lakoff y Johnson 1986; Lakoff 1975, 1977; Leech 1985:120-122; de Vega 1984:344-351; Gillian Cohen 1984:189-194). Entiéndase aquí como "semántica" la relación sígnica que media entre las variables de un esquema y los distintos elementos de un entorno, que vendrían a funcionar como sus referentes empíricos. Se trata por un lado del sujeto o la cultura, procurando clasificar el mundo que los rodea, y por el otro del lingüista o del antropólogo, esforzándose por construir una semántica que dé cuenta en forma realista la naturaleza de ese proceso. Pues bien, para esta semántica prototípica, la relación entre el mundo y el concepto se interpreta como aproximativa, focal, oscilante, nebulosa (fuzzy), no determinista. En consecuencia, a veces alcanza y sobra con un vago parecido funcional o con un cierto aire de familia para que, en una instanciación de un esquema dado, un elemento del entorno califique como variable pertinente: en el esquema subyacente a una "transacción comercial", verbigracia, los elementos empíricos que satisfacen la variable "valor" pueden ser tanto billetes de banco como monedas, metales preciosos, cheques, pagarés, tarjetas de crédito, asientos contables, papeles de la deuda externa y así por el estilo. Charles Fillmore, el lingüista que ha dado el mayor impulso a la semántica de prototipos (en un trabajo de una entidad comparable al de la psicóloga Eleanor Rosch), la ha concebido como una teoría del significado que se opone a las teorías componenciales de "listas de rasgos", las cuales, fundadas en una representación "digital" del sentido, afirman que éste resulta una conjunción aditiva 568 de propiedades discretas, concebibles como "componentes semánticos", "semas" o "atributos criteriales" (cf. Lyons 1980:299-315; Reynoso 1986a): En filosofía, psicología, lingüística y antropología se ha tendido a tratar las categorías como 'aristotélicas' y digitales, es decir, como entidades lógicas y limitadas, cuya pertenencia está definida por la presencia en un objeto de un conjunto sencillo de rasgos que sirven como criterio para diagnosticarla (Rosch 1977:18). Esta perspectiva atomista es la que imperó, por de pronto, en casi todo el análisis de componentes propiciado por la antropología cognitiva clásica, desde Goodenough hasta Werner; la nueva visión prototípica parece, a juzgar por los estimulantes resultados, mucho más apta para interacturar productivamente con la ciencia cognitiva actual. En la antigua concepción semántica, que bien podríamos denominar estructuralista, el significado de una palabra o lexema se representaba como un conjunto de rasgos, cada uno de los cuales adoptaba inequívocamente un valor. Así, el significado del lexema "HOMBRE", como ya lo hemos visto, podía entenderse como la sumatoria de los componentes semánticos "HUMANO", "VARON" y "ADULTO". En consonancia con esta idea, había que practicar sobre la globalidad del significado una diferenciación que posibilitara su tratamiento formal: siguiendo a Gottlob Frege, se distinguía por un lado un significado central, básico y permanente, la denotación, y por el otro un significado opcional, diacrítico y variable, la connotación, colmada de aspectos subjetivos y de afectividad. Como no podía ser de otra manera, y haciendo de la necesidad virtud, la connotación se excluía de un análisis que se ceñía a lo que se pensaba seguro, estático, invariante, cognoscible. Algunas excepciones, como las de Osgood y su diferencial semántico, no abultan tanto como para cuestionar la regla. Se desarrolló así lo que hemos caracterizado como análisis componencial: un método para determinar los valores que presuntamente asume cada uno de los rasgos semánticos que componen el significado de un término, la forma en que esos valores conmutan en el interior de un conjunto de cosas o "dominio", y la manera en que esos dominios se agregan o se oponen para definir un campo totalizador que acaba coincidiendo con la cultura. El análisis componencial, abismado en poner de manifiesto la articulación matricial o paradigmática de los dominios que trataba, pretendía además pasar por una herramienta predictiva, capaz de establecer las condiciones necesarias y suficientes que una cosa debe satisfacer para ser ejemplo de una categoría rotulada por una palabra o perteneciente a una clase o dominio desde una óptica cultural definida. Dado que hemos dedicado todo un libro y el comienzo de este resumen al análisis componencial propiciado por la Nueva Etnografía americana de los '50 y '60, no incluiremos aquí demasiados pormenores sobre lo que fue su búsqueda de un modelo dotado de realidad psicológica, que fuera al mismo tiempo axiomático y fiel a lo que sucedía dentro de la cabeza de los hombres que estudiaba. Lo único que cabe decir aquí es que ese modelo caducó. Aunque el análisis componencial puede todavía prestar algún servicio como herramienta de campo para ajustar una caracterización preliminar, lo concreto es que no satisfizo las enormes expectativas que despertara. El fracaso fue aleccionador, aunque algunos se resisten a deducir sus moralejas. La misma trayectoria de la antropología cognitiva demostró formalmente la inoperancia de sus otros supuestos esenciales: la estrategia integralmente emic, el relativismo lingüístico, la equipolencia de pensamiento y lenguaje, la vigencia unánime de un mismo modelo en el interior de toda una cultura. Pero lo más cuestionado de todo fue su rígida concepción del significado, con arreglo a la cual la aplicabilidad de una categoría y la pertenencia de un ejemplar a una clase eran cuestión de "si" o "no", y no una cuestión de grado. 569 En la semántica de prototipos no hay ya primitivos indescomponibles ni valores excluyentes, pues se piensa que la gente no categoriza los objetos en términos de teoría de conjuntos convencional, sino en base a prototipos y parecidos de familia. En el viejo esquema componencial todos los miembros de un conjunto de cosas detentaban el mismo grado de membrecía: una vaca era, en este sentido, tan mamífera como un murciélago o un delfín. En la concepción prototípica, por el contrario, hay como si fuera grados de tipicidad: si bien un delfín es técnicamente un mamífero, cae de suyo que no es un mamífero por excelencia. La variabilidad cultural y subjetiva del criterio de representatividad y el hecho afortunado de que la tipicidad puede medirse, graficarse y compararse, abren además esta semántica a una indagación estadística que para la etnociencia permaneció interdicta, pero que para ella es casi una precondición. La diferencia intracultural, que supone un límite infranqueable para la capacidad descriptiva del análisis componencial, es aquí el hecho mismo que permite, a través de un acercamiento asintótico, instituir la significación como fenómeno social y como proceso. Hedges Un típico Técnicamente hablando Laxamente Sujeto-Predicado petirrojo-ave gorrión-ave pollo-ave pato-ave pingúino-ave murciélago-ave mariposa-ave polilla-ave Rasgos del Predicado compartidos por el sujeto Definitorios y característicos Definitorios pero no característicos Característicos pero no definitorios Hedges y pares de sujeto-predicado (Lakoff 1972) Incidentalmente, los predicados modificadores más o menos coloquiales que hemos subrayado han sido objeto de inspección, a su vez, por parte de George Lakoff, el más tenaz y original inquisidor de las metáforas. Lakoff ha denominado hedges a tales formas de expresión, capaces de identificar verbalmente al prototipo de una categoría y de definir diferentes tipos de relación con él; de este modo algo puede ser representante "por antonomasia" de su clase, o puede serlo "en un sentido técnico", "hablando vagamente", "en ciertos sentidos", "en un sentido figurado", "hasta cierto punto", "en algunos respectos", "mirándolo bien", "por así decirlo" o "en un sentido restringido". Al igual que la lista de hedges imaginables, las categorías son abiertas y sus límites no son taxativos (Lakoff 1975 y Johnson 1986:163-166). Puede decirse que, en general, los lingüistas inscriptos en esta orientación han tenido el buen tino de no apelar al desorden teórico o al irracionalismo en nombre de la aparente nebulosidad del objeto. Eludiendo la seducción de un indeterminismo generalizado, la semántica de marras descubre que ella no es menos formal que la semántica clásica, y que incluso la supera en el terreno de la axiomatización por contar para sus fines con el explosivo desarrollo de la teoría de conjuntos nebulosos (fuzzy sets), una especialización matemática novedosa, capaz de lidiar con la ambigüedad, que en algunos círculos ha llegado a transformarse en pasión (López de Mantaras 1985). Símbolo del crecimiento explosivo de estos estudios es el prestigioso International Journal of Approximate Reasoning, publicación oficial de la North American Fuzzy Information Processing Society (cf. 570 Mukaidono, Shen y Ding 1989; Whalen y Schott 1989). Trataremos la lógica difusa con mayor amplitud en la cuarta sección de esta tesis. Las investigaciones de Rosch, que condujeron a una nueva vislumbre de las relaciones entre la mente, el lenguaje, la cultura y el medio, se originaron con referencia a un ámbito de fenómenos que a primera vista podría juzgarse marginal (la terminología relativa al color), y como complemento y respuesta a las conclusiones de Brent Berlin y Paul Kay, de la misma Universidad de Berkeley. El estudio de Berlin y Kay (1969), como es sabido, se difunde en una época en que comienza a hacerse indisimulable el fracaso de la experiencia emic de la etnosemántica y en que se manifiesta un discreto apogeo de la escuela comparativista de Yale y del evolucionismo antropológico. Dichos autores salen al cruce de la hipótesis del relativismo lingüístico de Sapir y Whorf en un territorio que en apariencia la favorecía, afirmando en contra de ella que existen determinantes universales del sistema visual, y que el inventario de términos cromáticos se expande en las distintas lenguas en función del tiempo, de modo tal que las categorías universales se van lexicalizando en un orden fijo y en gran medida predecible. Berlin y Kay examinaron ejemplos de 98 lenguas pertenecientes a diversas familias lingüísticas, analizando la forma en que se encuentran definidos los "colores básicos". Estos no se estipulan intuitivamente, sino que se asocian a focos del espectro cuya lexicalización cumple determinadas condiciones. Un color básico es, entonces, un término cromático que posee: 1) denominación monolexémica, como por ejemplo "rojo" (y no "violeta azulado"). 2) denominación no incluida en el ámbito denotativo de ningún otro término del conjunto (por ejemplo, "carmín" y "bermellón" no califican como términos de colores básicos pese a ser monolexémicos- por estar incluidos en la denotación de "rojo"). 3) aplicación generalizada, vale decir, no restringida a una sola clase de objetos, como sería "bayo", "trigueño" o "rubio". 4) saliencia cognitiva y frecuentación de uso. Los autores solicitaron a cada informante la realización de dos tareas en base a un juego de 329 tarjetas Munsell, que representaban una muestra más o menos aceptable de los siete millones de matices que puede discernir el ojo humano. La primera tarea consistía en escoger "los mejores ejemplos" de cada color básico, de acuerdo con los parámetros de cada lengua; la segunda, en indicar los "límites" de cada categoría, clasificando las tarjetas sin dejar residuo. De este modo, pudo identificarse en el conjunto transcultural un conjunto de once focos correspondientes a los colores blanco, negro, rojo, verde, amarillo, azul, marrón, púrpura, rosa, naranja y gris. Se encontró también que si una lengua incluye menos de once términos focales, existen severas limitaciones en cuanto a cuáles pueden ser las categorías nominadas. Las restricciones universales establecidas como ley por Berlin y Kay son las siguientes: 1) Todas las lenguas conocidas contienen términos para "blanco" y "negro". 2) Si una lengua contiene tres términos cromáticos, luego posee necesariamente un término para rojo. 3) Si contiene cuatro, incluirá el verde o el amarillo, pero no ambos. 4) Si posee cinco tendrá términos para el verde y también para el amarillo. 5) Si tiene seis, se agregará a los términos anteriores el que corresponde al azul. 6) Si tiene siete, añadirá el marrón. 571 7) Si tiene ocho o más, se incluirán en un orden indefinido el púrpura, el rosa, el naranja y el gris. Si se construye en la tabla indicando en la ordenada el número de términos focales que posee cada lengua y en la abscisa las categorías cromáticas correspondientes, se encontrará que en lugar de 2048 combinaciones de los once términos (211), se dan en la práctica sólo 22. Más aún, los 22 tipos pueden resumirse en esta regla de implicación: púrpura blanco verde amarillo rosa rojo azul marrón naranja negro amarillo verde gris Para Berlin y Kay es razonable concluir que esta secuencia no sólo representa un juicio distribucional sobre las lenguas contemporáneas, sino un orden cronológico de aparición susceptible de interpretarse como una secuencia necesaria de etapas evolutivas. Aunque este esquema evolucionista unilineal en particular puede ser impugnado, y vaya que lo ha sido, lo que merece rescatarse de estos hallazgos es su desafío a la idea frontal de que existen primitivos semánticos de naturaleza discreta. Si algo demostraron Berlin y Kay, es que los términos cromáticos no se agrupan en clases dependientes del valor de un componente del tipo de "rojez", "amarillidad" o lo que fuere. La pertenencia de un elemento a un conjunto determinado no puede decidirse mediante un juicio categórico por "sí" o por "no"; por el contrario, cabe reconocer grados de membrecía a lo largo de un continuum de posibilidades. Por ello, la herramienta más adecuada para formalizar esta problemática no es la teoría clásica de conjuntos, sino la ya mencionada teoría de conjuntos nebulosos, cuyo correlato lingüístico, ligado a la semántica de prototipos, vendrían a ser los hedges definidos por Lakoff (Kay y McDaniel 1978: 622). Un conjunto nebuloso se define por una función característica fa que asigna a cada individuo x en el dominio bajo consideración un número fa(x) entre cero y 1. Esta operatoria, desde ya, no establece caprichosamente estos guarismos, sino que éstos se generan a partir de una muestra y un consenso estadístico garantizado por cruzamientos y testeos múltiples. Cuando Berlin y Kay pedían a sus informantes seleccionar "el mejor ejemplo del color x", estaban pidiendo en realidad que indicaran qué colores tenían el grado más alto de pertenencia a dicha categoría. Las últimas formulaciones de Berlin y Kay, escritas por separado, en concurrencia con otros autores, utilizan exhaustivamente la teoría de conjuntos nebulosos y la noción de hedges, y ya no la antigua categorización de "foco" y "límite"; el sentido es aproximadamente el mismo que en el modelo liminal de 1969, pero la expresión es ahora más formal, más cauta y más rigurosa (Berlin, Boster y O'Neill 1981; Berlin y Kay 1975; Kay 1975a, 1975b). En un artículo de 1978 publicado en la revista Language, Kay y McDaniel reconocen que el trabajo original de Berlin y Kay adolecía de unas cuantas fallas empíricas y de algunos errores teóricos, pero subrayan que la investigación ulterior la ha ratificado en lo esencial. Como decíamos, los estudios de Eleanor Rosch (durante un tiempo, Eleanor Heider) afinaron y perfeccionaron las intuiciones de Berlin y Kay, llevando las demostraciones mucho más allá del estrecho espacio de la antropología del color. Tras las experiencias de Rosch, entró definitivamente en crisis la concepción clásica acerca de la forma en que los seres humanos categorizan la realidad. Dicha concepción clásica, resumida con virtuosismo por Howard Gardner, expresaba en pocas pala572 bras que las categorías son siempre arbitrarias y que no hay nada en el mundo ni en el sistema nervioso que determine de qué manera el hombre debe recortar sus observaciones. En consecuencia, el lenguaje y la cultura realizan esa tarea conforme a pautas inmotivadas, que no tienen anclaje ni en la fisiología ni en los hechos. Según esta misma hipótesis, las categorías se fundan en atributos definitorios: todos los miembros de una categoría comparten esos atributos, ningún miembro de otra categoría los comparte en su integridad, y no existe solapamiento ni ambigüedad entre los miembros de una categoría y los que no lo son. El lenguaje, entonces, rotula y aísla las categorías en función de un ordenamiento artificial del mundo que sirve a los intereses específicos o a la Weltanschauung de una cultura. O lo que es lo mismo: cada cultura estructura arbitrariamente el mundo, sirviéndose de una categorización de orden lingüístico, capaz de imponerse incluso a los dictámenes de la percepción y a la naturaleza objetiva de las cosas (cf. Gardner 1987:367-368). Cuando Rosch va al campo a estudiar el curioso sistema cromático de los dani de Nueva Guinea, basado en sólo dos términos contrapuestos, descubre que los hábitos lingüísticos resultan incidentales, y que la forma en que los miembros de una cultura recuerdan e instrumentan los colores refleja más a la organización universal del sistema nervioso que la peculiar estructura de su léxico. En definitiva, los experimentos más rigurosos y transparentes revelan que el léxico codifica aspectos del color que de antemano son notorios para el sujeto, en lugar de resaltar arbitrariamente esos aspectos, como hubiera querido, por ejemplo, Marshall Sahlins (1977). Después de este trabajo iluminador, Rosch sondeó una amplia gama de dominios cognitivos, desde el reconocimiento de figuras geométricas hasta la expresión de las emociones, concluyendo que lo que era válido para la percepción cromática también lo era con referencia a otros campos, si es que no para todos (Rosch 1973a, 1973b, 1977, 1978; Rosch y Lloyd 1978; Mervis y Rosch 1981; Rosch y Mervis 1975; Rosch, Mervis, Gray, Johnson y Boyes-Braen 1976). Es en esta versión generalizada de sus teorías donde Rosch discierne una estructura cognitiva básica que se manifiesta rotundamente en un amplio conjunto de dominios tanto naturales como artificiales. Según ella, las categorías se contruyen en torno a un miembro central o prototipo, al ejemplo más representativo de su clase, que comparte con otros miembros de su especie buena parte de sus características, en tanto que comparte pocas o ninguna con ejemplares pertenencientes a otras clases. Por ejemplo, un tordo o un gorrión son aves más prototípicas que un pingüino, un avestruz o un casuario, y en consecuencia se lo reconoce como tales más rápidamente, siendo menos probable que se los clasifique como miembros de la clase de los mamíferos o de los peces. Análogamente, el automóvil sedán con dos hileras de asientos resulta más prototípico que una limusina, una rural o un sport convertible. Los mismos hallazgos son válidos para un sinfín de sistemas categoriales; en todos los casos, el reconocimiento y la evocación de formas y ejemplares se explica mejor presuponiendo que los sujetos construyen prototipos, y no que tratando de demostrar que inventan o utilizan una lista fija de características. El punto aquí es que los prototipos no son ni pueden ser arbitrarios, sino que se modelan a instancias del conocimiento que suministra el contexto objetivo. Una de las metas del análisis en esta modalidad conceptual es determinar primero cuáles son los aspectos materiales y objetivos que definen la tipicidad de los prototipos y averiguar después cuáles son las causas de su varianza transcultural, si la hubiere. Rosch señaló también otros aspectos de las estructuras categoriales, proporcionando los rudimentos de lo que podríamos llamar una tipología funcional. En ciertos sistemas conceptuales -diceexiste algo así como un nivel básico, excepcionalmente saliente. Los objetos que pertenecen a este 573 nivel básico comparten numerosos rasgos funcionales y perceptuales. Por ejemplo, en el dominio del mobiliario, una silla es un objeto del nivel básico; en el ámbito del mundo animal, lo son los perros y los pájaros. Los elementos del nivel básico contrastan con los de un nivel superior, llamado supraordinado (el moblaje respecto de la silla, el reino animal, respecto de los perros y pájaros) y también con los de un nivel inferior, subordinado (la mecedora respecto de la silla, la calandria y el caniche respecto de pájaros y perros). Los niños pequeños muestran propensión a designar a todos los objetos conforme a categorías prototípicas del nivel básico: para ellos, durante un tiempo, todo cuadrúpedo es un "perro", y los conceptos de "animal" o "caniche" sólo surgen más tarde. Pero lo esencial de este modelo no pasa ni por su abigarrado detalle interno, ni por sus prestaciones evolutivas, ni por sus diferencias puntuales con la visión de Berlin y Kay, sino por el hecho de que ha roto con dos de los principios fundamentales que sustentan la tradición clásica: la naturaleza taxativa de la categorización y el carácter arbitrario e inmotivado de los conceptos. De aquí en más, se entenderá que las categorías de un sistema clasificatorio actúan como un compromiso que concilia y trasunta la capacidad perceptual del sujeto, la clase de acciones que una persona puede llevar a cabo y la estructura física o material del mundo. Esto obedece, según Rosch, a delicadas razones adaptativas. Los seres humanos, cuya evolución a lo largo de los siglos les posibilitó enfrentar con eficiencia las presiones de su entorno, tienden a agrupar en categorías las entidades que su aparato perceptual encuentra similares, o que les exigen actitudes análogas, o ambas cosas. No hay en ello asomo alguno de arbitrariedad. Al contrario, todo sistema categorial se atiene, por un lado, al hecho de la estructura correlacional del mundo, y por el otro a rigurosos principios de economía cognitiva. Al decir que el mundo posee una estructura correlacional, se quiere significar que ciertos atributos tienden a darse unidos, mientras que otros rara vez o nunca son compartidos por el mismo objeto; esto hace que el ambiente resulte mucho más inteligible y predecible para el organismo que si se tratase de un "conjunto total" en el que los atributos se hallan dispersos según pautas aleatorias. De acuerdo con Rosch (1973, 1978), el tipo de estructuración simétrico y "componencial" sólo se presentaría, y no siempre, en el caso de los sistemas de categorías artificiales. Si lo que nos interesa es estudiar el mundo real, descubriremos una serie de principios distintos, pues para que las categorías naturales se comporten componencialmente, sería preciso que los estímulos provenientes del mundo fueran de naturaleza tal que todos los atributos combinasen entre sí con la misma probabilidad, lo cual puede falsarse con sólo observar un poco las cosas. Lo que sucede en la vida real es que ciertas combinaciones de atributos tienen una alta probabilidad de aparición, mientras que otras son raras, biológicamente imposibles, absurdas o inexistentes. Para utilizar un ejemplo muy claro: es mucho más probable que en la experiencia cotidiana encontremos criaturas con alas que tengan plumas que seres alados que tengan pelo. El principio de la economía cognitiva asume que el sistema categorial está diseñado de modo que obtiene el máximo de información acerca del medio empleando el mínimo de recursos cognitivos. Al categorizar un objeto, digamos, como "naranja", se le atribuyen de inmediato las propiedades típicas de su clase sin necesidad de una exploración exhaustiva; se sabrá en seguida que es comestible, que tiene cáscara, semillas y jugo, y resultará a la vez discriminable ipso facto de otros objetos como manzanas o melones. Por otra parte, las categorías deben reducir las diferencias estimulares a proporciones cognitiva y conductualmente manejables, evitando la sobreabundancia. De nada valdría, por ejemplo, mantener un centenar de categorías de nivel básico para diferenciar con precisión otros tantos tipos de silla, y así sucesivamente. 574 Tenemos entonces que la estructura interna de una categoría abarcadora acomoda miembros que se disponen según un continuo de tipicidad o representatividad, y que algunos elementos muy típicos operan como puntos de referencia, arquetipos, estereotipos o prototipos, desempeñando un papel privilegiado, focal, en los procesos de categorización. En el caso de las categorías prototípicas, por consiguiente, la distribución de la tipicidad no es igualitaria: algunos miembros del conjunto son mejores que otros en tanto tales, aunque podrían serlo peores desde otra acomodación conceptual, desde otro frame frente al cual se comporten como elementos ambiguos o periféricos, cuyo aire de familia con el prototipo de turno esté momentáneamente amortiguado. La relación (todavía no explorada) entre razonamientos como éstos y las preocupaciones de Mary Douglas por la atipicidad es evidente. No se trata, empero, de dejar la significación librada al capricho o a la volubilidad del sujeto, ni de concebirla como una idealidad incondicionada a la que sólo es posible acercarse tangencialmente. Toda vez que la significación tiene que ver con una realidad, es absurdo juzgarla (tal como se ha hecho a menudo) como un mero efecto de superficie, como un epifenómeno del juego de los signos. Si bien la semántica de prototipos es probabilista en cuanto a los límites y alcances de las categorías que analiza, hay que dejar en claro que es determinista en cuanto a la naturaleza de los núcleos. Los estudios transculturales de Rosch (1978) y los experimentos de Garner (1974), Shaw y Bransford (1977), cuyos diseños califican de lejos como los más rigurosos de la ciencia cognitiva reciente, han demostrado, en efecto, que las categorías naturales no son construcciones arbitrarias que las comunidades o los sujetos elaboran a su antojo, sino que por el contrario mantienen un alto grado de correspondencia con la estructura correlacional objetiva del mundo. Es una pena que discusiones antropológicas sobre los méritos relativos del racionalismo y el empirismo (en la línea de Leach 1976) no tengan para nada en cuenta estas experiencias. Situándose en un ámbito ecológico de fenómenos, por así decirlo, Rosch descubre, comprueba y ratifica que las propiedades estructurantes y organizativas de la memoria semántica reflejan las discontinuidades y los complejos de atributos del universo perceptivo. Esto no supone incurrir en un empirismo ingenuo ni devolver al asociacionismo su preminencia, sino más bien conceder a la realidad la tajada que ciertas estrategias ideologizadas se obstinan en escatimarle. El medio ambiente tiene una arquitectura correlacional objetiva, pero ésto ni se desvela de manera espontánea, ni se establece por obra y gracia de un sujeto cartesiano (o de una cultura aristotélica) que constituye el universo en el vacío. La descripción de la categorización del medio no es independiente del observador, por supuesto, sino que se halla mediatizada por el sistema perceptivo, el que determina cuáles son las propiedades inteligibles y relevantes para el organismo y para el sistema categorial que construye taxonomías con el fin de adecuarse a la estructura percibida. En otras palabras, si bien se acepta que las categorías están en último análisis determinadas por la estructura correlacional del ambiente, se subraya también que el organismo modula la información seleccionando el tipo de propiedades y el ámbito de pertinencia de las pautas, y exagerando en algunos casos (por imposición de la cultura, del orden social o de la historia), las particularidades estructurales del medio (cf. Rosch, Mervis, Gray, Johnson y Boyes-Braen 1976). En este contexto hay que entender que el "aire de familia" que vincula entre sí a los elementos de una clase o que enlaza los slots de un esquema con objetos empíricos, es un término técnico, y no una simple manera de decir. En tanto término técnico, el "aire de familia" permite a la vez interrelacionar los resultados de numerosas investigaciones aparentemente dispersas. Por empezar, Vi575 gotsky (1962) demostró que los niños no forman sus conceptos clasificatorios en la forma que es usual en la lógica de clases, sino mediante un pensamiento complejo, un encadenamiento tal que los atributos cambian de uno a otro eslabón, sin que se mantenga a lo largo de todos los elementos un núcleo estable de significaciones. Esta es la estructura peculiar que hemos analizado como cadena o complejo encadenado, y que se aviene a ser mirada también prototípicamente. Hacia la misma época, Wittgenstein desarrollaba una idea parecida en sus Investigaciones Filosóficas: "La cuerda consiste de fibras, pero no obtiene su fuerza de ninguna fibra que corra por ella desde un extremo al otro, sino del hecho de que haya un gran número de fibras entrelazadas" (1958:87). Del mismo modo, el ligamento que confiere unidad a una clase de cosas radica en el aire de familia que la recorre, en los parecidos esporádicos que el conjunto revela: entre las cosas que denominamos "juegos" (plays, Spiele) no hay un solo factor común, ni un solo atributo compartido por todas, ni un límite formal de la especie, sino apenas una correlación de aquella índole. Ningún rasgo constante, asegura Wittgenstein, asocia entre sí los diversos "juegos" concebibles: la ejecución de una pieza para piano, una partida de billar, una apuesta por dinero, el movimiento circular de una bandeja giradisco o el arrastre de una grabadora, la representación de una obra teatral, una broma, una parodia, la práctica de un deporte, el desempeño de un rol, un riesgo. No se trata, advirtámoslo, de un simple fenómeno de polisemia, como el que se da entre una vela de sebo, una noche de vigilia y una vela de barco; nada tan trivial: en el conjunto de los juegos hay algo más, un vínculo que puede intuirse, una jerarquía multifoliada de significaciones que se superponen, se aproximan, se solapan o se interpenetran, en un "juego" semántico que le confiere una cohesión inefable, pero verdadera, y sobre todo (sabemos ahora) susceptible de ser modelizada. El antropólogo inglés Rodney Needham (1975) supo captar con perspicacia inusual la semejanza entre las ideas de Vigotsky y las de Wittgenstein, vinculándolas a dos categorías formales de las ciencias "duras": la de clasificación politética y la de taxonomía numérica, también llamada clasificación natural. Para decirlo de otro modo, reuniendo todos nuestros conceptos: Needham advirtió que el conjunto politético integrado por una serie de elementos entre los que existe cierto aire de familia o cierta relación prototípica, admite ser abordado mediante los recursos formales de la taxonomía numérica, capaces de revelar el orden que recorre el conjunto sin ceñirse a los principios aristotélicos y linneanos; luego propuso sus hallazgos como una nueva base consistente, útil para repensar la conceptualización de la propia antropología. No interesa, por ahora, que este descubrimiento se haya materializado sin tener en cuenta lo que los investigadores de inteligencia artificial y lo que los diseñadores de sistemas expertos habrían podido aportar a una ciencia preparadigmática como la nuestra, persuadida de que la formalización apareja siempre la distorsión de los hechos, la caída en el cientificismo y el aniquilamiento del objeto. Lo importante es que no sólo a Needham le está dado hallar la pauta que conecta: la articulación de las ciencias humanas en torno a lo que fue la psicología cognitiva primero, la ciencia cognitiva después, la ingeniería del conocimiento en los días que corren, permite apreciar como nunca antes un poderoso gesto de convergencia; un movimiento a través del cual el conocimiento comienza por fin a acumularse y la cooperación disciplinaria asoma como una realidad tangible. Toda la propuesta podrá revelarse en algún momento falsa a la luz de los hechos; pero nadie negará que se trata de una estupenda hipótesis de trabajo. Las digresiones de Wittgenstein acerca de los juegos del lenguaje, las investigaciones de Vigotsky sobre el desarrollo cognitivo, las exploraciones formales de Sneath, Sokal y Kronenfeld en taxonomía numérica, los estudios de Berlin, Kay, Rosch y Mervis sobre terminología focal, los desa576 rrollos matemáticos de Lotfi Zadeh en materia de conjuntos nebulosos, los hallazgos de Lakoff sobre la metáfora y una masa creciente de trabajo científico, termina confluyendo con la semántica de prototipos y con la gramática de casos de la lingüística y con las categorías cognitivas de scripts, frames y esquemas, sustentando, en lo que a las ciencias humanas compete, una genuina revolución que no ha dejado de manifestarse tampoco en la filosofía, que recuperó para sí la respetabilidad de una forma sofisticada de empirismo (cf. Putnam 1975; Kripke 1972). Sin eclecticismo alguno, sin amontonamientos arbitrarios, sin liderazgos forzados, un solo macromodelo, en una palabra, permite recorrer la cultura desde que apuntan la percepción, el pensamiento y el significado hasta que se constituyen los mitos, los símbolos y las metáforas, demostrando conexiones, isomorfismos y correspondencias insospechadas entre los diversos niveles fenoménicos y entre las herramientas designadas para interrogarlos. La exploración profunda de la diferencia lingüística y cultural (más que ninguna otra) ha sido la pieza metodológica que a permitido consolidar este logro. Consideramos, en pocas palabras, que la ciencia cognitiva es una de las fronteras móviles de las ciencias humanas que poseen actualmente mayor interés. Pero aunque se han clarificado enormente ciertos problemas de la categorización y la taxonomía, tanto folk como científica, esto no quiere decir que todo lo esencial haya sido resuelto. La ciencia cognitiva todavía arrastra el peso de haber surgido históricamente de una psicología centrada en el sujeto individual; el locus de la cultura con certeza no se identifica tan fácilmente con la psiquis del sujeto, y de allí que la relevancia de los hallazgos cognitivos para la antropología en general sea despareja, localizada y hasta el día de hoy más bien escasa. Hay además un lastre intelectualista en lo que se admite y se rechaza como conocimiento, que hace que espacios enteros de la actividad mental y de la vida imaginativa de las sociedades permanezca al margen de los focos de interés, sujeta al arbitrio de quienes socavan el método embanderados tras la santidad que para todos nosotros tiene, profesionalmente, lo emocional. A la idea de prototipo en el plano de los significados puros le corresponde la estructura del frame o del esquema en el ámbito de las formas informacionales de representación. Esto va por definición ya que, desde Minsky en más, un frame pretende representar un estereotipo. Probada ya la adecuación del lenguaje para estas formas, los énfasis semánticos de quienes hablan de prototipos sin saber que Minsky existe no justifican nuevas disquisiciones por nuestro lado. La lógica que engrana con la semántica de prototipos para derivar inferencias difusamente calculadas es, sin duda, la lógica difusa. De ella trataremos en la cuarta sección de la tesis. m) Conglomerados o congeries focalizadas El conglomerado [cluster] difiere de la organización mediante tipos-token en el hecho de que ninguno de sus lexemas constituyentes funciona como tipo o ejemplar. Uno o más lexemas pueden constituir el foco de un grupo de lexemas interrelacionados, ordenados con respecto a aquellos en función de relaciones heterogéneas. Un ejemplo típico de congeries focalizada es la relación entre conceptos propia de las ciencias sociales, como por ejemplo "clase", "grupo", "status", "rol" e "interacción" en sociología o antropología social. La "clase" parecería ser un tipo de "grupo"; el "status" es un atributo, en tanto que el "rol" se referiría a algún tipo de acción característica y la "interacción" podría comprenderse como la consecuencia, causa o indicio del hecho de ser miembro de un grupo. Ninguno de los conceptos resulta ser el candidato ideal para constituir el foco del conjunto en todas las ocasiones de análisis; en un momento dado podemos poner a cualquiera de ellos en el foco; y 577 esto, precisamente, constituye la característica definitoria de la estructura. El propio Stephen Tyler (1978:282-283) proporciona la pista para tratar el conglomerado del ejemplo en un lenguaje lógico y, aún más, en cláusulas de Horn; si se enfatizaran los esquemas proposicionales tomando a "grupo" como concepto focal, quedaría una serie de proposiciones como las siguientes: Nótese que el conjunto procede del ensayo de Tyler, sin ninguna enmienda sintáctica por nuestra parte salvo las que emanan de su traducción. Transferir sus elementos a predicados de Prolog sería un ejercicio tan directo y rutinario que lo dejaremos así, difiriendo apenas de otros fragmento de programa que pudiéramos haber vertido. n) Ordenamientos temáticos El dilema siguiente se resuelve casi siguiendo los mismos pasos y aduciendo ejemplos que proceden de la misma fuente irracionalista, concebida para exhibir afanosamente y con un febril entusiasmo los obstáculos semánticos que la ciencia no estaría, según se aduce, en condiciones de superar. Así como un conglomerado focal surge cuando un argumento o relata se repite en cierto número de proposiciones, los ordenamientos temáticos ocurren cuando la misma relación (el mismo predicado) se repite con cierto número de argumentos. Consideremos una vez más un ejemplo proporcionado por Tyler para demostrar la complejidad irreductible de las formas de significación; el listado procede directamente de su textos (1978: 283), corrigiendo el error original de la tercera línea, reduciendo su longitud innecesaria y omitiendo los pomposos diacríticos que, después de todo, carecen de sentido en vocablos pluralizados por un texano conservador según los cánones de sufijación de la lengua de Shakespeare: Ninguna de las observaciones subsiguientes sobre relaciones transitivas, reflexivas, etc, aporta nada nuevo respecto de lo que llevamos dicho. Una vez más, el propio Tyler habla de predicados y argumentos, aunque parece ignorar la existencia de la programación lógica y de sus lenguajes predicativos, los cuales ya eran algo más que un proyecto cuando su libro fue dado a la imprenta. Esa ignorancia constituye quizá una hermosa táctica para que él demuestre a los lectores que tiene razón en contra de la razón; pero como estrategia es de muy corto alcance, y ya, ante los hechos, podemos considerarla desmentida. ñ) Grupos de interacción recíproca 578 Una interacción recíproca denota la interdependencia mutua de las acciones características de numerosas entidades. Esta estructura es la fuente y la base de "muchas nociones que tienen que ver con la interdependencia, la interacción y la reciprocidad y que se encuentran ampliamente distribuidas en las culturas bajo la forma de sistemas de intercambio matrimonial, organización ritual, intercambio económico y la organización de la sociedad misma" (cf. Tyler 1978:284). "Interdependencia" ha llegado a ser, en ciertos ámbitos, palabra tan sagrada o emblemática como en otros lo son "historia", "significado" o "contexto". La antropología interpretativa incurre con frecuencia en estas variantes del fetichismo académico, que parten del prejuicio de que las "relaciones" son más elusivas y menos tratables por la ciencia que las "cosas". La caracterización de los grupos de interacción recíproca en los libros de texto (que aunque no siempre lo adviertan no descubren otra cosa que lo que en otros espacios del saber ha dado en conocerse como "sistemas") casi siempre dirigen sus ejemplificaciones hacia la noción matemática de grupo, hacia Piaget o hacia la analítica levistraussiana, subrayando la complejidad del asunto. Desde ya, la programación lógica no encuentra en estas estructuras impedimentos, sino campos óptimos de aplicación. La demostración de este punto no implica un desafío abismal, ya que toda nuestra tesis lo abona, y en particular los programas y estudios de casos: raro sería que un lenguaje de computación pensado para expresar relaciones (cf. Malpas 1988) no triunfara precisamente allí donde los problemas que se le oponen son algunos de los que él ha venido a solucionar. o) Montón o Congeries Un montón o congeries es el más simple de todos los ordenamientos, el auténtico "grado cero" de la estructuración, como que ha sido reputado el emergente de las etapas más elementales del desarrollo intelectual (Vygotsky 1962:355-359; 1987:92). Se trata de un agrupamiento que carece de principio estructural, a excepción de su inclusión en un mismo montón, pila o conjunto. Una congeries emerge de una totalidad indiferenciada como un grupo diferenciado de esa totalidad, pero no organizado internamente por ningún principio discernible. En la psicología genética de Lev Vygotsky, la caracterización de esta entidad es la siguiente: Los niños pequeños dan su primer paso hacia la formación del concepto cuando colocan juntos un número de objetos en cúmulos inorganizados o en un "montón" para poder resolver un problema que los adultos solucionarían normalmente formando un nuevo concepto. El montón, que consta de objetos dispares agrupados sin ningún fundamento, revela una extensión difusa y no dirigida del significado del signo (palabra artificial) hacia objetos no relacionados unidos por casualidad en la percepción del niño. En esta etapa, el significado de la palabra denota para el niño nada más que una conglomeración sincrética vaga de los objetos individuales que por alguna razón se encuentran unidos en su mente en una imagen que debido a su origen sincrético es altamente inestable (Vygotsky 1987:92) La utilidad de esta estructuración en tanto tal en una analítica antropológica parece al menos tan difusa como los principios que la rigen. Incluso Hallpike, ansioso de demostrar a todo trance la precariedad del pensamiento primitivo, consigna como estructuras elementales representativas del primitivismo tipos de ordenamiento más elaborados que éste (cf. Hallpike 1986). De todas maneras, como en ocasiones se ha hecho referencia a ella, la incluimos en nuestra caracterización de los ordenamientos posibles, en espera de que los antropólogos le encuentren alguna utilidad teorética aparte del lujo siempre grato de la referencia erudita (cf. Tyler 1978:288-289). 579 La correspondencia entre un conjunto de términos y el lenguaje Prolog (o para el caso, cualquier lenguaje) es más bien obvia, por cuanto es más fácil e inmediato representar un cúmulo indiferenciado que expresar una estructura ordenada de términos. La correspondencia entre un término o lexema y una u otra congeries se podría expresar mediante diversas alternativas de organización de cláusulas, coordinadas o no en clases o jerarquías. Es posible asimismo que un sistema identifique reflexivamente una congeries por falla de todo otro intento de clasificación. Nuestro sistema experto, AGENI3.PRO, admite montones más o menos desestructurados entre los insumos que hacen las veces de base de conocimiento; si la máquina de inferencia de un programa está correctamente diseñada, la desestructuración afea, prolonga y enreda los cálculos lógicos, pero no los impide. p) Escalas Una escala cuantitativa apenas necesita caracterizarse; una escala cualitativa, en cambio, es una entidad estructural bastante más exótica para la antropología, que se ha ocupado explícitamente de ella en muy contadas oportunidades, casi siempre polémicas. Este desinterés no deja de ser paradójico, ya que la teoría en cuyo interior la antropología adquirió autoconciencia disciplinar y dimensión científica (el evolucionismo) implicaba ya, si se lo contempla en cierta forma, un ordenamiento escalar de complejidades, de rasgos presentes o ausentes, de transiciones y diferencias. El evolucionismo es una modalidad que va y viene en la antropología sociocultural; después del neo-evolucionismo de los 40 y 50, nuevas oleadas evolucionistas trajeron consigo un puñado de herramientas formales (casi siempre, refinamientos del viejo método comparativo) que quedaron mal o bien agregadas al bagaje antropológico estándar o que se perdieron sin el debido examen en el baúl sin fondo de una disciplina que parece aborrecer la acumulación. En la última expansión neo-neoevolucionista de los 80, con Diener, Nonini y Robkin, las teorías clásicas acogieron, como se sabe, tonalidades sistémicas, cibernéticas y ecologistas. En un episodio poco conocido de la historia disciplinar, a principios de los 60, numerosos antropólogos para quienes "el concepto de evolución ha probado ser demasiado fundamental y fructífero como para ser ignorado indefinidamente por algo que se llama a sí mismo una ciencia", ensayaron una técnica para manipular datos cualitativos que, según se creyó, poseía un rigor que sólo se encuentra ordinariamente en los métodos cuantitativos. Los antropólogos fueron Buchler, Selby, Kay, Carneiro, Goodenough, Tobias, Snow, Hickman, Schwartz, Miller, Young, Fujimoto, Emery y Oeser, entre otros. La técnica fue el análisis escalar, y más en concreto la escala de Guttman. El carácter cualitativo de la escala de Guttman finca en que en ella se determina de una manera simple y directa la presencia o la ausencia de rasgos, sin obligar al despliegue de una matemática elaborada. El primer paso consiste entonces en esa determinación, colocando por ejemplo los rasgos en una columna y las sociedades en hilera. Veamos este caso, cuidadosamente expuesto por uno de los propagandistas del método, Robert Carneiro (1962). Naturalmente, en este cuadro + denota presencia, - ausencia del rasgo que se trate: Estratificación Cerámica Bebidas fermentadas Estado político Agricultura Kuikuru Anserma Jívaro Tupí Inca Sherente Chibcha Yagan Cumaná + + + + + + + + + + + + + + + + + + + + + + + - + + + + 580 - Arquitectura Metalurgia Telares + + + - + + + - + + - + Una inspección intuitiva de una matriz semejante no revela ningún patrón apreciable, lo que era de esperarse porque tanto los rasgos como las sociedades se dispusieron al azar. El paso siguiente consiste en contar y registrar el número total de presencias para cada rasgo y el número de rasgos presentes en cada sociedad. Los resultados de esa nueva tabulación serían los que siguen: Número de presencias de cada rasgo Estratificación 4 Cerámica 7 Bebidas fermentadas 6 Estado político 2 Agricultura 8 Arquitectura 1 Metalurgia 3 Tejido en telar 5 Número de rasgos en cada sociedad Kuikuru 2 Anserma 6 Jívaro 4 Tupinambá 3 Inca 8 Sherente 1 Chibcha 7 Yagan 0 Cumaná 5 Ahora bien: colocando los rasgos culturales en orden decreciente de abajo hacia arriba y las sociedades en orden creciente de izquierda a derecha conforme al número de rasgos que poseen, se obtiene ya no una matriz aleatoria sino una entidad que el psicólogo social Louis Guttman, en 1940, llamó escalograma. Arquitectura Estado político Metalurgia Estratificación Tejido en telar Bebidas fermentadas Cerámica Agricultura Yagan Sherente Kuikuru Tupí Jívaro Cumaná Anserma Chibcha - + + + + + + + + + + + + + + + + + + + + + + + + + + + + Inca + + + + + + + + Es indudable que el escalograma exhibe un patrón definido, y que el mismo revela algo acerca de los procesos y estructuras subyacentes: en el caso analizado (que constituye un escalograma perfecto), parecería como que las sociedades agregaran paulatinamente rasgos sin perder los que ya tenían, y que sabiendo cuál rasgo está presente en una sociedad podríamos predecir algunos más. El valor del formalismo no se restringe a cruzar "sociedades" con "rasgos"; con mayor provecho podemos también correlacionar "sistemas" con "valores", "dominios" con "elementos", "lenguas" con "terminologías cromáticas" o lo que se quiera; de más está decir que pronto se adosaron perfeccionamientos, extensiones y honduras metodológicas (coeficientes de escalabilidad y reproducibilidad, métodos interpretativos para casos anómalos, etc) que potenciaron las fuerzas del instrumento. Es imaginable el revuelo que entre las filas de los evolucionistas causó semejante revelación metodológica, por sencilla u obvia que pueda parecernos hoy en día. Se multiplicaron las apuestas a 581 favor o en contra del formalismo, se prodigaron los habituales artículos de apología y desmixtificación, hasta que en algún momento la cosa se enfrió y quedó más o menos olvidada y en estado inconcluyente (Kronenfeld 1972; Marshall y Borthwick 1974; Graves, Graves y Kobrin 1968). No vamos a revivir aquí esas discusiones ni a juzgar el mérito metodológico de las escalas; sencillamente expondremos el mismo caso escalogramatical en cláusulas de Prolog digeribles por el sistema experto AGENI3.PRO, como demostración de la naturalidad con que nuestra metodología es capaz de incorporar un formalismo. Considérense, por ejemplo, los siguientes registros, que bien podrían encontrarse o escribirse tal como están en su base de conocimientos: r El método natural para ordenar en una secuencia escalar predicados con números variables de términos consiste en un simple conteo o tallying, pasando por la instancia intermedia de convertir los términos a listas si así se lo desea. En computación es tradicional "sortear" matrices de datos conforme a su magnitud, y todo lenguaje incluye cláusulas que, convenientemente seriadas, permiten reacomodar la salida de la clasificación en el orden que convenga. Un proceso de diagnosis ejecutado sobre una base de conocimientos así pautada sería una maravilla de fluidez y transparencia, pero sólo se manifestaría en su peculiar contextura de mediar una serie de casualidades, como el acomodamiento de los datos en un escalograma ordenado o la enunciación de las cláusulas regulares en una secuencia conveniente, de modo tal que la interacción entre el antropólogo y el sistema se pliegue, por así decirlo, a la progresión de los hechos. La forma es el mensaje. Al igual que las pautas clandestinas que sólo se mostraban ordenando los datos de cierto modo, la situación insinúa una potencialidad de significados oculta en el conocimiento antropológico a la espera de una estructuración sagaz; en este sentido, la cuestión va más allá de una estructura específica y de una tendencia antropológica peculiar beneficiada por ella, para hablarnos de algo que es como una promesa de todos los métodos a toda la antropología. 3. Estructuras computacionales de representación 582 El análisis de las estructuras de datos constituye una de las especialidades más amplias y mejor desarrolladas de la computación como disciplina científica. En los últimos años, con el advenimiento de la inteligencia artificial, las estructuras de datos se han convertido poco a poco en estructuraciones de conocimientos. La diferencia entre uno y otro concepto no es trivial: el "dato" remite a la máquina, a los dispositivos de almacenamiento, a las estrategias mecánicas de recuperación, al paradigma procedimental, en suma; el "conocimiento" concierne al significado del problema propuesto, a la lógica de la disciplina usuaria, al modelo declarativo. El aparato siempre está allí, por más que se busque disimularlo. Algunas implementaciones del Prolog, y en particular una de las más prestigiosas, el Arity Prolog, encarnación comercial del canon de Edinburgo, posee como resabio de las instrucciones orientadas a la máquina referencias a direcciones de almacenamiento de símbolos. Es verdad que en general ellas tienen que ver con operaciones y entidades que sólo se manifiestan durante el debugging, cuando es común que nos enfrentemos con pantallas como ésta (cf. Schnupp y Bernhard 1987:75): Si bien unos cuantos hackers se sentirán a sus anchas ante semejante revelación de las intimidades de la máquina, pensamos que ese aspecto de la implementación traiciona, en un momento crítico, la instancia declarativa en que el Prolog funda su razón de ser y su transparencia como herramienta para una ciencia empírica. Pero las filtraciones y lapsus mecánicos son sólo una cara de la cuestión: todo cuanto haya y suceda en y por los artificios mecánicos posee también valor instrumental en una teoría de modelos; hay que investigar de qué se trata esto y cómo se relaciona con lo que llevamos visto. De más está decir que en esta sección del capítulo nuestras semblanzas serán más incompletas y provisionales que nunca, y no porque sea el campo que conocemos peor. El dinero que (por otras razones y para otros objetivos) fluye hacia la tecnología hace que nuevas posibilidades surjan de año a año, transformando lo que podamos decir ahora en un discurso que se torna obsoleto apenas se lo escribe. Cuando comenzamos a estudiar antropología, por ejemplo, el Prolog no era más que un proyecto de hilbertianos visionarios; cuando terminamos de hacerlo existía una plétora de nuevos lenguajes (y por lo tanto, de nuevas estructuras) que hubiera socavado cualquier intento de síntesis planificado con algunos meses de margen, aún cuando implicara sólo a la computación convencional. Sea como fuere, ahora toca el turno de hablar de datos. Como las máquinas aún no han evolucionado más allá del modelo de Von Neumann, la mayoría de las estructuras de datos todavía se refiere a ellas, aunque el lenguaje tienda a pensarlas como conocimiento en general. Algunas de las que analizaremos seguidamente reflejan esa doble inflexión. a) Listas En este apartado no abundaremos en detalles computacionales que pueden recabarse mejor en algunos de los manuales disponibles, y en cambio nos concentraremos en la lista en tanto estructura 583 de representación conceptual que permite desplegar numerosas operaciones sintéticas o analíticas sobre conjuntos de datos de variada naturaleza. El Prolog es uno de los pocos lenguajes de programación que permiten definir tipos de datos recursivos. Un tipo es recursivo si admite que sus estructuras contengan otras estructuras semejantes a ellas; en otros términos, los componentes de una lista Äpor ejemploÄ pueden ser a su vez listas, hasta una profundidad de inclusión indefinida o infinita. Computacionalmente, una recursión es una estructura de programa en la cual un procedimiento se invoca a sí mismo. La idea es que, para resolver un problema, se ejecutarán primero ciertas operaciones, tras lo cual se resolverá un problema más restringido y del mismo tipo (es decir, lo que resta del problema inicial) utilizando los mismos procedimientos. El proceso termina cuando el problema que queda por resolver deviene tan simple que el procedimiento puede resolverlo en un solo paso sin llamarse a sí mismo nuevamente. Una lista se denota en Prolog encerrándola entre corchetes, y ya sea enumerando uno a uno sus componentes y separándolos por comas, o refiriéndose a la cabeza y la cola (el primer elemento y el resto del conjunto) separados por la línea vertical |. Esta línea equivale a la distinción entre CAR y CDR en LISP, pero a diferencia de ésta puede disponerse de tal forma que la cabeza de una lista posea más de un elemento atómico. Hay una cierta paradoja subyacente a la estructura de listas en Prolog: si bien una lista puede albergar numerosos elementos o "miembros", como por ejemplo , toda lista es en esencia una estructura binaria, compuesta sólo por una cabeza y una cola. De este modo la cabeza de nuestro ejemplo unificaría con el miembro , en tanto la cola denotaría (en la primera operación realizada sobre la lista completa) los miembros y . Es sumamente sencillo diseñar rutinas recursivas en Prolog para efectuar diversos procedimientos sobre listas; las diferentes implementaciones del lenguaje (con la excepción del dialecto original francés) en general coinciden en la especificación sintáctica de las operaciones. La sencillez de que hablábamos se debe al hecho de que construir y descomponer listas es un trabajo que en este lenguaje se realiza mediante unificación, y no a través de procedimientos específicos en los que se le dice a la máquina paso a paso todo lo que debe hacer. La lista aniquila y torna inútil la especificación repetitiva. Esto significa que el corazón del procesamiento de listas coincide a menudo con la notación que describe la estructura de los argumentos. Nuestros programas incluyen numerosas rutinas de este tipo. La profundización de los estudios sobre el Prolog ha ocasionado que las rutinas-tipo o las heurísticas sobre listas se fueran acumulando, constituyendo una poderosa reserva de ideas de dominio público. Las siguientes son algunas de las que se usan con más frecuencia, en dialecto Turbo Prolog. 1) Para escribir en pantalla los componentes de una lista, presuponiendo ligada la variable correspondiente: 2) Para determinar si un elemento es miembro de una lista: 584 3) Para permutar los elementos de una lista: 4) Para ordenar los miembros de una lista: 5) Para concatenar dos listas ordenadas: 6) Para eliminar elementos duplicados en una lista: 7) Para verificar que un elemento no forme parte de una lista: 8) Para verificar que una lista sea un subconjunto de otra: 9) Para convertir una lista en predicados simples: 585 10) Para ingresar datos en forma de lista, encabezados en este ejemplo por tres términos variables: 11) Para contar el número de elementos de una lista. No obstante la potencia tremenda de estas rutinas recursivas y de otras semejantes, el lenguaje por excelencia para el tratamiento de listas no es el Prolog, sino el LISP, desarrollado por uno de los abanderados tempranos de la inteligencia artificial, John McCarthy, sobre ideas lógicas entrevistas mucho tiempo antes por Alonzo Church. Estas ideas, de las que ya hemos hablado en su momento, se apiñaban en torno a la lógica funcional y al cálculo Lambda. LISP y Prolog son ambos lenguajes lógicos, entonces, pero sólo éste es descriptivo. McCarthy advirtió que el procesamiento de listas, la programación recursiva y la extensibilidad eran conceptos y estrategias que se interimplicaban. A partir de este principio diseñó un lenguaje que basa su carácter único entre todos los lenguajes de computación en seis características formalmente anudadas: 1) Su capacidad para computar expresiones simbólicas en lugar de números, tomando ventaja del hecho de que se pueden definir como símbolos secuencias cualesquiera de dígitos binarios. 2) Su prestación de procesamiento de listas, por medio de la cual las listas encadenadas a nivel de la máquina significan múltiples niveles de listas. 3) Su extensibilidad, es decir, la posibilidad de componer funciones complejas a partir de funciones simples y de redefinir dinámicamente cualquier función. 4) Su uso de la recursión como procedimiento de flujo normal. 5) La representación del propio código de LISP a nivel de máquina en forma de lista, lo cual crea una formato idéntico para ese código y para los datos. Un programa LISP, en otras palabras, es una lista de listas; los programas mismos se pueden considerar como los datos de otros programas de mayor inclusividad. 586 6) La función EVAL, que sirve como núcleo del intérprete y que es uno de los rasgos distintivos de este lenguaje y de sus dialectos derivados. Las habilidades miméticas del Prolog para emular la lógica funcional han sido exploradas por Maier y Warren (1988:265 y ss). Uno de los dialectos de Prolog, Micro-Prolog, ha sido concebido sobre el modelo del LISP, y de hecho es uno de los que mejor se prestan para el desarrollo de la programación funcional y de su lógica concomitante (cf. Tello 1988). Las versiones recientes del Arity Prolog incluyen sofisticadas herramientas recursivas, como ser listas de diferencia. Las listas de diferencia constituyen en realidad una estructura de datos especialmente apta para tratar secuencias incompletas de elementos, partiendo de la base del concepto computacional de acumuladores. En este sentido conforman una técnica de programación lógica bien establecida que permite la realización de programas concisos y eficientes, aplicados a dominios tales como escalogramas y secuencias evolutivas. Desde un punto de vista funcional, las listas de diferencia en Prolog son la contrapartida de la cláusula rplacd del LISP, aunque su modo de operación es divergente: mientras que las primeras carecen de efectos colaterales y se pueden discutir en términos del modelo semántico de la máquina abstracta, la operación rplacd es destructiva y sólo está fundamentada como un uso computacional de orden práctico. Por razones a fin de cuenta accidentales, no hemos implementado listas de diferencia en ninguno de los programas incluidos; sería forzado idear sobre la marcha problemas que quizá puedan ser mejor resueltos mediante un formalismo que requiera menos paráfrasis. Remitimos por ende a la tradición bibliográfica del Prolog para demostrar sus capacidades (cf. Clark y Tårnlund 1977; Sterling y Shapiro 1986: 239-247). b) Arboles Los árboles, como se sabe, han sido recursos gráficos que hicieron irrupción más o menos acompañados de una teoría o una prescriptiva rigurosa, y desde entonces han estado disponibles en áreas tan disímiles como la gramática generativa, la teoría matemática de grafos y el análisis componencial. Si un antropólogo piensa en representar computacionalmente un conjunto de datos que se acomodan siguiendo un patrón arboriforme (un árbol genealógico, una taxonomía, una red social, una gramática generativa, un proceso de derivación) la forma "natural" de hacerlo es echando mano de una estructura del lenguaje llamada, precisamente, árbol. Al igual que las listas, los árboles son estructuras de datos recursivas que ocupan un lugar de importancia privilegiada en numerosos algoritmos computacionales. El origen de esta estructura se remonta a Knuth (1968). En Prolog los árboles podrían representarse mediante un functor ternario de estructura , donde "Elemento" es el elemento que ocupa el nodo, e "Izquierda" y "Derecha" son, naturalmente, las ramas respectivas; en esta estructura, el sub-árbol vacío se denota mediante el átomo u otro equivalente. Por ejemplo el árbol siguiente: a b c se podría representar así: 587 En el dialecto Turbo Prolog habría que definir un dominio de tipo árbol con una estructura similar a la de este ejemplo, en el que se asume que los componentes de un árbol son strings o ristras de caracteres: Esta declaración especifica primero un tipo de datos ( ) consistente en una hilera de caracteres y luego otro tipo con el functor , cuyos argumentos son o bien una hilera de caracteres (el rótulo de la bifurcación) y dos árboles más, o bien un functor vacío. A partir de esta declaración es posible generar datos para llenar casos de esta estructura y algoritmos para atravesarla ulteriormente. Los programas lógicos que manipulan árboles binarios son similares a los que procesan listas. La diferencia radica en que los árboles son doblemente recursivos, por cuanto en una regla que se les refiere existen dos objetivos con el mismo predicado que el de la cabeza de la regla. Esto implica que si las reglas recursivas simples se estipulaban mediante dos reglas con la misma cabeza, las doblemente recursivas requerirán necesariamente tres reglas. Para determinar, por ejemplo, si un elemento es miembro de un árbol binario, será preciso establecer primero la estructura recursiva del árbol y luego la naturaleza doblemente recursiva del procedimiento que define la pertenencia: Uno de los conceptos inmediatamente ligados a las estructuras arboladas es el de isomorfismo; este término se utiliza para denotar que dos árboles no ordenados son básicamente "el mismo árbol" dispuesto de otra manera. Se dice entonces que dos árboles T1 y T2 son isomorfos si se puede obtener T2 reordenando las ramas de los subárboles de T1. La figura siguiente muestra tres árboles binarios, de los cuales los dos primeros son isomorfos: * a * * b a * c b * c b * a c 588 El isomorfismo es una operación de equivalencia que ha de definirse también en forma recursiva. Dos árboles vacíos son isomorfos. De no ser vacíos, dos árboles son isomorfos si poseen elementos idénticos en un nodo y si (a) los subárboles izquierdo y derecho son isomorfos o (b) el subárbol izquierdo de uno de los árboles es isomorfo con el derecho del otro y los subárboles restantes son isomorfos. En Prolog: En términos más restrictos, un árbol de búsqueda binario es una estructura que permite predecir, al buscar una celda cualquiera, en cuál de los subárboles de un item determinado se encontrará dicha celda. El árbol binario conforma, por lo expuesto y según se lo mire, tanto una estructura pasiva de acomodamiento de datos como una heurística para recorrer velozmente un espacio de búsqueda. En computación se acostumbra disponer datos originariamente "planos" de manera tal que se distribuyan según una estructura subyacente de árbol binario, a efectos de agilizar las operaciones de búsqueda. Se ha determinado que el tiempo insumido en encontrar un item en un árbol binario es, en promedio, proporcional al logaritmo binario del número total de elementos. El árbol binario (explorado con asiduidad por los especialistas en Prolog) constituye sin duda la estructura computacional que mejor refleja las organizaciones del conocimiento que la antropología cognitiva definiera como claves (Preston 1966; Tyler 1969; Fowler 1979). La literatura computacional pertinente incluye a Knuth (1968) y a Sterling y Shapiro (1986). Aquí cabe hacer una observación que sólo en algunos aspectos es colateral. A menudo se ha afirmado que ciertas analíticas que se fundan en diferenciaciones binarias no pueden dar cuenta de una realidad que se caracteriza por gradaciones polivalentes. A despecho de lo que suele decirse sin demasiada reflexión formal, cualquier estructura, por "polivalente" que parezca, es susceptible de representarse en forma de árbol binario sin pérdida de riqueza semántica, aunque esta técnica no siempre sea la más económica ni la más acorde con la intuición. En principio, cualquier secuencia de eventos binarios recursivos que pueda pensarse en antropología (como lo serían, por ejemplo, las analíticas estructuralistas levistraussianas si fueran rigurosas) serían a la larga expresables en el formalismo expuesto. Decimos "a la larga" intencionalmente. Esa reductibilidad no implica contradecir lo que a menudo hemos alegado: el análisis estructural tal como Lévi-Strauss lo concibe se equivoca al juzgar que es posible establecer distinciones binarias semánticas e intuitivas sobre campos estructurados de acuerdo con principios de gradación o de secuencialidad no oposicional: los colores, los meses del año, las fases de un ciclo cualquiera. Al mismo tiempo afirmamos que cualquier entidad es representable a través de árboles binarios. No nos contradecimos, pues la reductibilidad de todo dominio a una estructura en última instancia binaria no es (como Lévi-Strauss supone) fruto de una operación intuitiva en un solo paso, capaz de conservar en todo su decurso los valores iniciales de significación; por el contrario, binarizar un dominio impone encadenar una serie más o menos larga de distinciones arbitrarias sobre atributos empíricos que casi siempre son del orden de la cantidad. Los valores iniciales son recuperables, pero sólo como salida reversible de un proceso de descodificación que los restituye así como los había perdido la codificación de la que él es la imagen invertida. Las 589 oposiciones (o más bien diferencias) binarias se aplican sobre articulaciones formales o subyacentes, y no sobre las apariencias semánticas de superficie. La codificación binaria de un dominio cualquiera (el campo cromático, por ejemplo, tal como resulta cuando se lo digitaliza en señales o pulsos) no tiene por qué conservar ninguna correspondencia semántica oposicional con los denotata originales. En antropología "binario" remite todavía al estructuralismo francés, así como "cognitivo" invoca al desdichado modelo de Goodenough; pasará mucho tiempo antes que estos residuos se disuelvan y los conceptos recuperen sus valores instrumentales. A propósito del mismo Lévi-Strauss y de sus propuestas metodológicas, digamos de nuevo, para cerrar este punto, que en su estado actual, atestadas de indefiniciones, contradicciones y ambigüedades insuperables, ellas no parecen ser suficientes para generar un modelo que funcione, aunque fuere desmañado, estrecho, impráctico o antropológicamente trivial. c) Matrices, colas, planillas, stacks y arrays El array es el más simple de los datos compuestos: se trata de un agrupamiento de ítems almacenados en posiciones sucesivas de la memoria de la máquina, y que en general pertenecen al mismo tipo: números enteros, números reales, caracteres, ristras y (en Prolog) símbolos. Si se utilizan los arrays solamente para agregar o quitar datos en el extremo final se obtiene una pila o stack, que en ciertas condiciones se puede considerar también como otra estructura de datos cuyo contenido son direcciones de memoria. Si sólo se quitan datos del comienzo de un array y sólo se insertan ítems al final se obtiene una estructura adicional que se conoce como cola [queue]. En un stack el último dato en ingresar es el primero en salir (last in, first out o LIFO); en una cola, el primero en entrar es el primero en salir (first in, first out o FIFO). Salvo en condiciones computacionales o epistemológicas muy específicas (modelización en términos de autómatas, por ejemplo) todo esto es hasta cierto punto indiferente para el antropólogo, pese a que algunas estructuras son esenciales para que la máquina administre los llamados a los procedimientos, el control de flujo y la recursión. Ni duda cabe que lo que decimos es ideal: el científico que domine aspectos recónditos de la computadora se hallará, ceteris paribus, en mejores condiciones de hacer lo que quiere con el modelo y de comprender más acabadamente la conducta de los sistemas que implemente. El trabajo con arrays, stacks y colas ha sido fundamental en una orientación computacional que se ha popularizado en los últimos años, aunque aún allí sigue siendo un asunto interno de la máquina invisible al usuario: nos referimos a los spreadsheets o planillas electrónicas, de las que el exponente clásico es el 123 de Lotus. Estas planillas son demasiado conocidas en computación elemental como para que se necesite que las caractericemos en esta tesis. Una planilla de tipo Lotus es una forma muy conveniente de comunicar a la máquina una estructura de datos que admitan matrizarse en coordenadas, y todos los datos no jerárquicos lo admiten. Algunas de nuestras implementaciones se han servido de spreadsheets como mecanismos de ingreso de la base de conocimientos; de allí que el mutuo entendimiento de esas estructuras basadas en arrays y un lenguaje como el Prolog sea en ocasiones muy conveniente. A este respecto, existen dos formas de introducir datos de planillas de cálculo en un programa en lenguaje Prolog. La primera consiste en utilizar un formato intermedio (por lo común, ASCII puro) para luego asertar los registros a la base de datos del Prolog mediante la cláusula consult. Primero se 590 exportan los registros a ASCII, después se los importa de ASCII a Prolog. La forma más elaborada, sin embargo, consiste en especificar al sistema mediante programación de bajo nivel el formato en que están dispuestos los datos en la propia spreadsheet y luego leer la planilla directamente. Esta es la alternativa escogida por los diseñadores de los complementos utilitarios del Turbo Prolog. Dado que estas facilidades son comercialmente asequibles, no necesitamos probar aquí que la convergencia de las planillas de cálculo con un lenguaje de programación lógica es técnicamente viable. d) Bases de datos relacionales Los programas lógicos pueden considerarse como una extensión sumamente poderosa del modelo de las bases de datos relacionales; la potencia extra estaría dada por la posibilidad de complementar los datos básicos (denotados en un programa como "hechos") mediante reglas que enriquecen sus relaciones mutuas. La especificación del formalismo correspondiente esclarece un fragmento esencial de lo que en nuestra epistemología hemos caracterizado como la incorporación de una operación formal en un modelo. A través del modelo relacional, puede decirse que la programación lógica, además de sus capacidades expresivas e inferenciales, subsume la fuerza combinada del álgebra y la teoría de conjuntos. Dado que el modelo de las bases de datos relacionales es también un formalismo lógico muy bien desarrollado, representar este modelo en Prolog es fácil y directo. Existen desarrollos de lenguajes de consulta de bases de datos en Prolog que simulan las prestaciones de operaciones de lenguajes de query muy populares, incluyendo QBE y SQL (Gallaire y Minker 1978; Gallaire y otros 1984; Li 1984); también es popular la programación de interfaces procedimentales para que un modelo en Prolog acceda a datos albergados en una base relacional estándar. El álgebra relacional que fundamenta la tecnología de DBMS (un producto clásico de la computación convencional) desarrolla cinco operaciones elementales que permiten vincular la estipulación de hechos con la teoría de conjuntos y la lógica de clases. Esas cinco operaciones, que agotan el espectro de las relaciones posibles, son, como bien se sabe, la unión, la diferencia de conjuntos, el producto cartesiano, la proyección y la selección. No es fundamental que el antropólogo que realiza una transacción referida a datos tenga plena conciencia de estar desencadenando una operación algebraica axiomáticamente definida. En algunas modalidades de ciencia formal, sin embargo, esta transparencia puede resultar ventajosa o relevante: la precisión reflexiva nunca es superflua. Parece oportuno ejemplificar las operaciones indescomponibles a través de una base de datos imaginaria, semejante a la de la Human Relations Area Files, cuyos registros atañen a los atributos de un conjunto de etnías. Veamos como podrían desarrollarse en Prolog las operaciones conjuntistas básicas, cuya interpretación etnográfica cae de suyo. 1) La operación de unión crea una relación de aridez n a partir de dos relaciones preexistentes, r y s, ambas de la misma aridez que la resultante. Esto se logra mediante dos reglas: 591 Si la relación r originaria enunciaba, por ejemplo, las tribus que vivían en el continente B y la relación s las que poseían una organización social de tipo B (siendo el valor de las variables de validez local en cada una de las reglas), dispondremos finalmente de una nueva relación que incluye a las etnías que satisfacen algunas de las dos características. 2) La diferencia de conjuntos involucra siempre una negación, denotada con el predicado not. Realizamos operaciones diferenciales toda vez que buscamos determinar los elementos de un conjunto que no pertenecen a otro. La forma de expresar dicha operación requiere también dos reglas: 3) El producto cartesiano se puede expresar con una sola regla. Si r es una relación de aridez m y s una relación de aridez n, luego r_prod_s es una relación de aridez m+n definida de este modo: Técnicamente, el producto cartesiano de dos conjuntos X e Y es otro conjunto cuyos elementos son todos los pares ordenados cuya primera componente pertenece a X y cuya segunda pertenece a Y. 4) La proyección involucra la formación de un nuevo constructo relacional que comprende sólo algunos de los atributos de la relación preexistente. También se la pruede expresar con una sola regla: 5) La selección, finalmente, la más heterogénea de las operaciones, se define coordinando una condición explícita que constriñe el número de las relaciones a tratar en un procedimiento. Esta condición puede remitir a una regla adicional o expresarse en el interior de la misma regla. Por ejemplo: Donde podría ser, por ejemplo, que A sea mayor que B, que A o B sean obtenidas mediante alguna instanciación intermedia o alguna otra condición semejante. Los diversos dialectos de Prolog incluyen predicados específicos para tratar bases de datos de distinta naturaleza, localizadas ya sea en la memoria de la máquina o en algún soporte de almacenamiento. En Turbo Prolog pueden optarse entre numerosas estructuras de especificación y búsqueda. En Arity Prolog es donde se ha implementando el predicado conceptualmente más bello: las diferentes bases de datos se llaman "mundos". Esta última versión del lenguaje posee, como extensión optativa, un poderosísimo (y sumamente caro) entorno de gestión SQL. Hemos comprobado la adecuación del Prolog para el diseño de bases antropológicas en una implementación real, fragmentariamente incluida en el apéndice como uno de nuestros programas aplicativos, SITIOS.PRO. Remitimos a los comentarios sobre dicho modelo en la quinta sección de la tesis para suplementar las demostraciones que aquí pudieran haber quedado pendientes. e) Representación orientada al objeto 592 Este formalismo (inventado por Kristen Nygaard y Ole-Johan Dahl) puede considerarse como un refinamiento del frame; es lógicamente mucho más preciso, tiene la misma flexibilidad y se está imponiendo entre los practicantes de programación de avanzada que necesitan algoritmos de representación capaces de expresar relaciones sutiles de inclusión de clases, interacciones y procesos complejos. Mientras que el método de representación mediante frames no establecía distinciones entre una relación clase/subclase y una relación clase/instancia, estas dos relaciones son ortogonales (es decir, opuestas) en el formalismo orientado al objeto u OOPS. Esta diferenciación sirve para evitar efectos de sentido no deseados que perturban ocasionalmente los procesos de inferencia lógica, como los que se ilustran en esta transacción en Prolog: La mayoría de los lenguajes de programación caracterizan a las variables según su tipo. El tipo de una variable especifica el dominio de valores que esa variable puede asumir, así como el conjunto de operaciones que se pueden efectuar sobre ella. Un lenguaje (y el dialecto Turbo Prolog no es una excepción) proporciona un conjunto de tipos de datos primitivos tales como números enteros, caracteres, ristras, etc. No es posible, por ejemplo, operar aritméticamente sobre nombres, ejecutar concatenaciones sobre cifras o tokenizar fragmentos de un número. El concepto de clase en el formalismo orientado al objeto puede comprenderse como un tipo abstracto de datos: un objeto es una instancia (o sea, el valor de una variable) de un tipo de datos complejo. En un lenguaje o sistema de programación orientado al objeto, como el Smalltalk-80, el Turbo C++, el LOOPS o el SCOOPS, un objeto es la entidad computacional fundamental. La única manera de ejecutar un procedimiento es enviando un mensaje al objeto. Los objetos están, como dijimos, organizados en clases, y la definición de una clase determina la estructura de sus objetos, e incluye los procedimientos o métodos que le están asociados. "Enviar un mensaje" no es sólo una rara especie de metáfora postal; es una caracterización imaginativa de un sistema que se concibe constituido por objetos, en parte autónomos y aislados (de allí como haya que comunicarse con ellos), y en parte coordinados e interactuantes (de allí que la comunicación sea congruente y posible). En una clasificación zoológica, etic o emic, podemos hacer de cuenta que la clase "pájaros" es un tipo de datos abstracto; el método de contestar una pregunta acerca del modo en que se desplazan los miembros de la clase "pájaros" es uno de sus operadores legítimos. Este operador se puede utilizar para realizar una consulta acerca de cualquiera de los tipos abstractos que se encuentren por debajo de "pájaros" en el orden taxonómico; esto no es ni más ni menos que la regla de inferencia débil que ya hemos caracterizado como herencia (inheritance) de características. En la programación convencional se escribe un procedimiento para cada acción, y es este procedimiento el que tiene que decidir cómo tratar las entidades de diferente tipo. En la programación orientada al objeto, se definen simplemente los tipos, incluyendo en su definición los procedimientos para tratarlos. Esto puede ilustrarse mediante una analogía. Supongamos que se tiene que 593 simular el proceso de cocción de una vasija. Podemos cumplir el objetivo ya sea estipulando un procedimiento de cocción en general y luego detallando la cocción de vasijas en particular, o bien describiendo primero las vasijas y especificando, entre otros procesos que se le asocian, la forma de cocerla. La primera variante describe el método de la programación convencional; esta última estrategia equivale a la programación orientada al objeto. Los procedimientos en este caso son locales al objeto, intrínsecos a él, y sólo se disparan cuando se envía un mensaje al objeto, es decir, cuando ese objeto es tomado como tal por los mecanismos de ejecución del programa. Esto permite un grado superlativo de modularidad y abstracción: la programación se convierte en el arte de diseñar protocolos para el paso de mensajes entre objetos. En algunos círculos de programadores, el entusiasmo hacia la programación orientada al objeto se ha convertido en un gesto lindante con el fanatismo. La aparición del C++, un lenguaje con el prestigio computacional del C especialmente adaptado para el tratamiento de objetos (iniciativa de otro nórdico, Bjarne Stroustrup) ha vuelto a exaltar los ánimos en la última media década; el híbrido ha comenzado a desplazar al C convencional incluso en campos en los que éste parecía firmemente establecido. Sin duda con el tiempo se verá que los objetos no son una panacea, y que el modo en que obligan a repensar la programación no siempre rinde frutos apreciables. Pero las técnicas orientadas al objeto son quizá las más adecuadas que hasta hoy existen en situaciones en las que muchos componentes interactúan y ejercen cambiantes influencias entre sí. No por nada los primeros productos orientados al objeto eran sistemas y lenguajes de simulación. Predecimos, aunque sin esforzarnos en probarlo por ahora, que la idea de sistemas encontrará en la OOPS su herramienta natural. En Prolog podemos expresar objetos mediante "hechos" de estructuras similares a la siguiente: En su versión expandida, con la lista expresada entre corchetes, el hecho podría tener aproximadamente esta configuración: Cada uno de los elementos de la lista corresponde además a un procedimiento que a su vez puede tener varios renglones específicos, y el objeto en sí se activaría al ser mencionado en una cláusula de orden superior, que "le envía el mensaje" de ejecutarse. Sería fatigoso explorar cada uno de los horizontes que parecen abrirse al ritmo del crecimiento tecnológico. Aunque la OOPS tal vez valga la pena, no desarrollaremos ni en este apartado ni en esta tesis una justificación minuciosa del paradigma, ni una demostración exhaustiva de su complementariedad con el proyecto de la programación lógica; nos contentaremos con documentar algunos indicios en lo que resta de página. 594 Existen tres formas de implementar objetos en Prolog: interactuando con un lenguaje o entorno de computación cabalmente de tipo OOPS, interpretando un programa Prolog común en términos de objetos, o construyendo programas prototipo que actúen formalmente de acuerdo con la filosofía objetal. La primera estrategia es la escogida por los diseñadores del Smalltalk V, uno de los entornos de OOPS más populares, quienes han incrustado nada menos que una versión compacta de Prolog entre las clases de objetos genéricos predefinidas. Entre el Prolog V y el núcleo de Smalltalk propiamente dicho todas las transacciones son posibles, y el comportamiento del programa lo mismo se puede "leer" con criterio de lógica constructiva o con sentido de objeto. La segunda es la táctica seguida por Covington, Nute y Vellino en unos ejemplos lúdicos pero pertinentes (1988), caracterizados por un texto de programa bastante más compacto de lo que pudiera ser típico de la computación convencional. La tercera, en fin, es la tesitura desarrollada por Rodger Knaus (1990), antiguo colaborador del antropólogo Benjamin Colby, en una serie de artículos que, infortunadamente, jamás mencionan la antropología como un universo de aplicación (cf. Knaus, "Message Passing in Prolog", AI Expert, mayo de 1990, pp. 21-27). La bibliografía pertinente para el uso del concepto de objetos en Prolog comprende el estudio de Stabler (1986), el de Stefik y Bobrow (1986) y el de Zaniolo (1984) entre los textos más recomendables. A medida que la programación orientada al objeto se va popularizando como una de las actividades menos contraintuitivas de la computación científica, se van multiplicando también los estudios que exploran la capacidad del Prolog para instrumentarla. f) Redes Neuronales En el mundo ordenado de los desarrollos computacionales en inteligencia artificial, en general hay acuerdo respecto de que la programación lógica ilustra un género paradigmático, mientras que las redes neuronales ejemplifican otro, en el que se apunta incluso a un tipo de máquinas y a una epistemología diferentes. Mientras en programación lógica el énfasis está puesto en la representación del conocimiento, en la computación mediante redes neuronales está implicada la intención de reproducir el funcionamiento y la estructura del cerebro. Los científicos comprometidos con una o con otra definen la lógica de modos contrapuestos, allá como una analítica de los modos correctos de razonar y aquí como la legislación misma del pensamiento. Aunque sus objetivos son diversos, es tradicional asimismo que los partidarios de la inteligencia artificial que operan sobre máquinas de Von Neumann sean enemigos irreconciliables de los que implementan redes neuronales sobre tecnología de procesamiento en paralelo. Aquí no vamos a caracterizar en detalle los contenidos sustantivos del paradigma de las redes neuronales; hacerlo nos desviaría muchísimo de nuestros objetivos, pues incluso una semblanza simplista ocuparía docenas de páginas que no tendrían, de momento, ningún correlato en la metodología disciplinar. Miraremos el campo a vuelo de pájaro, pero advirtiendo que volaremos demasiado alto como para que los detalles lleguen a ser perceptibles. Tampoco nos consideramos aún especialistas en programación de redes neuronales, de modo que avanzar en ese sentido nos dejaría sin el sustento de una práctica que, por el contrario, abona casi todas las demás incursiones de nuestra tesis. Aunque no hemos practicado una compulsa sistemática, tenemos razones para creer que los escasos antropólogos que han estado expuestos a los rumores acerca de las redes neuronales poseen una imagen engañosa acerca de su naturaleza; circula la especie, por ejemplo, de que las memorias de las computadoras neuronales están construidas sobre material de base orgánica, de que se ha lo595 grado (o intentado) hacer que las computadoras o sus partes se autorreproduzcan, o de que las redes neuronales exigen invariablemente computadoras especiales ultrarápidas capaces de procesamiento concurrente. La red neuronal, por desgracia, no es más que un concepto abstracto, una forma de concebir las cosas al igual que la teoría de autómatas es no un discurso sobre robots humanoides sino una sistematización sobre modalidades de procesamiento informacional. Existen numerosísimas redes neuronales de carne y hueso (o mejor aún, de metal y silicio), casi tantas como modelos y problemas han ido surgiendo; pero la idea de una red neuronal es sólo eso, una idea, y, con las limitaciones del caso, puede ser modelada en tanto tal por cualquier máquina universal (como una computadora Von Neumann) y mediante cualquier lenguaje de computación suficientemente poderoso (como el Prolog). El origen de las redes neuronales se remonta a un artículo de Warren S. McCulloch y Walter H. Pitts publicado en 1943; en él, los autores emplean la lógica simbólica para describir lo que una red neuronal como, por ejemplo, el cerebro humano, puede hacer, y llegan a probar que los procesos mentales más complejos pueden ser descritos mediante un número finito de expresiones simbólicas: aritmética simple, clasificación, almacenamiento y recuperación de conjuntos finitos de datos, aplicación recursiva de reglas lógicas. Este desarrollo desembocó en la caracterización de las llamadas "neuronas formales", equivalentes lógicos de las máquinas universales de Turing. Si se puede describir en palabras y sin ambigüedad en qué consiste un proceso, existe al menos una red formal de McCulloch-Pitts que puede realizar ese proceso (Mackay 1954:2). A partir de este hito se ramificaron los debates y los experimentos en torno de la especialización regional de la corteza, de la necesidad de redundancia para otorgar confiabilidad a los procesos, o de la organización jerárquica de las redes. Donald Hebb aportó una idea inspirada en Ramón y Cajal, la cual postulaba que la repetida activación de una neurona por otra conectada a ella mediante una sinapsis incrementaba su conductancia, de modo tal que grupos de células, si se activaban con cierta frecuencia, tienden a organizarse en agregados fuertemente conexos. De aquí en más las redes neuronales comienzan a adquirir la fisonomía que tienen hoy: los agregados constituyen conjuntos de neurodos, vale decir, neuronas más sinapsis, que vienen a ser pequeños elementos de procesamiento. Cada una de las interconexiones que forman la red posee asociado un valor, conocido como peso sináptico. Para activarse, los pesos sinápticos de los insumos recibidos por una unidad deben satisfacer ciertos umbrales. En la misma década del 50, Albert Uttley demostró que redes neuronales con conexiones modificables de tipo Hebb podían "aprender" trabajos clasificatorios sencillos. En los 60, Frank Rosenblatt construyó sobre este concepto sus discutidos "perceptrones", entidades lógicas o mecánicas susceptibles de ser entrenadas, y casi al mismo tiempo Bernard Widrow y M.E. Hoff diagramaron su adaline (neurona lineal adaptativa). De pronto todo pareció venirse abajo: Seymour Papert (el creador del LOGO) y Marvin Minsky (el inventor de los frames) demostraron que perceptrones, adalines y organizaciones neuronales de un solo nivel, con o sin conexiones modificables, no podían en realidad funcionar como máquinas universales, y que incluso tareas muy sencillas, pero de cierta estructura específica, jamás podrían ser llevadas a cabo por estructuras neuronales de ese tipo. Los problemas del viejo conexionismo (como se dió en llamar la etapa que va de McCullochPitts a Rosenblatt y sus seguidores) recién fueron resueltos por el neoconexionismo de los años 80 (Cowan y Sharp 1988:97). Retrospectivamente, se percibe que los 60 y 70 fueron décadas de relativa parálisis, fruto de un escepticismo al borde de lo irracional que el progreso tecnológico y la pro596 fundización teorética finalmente atemperaron (cf. Levine 1989). Este momento científico fue precedido por numerosos hallazgos que de inmediato se hicieron convergentes: Las redes de Hopfield, que modelizaron el almacenamiento de información a través de configuraciones físicas "dinámicamente estables", popularizando mecanismos no-lineales y analógicos, exponiendo el paradigma en un lenguaje inteligible, demostrando "habilidades computacionales colectivas emergentes" y recuperando la noción de ultrastabilidad de los viejos cibernéticos (Ross Ashby 1950; Hopfield 1982). Después de Hopfield (y obsérvese con sumo cuidado la fecha de su erupción), ni las redes neuronales ni la inteligencia artificial volverían a ser las mismas. Las máquinas de Boltzmann, capaces de superar mediante recursos adaptativos y entidades ocultas ciertos efectos de cristalización propias de las redes de Hopfield, desenvolviendo un proceso de aprendizaje auto-asociativo y no supervisado. Las redes con propagación de errores hacia atrás de Rumelhart y McClelland y las redes "amoesclavo" de Lapedes y Farber, que combinan con agudeza buena parte de los mecanismos anteriores. Estas redes aprenden ajustando los pesos de los neurodos en función de una regla de aprendizaje que es una variante de los algoritmos utilizados por los adalines de Widrow y Hoff. Las redes auto-organizantes de Teuvo Kohonen, que poseen un solo nivel y que responden a una "regla de aprendizaje" ingeniosísima, de un solo paso, que contrasta con los diseños retroalimentantes tradicionales y que parece funcionar mejor en redes complejas que en dispositivos simples (cf. Kohonen 1987; Caudill 1988). Sería imposible aún enumerar la avalancha de artículos, desarrollos experimentales y hallazgos que jalonaron la segunda mitad de la década del 80 y lo que va de la actual, cuando la "epistemología experimental" de las redes neuronales se fundió con la tecnología de procesadores en paralelo, con formidables avances en neurobiología y con la idea de los algoritmos genéticos. Nos hallamos ante una Ciencia Cognitiva mucho más instrumental que la que se tenía antes (pues la exigencia de control experimental se acata construyendo materialmente modelos que hace unos años sólo eran posibles en el papel) y con una inteligencia artificial que ve cumplirse algunos de los sueños de los que se creyó, tras el inflado escándalo de los perceptrones, que tenía que despojarse. Sintetizándolo mucho, diríamos que las redes neuronales de hoy en día son mecanismos que funcionan. Estos mecanismos pueden ser físicos o lógicos, pues cuando la teoría es fuerte la distinción sólo afecta en principio a los aspectos teatrales del asunto y no a su posibilidad lógica. En general las redes neuronales se disponen en tres niveles, con una unidad o nivel de entrada, otro de salida y un último, intermedio, al que se conoce como unidad oculta, que se corresponden rudamente con las unidades sensoriales, de respuesta y asociativa de las redes de Rosenblatt. De más está decir que casi siempre los niveles intermedios son más de uno y las figuraciones y grafos que les hacen justicia son multidimensionales. Lo esencial del paradigma de redes neuronales consiste en el objetivo de que mecanismos simples y poco confiables resuelvan confiablemente problemas más complejos que los componentes individuales que los integran o que las reglas individuales de funcionamiento dispuestas de antemano. Para lograrlo, es preciso recurrir a propiedades emergentes, que no forman parte de la conducta del sistema, sino que son una consecuencia de la conducta del mismo. Dentro de estos sistemas, la representación del conocimiento se aloja en modos muy distintos de los que estamos acostumbrados a describir. En lugar de enunciar la información explícitamente en forma de reglas, se la estipula implícitamente como una distribución de pesos en una matriz de conexiones. 597 De más está decir que el concepto de propiedades lógicas emergentes refuta de un plumazo el deseo de algunos epistemólogos irracionalistas como los que últimamente atestan las ciencias sociales, en el sentido de que ningun sistema puede resolver problemas más complejos que él mismo (cf. Ibáñez 1985). Buena parte de la significación del paradigma tiene que ver con la dramática resolución de dilemas que hasta hace poco se creían insolubles y con la clarificación de límites de cuya existencia apenas se sospechaba. La producción intelectual alrededor de las redes neuronales es demasiado monstruosa para plegarse a un resumen; los problemas suscitados son desmesuradamente complejos y sutiles para intentar glosarlos, siendo que no somos especialistas en el tema y apenas hemos programado un par de toy-systems. Las discusiones son por ahora un tanto duras como para sacarles algún jugo, y costará tiempo hacer que haya más luz y menos calor: para dar un caso, ha vuelto a revivirse la vieja querella en torno de si las máquinas son o no verdaderas "mentes", por más que buena parte del éxito empírico de las redes neuronales obedece a que ellas mismas, en tanto mecanismos de (auto)aprendizaje, son, más allá de la corteza cerebral, de la inteligencia o del pensamiento humano, el verdadero objeto de modelización (cf. Dreyfus y Dreyfus 1988; Searle 1990; Churchland y Churchland 1990). Vistas las circunstancias, la relevancia del paradigma de las redes neuronales para la antropología (como para cualquier otra ciencia aplicada) sólo puede ser materia de conjetura futurológica, y no de razonamiento bien fundado. Destacaremos, no obstante, dos hechos ya comentados fugazmente. A pesar del abismo paradigmático y de las contingencias del desarrollo tecnológico, a despecho de que las formas de representación del conocimiento en un programa lógico y en una red neuronal se encuentran en las antípodas de lo intuitivamente comprensible y de lo contraintuitivo, es perfectamente posible emplear recursos de programación lógica para simular estructuras de redes neuronales, introduciendo las premisas de los métodos que le son propios entre el conocimiento representado y las máquinas de inferencia, como un componente más integrado al modelo. Berkshire Software ha comercializado con cierta resonancia NEURALOG, un sistema de redes neuronales íntegramente programado en Turbo Prolog, de modo que nuestra afirmación a este respecto no necesita demostrarse. El segundo hecho a comentar es quizá más relevante: siendo que los programas de redes neuronales deben desencadenar, mantener bajo control y aprovechar los resultados de procesos divergentes y convergentes, a la larga será esencial un lenguaje que permita desarrollar procesamiento paralelo; y el Prolog es, de todos los lenguajes, uno de los que más se han destacado en ese campo, al punto de constituir el prototipo de los que se aplican a tecnologías paralelas masivas de sexta generación (cf. Rumelhart y McClelland 1986; Eadline 1989). Aún cuando la expresión del primer problema antropológico en términos de matrices de conexión neuronal sea todavía un proyecto en brumas, los programadores lógicos de hoy quizá tengan buenos motivos para creer que, metodológicamente, el porvenir ya ha comenzado y Prolog conduce hacia él. 4. La dimensión transdisciplinar de la representación En antropología podemos hablar del "significado" en dos estilos contrapuestos: el primero (que es el que escogió la corriente partidaria del análisis componencial) es problematizándolo de alguna manera concreta, lidiando efectivamente con él, tratando de desentrañar su anatomía interna y su disposición en campos de sentido, imponiendo un nombre y asignando un atributo a sus variables; el 598 segundo (que es el que adoptó la antropología simbólica) consiste en renunciar a un abordaje formal y remitirlo todo a un orden de inefabilidades, libertades e incertidumbres, a una dimensión que sólo puede captarse en actitud estética, cuando no sentimental. La primera estrategia es la más riesgosa, porque pone todas las operaciones metodológicas al desnudo; afronta la realidad con categorías definidas, y en seguida se perciben sus reducciones, sus arbitrariedades y sus esquematismos. La segunda táctica es la más segura, porque reenvía aquello que pudiera resultar embarazoso a un registro que no es objeto de ninguna interrogación, aunque a menudo se crea lo contrario y aunque las apelaciones rituales al significado (todopoderoso, determinante, incierto) llene la boca de los humanistas. Cuando peinamos el terreno en pos de ejemplos teoréticos pertinentes, comprobamos que las tendencias que más insisten en la primacía del significado son las que menos lo indagan atravesándolo con preguntas imaginativas, las que más se retraen ante la sola idea de cartografiar su estructura. A menudo se habla del fracaso del análisis componencial: fracaso taxativo, innegable, acaso vergonzante. El estado de salud de la antropología simbólica, en cambio, es menos fehaciente. Basta renunciar al método para obtener el beneficio de la duda, para que nadie perciba que el rechazo histérico y compulsivo de la formalización es, en cierto modo, la marca que señala el final de la búsqueda: algo así como un la forja de un yelmo que en el mejor de los casos no se pone a prueba para evitar que se rompa y, en el peor, ni siquiera admite procedimientos para ser probado. Los partidarios de la ciencia interpretativa se han rendido ante una complejidad a la que no se han atrevido a oponer las necesarias simplificaciones iluminadoras. Simplificaciones que, como las aquí propuestas, de ningún modo consisten en renunciar a aspectos de la realidad o en tornar más escuálidos los métodos que la abordan, sino en estructurar tanto a éstos como a aquélla, a fuerza de sacar a la luz, enumerar, definir, sistematizar, delimitar, confesar (si se quiere) las entidades y principios que rigen a todo modelo. Pues un modelo pone a prueba (y por ende, es susceptible de poner también en crisis) tanto a la realidad como a la teoría a partir de la cual se la construye; y antes que nada, por definición, se pone a prueba y en crisis a sí mismo. Si hiciéramos un balance de los últimos diez o quince años de la producción disciplinar, hallaríamos que es la antropología simbólica y sus derivaciones interpretativas la que menos respuestas ha obtenido, porque ha renunciado a plantear preguntas que (metodológicamente hablando) pudieran poner al descubierto flancos vulnerables. Ni un sola de las formas de representación indagadas proviene del simbolismo, por la sencilla razón de que él no ha propuesto ninguna, resignado al empirismo clandestino que supone describir "los significados tal cual son" o "las concepciones del mundo del sujeto" sin atreverse a estructurarlos ni a postularles un orden desde fuera. El simbolismo ha disfrazado de escepticismo y desapego metodológico lo que en realidad no pasa de ser miseria teorética, ocultamiento de una crisis intelectual mil veces peor (por su esterilidad) que la que sufre la ciencia formal. Como los hechos no hablan a menos que los interrogue una teoría, como los significados no proliferan a menos que actúe un método interpretante (expresable, comunicable y replicable en tanto método), no ha habido ninguna diferencia pragmática entre carecer de método y abstenerse de preguntar. El simbolismo -barruntamos- no se dió cuenta que cuando proclamaba la primacía del significado y el triunfo de la sensibilidad estaba formulando un programa al que algún día se le exigirían resultados. Por más que se haya buscado disimularlo, fue el resonante vacío de significados aportados a la antropología por el esteticismo (el fracaso metodológico de la thick description) lo que produjo, hacia mediados de los años 80, la situación que algunos han llamado "el colapso de la repre- 599 sentación". Ninguna otra tendencia estuvo en esos años lo suficientemente activa como para tener ahora que cargar con el muerto. La falta de herramientas para abordar con algún provecho la dimensión de los significados acabó precipitando a las facciones más recalcitrantes del simbolismo en el rechazo filosófico de la representación y en la defensa de una "evocación" no representacional y por lo tanto inexpresable (cf. Tyler 1978, 1984, 1987). Aquel rechazo filosófico es (como hubiera dicho Geertz) un gesto muy duro para una ciencia tan blanda; en beneficio de esta evocación (objetivo imprecisable por excelencia) la programación lógica muy poco puede hacer. "Sobre lo que nada puede decirse -decía el primer Wittgenstein- lo mejor es callar". Y la lógica puede ser muy imaginativa, muy abstracta y muy genérica, pero sólo es capaz de morder sobre lo expresable. Reivindicamos por consiguiente las formas convencionales y "suicidas" de la representación, teoréticamente marcadas por un paradigma que interroga a la realidad en forma oblicua, resignándose a la parcialidad. Asumimos, en definitiva, que la representación sigue vigente, hasta tanto la demostración de lo contrario alcance cierto rigor y verosimilitud o hasta que alguien invente una ciencia mejor, que no se agote en el vaciamiento metodológico o en la resurrección de un humanismo que ya ha malgastado más oportunidades que las que mereciera. Como hemos dicho tantas veces, el punto de partida de un modelo o programa lógico, cualquiera sea su referente, es una descripción del conocimiento que el antropólogo tiene respecto de un dominio determinado. Este dominio es, de hecho, la representación que el programador tiene de él; pero nada impide que sea, a su vez, la representación de la representación que edifica un informante respecto del mismo dominio o de cualquier otro, en el espiral sin fin de los conjuntos o sistemas de signos que nunca alcanzan a tocar la esencia de las cosas. De aquí las analogías frecuentes entre el proyecto de la programación lógica y el de la antropología del conocimiento. De aquí también otro curioso efecto emergente de la modelización: aunque la representación modelada por el antropólogo sea la suya propia, aunque la mirada se dirija clandestinamente hacia uno mismo, toda ella queda "emicizada", extrañada, por el solo hecho de haber tenido que ser expuesta. En una representación modelada se cruzan así las dimensiones objetivas que se cristalizan en una expresión formal y las dimensiones subjetivas que emanan de la introspección. Una vez plasmada en un conjunto sintáctico, se puede analizar la representación desde fuera, se la puede mirar como si fuese de otro, se puede (en un sentido hermenéutico profundo) reflexionar sobre ella. Ninguna fenomenología autista ha sido, hasta hoy, capaz de ser tan cruel como lo ha sido la lógica acerca de los perfiles y capacidades de sus propias estructuras. No pretendemos iniciar aquí un examen escrupuloso de los problemas y de las implicancias filosóficas del significado y la representación. Lo que importa es demostrar que se dispone de las herramientas necesarias para construir una representación y para operar con ella en el seno de un modelo formal. La programación lógica incorpora un punto de partida representacional que estaba vacante en las elaboraciones convencionales de la lógica y que al efecto de una utilización sustantiva de los formalismos es tanto o más relevante que los procesos de cálculo que habrán de recorrerla. No nos aquieta haber intentado su inventario. Sería preciso comparar la convertibilidad recíproca de los diversos métodos representacionales, su diferente rendimiento inferencial, la experiencia consolidada alrededor de cada uno y su mayor o menor consonancia con un tratamiento computacional. Este proyecto sería acaso tan amplio y dificultoso que aquí no tenemos otra alternativa que posponerlo, contentándonos por ahora con agendarlo como uno de los tópicos a esclarecer en el 600 futuro inmediato. Esto no quita que intentemos graficar a continuación, a título provisional, el campo de las correspondencias transdisciplinares, la forma en que unas estructuras elaboradas en disciplinas estancas invocan más o menos naturalmente recursos construidos con otras inquietudes en mente. Pese a la independencia de sus procesos históricos de gestación, todas las estructuras de representación antropológicas y lingüísticas entrevistas (y con cierta probabilidad, todas las imaginables) poseen un correlato computacional nominado que es el que mejor las expresa o que es óptimo para expresarlas. Es importante que esa correlación sea convergente: unas pocas estructuras computacionales bastan, en consecuencia, para construir todas las estructuras conceptuales de representación, antiestructuras incluidas. Al contrario de todas las epistemologías antropológicas que la han precedido, la nuestra no impone a su objeto la absurda restricción de ser componencialmente analizable o mapeable en una arquitectura de oposiciones. Estructuras antropológicas Estructuras computacionales Listas Listas Escalas, escalogramas Listas de diferencia Arboles, taxonomías, claves, partonomías Arboles Paradigmas, esquemas, prototipos, tipificaciones Grillas de repertorio, frames Conglomerados, congeries Hechos, estructuras Secuencias, redes Frames (scripts), objetos Diagrama 3.7 - Correspondencias Dicho de otra forma, es imposible urdir una articulación conceptual expresable, emic o etic, secuencial o ramificante, aristotélica o difusa, imaginaria o verbalizada, ordenada o caótica, cientificista o escéptica, que no encuentre la manera de estipularse en algún formalismo computacional bien conocido o en otro que se pueda elaborar a su propósito. Cuando el lenguaje de computadora es Prolog, el formalismo es lógico al mismo tiempo que informático, y el programa es simultáneamente lo que llamamos un modelo. Un formalismo agrega a la carne semántica de lo representado una estructura que permite someterlo a cálculo, compararlo con otros casos, observarlo en su docilidad o en su resistencia a nuestro análisis, vapulearlo hasta que suelta todo el jugo conceptual que sus implicancias retienen. Igualdad de estructura significará muy pronto generalidad de aplicación, tal como veremos en la paráfrasis de nuestros programas. Porque demostraremos que, al revés de lo que a veces se piensa, para generalizar y extrapolar no debemos tomar mayores distancias de nuestro objeto, sino conocerlo acaso más íntimamente. Este hallazgo refuta el reiterado estereotipo de la computación como una actividad sólo adecuada para dar cuenta de alternativas conceptuales binarias y de procesos mecánicos de tipo switch. La computación por medio de la lógica dista de ser un mecanicismo esterilizante, ligado a un proyecto inconfesable, a una confabulación de científicos que se creen dioses y que tienen el designio de deshumanizar el mundo. La representación, como se ha visto, es capaz de plegarse a requerimientos muy sutiles, a matices sumamente delicados de significancia, porque nuevas claridades sintácticas y de inferencia han venido a agregarse a riquezas interpretativas que no por estar ideológicamente lejos de Geertz nos están vedadas o se encuentran más allá de nuestro interés. No exploraremos otras "estructuras semánticas" desplegadas por los cognitivistas antropológicos tardíos y que involucran conceptos espaciales (A está próximo a B), atributivos (A es B), evaluativos (A posee la cualidad B), funcionales (A se usa para B), comparativos (A es como B), 601 ejemplificativos (A es un ejemplo de B), gradativos (A es casi B) o sinonímicos (A significa B) por entender que todas ellas, si es que en realidad son estructuras y si es que son semánticas, no oponen ninguna resistencia a un lenguaje basado, precisamente, en la idea de predicación. Con el trazado de este cuadro, más sugerente que sistemático, quedan por el momento expuestos (aunque no agotados) los principales lineamientos de la representación del conocimiento en Prolog. Se hallarán conclusiones más ricas al respecto en el desarrollo de los programas computacionales adjuntos y en los estudios de casos, donde también vincularemos, en un acto analítico de más amplio aliento, formalismos de representación, clases de problemas y tipos de modelos. 602 IV LOGICA CONVENCIONAL Y LOGICAS ALTERNATIVAS 1. La discusión básica Con los programas aplicativos que hemos incluido y con todo su aparato de elaboración se está ratificando, sin duda, la capacidad modelizadora de la Programación Lógica con respecto a una amplia variedad de problemas que pueden llegar a presentarse en la investigación disciplinar; la ejemplificación de esa capacidad abarca desde el planteamiento de una sola proposición incidental (el dilema de Spiro) hasta la construcción de motores de inferencia o shells de sistemas expertos aptos para organizar un conjunto todavía indefinido de dominios, pasando por bases de datos, modelos cognitivos, gramáticas sintéticas y analíticas y sistemas de simulación de procesos. Según creemos, la nuestra constituye la primera demostración formal en el sentido de que es posible una genuina modelización en el interior de la disciplina, con todo lo que esto implica; hemos cumplimentado esa demostración utilizando un instrumento lógicamente insospechable, que se basa en un mecanismo axiomático de suficiente transparencia y que permite dar cuenta desde los primitivos del proceso deductivo hasta la plena representación del conocimiento y las consecuencias que de él caben extraerse. En contraste con lo que teníamos antes en materia de teorías y prácticas modélicas, en este proceso se ha modificado la escala de la aserción y se han esclarecido correspondientemente la estructura, la función y las propiedades de los modelos en general, más allá de la variante computacional escogida. Pero lo que se ha elaborado sólo llegaría a conformar a una fracción de los estudiosos: a los que han decidido de antemano que la lógica en un sentido genérico, no importa cuál sea la contingencia de su formación histórica, es garantía suficiente en el ejercicio de una formalización. No hemos visto aún qué cursos y matices de inferencia pueden plantearse en un cálculo en tanto proceso dinámico de encadenamiento de ideas regido por ciertos supuestos acerca de la lógica misma. A decir verdad, hemos examinado solamente el costado del problema que concierne a la representación de los hechos, minimizando la atención que merecen los procesos deductivos que sobre ellos se aplican. Si dejáramos las cosas como están, sólo satisfaríamos a aquellos que prefieren a todo trance un álgebra mediocre a una espléndida intuición. Cuando comenzamos a examinar los usos de la lógica, dijimos que ella puede considerarse (a) como técnica directa para la representación del conocimiento, (b) como herramienta para el análisis semántico de esta representación y la validación del razonamiento, y (c) como formalismo de referencia contra el cual pueden compararse y definirse otros formalismos. De los usos potenciales de la lógica propuestos por el equipo de Thayse hemos revisado tan sólo el primero y la mitad del segundo. Hasta este punto tenemos un modelo continuo pero truncado, pues para completarlo resta aún discutir la anatomía íntima y el sesgo filosófico de la lógica que lo rige. Si bien la capacidad de un formalismo para la representación era un capítulo inexistente en la epistemología de hace apenas diez años, y si bien las estructuras representacionales revisadas han demostrado ser adaptables a las cambiantes modalidades descriptivas de la antropología, está por verse si el cálculo deductivo que se puede modelizar es igualmente versátil, y si se compadece con 603 los grandes espacios en blanco, las incertidumbres y las dudas que pueblan desde siempre a nuestros métodos. Estimamos que la prueba de funcionamiento de lo aquí propuesto es una condición ineludible, pues la mayor parte de los modelos que se han ofrecido en los últimos decenios de vida disciplinar tenían la extraña peculiaridad de funcionar sólo en las manos o en la imaginación de sus diseñadores primarios. En el mejor de los casos, siempre que se trató de aplicar un método existente o de suscribir una teoría previa, la replicabilidad de los modelos antropológicos se limitaba a ser una práctica de imitación estilística, de identificación ideológica o de adopción mimética de un vocabulario. No pretendemos repetir esta historia. El valor de la implementación de una genuina teoría de modelos y de su correspondiente praxis radicaría en superar nuestro atolladero endémico, no en precipitarnos otra vez en él siguiendo caminos novedosos. Nuestra propuesta no pretende ponernos al alcance de formular algún día una teoría de modelos verdaderamente instrumental, pues está probado que cuando ésa es la táctica el día que se espera nunca llega; el objetivo es fundamentar y construir esos modelos aquí y ahora, aunque para ello tengamos que reconsiderar toda la epistemología, lógica incluida. "Ante todo -decía Wittgenstein- nada de estrechar el nudo antes de estar seguros de haber pillado el final exacto" (1982:83). Hay un costado filosófico en todo ésto que sigue pendiente y que tiene que abordarse sin demora. El modelo se debe completar, entonces, precisando cuáles son las lógicas susceptibles de orientarlo, de qué manera se las implementa y en qué forma ellas interactúan con problemas sustantivos y posturas teóricas de la antropología. Aparte de la necesidad de escapar a que se nos identifique con una sola modalidad lógica (lo que nos haría caer con ella cuando ella caiga), la profundización en las posibilidades modelizadoras atípicas de la programación lógica que se explora en esta tesis tiene motivaciones menos pusilánimes. El estudio de los tipos de enunciados a los cuales se adaptan unos u otros modelos de lógica se añadirá a nuestra teoría de modelos como una especie de heurística adicional a las que la inteligencia artificial viene aportando tradicionalmente a los métodos de resolución de problemas. Heurística inexcusable, aunque más no fuere porque el clamor en torno de las lógicas desviadas está creciendo y hace necesario expedirse, y porque al menos una de ellas -la lógica difusa- ha experimentado un éxito práctico formidable, al lado de los algoritmos genéticos y de las redes neuronales. Pero no se trata de mimetizarnos y de seguir las modas. Hay ciertas instancias de la problemática disciplinar que parecen invocar en efecto lógicas diferentes: un hecho cultural parece más "probable" que "verdadero"; un nuevo dato contradice las conclusiones a las que venía arrastrando nuestra base de conocimientos; la filiación de determinado tiesto se revela más "incierta" que propiamente "falsa"; nuestras ideas sobre los tasaday o los querandíes se modifican con el tiempo; los samoanos "pertenecen más" a la clase típica de los polinesios que (por ejemplo) los nativos de la Isla de Pascua, y así hasta el infinito. La lógica convencional no es capaz de expresar esas declaraciones con el matiz semántico adecuado, ni dispone de operadores para incluir semejantes sutilezas en el cálculo. Si esta circunstancia es tan frecuente, resulta enigmático que las lógicas que rigen el tratamiento de esos hechos sigan siendo marginales, y hasta cierto punto malditas, sobre todo tratándose de un área de estudios que (como la inteligencia artificial) ha hecho de la emulación de lo humano y del realismo representacional su vocación definitoria. Desmarginalizar las lógicas divergentes, quitarles su aura de escándalo, agregar sus hallazgos y su fuerza constructiva o deletérea al instrumental de que dispone el científico promete ser un objetivo interesante, aunque no será el único que persigamos en este capítulo. 604 El campo de las lógicas -como el de las epistemologías- no deja de estar ideologizado, y con toda seguridad en nada se parece a un espacio de oposiciones formales puras. En la preponderancia de un tipo de lógica en lugar de otro se esconde, a veces de manera manifiesta, un interés que va más allá de lo formal, un apasionado juego de poderes y prestigios. Como antropólogos, dispuestos a no considerar cualquier hecho consumado en la historia como una necesidad de la naturaleza, a veces también pensamos que la lógica que nos rige bien podría haber sido otra. Que las lógicas modales, polivalentes, difusas, probabilísticas, temporales, deónticas, ilativas, epistémicas, de la preferencia, imperativas, erotéricas, minimales, cuánticas, intuicionistas o libres sean vistas como "alternativas" o "divergentes" respecto de la lógica académica convencional se debe, a no dudarlo, al mismo tipo de contingencia histórica que hace que algunas lenguas sean "idiomas" y otras sólo "dialectos". La lógica académica ha sido la más poderosa, en el sentido de que ha sido la modalidad abrazada (con justicia o sin ella) por el establishment de los lógicos: "El mal nunca triunfa -decía Perich- porque cuando triunfa se lo llama bien". La cosa no es tan simple, porque es muy posible que la lógica académica sea un cuerpo compuesto, en estado de cambio permanente, sobre el que existe un acuerdo muy difuso. La lógica académica, además, no sólo se define por decisión de los partidarios suyos que han logrado hacerse un lugar dentro de la academia. Sabemos que en cierto modo es una construcción que también se debe a las operaciones simplificadoras de sus oponentes, de la misma manera en que la "antropología convencional" es un constructo heterogéneo cuya iniciativa se debe a los partidarios de las "etnografías experimentales" de la posmodernidad. Cuestionar la conveniencia de considerar unitaria a la lógica de raigambre clásica, poner en tela de juicio la unicidad y aún la existencia de algo así como la lógica estándar, podría llegar a ser un proyecto tan interesante como el de revisar las retóricas subyacentes a la construcción de un modelo epistemológico en el que entran juntos Malinowski, Boas y Marvin Harris: un villano de paja que llega a existir al solo efecto de que quienes se erigen en rivales suyos puedan demolerlo con mayor facilidad. Pero se trata de uno de los muchos temas apasionantes cuyo abordaje debemos sacrificar. Aún reconociendo el riesgo de la distorsión y el esquematismo, algunos teóricos han intentado caracterizar los atributos necesarios de la lógica convencional. Se ha dicho que al proceder a construir los sistemas lógicos "normales", se da por descontado que los enunciados que la lógica maneja -los enunciados que la lógica estudia en cuanto integrados en una estructura argumentativa, es decir, en cuanto constitutivos de las premisas o de la conclusión de un razonamiento- son enunciados apofánticos, enunciados provistos de un valor de verdad. Asimismo se actúa sobre la base de que los valores de verdad son solamente dos: el valor verdad y el valor falsedad. Los enunciados son o verdaderos o falsos. Por otra parte, no se admiten matizaciones, por así decir, en los valores de verdad. Los enunciados son o verdaderos a secas o bien falsos sin más. Un cuarto rasgo de la lógica clásica es que en ella sólo hallan cabida aquellas conexiones entre enunciados que son definibles como funciones de verdad. Es decir: aquellas conexiones entre enunciados que dan lugar a un enunciado compuesto cuyo valor de verdad está enteramente en función de los valores de verdad de los enunciados conectados (Deaño 1988:299-300). Deaño resume los atributos de la lógica estándar diciendo que ella es apofántica bivalente asertórica extensional. En esta caracterización la extensionalidad es quizá el concepto más oscuro: se dice que la lógica convencional sería extensional porque si admitimos que toda expresión -un nombre, un predicado, un enunciado- tiene una extensión (que serían, respectivamente, un individuo, un conjunto y un valor de verdad) y una intensión (siendo la intensión de un nombre el "concepto individual" que designa, la intensión de un predicado la propiedad significada y la intensión de un 605 enunciado la proposición que expresa), la lógica clásica opera exclusivamente en términos de la primera. Esquematizando el razonamiento de Deaño (quien indudablemente reposa en Frege), la estructura componencial de las expresiones lógicas respondería aproximadamente a este esquema: Expresión Nombre Predicado Enunciado Extensión Individuo Conjunto Valor de verdad Intensión Concepto individual Propiedad significada Proposición Diagrama 4.1 - Estructura de la lógica clásica Tomando como punto de referencia este cuadro, los intereses y las posibilidades de la lógica convencional dejarían de lado dimensiones que podríamos llamar lingüísticas, semánticas o predicativas, concentrándose exclusivamente en un plano algebraico y formal. Pero la caracterización, aún cuando provenga de un texto sensible a las cuestiones pedagógicas, es sin duda oscura. Su opacidad proviene de la insistencia de algunos profesores de lógica en distinguir lo extensional y lo intensional como aspectos semánticos fundantes, y en querer hacer coincidir dicha distinción con la que media entre denotación y connotación. Sostenemos que esa coincidencia violenta los hechos, pues extensión/intensión y denotación/connotación son dos pares de conceptos basados en criterios distintos de discriminación categórica: respectivamente, la enumeración de los ejemplares de una clase versus la estipulación de los atributos que la definen, y la identificación u ostensión rigurosa de los referentes (la "definición estricta") versus el sentido subjetivamente agregado. La conmensurabilidad que los lógicos encuentran es tan forzada, este uso es tan opuesto al que ellos recusan reputándolo como el "sentido intuitivo" de las palabras, que todo esto ha conducido a que dos lógicos habitualmente lúcidos como lo son Morris Cohen y Ernest Nagel hayan acabado por definir estos dos términos con sus atributos intercambiados, precipitando casi toda su Introducción a la Lógica y al Método Científico en una insanable confusión. Es necesario desarrollar este punto por lo que tiene de representativo, por la elocuencia con que señala un contraste con los criterios que en esta tesis acatamos y por la imagen de la autoconciencia lógica que este detalle refleja. Dicen Cohen y Nagel: Es posible considerar a un término de dos maneras: como una clase de objetos (clase que puede tener un solo miembro) o como un conjunto de atributos o características que determinan los objetos. La primera fase o aspecto recibe el nombre de denotación o extensión del término, mientras que la segunda es su connotación o intensión. [...] La intensión de un término puede significar el conjunto de sus atributos esenciales. Por 'esencial' entendemos la condición necesaria y suficiente para que un objeto sea considerado como un elemento del término. Generalmente esta condición deriva de alguna convención, motivo por el cual la intensión, así entendida, se denomina intensión o connotación convencional. La intensión convencional de un término constituye [...] su definición (1983:45-46). El nudo del embrollo se aprieta todavía más cuando la distinción se ejemplifica: La proposición Todas las cerezas son sabrosas significa, en primera instancia, que el atributo 'ser sabrosas' forma parte del conjunto de atributos que definen la naturaleza de las cerezas y, en segunda instancia, que los 606 objetos así llamados están incluidos en la denotación del término 'sabroso'. Debe observarse, sin embargo, que en el análisis tradicional [...] se da énfasis a la interpretación extensional" (1983:48). En estas definiciones, bajo pretexto de situarse en una inflexión más elevada del metalenguaje, la denotación y la connotación adoptan un significado distinto del que adoptaran, por ejemplo, en la antropología cognitiva norteamericana y en innumerables corrientes de la lingüística estructural, donde la denotación era algo así como el significado estricto, relativamente invariable, y la connotación cubría los añadidos contingentes, subjetivos o efímeros (cf. Lyons 1980:167-169, 196-204; Reynoso 1986). Como sea, no creemos de ninguna manera que los usos extensionales sean prevalentes en la lógica convencional. En todo caso, se trata de una propensión cuya magnitud cuantitativa o cualitativa sólo podría establecerse a posteriori de una prospección entre pragmática y libresca, pero en última instancia específica, atenta a los contenidos concretos de una complicada intertextualidad. La idea de ese predominio, quizá más bien, es uno de los muchos mitos en que reposan los lógicos para hacer ver a lo suyo como más formal, acotado y consabido de lo que en realidad es, deslizando la ilusión de que se dispone de algo así como una semántica de lo tangible que abre un vaso comunicante entre las formas de la lógica y el significado del mundo. Esa semántica, si es que existe, no parece estar a la altura de las sutilezas del cálculo veritativo o del rigor de la axiomatización. Nótese, en la cita de marras, la forma en que una característica relativamente secundaria del referente pasa, por artificio discursivo, a integrar nada menos que su definición. Asegurar que la cualidad de "sabroso" es condición necesaria y tal vez suficiente para calificar como cereza, aunque el mundo empírico importe muy poco, constituye a todas luces un ejemplo inoportuno: una sola cereza agria o desabrida pondría en tela de juicio la definición de la clase. Preferimos, valga la paradoja, una definición más indefinida. La lógica en que escogimos fundarnos no es, después de todo, la lógica académica tal como se describe entre Frege y Deaño, y que tiene su paradigma en los libros escolares anteriores al primer Wittgenstein y a los Principia Mathematica. Si hablamos de fundar la modelización disciplinar en la lógica, ésta ha de entenderse conforme a la descripción de los aspectos sintácticos, semánticos y pragmáticos del cálculo lógico tal como los hemos estipulado, evitando la contaminación de la lógica por apreciaciones sobre la índole extensional de sus referencias y su colapso en una especie de teoría de conjuntos, tanto más intuitiva y desorganizadora cuanto menos autoconsciente. Tal como lo expone Quine, las contaminaciones de esa índole se originan en una sobrestimación del parentesco entre la noción de miembro-de (relación de pertenencia a una clase) y la predicación (cf. Quine 1977:118). Al contrario de lo que pensarían autores como Deaño, Nagel y Cohen, la implementación computacional del cálculo de predicados (en la medida en que éste pudiera ser representativo de una forma de lógica más bien convencional) no se juega ni a favor de la extensión ni de la intensión, y puede expresar ambos aspectos con la misma soltura. En general, la extensión se expresa como un conjunto de hechos y la intensión como una combinación de hechos y reglas, de este modo: 1) Extensión: 607 2) Intensión: Fragmento de taxonomía organológica kamayurá según Menezes Bastos, A Musicológica Kamayurá, Brasilia, FUNAI, 1980. La expresión de la problemática en un formalismo computacional despeja el campo de toda su hojarasca retórica; la presencia de variables y reglas de condicionalidad a lo largo de la trama de la representación de modalidad intensional, en otras palabras, el hecho que sólo allí donde hay expresiones intensionales se desencadenen y resuelvan procesos de cálculo de la inferencia (fuera de la instanciación), torna harto dudosa la contextura prevalentemente extensional que los autores mencionados atribuyen a la lógica clásica. Cualesquiera sean las idas y vueltas de las operaciones intermedias, todo cálculo lógico remite, en última instancia, a la aserción de hechos que lo mismo pueden denotar clases, individuos, relaciones o atributos. El valor general y la inteligibilidad de caracterizaciones como las de Deaño, Cohen y Nagel, preocupadas por distinciones ostensiblemente escolásticas y de importancia lógica virtualmente nula, no constituyen sin embargo un punto crítico, pues no nos importa (ni afecta a nuestros razonamientos) que la lógica académica sea definible de una u otra manera, que sea una o múltiple, que se la pueda identificar con claridad o que constituya un conjunto borroso. Dado que nuestro compromiso primario es con una ciencia empírica, lo relevante es más bien que alguien haya concebido lógicas que divergen de ella, y que su contraste se origine en y se alimente de la forma en que una y otras tratan a las cosas del mundo. En concreto, es dudoso que sea legítimo hablar de una lógica convencional, cuando entre las diversas modalidades que obedecen a la misma fundamentación existen discrepancias radicales: por ejemplo, entre los defensores del cálculo de proposiciones y los practicantes del cálculo de predicados (o, más modernamente, entre los artesanos de la lógica cerebral y los tecnólogos de la lógica computada) existe una tensión y una rivalidad tan palpables como entre los partidarios de las tendencias más opuestas de la lógica. Carnap protesta contra los lógicos convencionales conteniendo la tentación del insulto, y Quine hace lo propio, quizá con más fastidio, en sus admoniciones contra los "lobos con piel de oveja" que contrabandean teoría de conjuntos hacia la lógica, queriéndola hacer pasar, con mala fe, como sucedáneo de la predicación (Carnap 1986:139-140; Quine 1984:118). La especulación abstracta y formal está por lo visto muy lejos de guardar las maneras. Y todo esto sucede, a no dudarlo, en el marco interno de una lógica que, desde un punto de mira más distante, no podemos sino llamar convencional. Todo ponderado, definimos en consecuencia la lógica convencional aceptable como el esquema asertórico bivalente que opera en los fundamentos del cálculo de predicados del primer orden a menos que, a través de procedimientos metalógicos que varían en cada caso, se especifique otro conjunto de premisas. Hay otras posibilidades, algunas en márgenes sospechosos y aún subestimadas por los respetables, otras en vanguardias admiradas; algunas han devenido clásicas, otras se obstinan en 608 ser experimentales. Los parágrafos que siguen exploran esas alternativas y sugieren una mirada antropológica sobre su diversidad. 2. La Antropología y las Lógicas Alternativas Nuestra epistemología añade a la preocupación antropológica por la dependencia teórica de los enunciados una dimensión adicional. El punto es que si las herramientas que forjamos aspiran a una cierta aplicabilidad sustanciándose en modelos mínimamente realistas, deberán adaptarse a los requerimientos no sólo de las teorías antropológicas que están por encima del cálculo de la inferencia y que tienen que ver mayormente con las formas y contenidos de la representación35, sino de las lógicas que están por debajo y que tienen que ver con las premisas del cálculo. Nuestra intención es probar que los lenguajes y dialectos utilizados (y a un nivel más abstracto, los principios rectores de la programación lógica) se adaptan a las premisas lógicas más diversas, así como ya demostramos que se adaptan a las manifestaciones representacionales más heterogéneas. Debe quedar en claro que la nuestra no pretende ser una contribución frontal a la teoría de las lógicas (proyecto para el que no estamos profesionalmente dotados), sino a los métodos y técnicas de la antropología. Las razones que nos llevan a nuestros desarrollos -que quedarán claras a su debido momento- son un emergente de las polémicas internas de la antropología, y no de las disputas domésticas de los lógicos o los epistemólogos, aunque para más de una epistemología la ordalía de la aplicación pueda resultar de un enorme interés. Para consumar esa prueba prescindiremos del examen de la coherencia global de los respectivos esquemas a los que responden esas premisas: en otras palabras, y para no dispersar la investigación, daremos por sentada o por no problemática la corrección y la completitud de las diversas lógicas, ya sea en términos de su propia arquitectura interna, como juzgadas desde la perspectiva de otro conjunto diferente de premisas, salvo en la medida en que ello implique algún impedimento grave de cara a una implementación antropológica productiva. No se trata de negar la problematicidad del asunto. Según el consenso general, los contenidos de los sucesivos cuestionamientos a la lógica académica siguen siendo más convincentes que los esquemas que se han propuesto para suplantarla. Discutir lo que quiérase o no es la lógica es una empresa delicada, cuyos prerrequisitos no siempre parecen haber sido sujeto de consideración. Una discusión de esa índole nos pone, como diría Victor Turner, betwixt and between, en una especie de limbo momentáneamente anárquico. La oposición entre las lógicas es una especie de dialéctica que no se sabe a qué lógica específica responde. Del mismo modo, para hablar sin sombras de sesgo militante sobre las diferencias entre dos lógicas cualesquiera hay que situarse en un pliegue neutral, en un tertium quid, cuya naturaleza rara vez ha sido objeto de reflexión. El juego dialéctico de las lógicas tensiona el campo aunque no se tome partido por ninguna de ellas, y sobre todo en este caso. Si la lógica estándar es insuficiente: ¿Sobre qué fundamentos concretos podemos encontrarnos para discutir? ¿Sobre qué base lógica (o sobre la base de qué lógica) podemos cuestionar la lógica convencional? ¿Hay un límite, formalmente marcado, para las proliferación de las lógicas? La lógica desde la cual se formule la crítica ¿Deberá ser neutral, para no incurrir en relativismo, circularidad o petición de principio, o 35 Pues la teoría define, en principio, cuáles son los hechos pertinentes y cómo están estructurados. 609 deberá ser la misma que habrá de suplantarla, para garantizar la coherencia interna del esquema resultante? Serán los lógicos, empero, y no nosotros, quienes respondan algún día a esas preguntas. Por si nos hemos expresado mal, diremos en concreto que la consistencia interna global de los modelos lógicos que se han opuesto al razonamiento académico nos tiene sin cuidado, en tanto pueda desarrollarse en base a ellos (o más concretamente, en base a los supuestos de los que parten) una modalidad de antropología que alguien haya propuesto o estado cerca de proponer alguna vez, ya sea como parte de la iniciativa epistemológica de la especialidad o en el contexto de alguna aventura interdisciplinaria. Si esas lógicas son más o menos adecuadas, si se adaptan con mayor o con menor fidelidad a nuestra concepción del método disciplinar, lo dirán los resultados que se obtengan a la larga. Por el momento éstos interesan menos que la capacidad del Prolog para simular esas lógicas o, lo que es lo mismo, su versatilidad para operar en función de fundamentos cambiantes. A menudo se argumenta que la antropología o las ciencias de la cognición no deberían quedar prisioneras de la lógica convencional desarrollada en occidente y que sirve de basamento a la epistemología constituida, por cuanto dicha lógica es un producto histórico, de validez local, puramente abstracto, que colapsa ya sea ante la configuración discursiva requerida por las ciencias sociales, como ante la modelización y comprensión de sistemas conceptuales emic. Los responsables de este tipo de afirmaciones son eventualmente profesionales reconocidos: Richard Shweder, Stephen Tyler, Philip Johnson-Laird, Peter Wason, Amos Tversky, Daniel Kahneman. Se trata, entonces, de liberar a la antropología sociocultural de una lógica universalista para alcanzar la universalidad, más genuina y profunda, del relativismo lógico, y eventualmente el nirvana del alogicismo. Aunque su fundamentación sería en principio atendible, con frecuencia es éste un alegato vacío, carente de las demostraciones exhaustivas y formales que el asunto requiere. Proponer un cambio de fundamentos lógicos no es un asunto que pueda tomarse con ligereza, por mejor justificados que puedan estar los juicios que llevan a plantearlo. En base a ese alegato, por el afán de cuestionar la concepción académica de los sistemas lógicos más que de proponer una que la reemplace, se correría el riesgo de favorecer el surgimiento de una ciencia que se siente libre de operar sin recaudos lógicos en absoluto, tanto en la descripción de su objeto cuanto en la justificación de sus interpretaciones. Existen dos maneras históricamente dadas de cuestionar la lógica académica: (a) proponiendo el abandono de toda lógica, y (b) reivindicando otras reglas del juego, desviadas, noestándares o alternativas. La primera modalidad no nos interesa, y este es el momento de explicar por qué. Pensamos que la antropología que ha apostasiado de toda fundamentación lógica no constituye lo que se dice una presencia dialéctica constructiva en el interior de la disciplina, ni califica como un desafío seductor, como una heterodoxia iconoclasta con la que se pueda establecer un mínimo acuerdo. Su positividad ha demostrado ser nula, su creatividad paupérrima; su experimentalismo aparente nada puede hacer contra una concepción reaccionaria del trabajo científico, pues entre las líneas de su todo vale en que trasunta su escepticismo político y epistemológico, resulta obvio que lo que realmente se pretende es que todo siga igual.36 Algo es seguro: pese a que la antropología más reciente se ha convertido en tierra de promisión de anti-lógicas militantes que proclaman la crisis de la razón, la moda parece estar acercándose a su agotamiento. La estrechez de su temática (una diatriba recurrente contra la "antropología de la mo- 36 La idea, como bien se sabe, es de John Krige, Science, Revolution and Discontinuity, Brighton, Harvester, 1980, p. 42. 610 dernidad" o contra el "realismo etnográfico") ha comenzado a saturar incluso a quienes alguna vez la tomaron en serio; los textos en donde se la expone han fatigado una y otra vez las mismas expresiones, y lo que en algún momento pareció novedoso se ha transformado en el más previsible lugar común. Pero lo más importante es que todo este revuelo y todo este tedio se originan en un conjunto de ideas intrínsecamente insatisfactorias. Al mismo tiempo se trata de un movimiento que ha ido demasiado lejos, quebrando las bases para todo intercambio de ideas, y que no ha hecho sino moverse en círculos, recusando a la Razón mediante argumentaciones encuadrables en una lógica convencional -y hasta diríamos conservadora- que sus mismos seguidores, por más que pretendan comportarse contradictoriamente, no pueden menos que encontrar razonable (cf. Tyler 1984, 1986). ¿Cuáles son y cuánto valen, después de todo, los argumentos razonables en contra de la razón? Ningún razonamiento más convencional y más débil, lógicamente hablando, que los que recusan la lógica y la razón. Los juegos malabares de Derrida37, por ejemplo, designados para impugnar a la razón sin razonar, jamás nos han resultado convincentes. En uno de los pocos intentos reflexivos para renunciar a la razón examinando la propia forma de "razonar" (no existe otro término), Derrida reconoce que afronta a un Maestro terrible, siempre seguro de ganar un juego cuyas reglas ha fijado él mismo. La estratagema de Derrida consiste jugar un lance doble, fingiendo obedecer las reglas del juego, pero tendiendo trampas que el rival no pueda resolver. Como en Gödel, pero con un rigor más flaco, la paradoja es el método. La estrategia de la desconstrucción, capaz de hacer fracasar los dilemas propuestos por la razón, permite hablar en un momento en que ya no hay más nada que decir, permite razonar en un momento en que la razón está abolida. Quien discute la razón debe servirse de una especie de reserva mental, que se pliega doblemente: se finge fingir. Si solamente se fingiera no se tendría eficacia estratégica alguna: quien finge matar no asesina realmente; pero quien finge fingir mata de verdad. Allí radica el secreto para razonar en contra de la razón, y para aniquilar a ésta al hacerlo (cf. Derrida 1967; Descombes 1982). Si la razón es un mito, es difícil concluir que aquí no nos hallamos ante otro. Todo este juego es, a lo menos, especioso y excesivamente formal. Creyendo que avanza arrolladoramente, Derrida en realidad retrocede más allá de su punto de partida, y otorga a la razón demasiadas cosas que antes no tenía y que luego conspiran en su contra: que la doble negación nos retrotrae a la afirmación originaria, que existen algo así como "niveles de tipificación lógica" inconfesadamente russellianos desde los cuales es posible eludir la paradoja; en fin, que "si P entonces Q". Más que aniquilar a la razón, lo único que se logra con estas dudosas fintas intelectuales es enredarse en ella, tranquilizando a la propia razón suicida con la ilusión de su aniquilamiento. La cosa no es muy distinta con otras manifestaciones de la llamada "rebelión romántica contra el Iluminismo", del "descreimiento posmoderno hacia los metarrelatos legitimantes" o de la "crisis de la razón" (Ginzburg 1983; Johnson-Laird y Wason 1970; Shweder 1984). Todo este territorio está atravesado por un malentendido básico, un error de razonamiento particular que implica la confusión entre la naturaleza del referente y la de la referencia y que en su equívoco ante la rebeldía de su objeto frente a la racionalidad pone en duda al razonamiento mismo en general. No se ha 37 Quien ha ejercido un enorme ascendiente sobre los antropólogos posmodernos nortamericanos (véase p.ej. James Clifford, "Partial Truths", en J. Clifford y G. Marcus (eds.), Writing Culture, Berkeley, University of California Press, 1986, p.10; "On ethnographic allegory", Op.cit. pp.118-119; Stephen Tyler "Post-Modern Ethnography: From Document of the Occult to Occult Document", Op.cit., pp.128 y 131; Michael Fischer, "Ethnicity and the Post-Modern Arts of Memory", Op.cit., pp.194, 195 y 229, etc). 611 comprendido que por más que el comportamiento del fenómeno descrito (así sea la totalidad de la cultura o de la mente humana) no responda a las pautas racionales de la lógica clásica, este hecho no involucra nada con respecto a la lógica como motor y fundamento del modelo que describe o explica ese fenómeno. Es el modelo el que debe ser "racional" (i.e. no contradictorio), y no las cosas que en él se representan. Pero una cosa es admitir que los modelos deben ser no contradictorios y otra muy diferente decir que la lógica académica apofántica bivalente asertórica extensional es el instrumento adecuado de toda modelización. Es posible (y aquí, como hemos dicho, no cuestionaremos esta posibilidad) que existan marcos lógicos más adecuados en ciertas circunstancias; habrá que indagar cuáles son éstas, tipificar la correspondencia entre las circunstancias y las tendencias lógicas más adecuadas para afrontarlas y determinar cuál es el valor de nuestro instrumento para construir sus modelos en base a sus respectivas premisas. Más interesantes que el alogicismo, con certeza, resultan aquellas propuestas que aspiran a reemplazar la lógica clásica por alguna otra, en vez de dejarnos del todo sin fundamentación o de extraviarnos como Johnson-Laird en una alternancia incierta entre modelos indiscernibles, experimentos maliciosos y estructuras sin nombre, como Derrida en un juego de ingenio, o como Shweder en una nueva dimensión que a fin de cuentas no es más que un previsible término medio, sin la fuerza conceptual propia de los extremos. Aquí discutiremos solamente las lógicas alternativas o desviadas, pues entendemos que polemizar con quienes se sienten libres de todo control veritativo no puede conducir a esclarecimiento alguno. Por fortuna, no toda la antropología que sospecha con cierta justicia de la lógica convencional ha incurrido en alogicismo. Algunas veces (muy pocas, por cierto) se ha postulado que ésta o aquélla lógica divergente específica (la teoría de los conjuntos difusos, el probabilismo o la lógica cuántica) serían candidatos mejor calificados que la lógica estándar, atrapada ésta en una rígida bivalencia y signada por una milenaria inoperancia frente a la vaguedad. Un puñado de modelos antropológicos se basa en esta premisa, pero ninguno de ellos ha expuesto ese programa siguiendo el hilo de todas sus consecuencias y proporcionando una verificación axiomática de lo que afirma. La mayor parte de estos trabajos son artículos circunstanciales desesperantemente breves, o ensayos programáticos muy pobremente fundados, llenos de sobreentendidos para especialistas, como si todo el mundo dominara los aspectos más recónditos de la discusión (cf. Cooper 1975; Salmon 1978; Klein 1983; Evens 1983; Murray 1983). Los trabajos antropológicos que hablan de la necesidad de adopción de una lógica alternativa, ya sea para proceder a una explicación o para dar cuenta formalmente de un hecho, son además pocos y esporádicos. Su tesitura acostumbra ser extrañamente irreflexiva: la mayoría de los autores que refieren el carácter no racional o irracional de este o aquel fenómeno lo hacen mediante ponencias que recurren a los pasos demostrativos más comunes de la lógica convencional, y los mismos recursos convencionales de siempre se emplean para justificar otras alternativas revolucionarias. El metalenguaje lógico que se emplea para proponer -digamos- la lógica difusa no es difusa, el que se usa para defender modelos polivalentes y no veritativo-funcionales es veritativo-funcional y bivalente, y algo similar (y no analizado) sucede en todos los demás casos. El caso más chrriante es el de Evens (1983), quien construye un artículo en forma de un impecable silogismo, inconsciente en tanto tal, para demostrar que la lógica clásica es inservible. No abundaremos en las complicaciones de todo orden que surgen de un intento de comparar las diferentes lógicas. Pero ello no obsta para que el campo de las posibilidades alternativas de funda612 mentación sea cuidadosamente explorado, y para que se demuestre que algunas propuestas pueden adoptarse con ganancia en el marco metodológico que estamos definiendo. Las propuestas más interesantes serán revisadas en los capítulos subsiguientes, en los que se investigará la adaptabilidad de la programación lógica a distintas estructuras de fundamentación y de método. Nuestra consideración detenida de cada una de las lógicas no convencionales que ha llegado a nuestro conocimiento se anticipa a una crítica que sería legítima si los límites del Prolog fueran los de la academia filosófica. Una crítica capaz de ponernos en aprietos si nos espetara, por ejemplo: ¿Cómo puede ser posible modelizar conocimientos emic, informales o de sentido común cuya historia nada tiene que ver con un canon lógico que establece todos los criterios de verdad y que define al mismo instrumento de esa modelización? ¿Qué hay de las afirmaciones, tantas veces repetidas, en el sentido que la lógica académica no tiene mucho que ver con la vida real, y que por lo tanto es impotente para actuar en casos en que la vaguedad se impone? ¿Hay que seguir a los positivistas lógicos cuando ellos renuncian a abordar en términos de lógica enunciados y fenómenos intrínsecamente ambiguos? ¿Hay que creer a Ryle cuando alega que la lógica es neutral frente a su tópico, a Carnap cuando afirma que ella nada puede decirnos acerca del mundo o a Russell cuando declara que sólo se aplica a una existencia celestial imaginaria? (Ryle 1960:117; Carnap 1974:9; Russell según Haack 1974:116). ¿Se puede ser ecléctico en lógica y seguir siendo riguroso? ¿Cuáles son las posibilidades de articular en una misma modelización estructuras y procedimientos derivados de marcos lógicos distintos? ¿Cuáles son las garantías axiomáticas de esa combinación, y cuáles las fundamentaciones que en esta amalgama se pierden? ¿En qué dialecto epistemológico de la lógica académica nos estamos basando? ¿Es este dialecto central y connatural a esa lógica o (como afirma Haack del cálculo de predicados, sin demasiado asidero) es una elaboración periférica? ¿Cómo podemos hacer que los motores de inferencia que se modelicen sean dinámicos, crezcan, maduren o aprendan de la experiencia acumulada, y se comporten, en fin, como ningún sistema lógico ha demostrado poder hacerlo? ¿Cómo es posible incrementar y actualizar la masa de hechos que se toma como punto de arranque para la inferencia sin que los modelos se vuelvan contradictorios o circulares? ¿Es posible hacer intervenir las presuposiciones no contenidas literalmente en las premisas de una proposición como elementos de juicio que incidan en las conclusiones a que se llega? ¿Pueden representarse procesos de un mundo móvil en un formalismo inmutable? ¿Es posible tratar lógicamente el tiempo y la irreversibilidad? ¿Se pueden expresar modalidades temporales ajenas al círculo histórico de nuestras reflexiones filosóficas sobre la temporalidad? (p.ej. Fabian 1983). Ante la percepción, la mirada o la "actitud natural" las cosas se presentan como polivalentes y graduales ¿Es posible entonces construir modelos que, en último análisis, reposan en mecanismos de decisión binarios y taxativos? La lógica simbólica no parece haber retribuido a los científicos formalistas el esfuerzo que supuso asimilarla ¿Es viable un sistema lógico estricto que coincida con la intuición de quienes carecen de paciencia para seguir el laberinto de los sistemas formales simbólicos? ¿Nos volverá a presentar 613 la lógica computacional la misma resistencia a la asimilación que los tortuosos libros de la lógica simbólica? El llamado "pensamiento prelógico", que parece ser descriptivamente recurrente en la experiencia etnográfica ¿tiene alguna estructura que permita modelizarlo en un lenguaje que, por definición, no permite contradecirse? ¿O ese pensamiento prelógico impone más bien un límite infranqueable a la declamada versatilidad representacional de nuestros lenguajes? Aunque algunos de estos dilemas nos ponen frente a dificultades más grandes que las fuerzas de un investigador solitario, ninguna de esas preguntas posibles, perfectamente legítimas, antropológicamente más que relevantes, ha de quedar sin respuesta. 3. Inventario de las alternativas lógicas. Hemos procurado exponer el campo de las lógicas desviadas, divergentes o alternativas en su totalidad, con sus apiñamientos y vacíos peculiares, a fin de que se pueda apreciar luego el mapeado que los antropólogos socioculturales han realizado sobre ellas al proponer esquemas lógicos excéntricos. El mapa es desolador, y no habla muy bien de nuestra iniciativa. La multiplicidad de las variantes lógicas existentes se contrapone al desequilibrio de las concentraciones históricamente dadas; extensas zonas se encuentran desiertas, necesitadas de contrastación, como si en su búsqueda febril de nuevas fundamentaciones los antropólogos no hubieran buscado lo suficientemente lejos. Aún incluyendo las insinuaciones más ocasionales, las referencias explícitas de la antropología a marcos lógicos diferentes a los de la lógica académica se cuentan con los dedos de una mano. Nos tienta consumar una inferencia clínica que nos descubre una patología del saber ¿No parece ésto efecto de un relativismo superficial, intelectualmente pobre, perezoso, tal vez poco sincero? Por otro lado, los viajes de prospección antropológica en el mundo de los fundamentos han sido deficitarios en recursos y escasos en frecuencia, lo cual reduce la dimensión y la relevancia de nuestro objeto. Para otorgar densidad a la exploración, habrá que ocuparse también de lo que no se ha dicho, pero que está latente, y habrá que tomar distancias y avanzar hacia la antropología desde lógicas que los antropólogos aún no han soñado y que a nosotros nos cuesta asimilar. En el campo filosófico, los episodios de la polémica de las lógicas son profusos, y no estamos seguros de que nuestras barridas bibliográficas no hayan dejado alguna postura importante sin abordar. De lo que estamos un poco más seguros (por la naturaleza de los nomencladores bibliográficos y por nuestra mayor familiaridad con el terreno) es que se ha revisado la mayor parte de las referencias antropológicas a las lógicas divergentes que han sido propuestas; nos hemos permitido, eso sí, condicionar esa revisión a la seriedad de dichas referencias. Esta frase perversa connota lo mismo que denota: es decir, no nos hemos molestado en revisar con espíritu crítico aquellos programas ostensiblemente carentes de sustentación, que son (por una especie de ley que habrá que estudiar algún día) las que más proliferan. Ya que su extenso número desaconseja todo proyecto de inventario, será de interés que procedamos a una tipificación en regla de las referencias descartadas, a fin de dejar en claro cuáles son las propuestas antropológicas que nos negamos a explorar y por qué. 614 En primer lugar dejaremos al margen, por insuficientemente fundadas y por erróneas de hecho, las lecturas superficiales que identifican la incertidumbre peculiar de los fenómenos cuánticos y la complementariedad en el aborde de ciertos acontecimientos de la física subatómica con una incertidumbre inherente a los fenómenos humanos y la necesidad académica de "complementar" disciplinas. Nos oponemos, en suma, a las razones de Georges Devereux y a otras semejantes que en algún momento disfrutaron de cierta plausibilidad, y que giran en torno de la complementariedad y la incertidumbre tal como se cree que han sido elaboradas en física teórica. Devereux aseguraba que, según Poincaré, si un fenómeno admite una explicación, admitirá también cierto número de otras explicaciones, todas tan capaces como la primera de elucidar la naturaleza del fenómeno en cuestión. En el estudio del hombre, expresaba, [...] no es sólo posible, sino obligatorio explicar un comportamiento, explicado ya de una manera, también de otra manera. [...] El hecho es que si se explica un fenómeno humano nada más que de una manera, en realidad no se lo explica en manera alguna, aún si su primera explicación lo vuelve perfectamente comprensible, controlable y previsible dentro del marco de referencia que le es propio, y sobre todo en este caso. Además, la posibilidad de explicar "completamente" un fenómeno humano por lo menos de dos maneras (complementarias) demuestra precisamente, por una parte, que el fenómeno en cuestión es a la vez real y explicable y, por la otra, que cada una de sus dos explicaciones es "completa" (y por lo tanto válida) en su propio marco de referencia (Devereux 1975:11). Solamente un estado de indigencia científica como el que carcome a las ciencias sociales puede explicar que un párrafo tan colmado de arbitrariedades pudiera haber sido alguna vez escrito. Ni una sola aserción está justificada, sea por la lógica o por los hechos: ni la repentina obligatoriedad de explicar un comportamiento de varias maneras, ni el hecho de que una sola explicación no explique nada, ni la igualación de completud y validez, ni de que la acumulación de demostraciones diferentes demuestre tal cosa como la "realidad" de un fenómeno. La epistemología de Devereux es pre-popperiana, para decir lo menos, y su lógica parecería ser pre-aristotélica: diga lo que diga Poincaré, sea cual fuere el despliegue de autoridades cultas, deducir la validez de una perspectiva a partir de la validez de otra es simplemente un non sequitur, una pamplina. Devereux no se plantea ni por un momento que las diversas explicaciones bien podrían ser recíprocamente conflictivas e invalidantes, como cuando desde una teoría ambientalista se resta plausibilidad a una explicación basada en la biología. Los argumentos de Marvin Harris sobre las convenciones alimenticias de las sociedades humanas, por ejemplo, no "complementan" inocentemente a las ideas de Mary Douglas o de Marshall Sahlins sobre la razón cultural, sino que las recusan. Una explicación mejor resta credibilidad a aquéllas contra las cuales está llamada a compararse. Lo más grave sobreviene cuando Devereux asocia su noción de complementariedad al principio del indeterminismo enunciado por Heisenberg (1975:18). Este principio afirma la imposibilidad de determinar (medir) simultáneamente la posición y el momento de un electrón; no es necesario tener una formación rigurosa en materia de física para reconocer que éste es, en verdad, un problema básico de la física de los cuantos. Pero la exégesis practicada por Devereux sobre el principio de indeterminación se asienta sobre una analogía poco feliz. La indeterminación cuántica no es formalmente comparable a otros tipos de indeterminaciones. Tal como lo expuso Heisenberg, aquel principio rige expresamente para las partículas subatómicas (en su formulación clásica, para los electrones) cuyo comportamiento no tiene homólogos ni siquiera aproximados en el mundo macroscópico. Lado a lado con la teoría de la relatividad, la física cuántica establece inequívocamente que los niveles y los criterios de observación, predicción y problematicidad no son extrapolables, que existen 615 dimensiones escalares idiosincráticas y que, en consecuencia, es puro desatino proyectar una limitación cuantitativa interpuesta a la observación de los electrones a, por ejemplo, el examen cualitativo de las piruetas de un bailarín o a la descripción de una norma de conducta. Si Newton nada tiene que decir frente a los electrones imperceptibles de Heisenberg y a los cosmos inabarcables de Einstein, estos últimos nada pueden arrogarse frente al registro de cosas del cual el hombre es la medida. Sistemas opuestos a la lógica clásica Lógica Intuicionista Lógica Minimal Lógicas Polivalentes de Lukasiewicz y Bochvar Lenguajes Presuposicionales de van Fraasen Lógicas Cuánticas de Von Neumann, Reichenbach, Destouches-Février y Birkhoff Lógica no Proposicional Sistemas complementarios a la lógica clásica Lógicas Modales Lógica Epistémica Lógica Deóntica Lógica Temporal Lógica Erotérica Lógica Imperativa Lógica de Preferencias Lógica Difusa Lógicas no Monótonas Lógica Probabilística Lógica Omitiva de Reiter Lógica Autoepistémica de Moore Diagrama 4.2 - Lógicas Divergentes. Nos hemos inspirado lejanamente en Haack 1980:17, agregando las categorías resultantes de las indagaciones computacionales que Haack no afecta conocer. Extrapolar más allá de lo debido no es señal de inquietud ni de originalidad, sino de simple desmesura. El mundo social no es una estructura cuántica, y mirarlo a través de la lente de los cuantos lo distorsiona más de lo que lo esclarece. La hipótesis cuántica sólo invalida a la física y a la causalidad clásicas en los casos en que masas suficientemente pequeñas se mueven a velocidades lo bastante bajas y con niveles de aceleración lo bastante elevados. La importancia de la física, la lógica o las matemáticas de los cuantos radica en la especificidad del comportamiento de los diferentes niveles observacionales, y de ninguna manera en la posibilidad de proyección de lo microscópico a lo macroscópico primero y a lo social después (Einstein 1985: 30-31). Tras lo expuesto, y en vista de la escala de rigor a que nuestra tesis aspira, quedará claro por qué excluimos de toda consideración antecedentes intelectuales tan oblicuamente fundados. En segundo lugar repudiamos el falso axiomatismo que, pretextando aplicar (y por consiguiente comprender) los hallazgos definitorios de la prueba de Gödel, imaginan que las ciencias en general afrontan un límite que les otorga un espacio bastante más restringido de lo que es realmente el caso. Gödel demostró que en un sistema matemático consistente que incluya funciones numéricas recursivas primitivas es posible construir sentencias tales que ni ellas ni sus negaciones se puedan probar deductivamente, aún cuando se sepa que son verdaderas o falsas; en uno de esos sistemas, además, es imposible probar formalmente la consistencia del mismo en base a los medios propios de ese sistema (Gödel 1981:45-89). Pese a que los científicos sociales, a diferencia de los matemáticos, no están condenados a construir sistemas completos, ni incluyen habitualmente funciones numéricas recursivas primitivas como parte del andamiaje formal, ni se enfrentan a universos infinitos comparables al conjunto de los 616 números naturales, ni tienen por qué obedecer la cláusula de demostrar la consistencia del sistema en términos de su propia axiomática, la prueba de Gödel, lejos de refinar la metodología, ha justificado todo género de extravagancias. Numerosos antropólogos y científicos sociales de habla hispana (Héctor Vázquez, Jesús Ibáñez) han extendido las consecuencias de una prueba axiomática y aritmética a sistemas de inteligibilidad que, como sus propias disciplinas, no son ni una cosa ni la otra. Cuando esta prueba se deposita sobre el almacén metodológico de sentido común de las ciencias sociales, en seguida surgen convicciones del tipo de "la verdad es cosa de poder", "la prueba teórica es imposible", o "un programa no puede probar una hipótesis cuya expresión sea cuantitativamente más compleja que el programa mismo" (Ibáñez 1985:71, 188, 277, 288), etc, todo lo cual no sólo es incorrecto, sino que es producto de un éxtasis de inferencias libres que nada tiene que ver con los rigores de Gödel. Esto es llamativo: seguramente los científicos de marras negarían la legitimidad de analizar la sociedad echando mano de ecuaciones de matemática pura; nada les impide, sin embargo, hacer extensivo a las metodologías de las ciencias sociales un problema de articulación de las axiomáticas peculiares y específicas de las matemáticas (y de cierta porción especial de ellas), cual es la insuficiencia de los sistemas matemáticos para probar su propia consistencia lógica. Si las pruebas gödelianas no han impedido (por ejemplo) la revolución tecnológica y el surgimiento de la inteligencia artificial, cuesta pensar cuáles podrían ser sus efectos deletéreos sobre el romanticismo metodológico de la antropología. Aventemos los fantasmas de una vez y para siempre: aún a nivel de los sistemas axiomáticos, el algoritmo de resolución y los teoremas de Henkin, Löwenheim y Skolem han pasado por el costado de las limitaciones fijadas por Gödel, cualesquiera sean las interpretaciones que se les atribuya. Los teóricos y prácticos de las redes neuronales, como se ha visto, diseñan como cosa de rutina sistemas cuyos comportamientos emergentes son varios órdenes de veces más complejos que la expresión fuente de los propios programas, de modo que a este respecto no hay más que hablar. Excluidas estas variantes infundadas, el cuadro 4.2 presenta la lista completa de las alternativas a la lógica académica que hemos podido hallar en la bibliografía. Sobre esa enumeración hay que señalar dos peculiaridades, que afectarán al orden en que habremos de abordar ese universo de posibilidades. La primera concierne al hecho de que las categorías del cuadro no parecen surgir de un procedimiento formal de clasificación, y es por ello que los criterios no son uniformes y las categorías resultantes se solapan, se imbrican o se incluyen de diversas maneras. Las lógicas no monótonas, por ejemplo, son necesariamente modales, lo mismo que las deónticas; y las lógicas omitivas, en general, son también no monótonas. La segunda tiene que ver con el hecho de que, en tanto tales, las diversas alternativas surgen de señalar diferentes y muy precisas limitaciones de la lógica académica, históricamente dadas, y que en consecuencia una clasificación monotética y formalmente correcta de ellas mismas es, desde todo punto de vista, imposible. Hace un tiempo Rodney Needham (1975) estuvo a punto de renunciar a la Razón porque los datos etnográficos eran indóciles a taxonomías y nomenclaturas monotéticas, es decir, fundadas en un solo criterio o en criterios uniformes a través de la serie. A poco se echó mano de Wittgenstein, del segundo Wittgenstein, naturalmente, invitándonos a retroceder y a ceder espacio a la irracionalidad. Ya nos hemos asomado al asunto, constatando que los lógicos (y la Razón misma) nada tienen que temer de la politesis, a menos que proclamen la simetría del universo. Subrayemos por ahora una paradoja más, capaz, según se mire, de situar los temores de Needham en su cabal escala o de prestarles otro argumento: la lógica estándar no puede dar acomodo prolijo a sus 617 propias rebeliones. Si el mundo de las lógicas fueran un árbol linneano, los mismos animales lógicos aparecerían en una y otra rama. Aún en la clasificación de las clasificaciones el acontecimiento prima sobre la estructura, en un microejemplo culminante que nos habla, con un espléndido sentido de la oportunidad, de la necesidad de subordinar las palabras a las cosas. Ningún conjunto de criterios podrá jamás producir un cuadro consistente sobre dos dimensiones en el que figuren, ordenadas de algún modo productivo, las distintas manifestaciones de las lógicas divergentes. Lo cual señala, de acuerdo con algunos, una primera y muy importante limitación de las posibilidades de la lógica que ellas recusan. a) Lógica No Proposicional: La Epistemología en cuestión La nueva lógica permanece aún ignorada por un amplio sector de los filósofos y consecuentemente no han podido obtener, para sus propios trabajos, ventajas apreciables. Realmente sorprenden la cautela y la torpe timidez con que se le acercan, si bien más generalmente la evitan. Seguramente, su aparato formal, de apariencia matemática, los ahuyenta, aunque en el fondo se oculta tras de ello un sentimiento instintivo de oposición. Y cuando menos por una vez acertaron: en esta nueva lógica se encuentra -y esto no lo han advertido aún muchos de sus mismos seguidores- el punto de palanca capaz de desplazar a la vieja filosofía. Rudolf Carnap En este apartado definiremos la modalidad de cálculo lógico en que se basa fundamentalmente el Prolog: el cálculo de predicados del primer orden; consecuentemente, aquí se esclarecerán los términos técnicos propios de esta variante lógica que se puedan haber deslizado con anterioridad y cuya denotación siga siendo oscura, y se fijarán los parámetros de referencia para la formulación de las lógicas alternativas subsiguientes. La epistemología constituida se presenta a veces a las ciencias sociales como una instancia capaz de juzgar las empresas de estas últimas con la garantía de la lógica que aquélla afirma dominar. Al mismo tiempo, la filosofía de la ciencia pretende que, por poco que las ciencias sociales absorban su propio dominio de la lógica y escuchen sus consejos normativos en torno del trabajo científico, sus métodos se tornarán más rigurosos. Epistemólogos, filósofos analíticos y filósofos de la ciencia, en una palabra, han llegado para enseñarnos los procedimientos que ignoramos, procedimientos que ellos conocen en general, en su totalidad y con referencia a todas las ciencias, a pesar del hecho ostensible de no haber instrumentado jamás ninguno en particular, siquiera parcialmente y en ciencia alguna. Parafraseando a Rorty, podríamos decir que la filosofía analítica pretendía tragarse a las demás disciplinas, además de servirles de base, esgrimiendo el filo de la lógica para desmontarlas y revelar su debilidad y su dependencia (Rorty 1983:127-134). Nuestra pintura de la epistemología, por supuesto, es la parodia de una generalización en regla: es necesario reconocer que en ese terreno se congregan muchas posturas divergentes, que van desde la línea dura positivista de Hempel o de Quentin Gibson, hasta el desenfadado irracionalismo de Feyerabend, pasando, naturalmente, por los alegatos personalizados y hasta intimistas de estrellas de 618 primera magnitud que forman especie por sí mismas, como Popper, Kuhn y Lakatos. Algunas de estas figuras ni siquiera se preocupan por la adopción del ideal de las Naturwissenschaften por parte de las ciencias sociales, y otras apenas se interesan por los tecnicismos lógicos. Pero en todas esas propuestas, allí donde la lógica aparece esgrimida como baremo de legitimidad y autoridad en materia de métodos, creemos percibir dos constantes. La primera se refiere al nivel de flexión en que se desarrollan sus cálculos de inferencia, nivel que, como se demostrará en un momento, tornaría imposible implementar cualquier formalización. Esta imposibilidad implica asimismo que no es viable, por esos medios, la construcción de ningún modelo con capacidad operativa mínimamente autónoma. La segunda constante concierne al hecho de que en el mundo dibujado por los epistemólogos la metodología científica y el rigor experimental se confunden y se entremezclan permanentemente con los aspectos formales de la lógica, tejiéndose una red nebulosa de correspondencias e isomorfismos entre lo formal, lo metodológico y lo empírico, tan monolítica como las proposiciones mismas. Aspectos por demás contingentes, episódicos, discontinuos, operacionales, de sentido común o pragmáticos se hacen pasar por algo así como "la lógica de la investigación" (milagrosamente idéntica, según se cree, a la práctica de las Ciencias Naturales), como si el trabajo científico y el diseño experimental (y si uno se descuida, hasta el trabajo de campo) respondieran a los pasos categóricos de una axiomática encubierta que la mirada distante del filósofo tiene a bien revelarnos. Por detrás de una densa fachada de terminología y de un aluvión de ejemplos, la estirpe positivista y el simplismo de la idea son ostensibles: la confluencia del trabajo "corporal" del científico con la perfección inmarcesible de las lógicas que han llegado a axiomatizarse se materializa con tanta más pureza cuanto más se cuantifique, cuanto más se reemplacen las palabras por símbolos y cuanto más se prodiguen definiciones. Nuestra elaboración no presta apoyo a ninguna de esas dos posturas; por lo que sabemos, las formas lógicas adoptadas por los epistemólogos han demostrado ser inapropiadas por poco que el rigor se extreme, en tanto que las fases del método implican un referente tan diversificado y en un estado de tan agitada movilidad que todo lo que se diga unitariamente de ellas carece de sentido. Que no es preciso emular los procedimientos de cuantificación y la experimentación controlada conforme al ceteris paribus para realizar una investigación rigurosa, es algo que se infiere de todo nuestro modelo y que no es preciso, por ende, volver a demostrar por separado. La idea de que a la lógica sólo se accede a través de un modelo expresado en un formalismo adecuado parece demasiado evidente y es demasiado sólida como para renunciar a ella. Que la lógica en que se basa la generalidad de la filosofía de la ciencia es inapropiada, y que no es posible basar en ella un cálculo tan riguroso como para ser automatizado, es en cambio una afirmación fuerte que cabe discutir en este capítulo. Una de las razones para discutir esta cuestión finca en el hecho de que el cálculo lógico que puede desarrollarse con las herramientas cuya adopción proponemos es radicalmente distinto al que se promueve en los libros de texto. Casi todos los historiadores y comentaristas de la lógica admiten que el cálculo centrado en el silogismo y en el cálculo de proposiciones es insuficiente e imperfecto, pero no han sacado de ello ninguna lección metodológica y siguen presentándolo como si fuera el núcleo de hierro del razonamiento y el modelo al que todos los demás tipos de cálculo responden. Profesiones de fe como ésta se han vuelto absolutamente típicas: Tampoco compartimos la actitud en cierto modo hostil hacia la lógica aristotélica que manifiestan algunos de los más celosos impulsores de los nuevos campos de estudio. No nos abstuvimos de indicar las limitaciones 619 de la presentación tradicional de nuestra disciplina, pero creemos que los logros más recientes de la lógica exacta han servido para ampliar tanto como para corregir la lógica aristotélica (Cohen y Nagel 1983:9). Lo notable del caso es que las "limitaciones" no han sido identificadas, y que tampoco se ha examinado la posibilidad de que las bases de lo que se desarrolla hayan sido socavadas por los "logros más recientes" que han venido supuestamente a ampliarlas. Como veremos ahora, este es el caso. En la terminología convencional de la lógica proposicional o lógica de juntores, se utilizan símbolos tales como A, B o C para representar proposiciones atómicas (que, como hemos visto, no pueden ser descompuestas en sus componentes), cuya característica más notoria es su capacidad para denotar un valor de verdad que puede ser verdadero o falso. El hecho de que A, B o C posean lo que se llama un "significado informal", tal como "los trobriandeses viven en Oceanía" no es relevante para el cálculo (cf. Malpas 1987:18). Pero este tipo de significado es fundamental cuando se pretende aplicar una modalidad de lógica a un campo dado del conocimiento. Aparte de las entidades atómicas, la lógica proposicional admite la construcción de fórmulas más complejas combinando aquéllas mediante conectores: Símbolo & v Significado No y o Implica Si y sólo si Diagrama 4.3 - Conectores lógicos Una fórmula compleja que incluya juntores o conectores lógicos es lo que se llama una frase bien formada (fbf). En el vocabulario de la lógica proposicional, los símbolos p, q y r son llamados variables proposicionales, y éstas se utilizan para representar frases bien formadas del tipo "no p", "p y q", "si p entonces q", etcétera. El cálculo proposicional tiene sólo un valor limitado; la razón para ello es que la mayoría de sus unidades elementales, las variables proposicionales, son ya enunciados complejos; no hay manera de introducirse "dentro" de una proposición elemental para ver por qué es verdadera o falsa, o para averiguar si guarda alguna relación con otras proposiciones de algún otro modo además del de sus valores de verdad. Un hecho tal como "el mecanismo de herencia entre los trobriandeses es patrilineal" se puede representar mediante variables proposicionales, pero no hay forma de representar en dicho cálculo a "los trobriandeses" con independencia del resto de la proposición. Aún en el caso de que se pudiera mecanizar por completo un conjunto de proposiciones, hay ciertos tejidos entre ellas que nunca podrían establecerse aunque el sentido común, el conocimiento disciplinar o la "intuición lógica" detectaran sus relaciones. En otras palabras, el cálculo proposicional en el que reposa la abrumadora mayoría de los textos filosóficos que pretenden enseñarnos métodos rigurosos de razonamiento es incompleto y no llega ni de lejos a caracterizar todas las inferencias deductivamente válidas. Ni siquiera alcanza, en rigor, a demostrar las inferencias elementales más rudimentarias. Es posible representar un razonamiento 620 antropológico deductivamente válido, sin que sea posible resolverlo o siquiera expresarlo mediante el cálculo de proposiciones. Sería correcto expresar, por ejemplo: Y sacar de ese aserto la conclusión: Pero aunque parezca insólito, como ni la premisa ni la conclusión de esta inferencia resultan de una combinación funcionalmente verdadera de otras frases, la forma de este argumento en el cálculo de proposiciones sería "A, entonces B", lo cual no es de hecho válido. Para ponerlo en palabras más clásicas, "Sócrates es mortal" no puede deducirse de "Todos los hombres son mortales" y de "Sócrates es un hombre", porque "hombre" y "mortal" no son unidades del cálculo y porque entre las tres aserciones se filtran conocimientos enciclopédicos tales como la correspondencia entre singulares y colectivos (es/son, hombre/hombres, mortal/mortales) que no forman parte de la enunciación y que en algunos idiomas no serían en absoluto transparentes. El servicio que puede prestar a la ciencia social empírica una lógica que experimenta dificultades ante demostraciones tan simples de ninguna manera puede ser significativo. Si se trata de instrumentarla (y ése es el punto), la lógica debe ser necesariamente relacional y prestarse tanto a operaciones de integración como de descomposición. La lógica relacional y funcional por excelencia es el cálculo de predicados o de cuantores. Es un hecho asombroso que hasta la aparición de esta lógica de las relaciones no era posible probar la validez de razonamientos tan sencillos como "Un cuadrado es una figura; por lo tanto, el que dibuja un triángulo dibuja una figura" (Simpson 1975: 17), que tiene, incidentalmente, la misma forma lógica que nuestro anterior ejemplo sobre los trobriandeses. Casi todos los textos conocidos de filosofía de la ciencia, así como los estudios en psicología evolutiva (Piaget), psicología cognitiva y antropología del conocimiento (Shweder 1984), se fundan en la confusión del cálculo lógico en general -o en abstracto- con el cálculo de proposiciones. La historia del cálculo de predicados se remonta a Gottlob Frege. Al contrario de Boole, quien había analizado la expresión en términos de proposiciones interrelacionadas, Frege incrementó explosivamente la riqueza del análisis lógico proponiendo técnicas de análisis y representaciones formales que quebraban la proposición en estructuras predicativas con la ayuda de ciertas herramientas originadas en las matemáticas (el concepto de función, por ejemplo). Frege construyó toda una serie de lenguajes formales basados en esa idea; con el correr de los años, los aportes de Russell, Church, Kleene, Rosser y Quine derivaron en lo que se conoce como el cálculo de predicados y los lenguajes del Primer Orden, que constituyen el precedente directo de los lenguajes de programación lógica. La notación de cálculo de predicados que aceptan hoy las computadoras no es la misma que utilizaran Russell o Frege; gracias a Skolem han desaparecido los cuantores, por las limitaciones de los teclados de máquina se han esfumado los signos extraños y por iniciativa de Kowalski se ha impuesto la forma clausal de Horn. Por desdicha, nadie comercia con la lógica sin mediaciones. Con poquísimas excepciones (cf. Douglas 1975a:39), y por razones que habrá que elucidar algún día, los antropólogos no frecuentan la lógica en sus propias fuentes. El camino de los problemas antropológicos a las soluciones de la lógica atraviesa el reducto de los epistemólogos, quienes se han erigido en intermediarios oficiosos entre las esferas del saber. Pero, como si existiera algún rechazo corporativo, algún acuerdo silen621 cioso, ningún epistemólogo de primera línea conduce hacia el cálculo de predicados ni, mucho menos, a las experiencias computacionales en materia de lógica. Los pocos que, como Suppes, no desdeñan la computación, se fundan en la máquina procedimental de Von Neumann, no en la programación declarativa. Entendemos que después del desarrollo de la lógica relacional y funcional por parte de Frege y Russell, seguir presentando los modos de la lógica en términos del caduco cálculo proposicional no constituye una enseñanza oportuna. Ante la frescura con que se siguen exponiendo, en un gesto didáctico casi magnánimo, los rudimentos del cálculo proposicional, nos resulta difícil creer que los filósofos hayan reflexionado suficientemente sobre el particular. Sea como fuere, lo que importa es que la presentación que ellos hacen de la lógica para uso de los científicos sociales no deja entrever en general los límites a que aludíamos, ni se atreve a afrontar la explicación de las modalidades lógicas más elaboradas (y más bellas) que se han ideado en lo que va del siglo. El problema con la literatura lógica de divulgación que los filósofos adecuan a la pensée sauvage del lector humanista, es que las herramientas fundamentales, los formalismos útiles, ocupan en ella un lugar marginal, cuando es que ocupan alguno. Cohen y Nagel, en concreto, ni siquiera mencionan el cálculo de predicados del primer orden (1983). Tampoco lo hacen Popper, Hempel, Rudner o Stegmüller, o acaso lo hacen al pasar. Los pocos textos que lo citan hablan de él como si se tratara de una especie de práctica periférica, propia de lógicos excéntricos o de cenáculos de vanguardia. Se ignora sistemáticamente el hecho de que este cálculo ha soportado la prueba de la máquina, mientras que otros métodos de inferencia más venerables han hecho un papel indecoroso cuando se los quiso formular de manera inequívoca o aplicar a materias de cierta delicadeza. Estas distorsiones son las que llevarían a un Dreyfus, por dar un nombre, a afirmar que la concepción de la mente como mecanismo procesador de información lógicamente regido, reduce las operaciones mentales a "funciones booleanas" y a estados o conmutadores de tipo 0/1, pretendiendo demostrar con ello la incapacidad de la lógica computada para dar cuenta de matices y polivalencias propios de lo real (1972). En la misma tesitura, Héctor Vázquez ha escrito que en la antropología cognitiva "la inteligencia humana es considerada y comprendida según la lógica de la llamada 'inteligencia artificial' que se articula mediante una lógica combinatoria de oposiciones binarias incapaz de reproducir la organización lógica de la actividad cognitiva cuyas construcciones no son binarias sino polivalentes" (1988:17). Razonamientos de este tipo son tan reiterados como falaces: ni la antropología cognitiva tiene estrictamente que ver con la inteligencia artificial, ni las codificaciones binarias son incapaces de subsumir matices "polivalentes", ni la lógica computacional es combinatoria, ni existe una codificación natural (polivalente o lo que sea) inherente a los fenómenos cognitivos fuera del marco de analiticidad a través del cual se lo mira (que puede ser binario si a alguien le da la gana). Pero lo que cabe poner al abrigo de todas sospecha no es aquí tanto la computación como la lógica que ella instrumenta. Jean Pierre-Desclés ha aclarado hace poco que afirmaciones como las de Dreyfus o Vázquez se deben a un equívoco que resulta de soslayar no sólo la existencia de las lógicas difusas, temporales, modales, intensionales o polivalentes, sino de subestimar muy gravemente el poder de la lógica: los lenguajes lógicos modernos son capaces de expresar nociones extremadamente sutiles (el análisis russelliano de las paradojas, la construcción de operadores complejos, los formalismos para definir semánticas intrínsecas, la lógica ilativa); lo concreto es que ni siquiera el diseño de circuitos eléctricos simples se basa verdaderamente en el álgebra del "si y el no" (Desclés 1989:123-124). 622 Lo mismo que los lingüistas generativos que consideran a la lingüística computacional como una monstruosidad tecnocrática, los viejos dinosaurios de la lógica y la epistemología -con la llamativa excepción de Suppes- apenas hacen mención de los intentos de mecanizar los procesos de inferencia; ello, convenientemente, bajo el manto de un humanismo que se escandaliza de lo mecánico como si se tratara de algo fundamentalmente inhumano, les permite ya no minimizar, sino hasta ignorar por completo las consecuencias revolucionarias de las experiencias de aquella empresa: la remisión del cálculo conceptual al almacén de las operaciones de rutina, la exteriorización implacable de los supuestos ocultos, el desvelamiento de complejidades impensadas. Con la salvedad de los nuestros, en ningún texto de teoría antropológica anterior al presente se ha hablado jamás siquiera del cálculo de predicados, por más que abunden las especulaciones en torno a las "lógicas culturales"; puesto que la idea del cálculo de predicados se remonta a Frege (lo que es decir, a los últimos años del siglo pasado), esta situación es sintomática del atraso de la transferencia pedagógica de la epistemología para con nuestras disciplinas, o, peor aún, de severas lagunas conceptuales e históricas en el interior de la propia filosofía de la ciencia. Hasta aquí la protesta. El cálculo de predicados permite quebrar la estructura monolítica de la proposición y generar posibilidades de cálculo ya no a partir de frases interimplicadas y a su vez indescomponibles (de interrelación siempre dudosa, más allá de los humos de los filósofos), sino a partir de la aserción del primer predicado. Una aserción simple, como "los trobriandeses son melanesios" puede ser analizada en términos de sujetos y predicados lógicos de distintas maneras: se puede tomar "los trobriandeses" como sujeto lógico y "son melanesios" como predicado; o bien "melanesios" como sujeto y "los trobriandeses" como predicado, o bien "trobriandeses" y "melanesios" como sujetos y "son" como predicados, o idear cláusulas de esta forma: Por razones técnicas, algunas de estas formas son más adecuadas que otras y las que utilizan términos que denotan "ser" no lo son demasiado; pero en general todas pueden servir para fundar el cálculo. Desde el punto de vista antropológico esta posibilidad de descomposición es fundamental, por cuanto nos permite construir tejidos de conectividad que vinculan sin anfibología atributos y funciones de distintos sujetos. A esto se agrega el hecho de que el cálculo de predicados permite definir variables internas a la secuencia de objetos, variables que en su formulación computacional participan en la definición de reglas. Podemos descomponer una aserción en sus términos y aún descomponer los términos mismos, preservando todas las conexiones que la intuición percibe. Es hora de abordar la tercera inflexión del esquema de Thayse. Al contrario de que suelen creer ciertos lógicos sin demasiada práctica aparente en programación, todas las más finas extensiones del cálculo de predicados son expresables y susceptibles de ser instrumentadas en Prolog. De hecho, se podría hacer lo mismo en casi cualquier lenguaje, incluso en los procedimentales. Por añadidura, el cálculo de predicados puede transformarse en metalenguaje de cualquier otro tipo de cálculo, el proposicional incluido. Veamos un caso de interés que servirá para que puedan imaginarse otros. El "cálculo lambda" es un formalismo creado por el legendario lógico norteamericano Alonzo Church con el objeto de tomar cualquier expresión evaluable y convertirla en una función, especificando qué partes de la expresión se deben reemplazar mediante argumentos (Church 1941). Todo el 623 lenguaje LISP se basa en esta idea churchiana, que constituye a su vez el núcleo de la llamada lógica funcional. El cálculo lambda se obtiene agregando a los ya conocidos otro operador más (operador lambda o ), que cumple el cometido de ligar variables. Existe un método familiar de denotar conjuntos mediante una notación como ésta: La única exigencia para esta forma de definir conjuntos es que se especifique una frase que contenga una variable en un lenguaje inambiguo y que se fije una convención para indicar cuál variable (x) constituye la clave para definir el conjunto. En el cálculo de predicados esto se logra agregando el operador . Si F es una fórmula lógica, entonces xF denotará un conjunto; intuitivamente, puede decirse que la expresión caracteriza al conjunto especificado por F con respecto a la variable x. Considérese, por ejemplo, la frase "Alguien envió presentes al cacique", y su traducción a lógica de predicados: La expresión siguiente denotará el conjunto de objetos que Juan envía al cacique, mientras que esta otra denotará el conjunto de individuos que envían mantas. Las expresiones lambda 4.6 y 4.7 son predicados unarios que incluyen respectivamente a X y a Y como argumentos. Los operadores lambda, al igual que los cuantificadores existenciales y universales, sirven para ligar ocurrencias de una variable. Lo que ya llevamos dicho sobre la forma de operar del Prolog torna evidente su adecuación a esta variedad de la lógica, por lo que no abundaremos en ejemplificaciones adicionales; el lector habrá advertido que en nuestro lenguaje no es necesario definir operadores diferenciales para especificar cuáles son las partes de la expresión que han de ser reemplazadas por argumentos. En la bibliografía de dominio público hay numerosos ejemplos de lógica funcional expresada en Prolog (cf. Thayse 1988: 119-120; Covington et al 1988:200-205; Maier y Warren 1988:347-380). Debido a que la signatura del cálculo de proposiciones no es sino un subconjunto de la del cálculo de predicados, es posible restringir a éste para que emule a aquél. Dos estudiosos del Prolog, David Maier y David Warren, han desarrollado un lenguaje, denominado Proplog, capaz de emular (con fines didácticos) las prestaciones del cálculo proposicional (cf. Maier y Warren 1988:3-117). Su texto demuestra taxativamente, sobre la base de una práctica intensa y consolidada, que el cálculo de predicados sirve para construir lenguajes y sistemas tanto más simples como más complejos que él mismo. Weiskamp y Hengl (1988:90-98) presentan un pequeño programa elemental en Turbo Prolog, llamado TRANSLATE, que primero secciona proposiciones en fragmentos o tokens, y luego aplica transformaciones clásicas del cálculo proposicional (los teoremas de De Morgan, la reducción de las negaciones dobles, etc), oficiando como el núcleo de un posible probador automático de teoremas. 624 Emular las prestaciones de un cálculo restringido mediante los resortes de otro más elaborado es un juego que puede hacerse con una amplia reserva de potencia, pero no es un ejercicio demasiado popular. Bajo ciertas condiciones, en especial cuando el cálculo de predicados roza los peligrosos límites de la decibilidad, esta capacidad mimética podría llegar a aportar una vía de escape a algunas aporías del razonamiento. Uno de los teoremas incluidos en el apéndice en que se marca la traza que lleva desde los fundamentos de la lógica hasta la posibilidad de modelizar mediante ella, desarrolla precisamente esa mímesis. b) Lógicas Polivalentes: Hipótesis del Mundo Abierto De acuerdo con nuestra experiencia hasta el momento, el cálculo de predicados implementado en el Prolog es susceptible de desarrollarse de modo tal que cualquier principio de cualquier lógica conocida, formal o informal, puede expresarse a través de él sin traición semántica, residuo sintáctico ni dificultad pragmática. Esto sucede porque dicho cálculo opera a un nivel de analiticidad más elemental que el sustrato de representación de cualquier lógica, pudiéndose incluso definir los valores de verdad en términos de lo que en informática clásica se denomina "programación procedimental" o de lo que en programación lógica se caracteriza como "metaprogramación" (cf. Malpas 1987; Sterling y Shapiro 1987). El conjunto de posibilidades que se inaugura a partir de la escala en que se despliega la máquina de inferencia ya ha sido abordado en el capítulo anterior, en el que el cálculo de predicados se opuso a la modalidad más popular entre los filósofos: el cálculo de proposiciones derivado de Aristóteles, la versión moderna del silogismo. Ahora toca el turno de abordar una capacidad del lenguaje no menos significativa, que sirve entre otras cosas para variar la valencia veritativa del esquema lógico global. El siguiente es un ejemplo de la profundidad a que se puede (para servirnos de la espantosa jerga informática) "customizar" el intérprete, esto es, modificar la conducta procesual de la máquina de inferencia nativa para adaptarla a las premisas que sean necesarias. En este ejercicio, la lógica binaria subyacente al cálculo declarativo del Prolog se transforma en una lógica trivalente. Partiendo de estos hechos definidos: Si se formula la siguiente pregunta: la respuesta entregada por el sistema sería "false" (o "no", según el dialecto), cuando debería ser "true" o "yes" de acuerdo con los hechos etnográficos, e "indefinido" o "desconocido" de acuerdo con la información de que el sistema dispone. Ningún lenguaje de programación lógica resuelve la carencia de información (o el carácter incierto de ésta) a partir de sus predicados nativos o de sus reglas intrínsecas de cálculo. Pero si se agrega este sencillo procedimiento: 625 y se formula la pregunta de esta manera: la respuesta será lógica y empíricamente correcta. En otras palabras, si se dejara el cálculo veritativo librado a los algoritmos de resolución del intérprete, los resultados estarían determinados por una alternativa binaria y taxativa, que parte del principio de que lo que no es "verdadero" es "falso"; el uso de técnicas de metaprogramación como la utilizada (tan transparente que casi no necesita explicarse) resolvería el problema, al menos en principio, haciendo que el sistema proceda según esta máxima antropológicamente sagaz: no asumir que lo que se desconoce es falso, hasta tanto su falsedad no sea estipulada en forma explícita. Al nivel del lenguaje, cuando el investigador formula una pregunta al intérprete, está planteando implícitamente esta cuestión: "¿Es verdadera la relación descripta por esta pregunta?". A nivel de metalenguaje, por el contrario, la pregunta implícita es esta otra: "¿Es probable (es decir, ¿puede ser probada?) la relación descripta en esta pregunta por medio de la estrategia de resolución del intérprete y de acuerdo con las cláusulas definidas hasta ahora?" Si se utiliza el dialecto Turbo Prolog en lugar del canon de Edinburgo, la necesidad de tipificar los dominios haría al programa un tanto más extenso, pero igualmente efectivo. El siguiente es un ejemplo plenamente operativo de un tipo de programa que numerosos especialistas (cf. Covington et al 1988:vii,458-481) afirman que no se puede hacer en ese dialecto. Obsérvese que mediante una estratagema muy sencilla hemos logrado definir como tipo de dominio un predicado complejo: 626 La versión canónica permite, por añadidura, que el metapredicado posea un alcance total, sin que sea preciso más que agregar la misma cláusula a cualquier programa para conmutar entre una y otra lógica cada vez que se lo desee. En Turbo Prolog se puede lograr lo mismo estipulando definiciones adicionales de , separadas por punto y coma. En todos los dialectos, modulando otras cláusulas semejantes, podemos introducir con suma facilidad otras alternativas de valencia; quede firme entonces este testimonio: quebrar el mito del binarismo ciego de la lógica es tan sencillo como éso. En rigor, tanto la lógica que utiliza el Prolog por default como la que puede implementarse mediante la técnica de metaprogramación descripta son coherentes; sólo que la primera responde al supuesto del "mundo cerrado", en el que el conjunto de cláusulas afirmadas se considera como una descripción exhaustiva de todos los hechos relevantes, mientras que la segunda obedece al supuesto del "mundo abierto", del cual se desprenden tres posibles valores de verdad: verdadero, falso o desconocido (o indeterminado, o indeterminable). La presunción del mundo cerrado, en otras palabras, implica que la única fuente de conocimientos son las propias cláusulas del programa; la presunción del mundo abierto involucra la posibilidad de recurrir a fuentes alternativas de conocimiento, las cuales bien podrían identificarse, en un programa dado, con el "aprendizaje de máquina", con la toma de información a partir del entorno, con insumos provenientes de programas externos o con la interacción entre el modelo y el investigador. En primera instancia parecería que el supuesto del "mundo abierto" cuadra mejor al ethos discursivo de nuestra ciencia; pero este juicio no debería ser absoluto, pues todo depende del valor que nuestra epistemología conceda a la abstracción, a la reducción, al recorte, o (como diría Bateson) al puntuado o troquelado del contexto. Sobre este particular no podemos expedirnos en esta tesis, pues, al ser una cuestión teorética, concierne por entero a una esfera de problematicidad que se encuentra fuera de la jurisdicción de una teoría de modelos. Sí podemos, a cambio, esbozar la tendencia global: salvo casos extremos de ingenuidad empirista, en los que, como en los textos de Bórmida, se nos insta a representar "el hecho tal como es y en toda su complejidad" (1976:13), la mayoría de los científicos se resigna a no incluir la totalidad del universo como objeto cada vez que se teoriza sobre una fracción de él. Ahora bien ¿cuál es, a todo esto, el espíritu que rige a la corriente principal de la programación lógica, si es que puede hablarse de semejante cosa? El espíritu de toda modelización exhaustiva es el de incorporar todas las variables relevantes y constituir así una especie de tipo ideal de mundo cerrado. La hipótesis del mundo abierto introduce en el modelo algunas propiedades oraculares indeseables y deja latente el riesgo de olvidar que no estamos tratando con el mundo en sí ni con la realidad que está allá afuera, sino con un modelo de lo que una formulación discursiva define como la realidad del mundo. Tal como veremos al ocuparnos de la lógica epónima, no hay ni puede haber prescripción axiomática alguna sobre la relevancia, ni siquiera en el modelo más perfecto: el juego consiste, casi siempre, en que lo que se escoge como relevante alcance para los fines descriptivos o explicativos que se pretenden. La elección de un modelo de mundo abierto o de uno de mundo cerrado tiene implicancias más drásticas de lo que en primer análisis puede parecer. Cuestiones esenciales de la filosofía de la ciencia se conjugan en esa disyuntiva, por otro lado excluyente. Lo que pretendemos afirmar es que ninguno de estos supuestos es inherentemente mejor para la antropología; la adecuación de uno o de otro depende, en todo caso, de la naturaleza de la representación y de los objetivos del modelo. En 627 todo caso, el hecho de que nuestro formalismo no se incline excluyentemente hacia uno u otro es una muestra adicional de su instrumentalidad. c) Lógicas Cuánticas Es sabido que la mecánica cuántica difiere en sentidos fundamentales de la mecánica clásica. Se dice que en cierta forma los sucesos registrados en la mecánica cuántica ponen en tela de juicio los principios más básicos de la lógica convencional y quizá hasta la misma Razón. El mundo cuántico posee una estructura de comportamiento alucinante que evoca de lleno la configuración narrativa de ciertos mitos: En el mundo subatómico, lo observado es dependiente de la observación, al punto que no puede decirse que lo observado ocurra en absoluto si no se lo observa. Partículas puntuales, virtualmente sin tamaño ni estructura interna, exhiben no obstante la curiosa peculiaridad de poseer un momento cinético de rotación, es decir, de girar sobre su propio eje. Existe asimismo la posibilidad de que una sola partícula pase a la vez por dos orificios distintos e interfiera consigo misma (d'Espagnat 1980; Hughes 1981). Algunos teóricos de la lógica han sugerido que la adopción de una lógica no estándar daría solución a la mayor parte de los aparentes problemas presentados a la racionalidad por la experiencia de la física de los cuantos. Entre estos autores se encuentran Birkhoff y Von Neumann (1936), Destouches-Février (1937, 1951), Reichenbach (1944) y Lambert (1969). Los estudiosos mencionados desarrollan o ponen en cuestión sistemas sumamente refinados, pero a los propósitos de nuestra investigación y en lo que atañe a las consecuencias antropológicas del asunto podemos pasarlos por alto. La lógica cuántica es una lógica trivaluada, y en este sentido pertenece al conjunto más amplio de las llamadas polivalentes, a las que analizamos en el apartado anterior. De hecho, Reichenbach se fundó expresamente en los desarrollos de Lukasiewicz. El tratamiento por separado de la formulación cuántica obedece a que se trata quizá de la única modalidad divergente que ha sido instrumentada en antropología, en el decurso de una polémica entre los neotylorianos y sus adversarios cuyos ecos todavía perduran (cf. Cooper 1975; Salmon 1978). David Cooper, de la Universidad de Surrey (sin ninguna relación con el conocido antipsiquiatra de los 60), imaginó que ciertas aparentes contradicciones del pensamiento primitivo podían superarse utilizando para su cálculo una lógica trivaluada explícitamente relacionada además con los principios de Indeterminación y Complementariedad según Heisenberg. Los argumentos que Cooper intenta reracionalizar se derivan de algunas observaciones bien conocidas de Evans-Pritchard: 1. Los Azande creen que existe una prueba confiable, post-mortem, para determinar si una persona es o no es un brujo. A veces esta prueba arroja resultados positivos, otras no. Por otra parte, la brujería es una capacidad orgánica heredada por los varones de sus padres y por las mujeres de sus madres. Todos los Azande están emparentados por vía masculina (Evans-Pritchard 1937). Si aplicamos a estas creencia la lógica convencional bi-valuada, obtenemos "Todos los varones Azande son brujos y no todos los varones Azande son brujos". 628 2. Los Nuer sostienen que los niños muy pequeños no tienen alma, pero que las almas de todos los gemelos "se va hacia arriba" cuando ellos mueren (Evans-Pritchard 1956, cap. I). La consecuencia lógica de esto es que algunos niños poseen y no poseen almas. Cooper salva la racionalidad de las creencias Azande y Nuer definiendo que el valor de verdad de algunas de ellas no es ni verdadera ni falsa, sino indeterminada. Para ello intenta probar que esa asignación está implícita en el material etnográfico y que su problematicidad es análoga a ciertos aspectos de la mecánica cuántica. Las elaboraciones de Cooper son demasiado detalladas como para reproducirlas, lo mismo que su cuidadosa refutación por parte de Merrilee Salmon, de la Universidad de Arizona en Tucson. El argumento central de Salmon es que las lógicas de los Nuer y Azande no se ciñen al modelo cuántico trivaluado, pues la indeterminación operaría en aquéllas como "difícil de determinar como verdadero o falso" y no como "imposible de determinar verdadero o falso en principio". La demostración de Salmon procura encontrar otras formas de racionalidad en las creencias de ambas tribus, ciñéndose a indicios etnográficos no siempre exhaustivos y relativamente marginales. Aunque Salmon da con varias soluciones, más o menos plausibles, todas ellas reclaman alcance limitado y validez puntual. Cada aparente contradicción -dice- debe ser examinada en sus propios términos, ya que no hay ninguna solución general a priori a las contradicciones del pensamiento nativo (Salmon 1978:454). No nos esforzaremos por parafrasear en Prolog ni las proposiciones de Cooper ni las soluciones ad hoc de Salmon, pues la adecuación del lenguaje para la trivaluación ya fue demostrada y no hay nada más que demostrar. Diremos solamente, para cerrar el punto, que ninguno de los dos estudiosos acusa recibo de la existencia de formas lógicas más sofisticadas que el cálculo proposicional y las tablas veritativas, y que ambos pretenden salvar a todo trance la consistencia de las creencias nativas, en lugar de construir un modelo consistente capaz de determinar, llegado el caso, si su carácter es o no contradictorio. Igual consideración nos merecen algunas otras referencias rasantes y sumarias a las lógicas plurivalentes, que se expresan como si ellas fueran más sensibles a la estructura incierta de la realidad o a los desvíos humanos de la Justa Razón, y como si la adopción de una lógica de ese orden no implicara reacomodamientos complicadísimos en el ejercicio de un razonamiento antropológico que ya es en sí precario en términos de una axiomática harto más elemental (Ibáñez 1985). Dado que en general los que promueven marcos de ese jaez no han cumplimentado su análisis, nos consideramos en derecho de postergar el nuestro hasta que haya un postulado identificable que merezca respuesta. d) Lógica Intuicionista Una conectiva (en una frase, un operador) es veritativo-funcional si el valor de verdad de un compuesto del cual es la conectiva principal depende únicamente de los valores de verdad de sus componentes, en cuyo caso puede construirse una tabla de verdad para esa conectiva. Se dice que un sistema lógico es veritativo-funcional si todas sus constantes lo son. La lógica convencional es una lógica de este tipo. La lógica intuicionista de Arend Heyting (1966) es una lógica divergente no veritativo-funcional, cuyo interés es sustancialmente filosófico y formal. Los intuicionistas afirman que en ciertos sentidos la lógica clásica es incorrecta; ya a principios de siglo el intuicionista L.E. Brouwer había presentado objeciones muy graves contra el principio del tercero excluido, alegando que carece de 629 validez cuando se lo aplica a conjuntos no finitos. Desde entonces suele distinguirse en matemáticas y en lógica entre las pruebas clásicas y no constructivas (que se apoyan en el uso irrestricto del tercero excluido) y las pruebas constructivas o finitistas, que se atienen tan sólo a los principios más "seguros" de la lógica y de la matemática, como el principio de no contradicción y el de inducción matemática (cf. Garrido 1983:308). Los intuicionistas consideran además que la lógica está o debería estar subordinada a las matemáticas, porque se trata de un conjunto de principios descubiertos a posteriori para gobernar el razonamiento matemático, o de una especie de registro de las reglas admitidas como válidas por esta ciencia. Pero las matemáticas de los intuicionistas no es la que todos conocemos, sino que es una entidad muy especial. Para ellos se trata no de un producto sino de un proceso, y concretamente de una actividad mental; sus componentes (los números, por ejemplo) son entonces entidades mentales, psicológicamente constructibles. Desde este punto de vista, ciertas porciones de las matemáticas, y en especial las que tienen que ver con las totalidades completas y con el infinito, les resultan inaceptables, dado que son contraintuitivas. Y de esta restricción psicologista de la matemática se sigue, por las razones que ya hemos dicho, una restricción concomitante de la lógica: los intuicionistas no aceptan la validez universal de los principios lógicos, y en especial del tercero excluido, como hemos visto, para el cual según entienden existirían contraejemplos. Al subordinar la verdad a la verificación, los intuicionistas ponen en tela de juicio la noción clásica de una verdad trascendente; a su criterio esta noción está respaldada por una imagen platónica de un reino de entidades matemáticas que existirían objetivamente y con independencia de nuestro pensamiento. Brouwer no admite la hipótesis de la existencia de objetos matemáticos separados del pensamiento humano, y Heyting ha precisado que la lógica intuicionista es una genuina logique du savoir, opuesta a la clásica logique de l'être. Pese a que la verdad intuicionista es epistémica, en sentido estricto, la lógica intuicionista y lo que ha dado en llamarse lógica epistémica constituyen conjuntos de premisas, métodos y estilos que no conviene confundir. Los textos intuicionistas -en particular los de Heyting- forman especie por sí mismos; ellos evocan una especie de metálogo batesoniano en el que se insinúan, con un fuerte aparato formal, algunas de las consecuencias que tendría la aplicación de un "pliegue intuicionista" al pensamiento matemático. El desarrollo de las lógicas y matemáticas intuicionistas puso en foco el problema de la intuición lógica, sobre la que no se había reflexionado suficientemente. Algunas observaciones de Heyting merecen recordarse: Lo que en matemáticas es intuitivamente claro ha demostrado no ser claro intuitivamente. Incluso es posible construir una escala descendiente de grados de evidencia. El grado superior es el de afirmaciones tales como 2+2=4. Sin embargo, 1002+2=1004 pertenece a un grado inferior, ya que no se pone de manifiesto contando efectivamente, sino que es el razonamiento quien muestra que en general (n+2)+2=n+4. [...] Enunciados como éstos poseen ya el carácter de una implicación (1962:195). El argumento, sin duda, es convincente, al tiempo que pone sobre el tapete un círculo de razonamientos que tiene cierto aire de familia con la semántica de prototipos, por cuanto introduce gradaciones en la apreciación subjetiva de la evidencia lógica. Ni los lógicos intuicionistas ni los científicos que han trabajado esta semántica en ciencia cognitiva, en psicología o en antropología del conocimiento han explorado, que sepamos, esta concomitancia, que aquí no haremos más que registrar. El problema de la magnitud de la evidencia se liga con el de las lógicas modales y epistémicas en general, a cuyo tratamiento remitimos para apreciar la forma en que dichos sistemas son 630 expresables mediante el Prolog. Desde el punto de vista formal, no habría mayores discrepancias entre un modelo intuicionista y uno convencional expresados ambos en un lenguaje declarativo. Lo que variaría más radicalmente, quizá, es la naturaleza de las metarreglas que encarrilan el cálculo conforme a premisas generales en ámbitos de predicación que la antropología, a decir verdad, difícilmente necesite abordar alguna vez. Pero la magnitud de la evidencia es un efecto de la postura intuicionista, no su argumento principal. Sus discusiones más típicas atañen a las relaciones entre la lógica y la matemática en un cariz que a nuestros propósitos casi no viene al caso. Pese a que el intercambio de ideas con el intuicionismo ha puesto en relieve ribetes filosóficos de indudable importancia (cf. Popper 1988:126135), no hemos sido capaces de captar la pertinencia de esta propuesta en relación con los problemas concretos y los marcos teóricos de la antropología, fuera del episodio ya aducido de su posible vinculación periférica con una semántica prototípica y difusa. e) Sistemas Presuposicionales Los esquemas y modelos lógicos centrados en el análisis de las presuposiciones o supuestos implícitos constituyen una modalidad que está ganando terreno y que engrana directamente con intereses contemporáneos de la lingüística, la semiótica, la antropología y, por fortuna, la inteligencia artificial. En nuestra disciplina Stephen Tyler ha hecho militancia alrededor de lo unsaid (lo no dicho) y lo unspeakable (aquéllo de lo que no puede hablarse), creyendo que al situar el nudo de la problemática más allá de las posibilidades del registro representacional del realismo etnográfico, garantizaba la irracionalidad de la conducta humana (1978, 1987). Con menos ínfulas, Mary Douglas ha sabido destacar el carácter implícito (esto es, presupuesto y no declarado) de los resortes esenciales de la religión primitiva (1975b). Numerosos lógicos se han manifestado sensibles a las problemáticas que presentan los diversos fenómenos de la presuposición y algunos han propuesto reformas de variada profundidad en el aparato de su disciplina: La presuposición es, por una parte, una relación peculiar entre enunciados, una relación entre enunciados irreductible a cualquier otra de las conocidas. Y es, por otra parte, una relación que es imposible no tener en cuenta si se quiere que la lógica formal conserve su -a nuestro juicio, indispensable- contacto con el lenguaje de la vida. En la explicación de esa esencial actividad humana consiste[nte] en hablar desempeña papel fundamental el entendimiento del fenómeno llamado 'presuposición'. Salvo que se defienda una concepción de la lógica que haga de ésta un a la postre cómodo lenguaje de laboratorio, parece inexcusable admitir en ella, con todas las consecuencias, el hecho de la presuposición (Deaño 1988:309). Quiérase o no, admitir este hecho lleva a una transformación de la lógica bastante más radical de lo que cabría imaginar. En lo que a la lógica respecta, a pesar de que el término "presuposición" había sido utilizado en las elaboraciones lógicas derivadas de la filosofía de Brentano, quien primero le otorgó una definición clara y una fundamentación teórica consistente fue Gottlob Frege, al discutir la distinción entre sentido (Sinn) y referencia (Bedeutung). Esta distinción tenía por objeto resolver el 631 dilema que presentaban los enunciados de identidad. El ejemplo clásico de Frege para la discusión de estos dos conceptos analiza esta frase: Frege señalaba que "estrella de la mañana" y "estrella vespertina" tienen la misma referencia, ya que ambas expresiones se refieren al mismo planeta, Venus. Pero no puede decirse que tengan el mismo sentido, porque si así fuese la frase (1) sería tautológica o analítica, como lo es la frase (2): En contra de lo que ocurre en este caso, la frase (1) es potencialmente informativa, posee cierto valor cognoscitivo, pues puede enterar al oyente de algún hecho previamente ignorado que no puede derivarse por sí mismo de la comprensión del significado de la oración (2). Durante años, de hecho, se ignoró que ambas estrellas fueran la misma. El acto más audaz de Frege (y luego el más discutido) fue el de extender la distinción sentido/referencia de los términos simples a toda la expresión. Compárese el cuadro 4.4, destilado por Susan Haack del texto clásico fregeano de 1892, con el esquema 4.1 que nosotros construimos inspirándonos en la semblanza de Deaño. En una primera impresión, lo más sorprendente del primer esquema es la equivalencia que establece Frege entre la referencia y el valor de verdad de una frase. Esta es una suposición que se desprende de su idea respecto de que el sentido y la referencia de una expresión compuesta dependen del sentido y la referencia de las partes que la componen. Expresión Sentido Nombre propio o descripciones definidas Predicado Frase Significado de la frase denotativa Significado de la expresión predicativa (?) Proposición Referencia Objeto Concepto Valor de verdad Diagrama 4.4 - Sentido y Referencia El argumento de Frege es el siguiente: si un componente de una frase se reemplaza por otro con diferente sentido pero con la misma referencia, entonces la proposición expresada por la frase (su sentido) se modifica, pero su valor de verdad permanece constante. Por ejemplo: De este principio se sigue que si una frase incluye un término singular que carece de referencia, entonces la frase misma debe carecer de ella, y por lo tanto no posee valor de verdad. Esto implica que en la teoría de Frege una frase que contenga un término no denotativo, a pesar de que tenga un sentido perfectamente claro, carece de valor de verdad. En otras palabras, ni una frase ni su negación poseen valor de verdad a menos que sus componentes denoten. Aquí es donde se introduce el tema de la presuposición. Estas dos frases: 632 no son ni verdaderas ni falsas a menos que "Kepler" denote algo. Por otro lado, ambas frases presuponen que Kepler denota algo, presuponen que Kepler existió. Lo notable es que, veritativamente considerada, una presuposición cualquiera cobija tanto un aserto como su negación, lo cual es una propiedad lógica por lo menos extraña que se añade a la condicionada indecidibilidad de su valor de verdad. Como lo dice el propio Frege, que el nombre "Kepler" designe algo es presuposición tanto de la afirmación "Kepler murió en la miseria" como de la afirmación opuesta (1985:71). Lo significativo del caso es que para formalizar la presuposición hace falta o bien abandonar el sistema bivalente de asignación de valores de verdad, o bien proponer un sistema que no parta del hecho de que los valores de verdad de una frase se derivan de los de sus partes componentes. Recordemos que para Frege "no hay más que dos valores veritativos" (1985:62). En el ámbito de la lógica, se han propuesto por lo menos tres sistemas para formalizar la "presuposición" de Frege, dos de ellos polivalentes (el de Smiley y el de Woodruff) y el tercero (el de Van Fraasen) no veritativo funcional38 (Cf. Van Fraasen 1969; Cooper 1974; Wunderlich 1977; Haack 1980:66-67, 93-94). Como bien lo saben los antropólogos después de Bateson y de Geertz, el significado literal puede modificarse o revertirse mediante un guiño, un gesto, un tono irónico en la voz. Además de las intenciones del hablante, el oyente tiene que decodificar las presuposiciones e implicaciones de cada frase, así como las anáforas o referencias cruzadas con otras entidades del texto. Si la semántica determina el significado literal, el significado global está determinado en gran parte por factores en cierto modo extralingüísticos que podríamos llamar pragmáticos o contextuales. Por fortuna, no es preciso tantear territorios nuevos cuando se trata de incorporar la presuposición a las experiencias en programación lógica. En ciencia cognitiva y en inteligencia artificial los presupuestos remiten a lo que se ha caracterizado como "conocimiento subyacente" [background knowledge]. Para hacer posible la llamada "comprensión de máquina" (fase ineludible si se trata, por ejemplo, de traducir mecánicamente con una mínima adecuación) es imprescindible quitar del primer plano el problema de la referencia y centrarse en lo que Frege hubiera llamado sentido, o quizá mejor aún presuposición. Pero los técnicos contemporáneos están persuadidos de que, a diferencia de lo que Frege pensaba, el significado de una frase está sólo parcialmente determinado por el significado de cada una de sus palabras; una gran parte de su significado (si no su totalidad) provienen del contexto, las intenciones del hablante y las expectativas del oyente (cf. Sowa 1984:264-272; Terry Winograd 1988). Las referencias anafóricas han demostrado ser de enorme importancia en la determinación de los significados profundos de un texto. El ejemplo clásico de equivocación interpretativa por causa de una anáfora es el de Creso, el rey de Lidia, y el Oráculo de Delfos. Se dice que el oráculo afirmaba que "Si Creso ataca a los persas, destruirá un gran imperio". Creso atacó a los persas presuponiendo que el gran imperio al que aludía el oráculo era el de aquéllos, cuando en realidad (o en el mito) se trataba del suyo propio. 38 Sobre la definición de veritativo-funcional, ver capítulo sobre la lógica intuicionista. 633 Este tipo de relaciones es bien conocido en representación del conocimiento y hasta en algunos modelos sociolingüísticos. Algunos autores restringen el uso de anáfora para las referencias hacia atrás, utilizan catáfora para los reenvíos hacia adelante y exófora para las expresiones que remiten fuera del texto. Que el error de Creso fuera anafórico o exofórico, por ejemplo, depende de sus conversaciones previas con los sacerdotes de Delfos (cf. Halliday y Hasan 1976). La multiplicidad de los usos del habla, la creación de nuevos matices y dificultades interpretativas, la posibilidad de imaginar siempre nuevos "juegos del lenguaje" (Wittgenstein 1953) pueden crear la impresión de que aquí nos hallamos frente a una dificultad insuperable, un límite que la inteligencia artificial no podrá trascender jamás. Pero no es tan así. Por un lado, el hecho de que la máquina en principio nada presuponga ayuda a hacer explícitos todos los supuestos. Por el otro, existe una creciente experiencia en materia de heurísticas que no sólo hacen que las máquinas se comporten "naturalmente" frente a los juegos lingüísticos que van surgiendo, sino que iluminan facetas antes mal comprendidas de la presuposición natural. Citaremos algunas de esas heurísticas: la de Kaplan (1978, 1982), la de Carbonell (1981, 1982) y la de Lehnert (1982). En la conversación normal, los participantes tienen por objetivo hacerse entender por los demás hablantes; esta comprensión debería conducir a la expresión de un conjunto suficiente de frases con todos los cualificadores expresados por completo. Pero al mismo tiempo, se deben seguir ciertos principios de economía para no abrumar a los interlocutores e incurrir en inacabables redundancias; de este modo, los hablantes (como los practicantes bernsteinianos de los códigos restringidos, como los actores culturales de la etnometodología) omiten expresar lo que ellos creen que es conocimiento común. El lingüista Grice (1975) formuló lo que se conoce como principio cooperativo que los interlocutores deben respetar: adaptar cada participación verbal al propósito común, a la dirección general de la conversación. El principio de Grice consiste en cuatro máximas que subyacen a una conversación normal y que permiten a la gente derivar inferencias, llamadas implicaturas conversacionales, tanto de lo que se dice como de lo que se omite: Máxima de cantidad: No decir ni demasiado ni demasiado poco. Máxima de cualidad: Procurar que la contribución sea verdadera. Máxima de relación: Ser relevante. Máxima de manera: Ser expresivo. Pero el principio cooperativo no siempre está en vigencia. La gente puede ser deliberadamente evasiva, irónica o mentirosa. En confrontaciones legales, por ejemplo, pueden atacar las máximas opuestas de lo que Grice llama encastillamiento [stonewalling]: Cantidad: Nunca contribuir en nada voluntariamente. Cualidad: Evitar juicios por perjurio y falso testimonio. Relación: Hacer que el diálogo se descarrile. Manera: Ser oscuro. Kaplan (1978) observó que las computadoras tienden por naturaleza más al encastillamiento que a la cooperación, y desarrolló en consecuencia un sistema llamado CO-OP, destinado a compensar esta tendencia mediante una heurística de cooperación. Para ser cooperativo, un sistema debe 634 reconocer y responder a los presupuestos subyacentes. El sistema de Kaplan consiste en una estrategia dialógica mediante la cual se van confirmando o modificando en forma dinámica los supuestos que el programa admite para encarrilar la conversación o el cálculo lógico en ese sentido. Una versión más elaborada del principio cooperativo de Grice es el Mixed-Initiative Conversational System (MICS) de Jaime Carbonell. Este sistema traduce completamente los insumos lingüísticos a grafos conceptuales, combina los grafos con conocimiento contextual de trasfondo codificado en forma de esquemas, construye un modelo interno del interlocutor, almacena ese modelo para futuras referencias y establece objetivos y sub-objetivos que orientan el flujo de la conversación (Carbonell 1981, 1982). Todo lo que hemos revisado en el capítulo sobre los frames, las redes semánticas, los scripts y los esquemas es relevante para comprender el tipo de modelo presuposicional desarrollado por Lehnert (1982), quien ha construido sus sistemas en base a unidades narrativas [plot units]. Se trata de una coincidencia notable, que entrecruza las preocupaciones de los ingenieros del conocimiento y científicos cognitivos por la representación con las búsquedas de los lógicos que tratan de domeñar y comprender los universos presuposicionales. Todavía no hay en pragmática lingüística una teoría redonda y acabada, y los "principios" o "máximas" que rigen la conversación tienden a multiplicarse más allá de todo control: estudiosos recientes han añadido algunos casi extravagantes, al menos de nombre, como la Máxima de Serialización Natural o el Principio de Pollyana (cf. Leech 1983). El programa de los positivistas lógicos proponía "purificar" el lenguaje, haciendo que todos sus matices y aspectos se hicieran explícitos. Las heurísticas que hemos visto, en cambio, exploran una perspectiva mucho más inteligente y centrada, lo mismo que los formalismos de representación impulsados por el humanismo filosófico que ya han tomado carta de ciudadanía en la programación en general. La bibliografía abunda tanto en descripciones de esos nuevos modelos que nos excusamos, una vez más, de demostrar que existen (cf. Sowa 1984:264-276; Winograd y Flores 1988). f) Lógica Probabilística: Modelo estadístico e Inducción El modelo probabilista de la inteligencia artificial comprende numerosos aspectos que tienen que ver tanto con el esquema bayesiano como con el tratamiento de las creencias (lo que se ha llamado "probabilidad subjetiva"), y que rozan o se intersectan con los desarrollos en lógica difusa o lógica epistémica. Daremos aquí relevancia al hecho histórico de la prioridad de la teoría de la probabilidad como formulación matemática cuantitativa, y utilizaremos otros nombres (incertidumbre, nebulosidad) para referirnos en otra parte a un enfoque cualitativo de lo que en el fondo es siempre indeterminación. Es por ello que en este apartado sólo nos ocupamos de la probabilidad en sentido más bien estricto, abordando los temas más tangenciales en otros contextos. Muchas veces los antropólogos buscan eludir la acusación de deterministas afirmando que sus hipótesis son "probabilistas" por antonomasia. Las razones de esta flexibilidad no son difíciles de identificar. En el imaginario axiológico de los científicos sociales, la probabilidad tiene un valor agregado del que el determinismo no disfruta, como si la lógica o la epistemología subyacentes al cálculo de la probabilidad estuvieran mejor fundadas, fueran más razonables o respondieran con mayor sofisticación a la tendencia antipositivista de los tiempos. En el ejercicio público de su profesión, muchos deterministas inconfesos (Marvin Harris, Roy Rappaport, y en el otro extremo 635 David Schneider o Marshall Sahlins) se reconocen más bien "probabilistas", como si con esa calificación su determinismo inocultable adquiriera Dios sabe qué matices de sutileza. Estamos lejos de discrepar con la necesidad de implementar modelos probabilistas, o de desconocer la importancia e incluso la belleza de las soluciones probabilistas en un universo de determinaciones inciertas. El problema con el probabilismo de los antropólogos es que es bastante difícil de creer en tanto se mantenga en términos declarativos tan generales y metodológicamente vacíos. Así como no creeremos que los neofuncionalistas sean "sistémicos" hasta tanto no especifiquen las ecuaciones diferenciales que describen sus sistemas, tampoco creeremos el cuento de la probabilidad mientras se sigan escamoteando las matemáticas que la expresan. Hasta la fecha, la única variedad disciplinar genuinamente probabilista y estadística es la llamada cross-cultural anthropology, ligada en sus inicios al nombre de Murdock, a la revista Ethnology y a los archivos de la Human Relations Area de la Universidad de Yale (cf. Naroll y Cohen 1970; Köbben 1970; Tatje 1970; Reynoso 1990). No investigaremos en este capítulo la adecuación del Prolog a la expresión de un estudio realizado conforme a los cánones de esa escuela, ya que la misma está implícita en el hecho de que el lenguaje dispone del aparato matemático suficiente. Nos ocuparemos más bien de los aspectos lógicos de la probabilidad y de la forma en que los problemas emergentes pueden ser enfrentados y resueltos mediante un lenguaje declarativo. Ante todo, hay que clarificar el sentido de las palabras. La teoría de la probabilidad no es una creación poética que se conforma con aproximaciones indefinidas o con cómputos sistemáticamente postergados, sino ante todo un constructo matemático cuantitativo. En esto radica tanto su fuerza como sus dificultades. Decir que se es probabilista en lugar de determinista no debería ser gratuito, a menos que el aserto nada signifique. No hay probabilismo genuino sin cuantificación de la probabilidad; el probabilismo cualitativo es una contradicción en los términos, una entidad rotundamente cerrada a la verificación, y no corresponde esperar de la programación lógica la justificación de semejante tropelía. Lo que deseamos enfatizar es que un argumento que se dice probabilista introduce una dimensión cuantitativa que una afirmación determinista puramente relacional no necesariamente implica; a la prueba lógica o retórica de su plausibilidad se agrega entonces la necesidad de probar matemáticamente aquellas determinaciones o correlaciones que se enuncian. En el mundo y en la cultura todo es en cierta medida "probable", y algunas cosas son poco o mucho más "probables" que otras; pero en tanto sólo se identifiquen los factores o las estructuras "probablemente más probables" desde un punto de vista signado por dictámenes ideológicos a priori, esto seguirá siendo una perogrullada y los resultados emergentes seguirán siendo probables, pero no significativos ni probados. Lo que importa, si es que se quiere enunciar un conocimiento verdaderamente informativo, es determinar la magnitud de la probabilidad, otorgarle continuidad y consistencia desde las premisas hasta las conclusiones y fundamentar la naturaleza no arbitraria de esa estimación. Tenemos que considerar entonces las dificultades y las promesas de los postulados probabilistas en una modelización, y para ello debemos despejar numerosos interrogantes. ¿Qué significa ese "probabilismo" que se expone como una propiedad de las conclusiones científicas en antropología en relación con el quantum de certidumbre de los datos y la indeterminación de los procesos de inferencia? ¿No es acaso la "probabilidad" una cualidad matemática que impone formas muy precisas de cuantificación? ¿Cómo se formula, llegado el caso, un modelo deductivo probabilista en programación lógica? ¿Existe una lógica que sea intrínsecamente probabilista y que se ofrezca como alternativa al determinismo aparente de la lógica académica? ¿Qué relación existe entre la 636 conjeturabilidad subjetiva, el indeterminismo cuántico, la teoría bayesiana de la probabilidad y el probabilismo lógico? ¿Es lógicamente igual desconocer el valor de verdad de un hecho que la probabilidad de su ocurrencia? ¿Cómo afecta a una teoría global los aspectos parciales de la realidad que se desconocen, y cómo se hace para computar un modelo muchos de cuyos valores y variables son inciertos? ¿Existe, en fin, una antropología que sea genuinamente probabilista (en oposición a determinista), y que no se defina como tal al solo efecto de hacer gala de apertura, de modernismo epistemológico o de amplitud de criterios? Está claro que cuando un antropólogo defiende la adecuación de sus hipótesis aduciendo que son de naturaleza probabilista, no siempre desarrolla una justificación acabada ni un análisis en profundidad de la forma en que esa probabilidad se manifiesta y se transmite en un sistema complejo de razonamientos. Tanto la teoría matemática de la probabilidad como la analítica psicológica y filosófica de la probabilidad subjetiva son relativamente elaboradas, pero jamás hemos visto que se utilicen consistentemente en un modelo antropológico. Los modelos probabilistas están allí, y tenemos a nuestra disposición una herramienta formidable para describirlos, ponerlos en acción y someterlos a prueba, con la ventaja de una instrumentalidad general antes inédita. Los modelos probabilistas y estadísticos son de importancia crucial. Proponemos este apartado para comenzar a explorar sus ventajas y para establecer con la mayor claridad posible sus limitaciones. Aunque el punto no viene estrictamente al caso, hay que aclarar que determinismo y probabilismo tienen, en Prolog, una significación distinta a la que es común imprimir a esos términos en el desarrollo del método científico. Esa significación es casi puramente técnica, y se refiere al número de resoluciones posibles de cada cláusula. La falta de concordancia entre el determinismo computacional y el determinismo lógico o empírico quedará clara mediante un sencillo ejemplo: En este escueto programa de consulta que esquematiza más aún que el original las tipificaciones de Ruth Benedict, el procedimiento que remite a la cláusula "especificar" es indeterminista, por cuanto existen múltiples respuestas posibles, dependiendo de cuál sea la etnia que se ingrese en la operación de lectura del goal. El antropólogo bien puede saber la respuesta, pero la máquina no; tendrá que tantear hecho por hecho; y el despliegue de marcas y señales internas que se dispara cada vez que un proceso es indeterminista es la única magnitud que introduce crecimientos exponenciales en los árboles de búsqueda y en los tiempos de procesamiento. El carácter indeterminista del procedimiento nada tiene que ver con el determinismo del proceso de especificación una vez instanciada la variable . Obsérvese, entre paréntesis, que en caso de introducir una tribu que no esté presente en el inventario, la resolución será igualmente (y no más) indeterminista. En el ámbito de la inteligencia artificial se sabe desde siempre que es riesgoso construir sistemas de representación del conocimiento que consideren todas las afirmaciones en términos de hechos como completamente ciertas. En el mundo real, la gente se maneja bastante bien aún en el caso de 637 que la evidencia disponible no sea plenamente segura. Para que un sistema computacional resulte igualmente eficaz, debe ser capaz de distinguir entre lo que es seguro y lo que lo es menos y llegar a conclusiones probables en base a información incierta. Pero "probabilidad" e "incertidumbre" no son siempre nociones fáciles de expresar en forma rigurosa. Paradójicamente, necesitan ser precisadas si es que se quiere llegar a modelizar un problema antropológico con cierto realismo y si, más allá de esta moderada exigencia, se pretende alcanzar una precisión comparativa mayor en la especificación de las alternativas de la que tendríamos en caso de utilizar métodos convencionales, aproximaciones subjetivas o cálculos al azar. También paradójicamente, como veremos, se ha encontrado que la forma más precisa y eficaz de acotar los efectos de la incertidumbre, consiste nada menos que en modelizar la subjetividad, sacar al aire los supuestos, encontrar un punto de equilibrio dialéctico entre la inexorabilidad estrecha de la máquina y la deriva de la intencionalidad humana. Probabilidad e incertidumbre no son nociones nuevas, aunque su incorporación al tratamiento computacional es más bien reciente. Existe una teoría matemática de la probabilidad extraordinariamente bien desarrollada. Hay, además, varios campos que se entrecruzan y numerosas nociones que se solapan, sin coincidir del todo. Desde principios de siglo, por ejemplo, los lógicos han considerado las lógicas multivaluadas (o polivalentes) como extensiones de la lógica bi-valuada, y han desarrollado elaborados sistemas para explorar sus articulaciones y consecuencias. Si se lo piensa un instante, el probabilismo de los matemáticos y antropólogos y la polivalencia de ciertas lógicas conducen a las mismas ideas, aunque en un caso exista cierta expresión cuantitativa de la indeterminación y en el otro no. Los métodos elaborados por los lógicos son más algebraicos que numéricos, y se desarrollaron más por razones teoréticas sumamente complejas que para su aplicación en tomas de decisión. En teoría, podríamos extender la máquina de inferencia del Prolog, construyendo otra que pueda razonar acerca de las probabilidades, utilizando esa teoría matemática como heurística procedimental. Pero aunque esta propuesta pueda sonar atractiva, hay por lo menos dos buenas razones para no implementarla sin reservas. La primera razón involucra a los presupuestos que subyacen a la teoría matemática de la probabilidad; la segunda se basa en la observación de la conducta de los expertos humanos. Todo sería más sencillo si las probabilidades de situaciones complejas pudieran determinarse a partir de las probabilidades separadas de las situaciones menores que las componen. Supongamos que, en el espíritu de los trabajos comparativos de Murdock o de Whiting, estamos modelando una sociedad total con sus respectivas instituciones, tales como prácticas higiénicas, enculturación, creencias religiosas, etc. Podríamos plantear la hipótesis de que en una sociedad determinada tal variable tendrá cierto valor, con tendencia a crecer y tal otra variable tal otro, esta vez con tendencia a disminuir. La probabilidad de que la variable A ascienda mientras la B disminuye será una función de la probabilidad de que aquélla efectivamente suba y ésta efectivamente descienda. ¿Cuál es, en concreto, esa función? La teoría de la probabilidad nos proporciona una respuesta, pero condicionada al hecho de que ambas variables sean independientes. Sin embargo, más allá del carácter conexo que exhiben los subsistemas y componentes de todas las sociedades, hay razones para desconfiar de la independencia de esas variables concretas entre sí. Más aún, la virtud de una buena hipótesis antropológica radica en la demostración de la interdependencia de determinadas variables, más que en la demostración de su independencia. 638 Diagrama 4.5 - Tres métodos de combinación de probabilidades. El meollo de los problemas en el cálculo de la probabilidad se encuentra menos en la estimación de cada variable que en el arrastre de la probabilidad cuando las variables son más de una. En este caso nos enfrentamos a una serie de alternativas, digna de matrizarse. Neil Rowe ha sistematizado y puesto un nombre a las diversas estrategias disyuntivas y conjuntivas, liberales y conservadoras, que surgen de aceptar los diferentes criterios de combinación de probabilidades (cf. Rowe 1988:167176). Los sistemas probabilistas más sencillos son los que presumen que las diferentes probabilidades son independientes, es decir, que la ocurrencia de un tipo de eventos no hace que otros sucesos sean más o menos probables. Esta situación aparece a menudo en la investigación antropológica cuando las diferentes evidencias proceden de diversos métodos de razonamiento y no pueden "interactuar" como sería deseable. Cuando se aplica el principio de la independencia estadística, se asume que la probabilidad de que ocurran dos sucesos equivale al producto numérico de las probabilidades individuales. Esta fórmula es lo que se conoce como combinación "y" o combinación conjuntiva. Pero la independencia constituye un presupuesto demasiado fuerte y liberal. No se sostiene y deja de ser válido cuando uno de los sucesos considerados es la causa del otro, o cuando ambos derivan de un tercero. La combinación conservadora o disyuntiva se ha demostrado particularmente útil para manejar probabilidades estimadas a priori. Estas son las que se toman como punto de partida, estimando la probabilidad de un suceso sobre bases genéricas. Casi siempre se trata de guarismos cercanos a cero, que pueden ser expresados en un programa en Prolog escribiéndolos como hechos, en vez de reglas. Un enfoque liberal, pero no independiente, computa siempre la máxima probabilidad posible en función de la evidencia. Este quizá no es tan útil como el que brindan las alternativas conservadoras, pero se aplica a las conjunciones cuando una pieza de evidencia implica a todas las otras y a las disyunciones cuando las piezas de evidencia prueban la misma conclusión en formas que no pueden sostenerse simultáneamente. Aunque no todas las fórmulas tienen sentido cuando se las utiliza en un mismo proceso, se las puede combinar a condición de que se respeten algunos criterios: (a) fluencia, es decir, que las fórmulas no efectúen saltos bruscos cuando las probabilidades de los insumos varían suavemente; (b) consistencia, esto es que ningún valor se encuentre fuera de los rangos que van desde el enfoque más liberal al más conservador; (c) conmutatividad, o sea que el orden de las combinaciones binarias sea indiferente; y (d) asociatividad, o igualdad de resultados independientemente de la forma en que se agrupen los cálculos (cf. Rowe 1988:167-176). Existen innumerables algoritmos capaces de expresar en Prolog implementaciones probabilistas. Si tenemos una regla determinista, del tipo 639 la podemos transformar en una regla probabilista agregando probabilidades a cada término y remitiendo a un procedimiento de cálculo que responda a algunos de los criterios admitidos. Si se tratara de una conjunción independiente, el programa consistiría en las siguientes cláusulas: Habida cuenta de que ya se han explicado las notaciones de listas, la interpretación de la rutina no ofrece dificultades. Hechos adicionales, tales como , expresarían magnitudes de probabilidad que se pueden elastizar tanto como se desee. Nada impide, por ejemplo, estipular umbrales y límites de probabilidad utilizando predicados de la aridez correspondiente, o servirse de términos lingüísticos que expresen simbólicamente esas ideas. Otras modalidades de combinación requerirían, por supuesto, procedimientos de cálculo distintos pero análogos en lo formal. Un punto a notar es la peligrosidad del uso de la negación en contextos de cálculo probabilístico, fenómeno bien conocido por los programadores lógicos. En otro orden de cosas, la observación demuestra que los expertos humanos normalmente no ajustan sus estimaciones conforme a los dictámenes de la teoría de la probabilidad. La práctica real sugiere una estrategia diferente, una estrategia que aún no ha sido plenamente analizada en inteligencia artificial. Es por ello que la mayor parte de las implementaciones de sistemas de conocimiento despliegan no tanto una teoría matemática de la probabilidad, sino más bien un método de cálculo o estimación en base a los llamados factores de confianza o factores de certidumbre. El factor de confianza de una hipótesis será algo así como la medida de nuestra inclinación a aceptarla o rechazarla. Nuestra confianza en determinadas hipótesis no parece determinar nuestra confianza en otras, aunque por cierto aún no se ha alcanzado ningún acuerdo sobre el método correcto de computar esa estimación. Uno de los métodos más utilizados para representar los factores de confiabilidad es representarlos mediante números. Algunos programadores se sirven de una escala de 0 a 1, o de 0 a 100, o de -100 a 100. Ninguna convención es mejor que otra, pero la segunda tiene la virtud de expresar la certidumbre como porcentaje. La introducción de guarismos no debe llamar a engaño ni debe hacer creer que estamos en presencia de una precisión espuria: lo que importa de estas cifras es la impresión que causan, las interpretaciones que sugieren, más que la certidumbre que miden. En rigor las cifras constituyen un recurso intermedio orientado a la máquina, para hacerle saber al intérprete del lenguaje que "muy improbable" es menos probable que "improbable", y que "es posible" trasunta algo más de certidumbre que "yo no sé". Las cifras se usan, en otros términos, para convertir ciertos hedges de la estimación lingüística en entidades situadas en un espacio en que se puedan apreciar sus relaciones, y para facilitar el cálculo del arrastre y la interdependencia de las incertidumbres acumuladas. Que no exista acuerdo sobre los matices de significación de los hedges y sobre su posición relativa en el continuum que va desde la improbabilidad absoluta a la certidumbre cartesiana no es una dificultad fatal: los recursos instrumentales que podríamos introducir para realzar el naturalismo de los procedimientos son poco 640 menos que infinitos, y existe una amplia sedimentación de experiencias; no sería demasiado complicado modelizar soluciones alternativas, difusas, estocásticas o aleatorizadas, a fin de contentar incluso a los más proclives al escepticismo en materia de formalización (cf. Gale 1986). Si bien estas temáticas reaparecerán cuando hablemos de lógica difusa, es necesario retener que si bien los formalismos a veces son idénticos, el matiz de su interpretación es lo que difiere. En lógica difusa se evalúa el grado de pertenencia de un elemento a un conjunto; en cálculo de probabilidades, la probabilidad de que un elemento califique como miembro de una clase o de que un determinado evento tenga lugar. Los aspectos más inesperados de la cuantificación aproximativa de los factores de confianza son los que conciernen al encadenamiento de la incertidumbre en un sistema de múltiples variables y procesos. Es posible otorgar factores de confianza tanto a una regla como a sus premisas o condiciones. Podemos estar seguros que los crow vivieron en Montana, pero podemos dudar si Jim Carpenter fue realmente un crow o si fue un nez percé, y asimismo podemos tener todavía más dudas acerca de la inclusión de las montañas de Absaroka en el territorio crow. Cuáles sean los términos de la operación lógica no importa por ahora. Para determinar el factor de confianza de una conclusión, debemos combinar los factores de confianza independientes de la regla con el de la condición. Esto se hace multiplicando ambos guarismos y dividiéndolos por 100. Esto nos enseña, incidentalmente, que la acumulación secuencial de la incertidumbre puede no seguir una traza intuitiva. Si tenemos 80% de seguridad respecto a uno de los factores, y 75% de seguridad con respecto al otro, la resultante tendrá una certidumbre de apenas (80*75)/100, es decir, 60%. Ninguno de los factores es por sí solo tan incierto. Esta degradación de la probabilidad de una consecuencia que depende de cierto número de antecedentes o condiciones que no son taxativas, sólo se manifiesta en todo su esplendor en un entorno computacional de modelización. Lo más interesante de este tipo de implementaciones radica en todo lo que revela acerca de la transmisión de la incertidumbre allí donde se dan conjunciones, negaciones y disyunciones de hipótesis de distinto factor. Los especialistas en Prolog no han permanecido ociosos, y han preparado una serie de rutinas y algoritmos capaces de dar cabida a una amplia variedad de matices de indeterminación. Los programas mediante los cuales los diferentes autores ilustran este punto desarrollan, en general, el cálculo del factor de confianza para la negación (100-F, siendo F el factor afirmado); el tratamiento de varias reglas para la demostración de una misma hipótesis, cada una con un factor de confianza diferente; la distinción entre la condición de una regla de confianza y una entidad a la que llamamos prerrequisito, y que es una hipótesis subordinada a confirmarse antes de la aplicación de la regla; el cálculo del umbral de confianza necesario para contar una hipótesis como confirmada; la especificación de las condiciones que no se dan en la descripción de una entidad, y así sucesivamente (cf. Covington et al 1988:301-330). Hasta este punto las soluciones comentadas son simples y un tanto impresionistas, pero poderosas. Como lo demuestran los desarrollos adjuntos, los esquemas probabilísticos son programables con fluidez, siempre que se cuente con un dialecto del lenguaje apto para la metaprogramación. Con toda seguridad, ninguna modelización de diagnósticos o de procesos de cambio social en antropología será viable en tanto esos aspectos no se investiguen y modelicen con cierta asiduidad, es decir, en tanto nosotros mismos no acumulemos experiencia. Pero no todo lo que se refiere a la posibilidad de representación de factores de confianza es auspicioso. A pesar de que muchísimos sistemas expertos utilizan esa técnica con cierto éxito, existen unas cuantas razones para ponerla bajo luz de sospecha. En primer lugar: ¿de dónde provienen los factores de confianza? Se podría exigir 641 que provengan de un profundo estudio estadístico del fenómeno que fuese, y no de un juicio más o menos arbitrario. El hecho es, sin embargo, que ningún diseñador de sistemas de conocimiento, por lo que se sabe, ha realizado jamás compulsa estadística alguna para establecer sus factores de confianza. Pero aún si esos guarismos se originaran en una estadística formal, cabría dudar de que las condiciones en que se demostró la exactitud de algunos de ellos sean siempre constantes. La verdad desnuda es que los factores se originan "en la cabeza" del experto; y no en su trabajo cotidiano, sino más bien sólo cuando algún ingeniero del conocimiento le solicita que aprecie numéricamente la probabilidad de alguna variable. Muchos expertos han manifestado que esta práctica no es del todo natural, y muchos también han rechazado la idea de que ellos desarrollen, consciente o inconscientemente, una estimación de esa naturaleza. Por añadidura, la experiencia demuestra que los sistemas construidos en base a cálculos encadenados de factores de confianza exigen ser ajustados y recorridos por procesos de debugging con mucha frecuencia, y que lo más común es que las estimaciones iniciales sufran numerosos cambios antes de que el sistema se comporte de una manera que los expertos humanos consideren adecuada. Esto implica que los sistemas basados en factores de confianza son difíciles de mantener y de expandir, dos prácticas que en la actividad computacional son inevitables. También es evidente que la interacción entre reglas en un sistema de gran magnitud es casi imposible de predecir. La dificultad de trabajar con factores de confianza es que estos casi siempre se refieren a sistemas de inferencia basados en reglas, y por lo tanto sufren sus mismas limitaciones, agravadas por la naturaleza eventualmente contraintuitiva del arrastre numérico. Si se agregan unas pocas reglas a un sistema cuyos factores acaban de afinarse, lo más probable es que la interacción de las nuevas reglas con las antiguas haga necesaria otra ronda de afinación. Si el sistema es muy grande, si los procesos de cálculo son extensos, si la representación original es heterogénea, esta tarea puede llegar a ser muy ardua; en estos casos, lo más probable es que se proceda por muestreo y que se deje de lado una experimentación exhaustiva que podría poner al descubierto la existencia de resoluciones groseras. La respuesta pragmática a estas observaciones es la de utilizar factores de confianza allí donde su uso revele su aceptabilidad, o como complemento para afinar una inferencia desarrollada en función de alguna otra alternativa más eficaz y más realista. De más está decir que no es obligatorio restringirse al Prolog para introducir formalismos de cálculo estadístico más poderosos, pues los sistemas computacionales declarativo y procedimental, aunque disímiles, no son de ningún modo excluyentes. Las soluciones más sagaces parecen ser bifrontes y oportunistas: por un lado, interfaces entre programas lógicos y rutinas o productos convencionales (Mathcad, Statgraphics); por el otro, incorporación de recursos y heurísticas inteligentes en sistemas estadísticos. No ejemplificaremos aquí las diversas alternativas sistemas estadísticos y probabilistas en programación lógica, pues la bibliografía más convencional abunda en su tratamiento hasta el punto que insistir en ese aspecto sería impropio de un trabajo de tesis. De todas maneras, nuestro sistema experto AGENI3.PRO puede desplegar, de ser necesario, cálculos probabilistas y estimativos durante el proceso de diagnosis. Las posibilidades de implementar cálculos probabilistas e inductivos en Prolog son amplísimas, y constantemente se descubren y desarrollan nuevos formalismos que lo vinculan con otros territorios de la lógica, como ser los modelos presuposicionales, difusos, epistémicos e intuicionistas (cf. Rowe 1988:164-190; Gale 1986; Phelps y Musgrove 1986; Spillman 1990). Las conclusiones emergentes de estas heurísticas en plena ebullición se escribirán de aquí a unos años. 642 g) Lógica Difusa y razonamiento inexacto Fundamentos y características del modelo lógico El razonamiento inexacto es común en todas las ciencias. Como Buchanan y Shortliffe han señalado, se lo caracteriza por frases tales como "el arte de la buena adivinación", los "aspectos mas blandos de la física" (o de la ciencia que sea) y "el buen criterio científico" (1985:233). Por definición, ese razonamiento desafía el análisis en términos de reglas taxativas. Pero, como se sabe ahora, no desafía todo análisis. Es más, después de Helmer y Rescher (1960) existe conciencia de que los conceptos tradicionales alrededor de las ciencias "exactas" y las "inexactas", con las ciencias sociales masivamente apiñadas en la segunda clase, ha descansado en una falsa distinción que habitualmente refleja la presencia o ausencia de notación matemática. Sólo una fracción pequeñísima de las ciencias naturales puede reputarse exacta en sentido estricto: las matemáticas puras, por cierto, y tal vez algún sector de la física en el que la exactitud ha superado la ordalía de la axiomatización. En la mayor parte de las ciencias naturales aplicadas, las decisiones, las explicaciones y las predicciones suelen hacerse sólo después que los pocos procedimientos exactos se han entremezclado con una enorme masa de experiencia informal. Más que la indeterminación o el desconocimiento, la incertidumbre, la inexactitud y la ignorancia parcial probablemente constituyan los aspectos más difícilmente modelizables del saber antropológico. La incertidumbre de la que aquí hablamos no es la misma cosa que aquella certeza fragmentaria estudiada por la teoría matemática de la probabilidad; en este ámbito el problema no es la falta de confianza en el cumplimiento de un diagnóstico o la cantidad de alternativas equiprobables que se presentan en un proceso, sino la vaguedad de los términos implicados, su dudosa contextura intensional. En la lógica difusa (fuzzy logic), al igual que en la lógica probabilística, las variables pueden tomar cualquier valor entre 0 y 1 inclusive; pero en lugar de representar probabilidades respecto de que una sentencia sea verdadera, representan el grado en el cual una variable se encuentra en un conjunto difuminado (Zadeh 1965, 1975). Un gorrión o un jilguero, por ejemplo, son "más" pájaros que un avestruz, un pingüino o un emú. Los conjuntos tradicionales, aristotélicos, no difusos, se llaman "conjuntos nítidos" cuando se integran a este cálculo lógico como un caso especial en que la fuzzyness es igual a cero (o mejor dicho, la certidumbre es igual a uno). Un conjunto difuso no es más que un conjunto de fronteras imprecisas, una porción de un continuum a lo largo del cual las partes que componen el conjunto no tienen líneas divisorias nítidas. Piénsese por ejemplo en los continuos que van de "alto" a "bajo", de "pequeño" a "grande", de "frío" a "caliente". Cualquier palabra denotativa de un color, por ejemplo, es necesariamente difuminada, como lo han demostrado los antropólogos de Berkeley Brent Berlin y Paul Kay primero y la psicóloga Eleanor Rosch después (cf. Berlin y Kay 1969; Rosch y Mervis 1975). La idea de conjuntos difusos se relaciona directamente con lo que en la lingüística más reciente se conoce como semántica de prototipos, con lo que los filósofos de la línea del último Wittgenstein definen como "aire de familia" y con ciertos fundamentos matemáticos de la taxonomía numérica y las clasificaciones politéticas. Ya hemos hablado de las formas de representación concomitantes a estas cuestiones, y se trata ahora de asomarnos a la lógica que les corresponde. 643 En un sistema lógico convencional, el proceso deductivo determina el valor de verdad de una hipótesis en términos de una alternativa bivalente o polivalente que en cierta forma impide una evaluación más fina y matizada de la evidencia. En lógica difusa esta limitación se supera aumentando las reglas de producción por medio de un mecanismo de asignación, llamado así por cuanto combina los grados de evidencia de los antecedentes para obtener el grado de evidencia de un consecuente o hipótesis. En la mayor parte de las formulaciones, esta asignación es una heurística convencional y empírica, casi podríamos decir figurada, que conduce a esquemas de razonamiento plausible o posible. En los últimos años, sin embargo, se han encaminado esfuerzos para que los mecanismos de asignación estén matemáticamente mejor fundados. Aunque a algunos lógicos académicos la idea misma de una lógica difusa les parezca todavía repulsiva, lo cierto es que el modelo de Zadeh no es irracionalista, ni tiende a ello, aunque su replanteamiento es bastante radical. Este autor ha establecido que el "pensamiento difuso", después de todo, no puede ser deplorable si posibilita la solución de problemas que son excesivamente complejos para un análisis preciso. Ya antes hubo lógicos renuentes a la exactitud, y hasta Popper ha sugerido que la precisión bien pudiera ser un "falso "ideal" (1962). Cuando se asignan valores a los grados de una aserción difusa, lo importante no es la adecuación cuantitativa de todos los grados con referencia a una escala absoluta, sino que, dentro de cada dimensión que se considera, el ordenamiento de los valores de las variables (su ranking) coincida con la apreciación intuitiva. Aunque, como en toda práctica novedosa, han ocurrido ciertos excesos, en la lógica difusa mejor concebida no hay, como algunos creen, un impulso para cuantificarlo todo, sino más bien un interés para tratar cualitativa y relacionalmente las entidades que participan en un razonamiento complejo, utilizando recursos aritmomorfos como símbolos de pasada en un cálculo de valor estrictamente local. La aparente arbitrariedad de la asignación de valores y grados de pertenencia está en todo momento bajo el control de una axiomática continuamente perfeccionada en múltiples discusiones científicas, de modo que no sería sensato rechazar a priori las prestaciones del método, aduciendo el gastado expediente de su cientificismo. Supongamos que se dispone de una evaluación del aprecio que determinadas personas sienten hacia cierta figura de la política o de la vida pública y deseamos indagar qué sucede cuando se consideran juntas dos evaluaciones semejantes; en otras palabras, se necesita investigar quiénes gustan de ambos políticos, y en qué medida. Tenemos aquí una operación conjuntiva de intersección. En la teoría de los conjuntos difusos, las intersecciones se ejecutan realizando una comparación miembro a miembro de cada componente y aplicando la función min a esa comparación, según surge de la tabla siguiente. Del mismo modo, la disyunción se obtiene aplicando la función max a la comparación miembro a miembro. No hay nada de esotérico en estas funciones matemáticas. Ambas consisten, simplemente, en obtener los valores mínimos y máximos de cada serie. Le gusta A Le gusta B Gusta de ambos Gusta de uno Implica aB Informante 1 0.0 0.9 0.0 0.9 1.0 Informante 2 0.8 0.8 0.8 0.8 0.8 Informante 3 0.6 0.4 0.4 0.6 0.4 644 La tercera operación básica sobre conjuntos difusos es la implicación: dado A, ¿es verdad B?; en lógica binaria esto se expresa de la siguiente forma: 1 0 = 0 11=1 00=1 01=1 La razón de que 0 1 sea verdad es que si A no es verdad, no se implica nada a propósito de B, y cualquier valor de esta variable puede aceptarse. La implicación se puede computar de varias maneras. La forma más simple es calculando la intersección de no-A con B. No-A se calcula restando A del máximo valor posible, en este caso 1. Una vez que esto se ha hecho, computar la intersección es tan simple como en el ejemplo anterior. Los conjuntos difusos admiten ser atravesados por muchísimas operaciones, y todos los años aparecen más en los agitados congresos de la especialidad y en las revistas dedicadas al tema (cf. Caudill 1990; Negoita 1985). La bibliografía sobre lógica difusa ya es inconmensurable; el texto de Kandel (1982) incluye tres mil entradas, entre libros y artículos, sin pretender un inventario completo. Europeos y asiáticos figuran entre los practicantes más entusiastas de esta modalidad de lógica, de la que se derivan una matemática difusa y una tecnología de Sistemas Expertos regidos por técnicas de razonamiento aproximado. Algunas propuestas difusas rozan la problemática de la creencia, como el método de Demspter y Shafer, de modo que han sido analizadas en otra parte. El Método de Yager En 1981 Ronald Yager publicó un procedimiento de decisión que utiliza conjuntos difusos para decidir entre diversas posibilidades en las que se deben satisfacer varios criterios. Este procedimiento, conocido entre los especialistas como el método de Yagger, ha demostrado ser simple, elegante y efectivo. La mejor forma de explicarlo es a través de un ejemplo. Supongamos que se está tratando de decidir qué ciudad de un país determinado es el mejor lugar para vivir. Esta decisión no es de ningún modo sencilla, ya que hay en juego muchos criterios. En aras de la simplicidad escojamos siete aspectos a tener en cuenta en la elección entre cinco ciudades candidatas. Para cada criterio se ha definido un valor arbitrario que lo sitúa en una escala que también podría estipularse cualitativamente: terrible (0), malo (1), regular (2), mediano (3), bueno (4), muy bueno (5), óptimo(6). C1: Clima C2: Vivienda C3: Alimentación C4: Actividad C5: Empleo C6: Criminalidad C7: Cultura Ciudad 1 3 1 3 5 4 2 6 Ciudad 2 2 5 4 3 3 4 3 Ciudad 3 5 4 3 6 3 0 3 Ciudad 4 1 0 1 2 4 1 6 Ciudad 5 6 1 5 6 3 3 5 645 El paso siguiente consiste en ordenar la importancia relativa de cada criterio, C1 a C7, utilizando la misma escala numérica que su usó en la ponderación de las cualidades y calculando lo que se podría llamar "complemento de importancia", resultante de restar cada guarismo del valor más alto posible, en este caso 6. Convencionalmente, en el modelo bayesiano, para determinar cuál de los candidatos es el ideal habría que evaluar cada ciudad sobre cada criterio, pesando esta cifra contra la importancia relativa de éstos. Utilizando los principios de la teoría de conjuntos difusos y la operación de implicación que ya hemos visto, el procedimiento matemático se simplifica y se acomoda a la percepción intuitiva del asunto. Importancia en Escala 0-6 6 3 2 4 4 5 4 C1: Clima C2: Vivienda C3: Alimentación C4: Actividad C5: Empleo C6: Criminalidad C7: Cultura Complemento de Importancia 6-1 0 3 4 2 2 1 2 Si hacemos de cuenta que el rango de importancia para determinado criterio es A y que el puntaje de cada ciudad para ese criterio es B, necesitamos computar A B, o en Prolog B :- A. Esto equivale a determinar si, dada la importancia de una categoría en particular, la ciudad en cuestión califica aceptablemente para ella. Este procedimiento parece transparente: la mejor ciudad será la que califique más alto en los criterios más importantes. Si se parte de la base de que el clima es más importante, se deberá buscar un procedimiento que privilegie a las ciudades que mejor califiquen en ese aspecto. Computaremos así la unión del puntaje de cada ciudad en una categoría con el complemento de la importancia de esa categoría. El paso final es igualmente simple y consiste en tomar la intersección de todos los puntajes de una ciudad en particular. Recuérdese que una intersección difusa se realiza aplicando la función min a todos los miembros relevantes; el cómputo combinado más bajo del paso anterior determina el ranking general de cada ciudad. Las matemáticas desplegadas en estos cálculos son, por lo visto, bastante sencillas, los resultados en general coinciden con la apreciación cualitativa global y el procedimiento sigue siendo útil allí donde la información está sesgada por opiniones subjetivas, vaguedades e imprecisiones. No-I Ciudad 1 Ciudad 2 Ciudad 3 Ciudad 4 Ciudad 5 Tab X Ptos Unión Ptos Unión Ptos Unión Ptos Unión Ptos Unión C1 0 3 3 2 2 5 5 1 1 6 6 C2 3 1 3 5 5 4 4 0 3 1 3 C3 4 3 4 4 4 3 4 1 4 5 5 C4 2 5 5 3 3 6 6 2 2 6 6 C5 2 4 4 3 3 3 3 4 4 3 3 C6 1 2 2 3 3 0 1 1 1 3 3 C7 2 6 6 3 3 3 3 6 6 5 5 646 Intersección 2 2 1 1 3 Nótese que al tomar el complemento de las evaluaciones por categoría resulta en un valor mínimo, o "piso", que se asigna a cada entidad para la categoría que se evalúa. Si la cifra para esa categoría es baja (por ejemplo, 2), el complemento es 6-2=4; de este modo, todas las ciudades reciben al menos un 4 para cada categoría. Recuérdese que la segunda mitad del cómputo de la implicación toma el máximo del complemento para el ranking de la categoría y el valor real de cada entidad para la misma. Si el valor para una categoría es alto (digamos, 5), el complemento 6-5=1 hace que todas las ciudades reciban por lo menos 1 para esa categoría. Una categoría de rango bajo no distingue demasiado entre las ciudades; sólo aquéllas cuya puntaje sea muy alto obtendrán un puntaje mayor que la barrera y variarán muy poco a partir de ese piso. Una categoría de rango alto, por otra parte, sitúa un piso muy bajo, haciendo posible un amplio rango de valores que permite apreciaciones muy finas. Cuanto más importante es una categoría, más efecto tendrá el puntaje de una ciudad sobre el cómputo final (cf. Yager 1981). Aunque la lógica difusa sin duda merece investigarse a fondo, y aunque el Prolog podría aportar una inestimable instancia de cálculo para hacerlo con ciertas garantías, lo concreto es que hasta el presente ni siquiera se ha podido convencer a los profesionales que esta lógica es algo más que una imposición artificial de precisiones espurias. Ni aún la eficacia de los sistemas construidos parecería ser en este terreno un argumento persuasivo. Lógica difusa y Antropología Algunos antropólogos argumentan, de tarde en tarde, respecto de los beneficios que aportaría a la disciplina la adopción de la lógica difusa de Lofti Zadeh en reemplazo de la lógica de clases aristotélica; en general, han sido los lingüistas o los psicólogos cognitivos quienes han instilado esta idea en nuestro repertorio, como si los antropólogos no hubiéramos podido llegar independientemente a ella (cf. Coleman y Kay 1981; Murray 1983; Kay y McDaniel 1978). La más temprana mención a la lógica difusa por parte de un antropólogo que conozcamos pertenece a Paul Kay, de Berkeley (1975). Tenemos algunas referencias a la aplicación de la teoría de conjuntos difusos por parte de Vladimir Dimitrov (1976), de la Academia Búlgara de Ciencias, quien ha aplicado recursos de la lógica simbólica para demostrar que el gobierno óptimo de los sistemas sociales debe basarse en normas difusas. Según esta idea, es la imprecisión misma de las instrucciones estipuladas en lenguaje natural y en otras reglas culturales lo que permite el control efectivo de los sistemas sociales. La virtud de las reglas difusas es que cada una está sujeta a múltiples interpretaciones, admitiendo en consecuencia una libertad suficiente como para que el control se adapte a las cambiantes coacciones de las condiciones empíricas. Sería deseable que la antropología -expresa Stanley West comentando a Dimitrov- sea igualmente difusa para reflejar con mayor adecuación su objeto de estudio (1978: 759). Un segundo grupo de antropólogos hubiera debido utilizar teorías difusas en lugar de esquemas prototípicos todavía basados en lo que Fillmore llamaba catálogo de rasgos [checklist]; nos referimos en concreto a Rodney Needham (1975) y a Peter Paul Chaney (1978), adheridos a una concepción 647 conjuntista estrechamente aristotélica aunque sospechen participar de la idea contraria (cf. Fillmore 1975). Los sistemas politéticos de Needham y las expansiones politemáticas de Chaney (siguiendo a Wittgenstein) carecen de atributos que recorran la totalidad de los conjuntos; pero (al igual que en el análisis componencial) la articulación interna de los elementos que los conforman sigue concibiéndose como un apilamiento de atributos, cada cual con su respectivo valor taxativamente asignado. Una antigualla. Un tercer grupo de antropólogos ha cuestionado a la lógica difusa sin especificar muy bien por qué (Sahlins 1976), aunque se percibe que lo que se impugna de ella es antes que nada su posible capacidad de esclarecimiento. Los impugnadores compulsivos difícilmente hayan profundizado lo suficiente en la reflexión matemática como para tener clara conciencia de lo que están diciendo. Como sea, no es necesario demostrar que ningún antropólogo, hasta la fecha, la ha utilizado de una manera formalmente aceptable; el uso de esta lógica se limita a un par de justificaciones en notas a pie de página y en estimaciones de vaguedad realizadas a ojo de buen cubero, con fines casi siempre didácticos. Aunque no estamos pretendiendo implementarla aquí y ahora, la presente descripción no escapa a esas ambigüedades, que podríamos juzgar metadifusas. La conveniencia de la lógica difusa para la representación del conocimiento antropológico aún espera estudiarse como corresponde, antes que sea justo expedirse sobre aplicaciones sustantivas que no consiguen salir del círculo de hierro de las tentativas experimentales condenadas a no fructificar. Pese a que los antropólogos prefieren leerla de otra manera (p.ej. Dimitrov 1976; West 1978), la teoría de los conjuntos difusos que subyace a la lógica del mismo nombre es una construcción matemática, muchas veces cuantificada. El problema más delicado que debe enfrentarse es de carácter operacional: cómo definir (mediante qué procedimientos metodológicos) el valor o el rango de valores de una (in)certidumbre determinada. Los formalismos descriptos son algunas de las opciones de las que se dispone en este terreno. h) Lógicas Modales y Mundos Posibles Esta variante de la lógica presenta un extraordinario interés para la antropología, por cuanto su mera existencia neutraliza los rumores acerca de la estrechez de aquélla para todo cuanto no sea expresión de operaciones primarias. Aunque la idea de la lógica modal se remonta a Aristóteles, el codificador de la concepción moderna de las lógicas modales (pues en realidad se trata de un conjunto de varias alternativas diferentes) ha sido Georg Henrik Von Wright (1951). En los últimos diez años ha habido un estallido sin precedentes de nuevas propuestas modales, originadas en las experiencias de programación lógica. Mientras antropólogos e intelectuales humanistas repiten sus ensalmos sobre la crisis de la racionalidad, simposios y congresos de especialistas en lógica computacional se dedican a discutir fragmentos de problematicidad hasta hace poco inexistentes, como la construcción de un marco adecuado para clasificar la creciente variedad de las lógicas nomonótonas o la modelización autoepistémica. El nuevo mundo conceptual que las lógicas modales nos presentan afecta en especial a la noción de "operador lógico", y a la posibilidad de incorporar nuevos operadores para denotar diferentes matices de valor veritativo. Insistimos en subrayar la flexibilidad que esa idea nos aporta y dedicamos el capítulo siguiente a una caracterización lo suficientemente explícita como para poder instrumentarse. La justificación de este nivel de detalle quedará a la vista. Aunque la asimilación de las lógicas modales sea más dificultosa que urdir un nuevo aporte a la mitología del irracionalismo antropológico, 648 creemos que lo primero vale más la pena. Conjeturamos que, de haberse conocido oportunamente la potencialidad de las lógicas modales, la robustez de sus fundamentaciones y la amplitud de horizontes que la modalidad imprime a la tan vapuleada "representación", muchos de los manifiestos irracionalistas de la antropología no habrían tenido motivos para llegar a la imprenta. La lógica modal tiene que ver con argumentos que involucran los conceptos de "necesidad" y "posibilidad". Una verdad necesaria es una que no podría ser de otra manera; una verdad contingente podría eventualmente no haber llegado a constituirse en verdad. A diferencia de su contrapartida clásica, la lógica modal es capaz de dar cuenta del carácter necesario, contingente o posible de sus enunciados, y es por ello naturalmente aplicable a la formalización del razonamiento en función de "creencias" por un lado y de "conocimientos" por el otro, términos que adoptarán aquí, a su debido momento, un contenido técnico. Los sistemas modales combinan esquemas axiomáticos y reglas de inferencia para formalizar las propiedades de los operadores modales en cuestión, acompañándolos de una semántica bien definida. Gracias a un curioso efecto veritativo, la lógica modal no se opone a la lógica convencional del primer orden sino que la complementa, la extiende, incluso cuando se incrementa la valencia veritativa: todos los axiomas, reglas de inferencia y teoremas de ésta siguen siendo de aplicación. El problema principal en la representación modal del conocimiento yace en la traducción de afirmaciones o descripciones informales sobre un dominio del discurso a su versión del cálculo modal de predicados. Incidentalmente, digamos que la transcripción de aserciones sobre posibilidad y creencia en cláusulas de Prolog no ofrece mayores dificultades, y se restringe a la introducción de predicados de este tipo: Nótese que simplemente contando el número de los paréntesis conclusivos podemos obtener indicios bien fundados sobre el nivel de tipificación metalinguística del functor principal de la expresión. Pero estas prestaciones sólo anuncian la punta del ovillo en la capacidad simulativa del lenguaje. Como luego veremos, lo esencial no pasa por la expresividad semántica de los predicados para denotar diversas modalidades de la verdad, sino por la posibilidad sintáctica de introducir cálculos modales genuinos mediante operadores. La lógica modal extiende al cálculo clásico incorporando un operador que denota "necesidad" (habitualmente un cuadrado) y un dual suyo que denota "posibilidad" (por lo común un rombo). Existe un amplísimo repertorio de lógicas modales; las más circunscriptas han definido operadores como "se sabe" o "se cree" (lógica epistémica), "a veces" y "siempre" y sus opuestos "nunca" y "no siempre" (lógica temporal), "obligatorio", "permitido" y "prohibido" (lógica deóntica), "verificado", "no decidido" y "falsado" (lógicas epistémicas falsacionistas), "universal", existente" y "vacío" (lógica existencial), etcétera. No existe ningún límite para la incorporación de operadores, fuera de los que fija la imaginación. Por cierto, no basta definir operadores contrapuestos para fundar una lógica; además de ello hay que estipular (si cabe) su naturaleza veritativo-funcional y las reglas de formación de sus fórmulas bien formadas, establecer una semántica y un dominio de aplicación, estipular métodos de prueba y verificar su coherencia. 649 Correlativamente, las versiones del lenguaje Prolog más cercanas al estándar de Edinburgo disponen, por añadidura, de la posibilidad de definir operadores arbitrarios aparte de los predicados que expresen literalmente esa operación. Es preciso detallar aquí esta poderosa capacidad expresiva que habíamos postergado en espera del contexto oportuno. Ante todo, hay que decir que la generación de operadores nuevos es un artificio ya existente en la lógica cerebral común, que posee de suyo garantías axiomáticas, aunque en general es más frecuente que los operadores y conectores se reduzcan, y no que se multipliquen (cf. Deaño 1981:93100). Los operadores definidos en Prolog se obtienen a partir de functores; como ya se ha visto, la mayoría de los functores del lenguaje se escriben en posición prefijada: . Estos functores se transforman en operadores cuando es posible escribirlos en otra posición. Por ejemplo, la estructura se puede escribir porque el operador de suma es infijo. El intérprete del lenguaje exige que para especificar un nuevo operador haya que definir su posición, su precedencia y su asociatividad. Según su posición, un operador puede ser infijo, prefijo y posfijo (o sufijo). Los operadores infijos son desde ya binarios, los otros sólo pueden ser unarios. La precedencia, que determina el orden de interpretación de una expresión cuando no hay un juego de paréntesis que la agrupe, se denota mediante una escala de números permisibles que dependen de la implementación: entre 1 y 255 en el Prolog de Edinburgo, y entre 1 y 1200 en Arity Prolog. La documentación técnica que se incluye con cada lenguaje comercialmente asequible, en general, consigna las tablas de precedencia. En Prolog se ha convenido que la posición relativa y la asociatividad se especifiquen por medio de los símbolos y . El componente simboliza la posición del operador; ocupa el lugar de un argumento que no admite asociatividad, e representa por último un argumento asociativo. , por ejemplo, designa un operador infijo que es asociativo a la izquierda, pero no a la derecha. La elección de esas letras es intencional, y pretende insinuar las características asociativas pertinentes: una denota que el argumento puede contener operadores de clase cuya precedencia sea igual o menor a la del operador; por el otro lado, una significa que cualquier operador del argumento debe tener una clase de precedencia estrictamente menor que la del operador. Los medios para definir un operador lógico son metalingüísticos (o extralógicos). En Prolog estándar el predicado built-in que define un operador se escribe según esta norma: Debe señalarse que este predicado estipula nada más que la sintaxis del operador; las operaciones procedimentales que le corresponden y la forma en que éste se interpreta dependen del programador (Clocksin y Mellish 1987:106-108; Malpas 1987:164-168; Covington et al 1988: 169174). Retornando a la lógica modal, digamos que el lenguaje ordinario abunda en afirmaciones sobre posibilidades, sucesos hipotéticos, objetivos esperados, expresiones de deseos y planes para el futuro. La mayor parte de las frases de las lenguas naturales pueden ser verdaderas en un momento dado y falsas a medida que se modifican las circunstancias. En estas lenguas, los "modos" de "posibilidad", "necesidad" y "permisión" se expresan con verbos auxiliares como "deber", "poder" o con las formas futuras o los modos subjuntivos o potenciales de la conjugación. 650 La posibilidad y la necesidad se denominan modalidades aléticas o modos de verdad. Se ha demostrado que es posible construir un lenguaje formal con el par "posible/necesario" tratado como si fuera un operador de frase, comparable a los cuantificadores de la lógica ordinaria de predicados. A un sistema que posea operadores para "es posible que" (en el sentido de posibilidad lógica) o "es necesario que", se ha convenido en llamarlo una lógica alética. En lo que concierne a la sintaxis de la lógica modal de predicados, si M1, M2, ..., Mm son operadores modales, las reglas de formación de las fórmulas modales puede describirse como sigue: 1) Todas las reglas de formación de la lógica ordinaria de predicados son también reglas de formación de la lógica modal de predicados. 2) Si F es una fórmula y Mj un operador modal, entonces MjF es una fórmula. Del mismo modo, la semántica del cálculo modal de predicados se puede definir en la misma forma que la semántica del cálculo ordinario. Desde el punto de vista semántico, el antecedente de las lógicas modales que se han desarrollado recientemente se encuentra en las tablas veritativas de las lógicas modales multivaluadas de Lukasiewicz, que tienen una inspiración a veces explícitamente modal. Decía Lukasiewicz: Puedo presuponer sin contradicción que mi presencia en Varsovia en un cierto momento del próximo año, por ejemplo, al mediodía del 21 de diciembre, no está determinada en el momento actual ni positiva, ni negativamente. De aquí que es posible, pero no necesario, que yo esté en Varsovia al mediodía del 21 de diciembre del próximo año (Lukasiewicz 1967). En la tabla siguiente, que se incluye sólo a los fines ilustrativos (pues con la máquina de inferencia de un lenguaje lógico de computación las tabulaciones veritativas no hacen ninguna falta), el valor 0 corresponde a falso, 1 a indeterminado, 2 a verdadero: F 0 1 2 F 2 1 0 F&G 012 000 011 012 F\G 0 1 2 FoG 012 012 112 222 FG 012 222 122 012 FG 012 210 121 012 Diagrama 4.6 - Tablas veritativas ternarias (Conectivas de Lukasiewicz) A partir de este esquema, e interpretando el valor "indeterminado" en el sentido de "futuro contingente", Lukasiewicz introdujo los conocidos operadores modales de posibilidad y necesidad en su lógica trivaluada. En el cuadro siguiente, pos F es verdad si F es ya sea verdadero o indeterminado y es falso de otro modo, mientras que nec F es verdadero si F lo es, y es falso de otro modo. Entiéndase que en el caso de la indeterminación por contingencia, no se trata formalmente de que carezcamos de datos para decidir el valor de verdad de una aserción; el hecho es más bien que dicha aserción no posee valor de verdad. F 0 1 pos F 0 2 Nec F 0 0 651 2 2 2 Diagrama 4.7 - Tabla de verdad para operadores modales Convengamos en definir un lenguaje de lógica modal agregando dos operadores, denotados por L y M, a los operadores básicos del cálculo de proposiciones. En el contexto de las lógicas de la creencia y el conocimiento, esos operadores se leen como "se cree" y "se sabe", respectivamente. Un sistema axiomático de cálculo modal que utilice una regla de inferencia tal como el Modus Ponens, reglas de necesidad del tipo "si P, entonces se sabe que P", el esquema axiomático de distribución39 y los llamados esquemas axiomáticos de la lógica proposicional se llama sistema modal normal y se denota mediante la letra K. Un sistema modal normal posee una serie de interesantes propiedades: si p q es un teorema, también lo es Lp Lq. Si se interpreta el operador modal L como "creencia", la fórmula anterior asevera que toda vez que q se halla implicada por p, un agente que crea p también creerá q. De este modo, y según se esperaba, un sistema modal normal afirma clausura de consecuencias cuando el operador modal se interpreta como creencia. Del mismo modo, el esquema axiomático de distribución se puede interpretar de esta forma: si un agente cree que q está implicado por p, entonces si cree en p también creerá en q. Hay que adimitir que, a despecho del aparato formal, todo este desarrollo es hasta aquí un tanto burdo y muy poco expresivo. Con el fin de obtener sistemas modales más elaborados y de caracterizar con más elegancia a los operadores epistémicos, se ha propuesto agregar al sistema modal normal K una serie de esquemas axiomáticos adicionales. De este agregado resulta un conjunto sistemático de esquemas alternativos. Los más conocidos de ellos son los siguientes: Esquema axiomático de conocimiento (también llamado esquema axiomático T o KT). Este esquema se agrega cuando lo que se encuentra bajo consideración es conocimiento, y ya no mera creencia. Por definición, en este contexto controladamente idealizado el "conocimiento" es siempre información verdadera. El esquema axiomático T asegura que "lo que se sabe debe ser verdad". Este esquema se añade al sistema modal normal K si se pretende que el operador L signifique "es sabido". El esquema axiomático KT, correlativamente, no aparece en un sistema de axiomas que pretenda formalizar creencias, pues éstas bien pueden ser falsas. La fórmula sintética del esquema es: Lp p. Esquema axiomático de introspección positiva (también llamado esquema axiomático 4, S4, S4 débil o KT4). En términos de creencias, la introspección positiva establece que si un agente cree una proposición, entonces él cree que la cree. En términos de conocimiento, en cambio, la introspección positiva estipula que si un agente sabe p, entonces sabe que sabe p. Los sistemas que incluyen este esquema se denominan según la nomenclatura que sigue: el sistema K con esquema axiomático 4 se llama S4 débil; el sistema S4 débil aumentado con el esquema axiomático T se llama S4. La fórmula sintética es: Lp LLp. Esquema axiomático de introspección negativa (también llamado esquema axiomático 5, S5, S5 débil, KT45 y K45). Para este esquema axiomático, es indiscutible que el esquema 39 También llamado esquema de axioma K y que establece: L(p -> q) -> (Lp -> Lq). 652 Mp LMp es equivalente a la expresión Lp L Lp. Mejor traduzcamos esta criptografía a categorías intuitivas: En términos de creencia, el principio de la introspección negativa asegura que si un agente no cree una proposición, él cree que no la cree. El S4 débil y el S4 aumentado con este esquema se llaman S5 débil y S5, respectivamente. Si deseamos modelar las creencias de una persona racional que posee una perfecta capacidad de introspección lógica sobre lo que él mismo sabe o ignora, corresponde utilizar el esquema S5. Si se pretende modelar en cambio las creencias de un agente que posiblemente posea falsas creencias, pero que al mismo tiempo disfrute de una perfecta capacidad lógica de introspección, se escogerá el esquema S5 débil (Chellas 1980). La fórmula sintética de un esquema 5 es: Mp LMp. Es esencial que se comprenda que los esquemas que acabamos de referir constituyen formas lógicas mínimas para posibilitar el cálculo, y no descripciones matizadas de la estructura real de las creencias o conocimientos. Lo que se ha querido hacer con ellas es brindar la arquitectura semántica necesaria como para que juicios concernientes a conocimientos o creencias se puedan someter a un cálculo lógico equiparable al de la lógica abstracta o, lo que para algunos es lo mismo, al cálculo propio de la "lógica de lo real". La misma realidad podría observarse desde el ángulo opuesto, afirmándose que esta formalización tiene por objeto que los juicios convencionales de la lógica se expongan como las creencias o conocimientos que en realidad son. A fin de no ramificar en demasía la presentación de los esquemas axiomáticos modales hemos presentado solamente su núcleo. Alrededor de estas lógicas se han suscitado diversas polémicas que en general no afectan a lo que llevamos dicho: Jaakko Hintikka, por ejemplo, afirma que el conocimiento y las creencias de agentes inteligentes satisfacen el esquema de introspección positiva, pero no el negativo, y algunos lógicos han introducido modificaciones en las estructuras modales para dar cuenta de análogas convicciones (Hintikka 1962; Moore 1980; Levesque 1981). En lógica se acostumbra dividir el conjunto de las aserciones verdaderas en las que son contingentemente verdaderas (como los hechos históricos) y necesariamente verdaderas (como idealmente lo son las verdades lógicas y matemáticas). Lo mismo vale para las aserciones falsas. Una verdad necesaria (en el mundo actual o concreto) se puede interpretar como una afirmación que es verdadera en todos los mundos posibles; por el principio de dualidad, una verdad posible o contingente (en el mundo actual) se interpreta como una afirmación que es verdadera en al menos uno de los mundos posibles. Esta situación podría esquematizarse como sigue. A las interpretaciones "necesariamente verdad", "contingentemente verdad", "contingentemente falso" y "necesariamente falso" se les ha asignado, arbitrariamente, los valores de verdad 3, 2, 1 y 0; de esta forma se incorpora una lógica modal particular bajo la forma de una lógica tetravaluada (cf. Rescher 1969; Davio et al 1978). Suponiendo que existan dos alternativas posibles (el mundo actual y concreto X y el mundo posible Y) la asignación de los valores veritativos sería la siguiente: Falso en X y en Y (es decir, necesariamente falso). Falso en X pero no en Y (concretamente falso, pero no falso necesariamente). Verdadero en X pero no en Y (actualmente verdad, pero no verdad necesariamente). Verdadero en X y en Y (necesariamente verdad). 653 Esta interpretación de los valores de verdad origina las tablas para la negación, la conjunción y los operadores modales que a continuación se detallan, y que constituyen una semántica significativa típica de una lógica tetravaluada. F 0 1 2 3 F 3 2 1 0 F\G 0 1 2 3 F&G 0123 0000 0101 0022 0123 nec F 0 0 0 3 pos F 0 3 3 3 Diagrama 4.8 - Tablas de verdad de operadores modales En oposición a esta semántica veritativo-funcional, Kripke (1971) introdujo la técnica de los mundos posibles; esta formulación constituye una semántica uniforme para los diversos sistemas modales, desde las lógicas temporales a las epistémicas. La idea básica establece que una fórmula modal (proposicional) ha de ser evaluada dentro de un conjunto de mundos posibles, que poseen entre sí una cierta relación de accesibilidad. Para dar un ejemplo, Mp será verdad en un mundo determinado, si y sólo si p es verdad en todos los mundos accesibles posibles. En términos formales, los mundos posibles son una colección de objetos con referencia a los cuales las proposiciones pueden ser verdaderas o falsas. En la lógica temporal, verbigracia, los diversos mundos posibles representarán el estado del mundo en diversos instantes; en el modelo de los mundos posibles de las creencias, las creencias sustentadas por un agente se modelan como un conjunto de mundos posibles, aquellos mundos que resultan compatibles con sus creencias. Aunque Kripke se refería con toda probabilidad más a ámbitos específicos de predicación que a coloridos microcosmos, es fácil pensar en correlatos antropológicos del concepto lógico de mundos posibles y de la noción de accesibilidad. Piénsese tan sólo en aquellos mundos que poseen características en común que los diferencian de otros, y de los cuales se dice sin mayor pretensión formal que se rigen por una lógica que les es propia: lo que Bastide llamaba los mundos semejantes de "el sueño, el trance, la locura", las diversas "provincias de significado" de los schutzianos, los mundos conexos y graduales por los que se transita en estados alterados de conciencia, los correlatos estrictos que nosotros mismos hemos identificado entre -por ejemplo- la religión tántrica, la doctrina de Wilhelm Reich y la antropología psicodélica del finado Alan Coult (Reynoso 1977). Mundos, a fin de cuentas, que se rigen por una estructura veritativa peculiar, pero descriptible y comparable. Quizá sea un bello proyecto atravesar culturas que difieren en otros aspectos por los caminos accesibles abiertos por esos mundos análogos, perfeccionando nuestras concepciones de la comparabilidad transcultural, de la hermenéutica y de la equivalencia funcional en ese trayecto. Escribía Alfred Schutz: Todos estos mundos -el mundo de los sueños, de las imágenes y la fantasía (sobre todo el mundo del arte), el mundo de la experiencia religiosa, el mundo de la contemplación científica, el mundo del juego del niño y el mundo de la locura- son ámbitos de significado. Esto quiere decir que: a) todos ellos tienen un estilo cognoscitivo peculiar (aunque no sea el del mundo del ejecutar dentro de la actitud natural); b) todas las experiencias, dentro de cada uno de esos mundos, son, en lo que respecta a este estilo cognoscitivo, coherentes en sí mismas y compatibles unas con otras (aunque no compatibles con el significado de la vida cotidiana); c) cada uno de esos ámbitos finitos de sentido puede recibir un acento de realidad específico (aunque no el acento de realidad del mundo del ejecutar). La coherencia y la compatibilidad de experiencias con respecto a su estilo 654 cognoscitivo peculiar subsiste solamente dentro de los límites del ámbito peculiar de sentido al cual pertenecen esas experiencias (1974:217). Es fácil captar el paralelismo entre el mundo de la actitud natural y del ejecutar cotidiano por un lado y el mundo de la lógica asertórica bivalente académica por el otro como los implicados paradigmáticos, los mundos de referencia, con respecto a los cuales los diversos "otros mundos" de la fenomenología y de la lógica modal, aunque en principio cerrados y autoconsistentes, definen su especificidad. La relación de accesibilidad intenta capturar el sentido de lo que intuitivamente entendemos cuando pensamos que, desde la mira subjetiva de un mundo dado, ciertos mundos son accesibles mientras que otros no lo son. En lógica temporal, por ejemplo, esta accesibilidad tendrá que ver con el orden de secuencia. Llamemos universo W a un conjunto no vacío de mundos posibles conectados por una relación R de accesibilidad. Si a y b son dos mundos pertenecientes a W, si el mundo b es accesible desde el mundo a, escribiremos aRb. Llamemos ahora estructura al par (W,R); las propiedades formales de R determinan cuáles fórmulas habrán de ser válidas. Un modelo es una tupla ternaria (W,R,V) que indica para cada mundo de W el conjunto de constantes proposicionales de un lenguaje L a las cuales la evaluación V le asigna valor de verdad positivo. De los desarrollos de Kripke (que no vamos a reproducir aquí en detalle) se concluyen diversas características de la semántica de los mundos posibles: En ella son válidas, en primer lugar, las instancias de lo que se denomina convencionalmente un esquema de distribución K. Este esquema axiomático de distribución es semejante al que se utiliza en matemáticas elementales. Dado el operador modal L ("se cree que"), dicho esquema operaría de la siguiente forma: L(p q) (Lp Lq). Las instancias de un esquema axiomático de conocimiento de tipo T son válidas para todas las estructuras para las cuales la relación de accesibilidad sea reflexiva. Recordemos que un esquema de este tipo se refiere a conocimiento tenido por verdadero, a información fidedigna. Las instancias del axioma positivo de introspección 4, en cambio, son válidas en todas las estructuras para las cuales la relación de accesibilidad R sea transitiva. Este esquema introspectivo, como hemos visto, se refiere a la creencia de un agente en las creencias que tiene. Y, por último, las instancias del esquema axiomáticos de introspección 5 son válidas en todas las estructuras para las cuales la relación R de accesibilidad sea reflexiva y euclideana40. Este esquema constituye la versión negada del esquema anterior. Sin duda hay una línea fantasma, una correspondencia intuitivamente perceptible, que comunica estas caracterizaciones rígidas con una de las empresas obligadas de toda la antropología: poner al descubierto las premisas y las reglas del juego lógico que nos hacen ver como "razonables" (en principio "descriptibles" y de ser posible "explicables") conductas que difieren de las nuestras. Se podrá decir mucho en desmedro de esta definición restringida, reminiscente de las etapas más mecánicas y positivistas de la antropología social inglesa; pero lo cierto es que ningún "desciframiento simbólico de textos culturales", ningún énfasis literario en los significados, ninguna "comunión" hermenéutica 40 Una relación R es euclideana cuando aRb y aRc implican bRc. 655 (o sentimental) con "el punto de vista nativo", ninguna "evocación" posmoderna, en suma, ninguna tendencia de la antropología contemporánea ha sido capaz de formular estrategias que verdaderamente se diferencien en los objetivos básicos. Por desdicha, la sapiencia de los lógicos al respecto no puede exportarse a nuestra disciplina así como así. Hemos visto que Kripke desarrolló su teoría semántica de los mundos posibles pensando en la lógica de proposiciones, y no en el cálculo de predicados. Esta peculiaridad no puede ser sino un indicio del acendrado conservadurismo de los lógicos, que siguen aferrados a un cálculo incompleto e imposible de formalizar cabalmente. Para adaptar la maquinaria del Prolog a la semántica modal de los mundos posibles se pueden hacer dos cosas: la primera, conservar el modelo de Kripke en su formulación original y modificar el tratamiento de variables en Prolog para emular (como se ha visto que puede hacerse) el cálculo de proposiciones; la segunda, modificar el esquema de los mundos posibles para adaptarlo al cálculo de predicados del primer orden. Esta alternativa es delicada y concierne a los lógicos llevarla a cabo; la opción anterior es viable, y como ya la hemos ejemplificado la damos por demostrada. Cerremos este apartado retornando a lo que, tomando distancia, puede llegar a constituir su argumentación central. Una vez más la lógica y las ciencias humanas han discurrido por vías paralelas. No sólo en ambas prácticas se habla de estructuras que son como mundos separados, sino que hay también concomitancias en las formas y procesos que se proponen para andar entre ellos o para tornarlos propios. Hay una fuerte analogía entre la "incorporación a nuestros horizontes" que describía Gadamer (1977) -y que constituiría la piedra basal del método hermenéutico- y las operaciones involucradas en la accesibilidad entre mundos mutuamente extraños antes de su esclarecimiento interpretativo. La filosofía gadameriana se pensaba a sí misma como un discurso enclavado en el pensamiento sobre las precondiciones de todo saber científico. Es posible que la lógica nos remita a una idea aún más fundante que la de la hermenéutica, en el sentido de que el concepto de accesibilidad tendría que ver con las precondiciones formales de la incorporación de horizontes ajenos a los nuestros. En tal caso, hay toda una lógica que inspeccionar o asimilar antes de asumir sin más trámite que algo tan pesado, compuesto, variopinto e ideológicamente espeso como la hermenéutica constituye el paso previo a toda reflexión científica. Ni falta hace decir que todo esto es expresable y calculable en Prolog, o que la acumulación de experiencias sobre mundos alternativos en programación lógica es ya de respetar. En Arity Prolog, las diversas bases de datos (que pueden o no converger sobre un mismo motor de inferencia) se llaman directamente "mundos". Todo modelo convencional concluso presupone la hipótesis del "mundo cerrado", como si a despecho de sus ínfulas formales se resignara a la constatación de su propia estrechez. La computación, en fin, está plagada de simulaciones, protocolos, conversiones, interfaces, máquinas virtuales y metacódigos que posibilitan el encuentro y el entendimiento entre sistemas que participan de diferentes conjuntos de premisas. El tema de los mundos posibles invoca ideas particularistas afines a las del relativismo epistemológico y cultural, a las del paradigma geertziano del conocimiento local, a las del recientemente bautizado "pensamiento débil" y a las de la fenomenología en general, con su insistencia en las modalidades idiográficas del conocimiento. El concepto de accesibilidad, axiomatizado en lógica, es un valor agregado a nuestros razonamientos antropológicos que cabe enriquecer de aquí en más, y que seguramente involucra temas de distancia cultural, de mediación explicativa y de traducibilidad (cf. Stephen Turner 1984); es asimismo probable que estas cuestiones engranen con los desarrollos de las lógicas presuposicionales, a cuyo tratamiento remitimos para redondear la presentación. 656 i) Lógicas no Monótonas La filosofía del no [...] no persigue la negación indiscriminadamente. No surge de un espíritu de contradicción que refuta sin pruebas y suscita disputas vagas. No se aparta sistemáticamente de las reglas. Por el contrario, es fiel a las reglas dentro de un sistema de reglas. No acepta contradicciones internas. No niega cualquier cosa, en todo momento, de cualquier manera. Su movimiento característicamente inductivo surge en junturas bien definidas y determina una reorganización del conocimiento sobre bases más amplias. Gaston Bachelard Cuando decimos que el razonamiento de cierto científico, de una máquina de inferencia o de un individuo particular es monótono, en tanto hablemos en términos técnicos no estamos implicando juicio estético alguno. Esto sólo significa que el conjunto de conclusiones emergente de ese razonamiento crece solamente a medida que se acumula más información, sin variar de carácter. Una vez que se alcanza una conclusión, ninguna información adicional hace que esas conclusiones se alteren. La lógica estándar posee una unidireccionalidad inherente e inexorable: de los axiomas a los teoremas. Una vez que un hecho demuestra ser verdadero permanece como tal para siempre, como en la geometría euclidiana, y puede a su vez servir de base para demostrar nuevos hechos. Los razonamientos no-monótonos presentan la característica inversa: la información nueva modifica las conclusiones alcanzadas con anterioridad. Dado que un sistema no-monótono es por definición revisable, en este esquema lógico existe además la posibilidad de que el número de teoremas derivable del sistema lógico decrezca a medida que el número de axiomas se incrementa. Lo que es y no es verdad puede cambiar en forma radical, dependiendo del estado del mundo en un momento dado y de nuestro conocimiento acerca de él. Algunos cognitivistas sostienen que el conocimiento humano es inherentemente de esta última categoría, especialmente cuando hay objetivos de por medio. Hacemos planes basados en expectativas, pero a medida que los sucesos se desenvuelven, revisamos tanto las premisas originarias como los proyectos. Gran parte de lo que conocemos sobre el mundo es además "casi siempre" verdad; un fragmento considerable del razonamiento de sentido común apenas llega a ser plausible, pues sus conclusiones e incluso los hechos en que se basa son sólo aproximadamente verdaderos, incompletos o sensibles al cambio en función del tiempo. La inferencia, entonces, es dinámica, como lo son los esquemas mentales en que se fundan. En su forma nativa, la máquina de inferencia conforme a la cual opera el Prolog es nomonótona. Nuevos hechos alteran las conclusiones permisibles, y hasta existen predicados preconstruidos (notoriamente assert y retract, de los que ya hemos hablado) que agregan o eliminan hechos de la base de conocimiento, lo que altera mediante una especie de feedback que habrá que esclarecer, la sustancia y la forma de las inferencias. Con más información, el Prolog rechaza conclusiones que antes habría aceptado, o confirma hipótesis que antes desencadenaban la cláusula vacía. El predicado assert realiza aserciones, es decir, agrega "hechos", premisas o elementos de juicio; el predicado retract los elimina de la base de conocimientos; ambos predicados sirven a innu657 merables usos técnicos, uno de los cuales podría ser equivalente a la alternancia de suposiciones. Bajo esta interpretación del procedimiento, es posible manipular el modelo, ajustándolo a diferentes premisas: una pregunta formulada después de un assert corresponde a la idea "¿qué pasaría si...?"; y una pregunta posterior a un retract equivaldría a su contraria, "¿qué pasaría si no ...?". Esta característica es convenientemente realista, aunque algunos defensores del purismo lógico la consideren peligrosa. Se han escrito múltiples estudios acerca del carácter espurio y de los efectos contraproducentes de ese tipo de predicados, y no han faltado teóricos que propugnaran su eliminación por entender que esos procedimientos alteran la pureza lógica del lenguaje. Ya hemos visto que Sterling y Shapiro consideran el empleo de esos predicados poco menos que como síntoma de oligofrenia. Lo que aquí nos interesa no es tanto que el razonamiento no monótono constituya un presupuesto de la vida intelectual cotidiana, conforme al sentido común, una tipificación (como diría Schutz), sino que esta especie inferencial sea una figura recurrente en las prácticas discursivas de la disciplina, especialmente en aquellas en las cuales (de una manera que corresponde a los "objetivos" y "metas" personales de la cotidianeidad) se trata de formular una predicción. Generalizaciones antropológicas como "la duración del período en que el niño duerme con la madre está correlacionada con la existencia de ritos iniciáticos para varones" o "la severidad del trato que los padres dispensan a los niños es correlativa a la creencia en un mundo de los espíritus rudo y agresivo"41 se aplican a casos que se consideran usuales, típicos o normales. Los casos inusuales, atípicos o anormales -nuestras clásicas "anomalías"- se interpretan entonces como excepciones a la regla. En adelante diremos que esas generalizaciones son "revocadas" cuando existe información que nos induce a creer que estamos en presencia de una excepción a la regla. Puesto que ellas pueden abrogarse, diremos que esas generalizaciones constituyen reglas revocables [defeasible rules]. Es importante deslindar el razonamiento no-monótono y la existencia legítima de las reglas revocables del lugar común que presume la posibilidad de algo así como "excepciones que confirman las reglas". En un sentido estricto, a menos que las reglas sean expresamente probabilísticas o transitorias, ninguna excepción la "confirma" sino que, por el contrario, la invalida. Ninguna "ley de la naturaleza" (en las condiciones y en el ámbito de predicación que estipule la teoría dentro de la cual se formula) admite excepciones. Ningún científico honesto acepta con alborozo las anomalías con las que tropieza, confiando en que representen las excepciones que vienen a confirmar sus hipótesis. El falso estereotipo de excepciones capaces de "confirmar" reglas se deriva, quizá del estrecho espacio semántico que va desde "toda regla admite excepciones" hasta "toda regla requiere excepciones", o de un equívoco en la traducción del principio falsacionista que dice que "the exceptions prove the rules". En este contexto, prove no significa "probar" ni connota "probabilidad", sino más bien "testear", "poner a prueba". Aunque el Prolog puede ejecutar algunos procesos de tipo no-monótono, las reglas de ese lenguaje no se pueden revocar. Si estipulamos las excepciones como tales, la regla no es revocable porque no resulta afectada por ninguna situación que no esté contemplada en el conjunto de las reglas mismas. Una regla sería revocable si no pudiera aplicarse a ciertas instancias aún en el caso de que éstas satisfacieran sus condiciones, y si algún otro hecho de la base de conocimientos bloqueara la 41 John Whiting, Clyde Kluckhohn y A. Anthony, "The function of male initiation ceremonies at puberty", en E. Macoby, T.M. Newcomb y E.L. Hartley (eds.), Readings in Social Psychology, Nueva York, Holt, 1958, pp.359-370. 658 regla. Se ha comprobado sobradamente (Covington et al 1988: 333) que en su forma nativa, dependiendo de su propia máquina de inferencia pre-programada, el Prolog no puede expresar cierto tipo de reglas no monótonas. Pero esto no quiere decir que no pueda expresarlas de ninguna manera: lo mismo que sucede en el caso de la refutación russelliana de las famosas aporías de Zenón, lo que no puede lograr el lenguaje lo logra el metalenguaje. Y como el Prolog puede ser su propio metalenguaje, será posible implementar el razonamiento que fuere utilizando una vez más meta-reglas, es decir, metaprogramando, situándose en un nivel tal que la máquina built-in resulte trascendida. Lo que se requiere es una nueva forma de representación de las reglas no monótonas y un mecanismo de inferencia (un procedimiento) que sepa como utilizarlas. Se necesita también un operador de negación que funcione en forma diferente a la negación por falla, y que se active cuando estemos en presencia de una regla de este tipo. En su excelente libro sobre el lenguaje Prolog, Covington, Nute y Vellino nos proporcionan un acabado ejemplo de razonador revocable, basado en la definición de cuatro operadores. La máquina de inferencia se inicializa mediante este procedimiento: Para invocar la máquina de inferencia revocable, basta con poner el operador @ inmediatamente antes de introducir el objetivo a probar. Los parágrafos en los que se establece la semántica del programa operan de tal modo que la forma de actuar del intérprete se sobrimprime sobre el diseño básico de sus procedimientos de secuenciación, adaptándose a las premisas de una lógica nomonótona (cf. Covington et al 1988:336-349). El diseño de sistemas de razonamiento no-monótono mediante metaprogramación constituye un ejercicio de Prolog relativamente habitual (o por lo menos nada extraordinario) que se utiliza como forma de definir métodos alternativos a los que rigen by default la máquina de inferencia, para poder razonar en base a información incompleta o incierta (cf. Nute y Lewis 1986; McCarthy 1980; McDermott y Doyle 1980; Reiter 1980). Algunos autores afirman que esta metodología es preferible y estéticamente más satisfactoria que la operación en base a factores de confianza, los cuales introducen (como veremos luego) ciertas dificultades prácticas y teoréticas. En rigor, los factores de confianza se pueden combinar a la perfección con los motores de inferencia no monótonos, y hasta son rotundamente preferibles en los casos ideales en los que la base de conocimientos se deriva de estudios estadísticos, más que de un conjunto de condiciones estipuladas. Se ha propuesto una gran variedad de lógicas no monótonas, y sería imposible y verdaderamente monótono que las revisemos todas. Algunas de las lógicas que figuran en el cuadro 4.2 son en realidad variantes pertenecientes a este rubro. En los capítulos sucesivos rozaremos, sin pretender que hemos logrado analizarlas, sus tres variedades principales, todas ellas interrelacionadas, que son: 1) La lógica omitiva [default logic] de Raymond Reiter. 2) La lógica no monótona de Drew McDermott, la lógica epistémica derivada de Hintikka y la autoepistémica de R.C. Moore. 659 3) La lógica deóntica de Von Wright, construida sobre los fundamentos de una lógica del cambio y una lógica de la acción. En en el terreno de las lógicas epistémicas, que intentan modelar el elusivo mundo de la deducción natural, donde se ha propuesto una estrategia de inferencia que según algunos iguala o supera la eficacia del método de resolución. Basándose en Gentzen, y tras algunas experiencias de Jaakko Hintikka y Evert Beth, Raymond Smullyan desarrolló un cálculo de prueba negativo al que llamó tableaux, y cuya descripción evoca los mecanismos que ya hemos descripto en la segunda parte de la tesis: el método comienza negando la fórmula que se pretende probar y construye un árbol aplicándole trece reglas simples de descomposición que son las inversas de las reglas de deducción de Gentzen. La descomposición prosigue hasta que se alcanzan los átomos y (a) o bien se ha encontrado que cada rama es inconsistente, (b) o bien se encuentra que una rama es consistente y permite la construcción de un modelo. En el primer caso, la fórmula negada es insatisfacible y por lo tanto la fórmula original es válida; en el segundo, se ha encontrado un contraejemplo de la fórmula original. El problema del método es que con una raíz satisfacible, no hay garantías de que la descomposición finalice. Pero una vez construido el árbol, las reglas de descomposición garantizan que todos los casos posibles habrán de examinarse sistemáticamente (cf. Eisinger y Ohlbach 1989). No nos preocupa ni nos alegra aquí que los tableaux desplacen a la resolución; es difícil que así suceda, porque el método involucra demasiados no-determinismos como para ser exitoso en la práctica, y porque ahora están comenzando a aceptarse métodos más acomodados al funcionamiento de una máquina que reminiscentes del pensamiento humano. Lo que sí nos afecta es que un modelo de las formas humanas (y por lo tanto, culturales) de deducción, no importa cuan implícito a ese respecto, haya llegado a semejante nivel de especificación y capacidad instrumental. j) Lógica Omitiva La lógica omitiva [default logic] ha sido formulada por Raymond Reiter (1980) como una técnica de formalización del razonamiento en función de mundos especificados de manera incompleta. Este tipo de razonamientos se presenta allí donde es preciso derivar conclusiones plausibles a despecho de la ausencia de un conocimiento exhaustivo de esos mundos. El caso más típico es el de las leyes absolutamente generales que se presentan como verdaderas a pesar de la existencia reconocida o potencial de unas pocas excepciones (cf. Thayse 1988:172-183). La lógica omitiva forma expresamente parte del conjunto más amplio de las lógicas no monótonas, en el que se inserta de una manera que luego habremos de revisar. La importancia de una lógica omitiva para nuestra disciplina es demasiado patente, y el hecho de que hasta ahora se la haya desconocido parece particularmente difícil de justificar. El conocimiento antropológico a menudo introduce generalizaciones que no están complementadas ni por una evaluación estadística precisa del dominio del que se trate, ni por un inventario completo de excepciones. Que se disponga de un formalismo riguroso para dar cuenta de este estado de cosas y para someter a un cierto control los razonamientos afectados por estas circunstancias nos parece de un interés crucial. Es en base a estos formalismos que puede determinarse la capacidad que tiene un conjunto incompleto de aserciones para sustentar inferencias construidas a partir de las mismas, así como el quantum de información y trascendencia a que esas conclusiones pueden aspirar. Dado que, como 660 hemos dicho, la relevancia de este tipo de lógica para nuestra disciplina parece obvia, no nos detendremos a justificar su adopción sino, más bien, a examinar sus posibilidades y fundamentaciones. Las diversas formas del razonamiento omitivo que han surgido en inteligencia artificial corresponden al proceso de derivar conclusiones en base a patrones de inferencia de la forma: "en ausencia de toda información en sentido contrario, presuponer X". La no-monotonía del proceso de inferencia se expresa mediante reglas de inferencia dependientes del dominio que se llaman defaults. Los defaults expresan afirmaciones de la forma "la mayoría de los pájaros pueden volar" por medio de reglas que establecen que "si es consistente inferir que un pájaro particular puede volar, luego uno puede inferir que puede volar". Estas reglas revisables permiten expresar reglas que poseen excepciones sin exigir que las excepciones a cada regla se listen expresamente. En otras palabras, un sistema o teoría para la lógica omitiva deberá incluir por un lado un conjunto de defaults que representen las diversas reglas con sus excepciones y por el otro un conjunto cerrado de fórmulas de lógica de predicados que hagan el papel de axiomas básicos de conocimiento. Como a otros sistemas no-monótonos y modales, el peligro que acecha por lo común a este tipo de formalismos es el de la circularidad; se han elaborado numerosos recursos lógicos para detectar y conjurar este riesgo. Tengamos en cuenta, sin embargo, que la circularidad ya ha dejado de ser lo que era. Los viejos textos de lógica nos advertían en contra de las definiciones circulares (cf. Copy 1978: 94, 157); este tipo de precauciones triviales e intuitivas contra la circularidad hubiera impedido, de ser formalmente atendible y universalmente extendido, el desarrollo de las matemáticas recursivas. Un sistema de naturaleza omitiva produciría uno, varios o ningún conjunto consistente de creencias; estos conjuntos representan las diversas perspectivas del mundo que pueden concebirse a partir de la teoría omitiva. Por ejemplo, sabemos que en la mayoría de las sociedades la situación de la mujer es de subordinación, con unas pocas excepciones que incluso varían de un autor o de un criterio de definición a otro. Dada una cultura en particular -por ejemplo la cultura balinesa- podemos llegar a la conclusión de que en ella la situación de la mujer es subordinada a menos que sea una instancia de las excepciones previstas (aunque no estipuladas una a una como tales). El formalismo omitivo que expresa esa estructura ideacional quedaría especificado como sigue: "Si X es una cultura, y si es consistente creer que en X la situación de la mujer es de subordinación (es decir, creer que X no es una instancia de las excepciones a la regla), entonces es posible creer que en X las mujeres están subordinadas". La estipulación dista de ser tan trivial como parece, pues permite fundar procedimientos de prueba que garantizan la consistencia o tipicidad de determinadas conclusiones. Reiter presentaría este formalismo de una manera más esquemática, constituyendo lo que se llama una regla omitiva [default rule]: En esta regla, M debe leerse "es consistente creer que"; y esta regla omitiva pretende representar la regla general con excepciones, afirmando implícitamente que en las sociedades típicas la situación de las mujeres es de subordinación. Existen diversas elaboraciones lineales y jerárquicas de este tipo 661 de formalismos; algunas de ellas han encontrado la forma de eludir la enunciación precisa de las excepciones (cf. Froidevaux 1986; Touretzky 1986; Etherington 1987; Froidevaux y Kayser 1988). La forma original y canónica del default antedicho en la teoría de Reiter (y con referencia a un lenguaje de primer orden) es la siguiente: Donde: (X), ß1(X), ..., ßm(X) y (X) son fórmulas del lenguaje con variables libres Xi pertenecientes al dominio X=(X1, ..., Xn). (X) se denomina el prerrequisito del default. ß1(X), ..., ßm(X) son las justificaciones del default. (X) es el consecuente del default. M es un símbolo del metalenguaje. Se dice que un default es cerrado si ninguna de sus variables es libre, es decir, cuando todos los casos están estipulados. La regla omitiva sobre la cultura que vimos antes, por ejemplo, no es cerrada, porque contiene la variable libre "X". Como podría esperarse, lo contrario de un default cerrado es lo que se llama un default abierto; este último constructo representa un esquema de inferencia general. Una teoría omitiva induce cero, uno o más conjuntos de creencias que se pueden sostener acerca del mundo incompletamente especificado que se describe en ella. Esos conjuntos de creencias se conocen como las extensiones de la teoría omitiva. Consideremos el siguiente ejemplo de una teoría compuesta por un par de reglas omitivas, escritas sucesivamente en español y en un simbolismo lógico que representaría la expresión que proponemos dar en Prolog a las reglas de Reiter. Notemos que en la grafía que hemos desarrollado los primeros dos predicados del cuerpo corresponden al prerrequisito, la cláusula metalingüística equivale a la justificación (y en el procedimiento de resolución deberá ser probada aparte, estipulando el hecho o la regla correspondiente) y que el consecuente ha pasado del denominador en donde la situaba Reiter a la cabeza de la regla: Cláusula en español: "La ciudad en que vive una mujer es generalmente la misma en que vive su esposo" En Prolog: Cláusula en español: "La ciudad en que vive una persona es generalmente la misma en que se encuentra su empleador". En Prolog: 662 La notación en Prolog esclarece el carácter no circular de la prueba de la cláusula, ya que la presencia de un mismo predicado con idénticas variables en las condiciones y en la conclusión se inserta en un nivel de tipificación distinto. Si suponemos que el esposo de la mujer vive en la ciudad de La Plata mientras que su empleador está situado en Buenos Aires, estamos imposibilitados o bloqueados de inferir ambas conclusiones al mismo tiempo. Podemos inferir una o la otra, pero no las dos: lo que es lo mismo, podemos decir que estas derivaciones inducen dos extensiones posibles para la teoría omitiva correspondiente. Es importante retener la importancia que tiene este concepto de "extensiones de la teoría", de cara a un caso interpretado en términos de cruzamientos disciplinares. La existencia de más de una extensión equivale rigurosamente a lo que Devereux caracterizaba como complementarismo (cf. Devereux 1975:11-12). Hay que notar, sin embargo, una diferencia: en el complementarismo se explicaba el mismo fenómeno de dos maneras excluyentes, lo que resultaba bastante arbitrario e insuficientemente demostrado, pues definir dos problemas conceptualmente distintos como "el mismo problema" es una canallada epistemológica; en el caso de las extensiones de la teoría omitiva, las conclusiones a las que se llega no necesariamente son las mismas. En general, y por diversas razones técnicas que no nos detendremos a examinar, se ha analizado formalmente la significación de las extensiones sólo para el caso de las teorías omitivas cerradas, aunque se han propuesto procedimientos para forzar el cierre de teorías originariamente abiertas: en principio, es suficiente reemplazar cada default abierto por el conjunto de sus instancias relativas al dominio de Herbrand de la teoría. Nótese, sin embargo, que las teorías que contienen constantes funcionales de aridez mayor que cero poseen un dominio de Herbrand infinito. Intuitivamente, una extensión puede entenderse como un conjunto que contiene la información básica relativa al sistema y cualquier cosa que pueda inferirse por medios de reglas lógicas convencionales o mediante reglas omitivas. Que una teoría omitiva posea o no extensiones determina algunas peculiaridades formales notables. Aunque existan teorías omitivas sin extensión, una amplia variedad de teorías omitivas posee extensiones; estas teorías se llaman teorías omitivas normales, y se caracterizan por una propiedad que podría caracterizarse como semi-monotonía. Si el conjunto de defaults de una teoría normal se incrementa, la nueva teoría normal que resulta posee una extensión que contiene, tal cual, la extensión de la teoría originaria (Reiter 1980: Thayse 1988:178-179). Una consecuencia práctica importante de esta propiedad es que las teorías omitivas cerradas normales admiten un procedimiento de prueba que es local con respecto a las reglas omitivas, de modo que se pueden construir pruebas que ignoren algunas de las reglas omitivas, como si el dominio global estuviera compuesto por compartimientos estancos. Otra característica atractiva de las teorías normales radica en que sus consecuencias coinciden con su justificación. Este tipo de regla omitiva es por otro lado incapaz de generar inconsistencias: ciertamente, no puede tampoco refutar la justificación de otras reglas omitivas que se hayan introducido antes ni refutar su propia justificación. Pese a que en el caso de estas teorías los procedimientos de prueba son relativamente sencillos, la interacción entre las diversas reglas pueden generar extensiones que contengan conclusiones no deseables (cf. Reiter y Criscuolo 1981). A veces es necesario impedir la transitividad de determinadas reglas omitivas. Comencemos ahora a entretejer referencias comparativas con otros esquemas lógicos y relaciones de complementariedad con los diversos formalismos de representación que hemos visto. Vale la pena enumerar las diferencias básicas entre la lógica omitiva de Reiter y la lógica no monótona de McDermott: 663 1) La lógica omitiva no propone el uso de una regla no-monótona universal, sino que hace uso de reglas particulares [defaults] que dependen del dominio considerado. 2) El operador M no es un operador modal perteneciente al lenguaje objeto, sino un operador que actúa a nivel del metalenguaje. Las expresiones sobre las que ese operador puede actuar pertenecerán a una clase más restringida que la clase de expresiones modales de la lógica de McDermott. 3) Los teoremas de una teoría omitiva no se definen como la resultante de la intersección de sus conjunto de creencias consistentes posibles. Su propósito más bien es el de caracterizar una visión particular del mundo que un agente o persona pueda derivar en forma consistente. Los sistemas de representación del conocimiento mediante redes semánticas y los formalismos orientados al objeto a menudo proponen reglas de herencia que presentan distintas modalidades de excepción. La semántica de estos sistemas no ha sido analizada aún exhaustivamente, aunque se han hecho algunos ensayos de cierto interés (cf. Touretzky 1986, Etherington 1987). Uno de esos ensayos es el de Bowen y Kowalski (1984:167-170), donde además se brindan elementos de juicio para expresar los cálculos en forma clausal. Estos autores han elaborado un procedimiento de amalgama de lenguaje objeto y metalenguaje que constituye una alternativa a la lógica no monótona de McDermott y Doyle y a la lógica omitiva de Reiter. Desplegando recursos de metaprogramación sería posible evitar las contradicciones emergentes de nuevas aserciones que violan la vigencia general de las reglas. Cabría cerrar este apartado mencionando que entre el concepto de omitividad y el de presuposición lógica existen contrastes y analogías significativas. Se nos ocurre que, según su formulación, ambos conceptos integran o segregan, encubren o enfatizan la problemática de los conjuntos compartidos de creencias en un contexto de interacción comunicativa. Proceso lógico Carácter Especificación Ambito Omitividad ExplícitoImplícito Supuesto compartido Incompleta La misma cultura Presuposición ImplícitoExplícito Supuesto a analizar A completar La cultura extraña La omitividad atañe a lo que puede ser callado (pues está ya prestablecido en el conjunto de supuestos) en tanto que la presuposición, al contrario, implica contenidos y estructuras que se dan por sentados pero que conviene explicitar. El estudio de ambos campos está aún en dinámica, y es posible que pronto se promuevan mecanismos de integración. Por el momento no hemos hecho gran cosa alrededor de la omitividad, pues no se nos ha presentado la urgencia de modelar conocimientos actorales. Sabemos que en principio es modelable en Prolog mediante operadores o términos de predicado. El uso de estos y otros formalismos en la representación del conocimiento antropológico espera analizarse críticamente para comprobar su rendimiento y su capacidad de expresión. 664 k) Lógica Epistémica y Creencia Subjetiva Por su vigorosa conexión con el problema antropológico de la subjetividad, la introspección y la concepción fenomenológica del conocimiento, la variante de las lógicas epistémicas que nos interesan en este contexto son las llamadas autoepistémicas (cf. Thayse 1988:193-203). Este tipo de esquemas pertenece, como el anterior, al conjunto más amplio de las lógicas no-monótonas. Por la naturaleza de sus representaciones y la interpretación de sus operadores, las lógicas epistémicas también forman parte del conjunto de las lógicas modales. Para la presentación de las lógicas epistémicas y de los formalismos modales que están relacionados con ellas es imperativo hacer referencia una vez más, a grandes rasgos, al campo de lo que hemos llamado sistemas modales "elementales" o "básicos", de los que todos los demás se desprenden: T, S4, S5 o sus nomenclaturas equivalentes. La lógica autoepistémica se ha definido como la que rige el modelado de las creencias de un agente idealmente racional que reflexiona sobre sus propias creencias (Moore 1984, 1985, 1988). Esta lógica posee una semántica muy simple, nada ofensiva a la intuición y que permite probar cierto número de resultados muy interesantes. Una teoría autoepistémica se define como un subconjunto de fórmulas proposicionales propias de un lenguaje dado, consistente en cláusulas que pueden interpretarse como el conjunto completo y consistente de creencias de una persona. Ese lenguaje se puede formular en términos del operador modal L, del que ya hemos hablado; una fórmula de forma Lp puede interpretarse como "se cree que p es verdad". El agente que se supone portador del conjunto de creencias referido por las cláusulas no se define a priori como racional. En principio, y a pesar de la referencia realista a un "agente" psicológicamente caracterizado, todo el formalismo obedece a una cierta idealización: por ejemplo, sólo pueden inferirse las consecuencias lógicas esperables del conjunto inicial de creencias, y todas las consecuencias lógicas habrán de ser tenidas en cuenta. Esto implica que el agente modelado por la lógica autoepistémica, aunque él mismo no sea lo que se dice "racional" en el sentido cotidiano de la palabra, posee una visión perfecta sobre las consecuencias lógicas de aquello en lo que cree o no cree. El carácter revisable de un razonamiento puede deberse a dos circunstancias. La primera no tiene que ver con factores subjetivos, sino con la naturaleza incierta y conjetural de los hechos y relaciones conocidos. La segunda determina que el conocimiento sea revisable porque la índole del mismo es introspectiva, y las operaciones de introspección son inciertas y cambiantes. La validez de estos razonamientos depende de lo que se puede admitir "en el presente estado de nuestro conocimiento". El rasgo definitorio de las lógicas no monotónicas de McDermott radica en el uso de una técnica de punto fijo que permite caracterizar conjuntos estables de conclusiones, y en el despliegue de procedimientos propios de la lógica modal en la formalización del razonamiento revisable (McDermott y Doyle 1980; McDermott 1982). El objetivo principal de este autor ha sido el de definir una técnica que evite la circularidad en la definición de reglas de inferencia no-monótonas. McDermott deja pendiente la elección del modelo concreto de lógica modal que fundamentaría su esquema, oscilando entre los llamados S4 y S5. 665 Las dificultades que las lógicas epistémicas comparten con el resto de los sistemas no monótonos son aspectos sobre los que se sigue trabajando. Uno de los problemas es que, conforme a los esquemas fenomenológicos y gestálticos de introspección, no existen reglas generales para evaluar creencias complejas en términos de creencias y descreencias elementales. En estos mundos, el todo no es igual a la suma de las partes. Esto se agrava en el caso de que los agentes cuyo conocimiento se modela sean no-racionales (cf. Shweder 1984); en esta circunstancia no existiría tampoco, por definición, ninguna relación a priori entre sus creencias. No obstante, se han realizado intentos de formalizar las creencias de agentes parcial o totalmente racionales en función de una semántica de los mundos posibles (Moore 1984, 1988). Esta semántica permite poner a prueba la existencia de teorías autoepistémicas que sean completas y fundadas con respecto a un conjunto dado de premisas. Los modelos de Moore no son lo que un antropólogo llamaría realistas, y a duras penas sus inflexiones engranan con nuestras categorías disciplinares; se los puede entender, no obstante, como una especie de modelo idealizado sobre el cual convergen los sistemas de pensamiento efectivos (Grégoire 1988). En la lógica hay estilos y tendencias, y los modos de exposición son recurrentes: los detalles de estos modelos coinciden en líneas generales con los de otras variantes de la lógica modal y no-monótona, por lo que no insistiremos en reproducirlos ahora. Cabe agregar que las lógicas epistémicas guardan ocasionales relaciones con los sistemas de "deducción natural", asociados a las propuestas de Gerhard Gentzen; de hecho, casi todos los modelos epistémicos entrevistos aquí utilizan la peculiar notación gentzeniana. El método de Gentzen toma como punto de partida tautologías elementales que progresivamente derivan fórmulas más complejas en base a trece reglas de inferencia y ningún axioma; este proceso se puede transformar en un test revirtiendo las reglas de Gentzen y dividiendo la fórmula a probar en subfórmulas hasta que su estatus lógico sea evidente. La exigencia de considerar alternativas hace que este proceso se estructure de acuerdo con un diseño arboriforme. De este método se ha derivado otra entidad que promete cumplir un rol fundamental en los próximos años y que apunta hoy como un rival del método de resolución: los tableaux analíticos de Raymond Smullyan (1968). Smullyan y Fitting (Fitting 1983) han aplicado el método de tableaux a diversas lógicas modales e intuicionistas, y nuestros colegas Coniglio, Rodríguez y González han programado tableaux para lógica deóntica en Arity Prolog, lo que prueba (por si hiciera falta) que este lenguaje ni siquiera está atado fatalmente a la estrategia de resolución. No existe aún, que sepamos, ninguna exploración antropológica en el tejido de estos sistemas formales, lo cual no deja de ser llamativo toda vez que se trata de una familia de esquemas vinculada muy de cerca con dificultades concretas de nuestra disciplina. Tampoco nosotros hemos establecido nada perdurable, aparte de acumular referencias que deberían, de hoy en más, comenzar a servirnos de mapa para una búsqueda mejor. l) Lógicas Deónticas, Imperativas, Erotéricas y de la Preferencia No es fácil distinguir un análisis lógico de la inferencia ética, de los mandatos, las preguntas o las elecciones, de un análisis más o menos formal o sistemático (respectivamente) del comportamiento, las órdenes, la interrogación o la toma de decisiones en un contexto dado o en general. Las 666 "teorías de modelos" conocidas no ahondan en esa distinción. Nosotros mismos no lo hemos puesto en claro hasta el momento, en espera de la oportunidad más aleccionadora. ¿Qué significa, a fin de cuentas, un análisis lógico o un análisis de la lógica de determinada cosa? El término es, como diría Ryle, sistemáticamente engañoso, porque insinúa que el mundo (o el trabajo científico) está sometido a una legislación, a una geometría subyacente. Creemos no obstante que se puede iluminar el punto, asignando como contenido de esa expresión ambigua lo que todavía es más un proyecto que una consumación. De lo que se trata en realidad es de ver en qué forma y en qué medida los diversos fenómenos poseen una estructura que pone en tensión a las posibilidades descriptivas o inferenciales de un modelo lógico y obligan a concebir ideas alternativas respecto de la transmisión de los valores de verdad, la transitividad, la tautología, el encadenamiento o la contingencia. Redefinimos, consecuentemente, el estudio lógico de algo (la "lógica" de lo que fuere) como un estudio de la lógica en sí, resultante del hecho de atravesar su semántica con un referente ocasional (indeterminado, irracional, cambiante o peculiar) que le impone dialécticamente revisarse a sí misma para poder luego dar cuenta de él. Este estudio lógico, este feedback, esta concesión mínima del formalismo a la estructura correlacional del mundo o a la imagen conceptual que éste proyecta, parecería ser el prerrequisito de la utilización de un lenguaje lógico para describir o explicar el fenómeno en cuestión. Se trata de una auténtica inspección reflexiva en su más elevado y cruento nivel de rigor. Distinguir un análisis de "la lógica de" un fenómeno de un estudio sistemático o estructural de ese fenómeno no es cosa sencilla, y no se limita sólo a la contraposición entre lo general y lo particular, entre lo formal y lo sustantivo, entre lo ideal y lo empírico. Los propios epistemólogos acostumbran confundir el nivel descriptivo con el prescriptivo cuando hablan, por ejemplo, de una "lógica de la investigación" (Nagel 1981; Gibson 1982; Popper 1985), "lógica" que concierne a muchas cosas, pero hasta el día de hoy no, en líneas generales, a la lógica en general o a una lógica concreta. Von Wright deplora de esta forma la coalescencia del análisis lógico con otros tipos de indagación, la inconstancia de los profesionales de la lógica para permanecer aferrados a su objeto: Nunca, que yo sepa, este estudio independiente [de las preferencias con respecto a las cuestiones de utilidad y probabilidad] ha sido emprendido sistemáticamente desde un punto de vista lógico formal. Los autores que tratan estos temas por lo general dan por supuestos ciertos rasgos lógicos de las preferencias -tales como la asimetría y la transitividad-, y luego pasan sin más al tratamiento de la utilidad (o la probabilidad). Sucede como si tendieran a pasar, lo más pronto posible, de una consideración "cualitativa" de tipo "lógico", a consideraciones "cuantitativas" de índole "matemática" (1967:21). No es improbable que las cotas de explicitación a las que nos acerca la programación lógica acaben por esclarecer el anudamiento indudablemente oscuro de las herramientas con su objeto. Aquí plantearemos el problema, sin sugerir que hemos llegado a una formulación concluyente. Lo que los mundos o acontecimientos que ahora insinuaremos implican para la lógica es, ante todo, el apercibimiento de la existencia o la necesidad de otros modos veritativos, aparte de "verdadero" y "falso". Existen o pueden postularse innumerables modalidades más (condicionales, indefinidas, cambiantes) de las que ya hemos visto. Tal vez sería interesante investigar si existe un límite formal para el número de los modos posibles, una zona crítica más allá de la cual pensar en modos adicionales ya no proporcione ninguna ganancia a la comprensión. Tal vez, por el contrario, botanizar modalidades diferentes pensando en agotar su variedad sea un ingenuo coleccionismo que no conduce a ningún perfeccionamiento profundo del aparato lógico. 667 La modalidad que se refiere a valores tales como "obligatorio", "permitido" o "prohibido" se conoce como lógica deóntica. Ésta se ocuparía de las relaciones de inferencia entre normas, vale decir, entre proposiciones prescriptivas. Los orígenes de la lógica atinente a normas y valores se remontan al ensayo Deontic Logic de Georg Henrik Von Wright (1951); su elaboración más satisfactoria ha sido expuesta en la primera de las dos series de lecciones que dicho autor impartió entre 1959 y 1960 en la Universidad de St.Andrew, y particularmente en Norma y Acción, un texto universalmente traducido y reeditado que refleja la impronta de Jaakko Hintikka. El nombre de esta variante de la lógica fue sugerido a Von Wright por C. D. Broad, y desde entonces se impuso como el rótulo de una especialización interesante, pero sumamente marginada. La lógica deóntica constituye una extensión de la lógica estándar: Podríamos decir que la lógica formal, tal como hoy la entendemos, es esencialmente la lógica de un mundo estático. Sus objetos básicos son los estados de cosas posibles y su análisis por medio de categorías, tales como cosa, propiedad y relación. No hay lugar para el cambio en este mundo. Las proposiciones son tratadas como definitivamente verdaderas o falsas, no como a veces verdaderas, a veces falsas. Las cosas se ven como poseyendo o no poseyendo determinadas propiedades y no como cambiando de, por ejemplo, rojo a no-rojo. Los actos, sin embargo, están esencialmente conectados con los cambios. Un estado que no existe puede llegar a existir como resultado de la interferencia humana en el mundo; o un estado que existe puede hacerse desaparecer. La acción puede también hacer continuar estados de cosas que de otro modo desaparecerían, o hacer desaparecer estados que de otro modo llegarían a existir. Un requisito necesario de la Lógica de la Acción es, por tanto, una Lógica del Cambio (Von Wright 1979:17). El primer paso de Von Wright en la construcción de su lógica deóntica fue el de examinar el aparato lógico tradicional con vistas a construir a partir de sus ingredientes un nuevo formalismo apto para tratar, al menos en grandes líneas, las peculiaridades lógicas de un mundo en cambio. En su esquema, la lógica del cambio y la lógica de la acción son las precondiciones sucesivas de la lógica deóntica propiamente dicha. El interés de Von Wright en las normas y los conceptos normativos no se deriva de un interés antropológico, sino de una observación de índole formal: las nociones de "debe", "puede" y "tiene que no" presentan una sorprendente analogía con las nociones modales necesidad, posibilidad e imposibilidad, por un lado, y con los conceptos básicos de la llamada teoría de la cuantificación: todo, alguno y ninguno. Aunque por lo común las prescripciones no tienen valor de verdad, es posible establecer algunas relaciones lógicas entre ellas: por ejemplo, del hecho que algo sea obligatorio puede inferirse que alguna otra cosa esté prohibida (cf. Von Wright 1979; Sanchez Mazas 1970). A priori, por su ligazón con la problemática del comportamiento, éste parecería ser un campo lógico de entrañable afinidad con las ciencias sociales; pero su desarrollo axiomático está, hoy poy hoy, bastante por debajo del que han alcanzado otras lógicas modales. Ni los lógicos se han acercado masivamente al análisis de las estructuras veritativas de los sistemas de prescripciones, ni los científicos sociales han advertido en apariencia que dichos sistemas exigen una descripción que en ciertos respectos violenta las posibilidades expresivas de la lógica común. La lógica de los mandatos o imperativa, por su parte, ha sido caracterizada y formalizada por Nicholas Rescher (1966). La lógica erotérica o de los enunciados interrogativos se ocupa de la relación entre preguntas y respuestas, o entre las preguntas y sus presuposiciones. La bibliografía básica aplicada a estos problemas ha sido establecida en D. Harrah, Communication: A logical model (1963). La lógica de la preferencia o de la elección tendría a su cargo el estudio de las relaciones de inferencia entre enunciados llamados estimativos. Quien planteó inicialmente la posibilidad del 668 análisis lógico de la preferencia parece haber sido Sören Halldén en su libro On the Logic of "Better" (1957), citado por Von Wright en La Lógica de la Preferencia (1967:21). La lógica de la preferencia de Von Wright se ramifica en tres secciones interrelacionadas, dispuestas en torno a otros tantos operadores, P, I e Y, que definen la lógica básica de la preferencia (o "prohairética"), la lógica de la indiferencia y la lógica de la igualdad valorativa. No seguiremos aquí el trámite de esas lógicas; habría que establecer primero su status actual en el consenso filosófico y luego requerir de los lógicos elaboraciones bastante más rigurosas de las que hemos citado en este capítulo, antes de saber si están en condiciones de constituir un aporte constructivo a nuestra teoría de modelos. Dos de los puntos marcados por Von Wright son pertinentes, sin embargo, y hablan a las claras de la necesidad de tender un puente entre las formas de la lógica y la sustancia de la investigación empírica. Cuando Von Wright discute el campo de significación de la palabra "norma", distinguiendo primero entre reglas, prescripciones y directrices, y luego entre costumbres, principios morales y reglas ideales, toca de inmediato una zona cultural y sociológica que, con entera seguridad, los científicos sociales han tipificado mucho mejor que cualquier lógico de profesión. Cualquiera sea la corrección formal de la tipificación de Von Wright, es incuestionable que se trata de una esquematización abstracta cuya casuística cabal, por lo menos, debería provenir de un acervo de conocimientos empíricos un poco más tangibles o, en su defecto, de un plano de generalización que le otorgue alguna garantía de universalidad y permanencia. En ambos casos, sería necesario asentar los cuadros taxonómicos sobre una prolija mirada a lo ancho de las culturas y a lo largo del tiempo. Así como está, este importante renglón de la lógica aplicada suena incuestionablemente superficial y vacío. El segundo punto ilustra la misma clase de negligencia empírica. Von Wright observa que la significación ontológica de la noción de norma consistente (no contradictoria) dista de estar clara, y se pregunta después si es lógicamente imposible mandar o permitir a un agente hacer y abstenerse de la misma cosa en la misma ocasión. La respuesta del lógico a esta pregunta no nos suena satisfactoria, pues él hace depender la solución de una instancia que se inscribe dentro del problema ontológico de las normas, espacio al que a su vez (como buen pensador abstracto) no examina con la necesaria especificación contextual. Pensamos que las especulaciones de Von Wright se habrían beneficiado si hubiera tomado conocimiento de las caracterizaciones de Festinger sobre la llamada disonancia cognitiva o, más aún, de los análisis de Bateson acerca el doble vínculo (cf. Festinger 1957; Bateson 1985). Ambos estudiosos sociales no sólo ejemplificaron los contenidos sustantivos de una casuística de las normativas contradictorias o insatisfacibles, y de las racionalizaciones o los estallidos de irracionalidad que les suceden, sino que, aún sin una estrategia de subrayado, arrojaron abundante luz sobre sus aspectos formales. La productividad de por lo menos uno de los dos modelos es incuestionable, aunque se pueda disentir con su articulación: toda la teoría batesoniana de la esquizofrenia como patología de la comunicación familiar (y a la larga, toda esa corriente psiquiátrica conocida como Terapia Familiar Sistémica) se fundan en esa idea, en la que también se basa gran parte del prestigio de Bateson como guru de Occidente. Un doble vínculo (o doble coacción) es un mandato contradictorio, adosado a un mandato complementario que prohíbe al mandado escapar del campo: "debes comportarte como tu padre" y al mismo tiempo "no puede hacer -por las leyes del incesto- lo que tu padre hace". Quizá podríamos ir más lejos en nuestras analogías y sugerir que la conducta esquizofrénica resultante de las dobles coacciones y la parálisis lógica concomitante a la contradicción en todos los modelos, 669 inherente a la generación de la cláusula vacía, son expresiones o metáforas de ideas convergentes, ya que no idénticas. La adecuación del lenguaje Prolog para el tratamiento de las lógicas deónticas ha sido corroborada por nuestros colegas programadores de la cátedra de inteligencia artificial de la Facultad de Ciencias Exactas y miembros del GIDIA, lics. Osvaldo González, Marcelo Coniglio y Ricardo Rodríguez. Ellos han desarrollado un poderoso motor de inferencia o "demostrador de teoremas" de lógica deóntica en Arity Prolog, que permite alternar entre cálculo de proposiciones y cálculo de predicados del primer orden, escogiendo como reglas de inferencia ya sea tableaux o una combinación de tableaux y resolución; la base de conocimientos correlativa a este shell habrá de ser, una vez implementado el sistema, el Código Civil. Esta experiencia, junto con las ricas discusiones de ella emergentes, alcanza como demostración de la versatilidad del lenguaje. m) Lógica Temporal Podemos esperar no que un cálculo del tiempo venga a sustituir un día a la metafísica del tiempo, sino, más humildemente, que el uso propedéutico de la formalización, obligando al filósofo a distinguir todas las afirmaciones mezcladas y a percibir a cambio todas las implicaciones enmascaradas bajo el manto de la metáfora, le inspire al menos a la reflexión filosófica sobre la naturaleza del tiempo la exigencia ascética de despojarse de sus oropeles y alejarse de sus coartadas. Jean-Louis Gardies Los antropólogos se muestran a veces ofuscados ante los modelos y teorías que no pueden dar cuenta adecuadamente de la temporalidad, y en especial de esa dimensión histórica y manifiesta de la temporalidad que se reconoce bajo la forma del cambio. Marcos teóricos enteros, concebidos para dar cuenta de invariantes estructurales o centrados en una descripción congelada en el tiempo, se han descartado críticamente con el argumento de que no sirven para abordar la dimensión diacrónica. Numerosos etnólogos, encuadrados en variantes del marxismo o en el simbolismo, han cuestionado las bases lógicas de "nuestra" concepción del tiempo, la que nos ha dejado inermes para comprender ideas alternativas (cf. Fabian 1983; Friedman 1985). También se ha discutido la impotencia de los modelos lógicos frente a las secuencias causales circulares y a los fenómenos de retroalimentación. Gregory Bateson ejemplificaba de esta manera la inadecuación de "la lógica" para el tratamiento de casos que involucraran secuencias temporales o relaciones de causa y efecto: Decimos: "Si se aceptan los postulados de Euclides, entonces dos triángulos que tengan sus tres lados iguales son iguales entre sí". Y también decimos "Si la temperatura desciende por debajo de 0º C, entonces el agua se solidifica". Pero los "si... entonces..." de la lógica del silogismo son muy distintos de los "si... entonces..." de la causa y el efecto. En una computadora, que opera por causa y efecto, en la que un transistor pone en movimiento al otro, las secuencias de causa y efecto se emplean para simular la lógica. Hace treinta años solíamos preguntar: ¿Puede una computadora simular todos los procesos de la lógica? La respuesta era afirmativa, pero la pregunta era sin duda equivocada. Debería haber sido esta otra: ¿Puede la lógica simular todas las secuencias de causa y efecto? Y la respuesta habría sido negativa. Cuando las secuencias de causa y efecto se vuelven circulares (o adquieren formas más complejas aún que la circular) la descripción o trazado de esas secuencias en la lógica atemporal se torna autocontradictoria. Se generan paradojas que la lógica pura no puede tolerar. El circuito de un timbre ordinario nos servirá de ejemplo [...]. El circuito del timbre está armado de modo tal que la corriente circula cuando la armadura hace contacto 670 con el electrodo en A; pero el pasaje de corriente activa el electroimán que aparta la armadura, haciendo cesar el contacto en A. La corriente deja entonces de circular por el circuito, el electroimán se desactiva, la armadura vuelve a hacer contacto en A, y el ciclo de repite. Si expresamos este ciclo en una secuencia causal, tenemos lo siguiente: Si hace contacto en A, entonces se activa el electroimán. Si se activa el electroimán, entonces cesa el contacto en A. Si cesa el contacto en A, entonces se desactiva el electroimán. Si se desactiva el electroimán, entonces se hace contacto. A Diagrama 4.9 - Modelo de timbre según Bateson Esta secuencia es perfectamente satisfactoria siempre y cuando quede bien en claro que las combinaciones "si... entonces..." son causales. Pero si se quiere hacer una mala broma y pasar los "si" y los "entonces" al mundo de la lógica, el resultado será escandaloso: Si se hace contacto, entonces cesa el contacto. Si P entonces no P. Los "si.. entonces..." de la causalidad contienen tiempo, mientras que los "si... entonces..." de la lógica son atemporales. De esto se desprende que la lógica es un modelo incompleto de la causalidad (1980:53-54). El ejemplo de Bateson podrá parecer pertinente, severo e ingenioso, pero a nuestro juicio dista de tener esas virtudes y es más bien emblemático del desprecio profesional de los antropólogos hacia la formalización, de una actitud que decreta el fracaso de los modelos axiomáticos antes de siquiera pasar el dedo por el índice de los libros que los desarrollan. Los argumentos batesonianos son sustancial y formalmente incorrectos, y toda la lógica de la simulación ha sido distorsionada hasta un punto en el que el ejemplo deja de ser útil. Existe toda una teoría de la simulación, casi diríamos una disciplina, un mundo intelectual, que Bateson ignora (cf. Zeigler 1976; Widman, Loparo y Nielsen 1988). En los modelos de simulación hay toda una delicada jerarquía de tipos lógicos (por utilizar un término frecuente en la jerga batesoniana) que el autor ha confundido sin remedio; y algunas de sus observaciones, en fin, lisa y llanamente no responden a la verdad. Aunque la figura de Bateson en general nos simpatiza y no nos satisface cuestionar tan radicalmente a un científico laborioso, debemos señalar al menos algunos errores manifiestos, errores que por otro lado son típicos de ideas que con respecto a la lógica acarician innumerables colegas: 1) La forma en que Bateson enuncia la secuencia de acontecimientos cuando la tiene que expresar en cláusulas lógicas omite pasos que había estipulado en la descripción discursiva del proceso; daría la impresión que la diferencia introducida primero entre los respectivos "entonces" es olvidada después, cuando expone los resultados "escandalosos" de pretender expresar en lógica un proceso temporal. Cuando Bateson transfiere la secuencia causal a expresión lógica, "olvida", por 671 ejemplo, estipular los consecuentes ("si hace contacto entonces se activa el electroimán", etcétera). La traducción que realiza de lengua natural a forma lógica, además, está plagada de incorrecciones: "hacer contacto" y "cesar contacto" no se corresponden en absoluto a "P" y "no-P". Y es él mismo quien identifica, por último, mezclando todos los tipos lógicos, los "entonces" del formalismo con los de la descripción causal. 2) Como "todo escolar sabe", ninguna computadora puede simular todos los procesos de la lógica, sencillamente porque muchos de ellos (el cálculo de proposiciones, por ejemplo) no son formalizables en un sentido riguroso. Cuando un formalismo es incomputable (y esto lo demostró Turing), no siempre cabe achacar a la máquina la responsabilidad. De todas maneras, si una computadora es un dispositivo complejo "que opera por causa y efecto", no se entiende por qué es imposible simular con ella "todas las secuencia de causa y efecto" con las que el aparato debería en principio congeniar. 3) El fundamento inmediato de un lenguaje de programación no es una empiria de causas y efectos entre "transistores", sino una teoría lógica. Es la capacidad expresiva de este lenguaje (y no el funcionamiento básico de una computadora, situado en un nivel de tipificación mucho más lejano y en principio irrelevante) lo que se debe correlacionar con el fenómeno simulado. 4) Un modelo cualquiera no "contiene" tiempo, como tampoco posee distancias, fuerzas, objetos, personas, estructuras sociales o sabores de sopa; basta con que todo eso se pueda representar. Y nada hay en el tiempo (que cuando llega a nuestra teorías es un concepto) que impida hacerlo. 5) Las computadoras no instrumentan directamente simulaciones de la realidad, sino que dinamizan los modelos lógicos construidos a propósito de ella. En el interior de esos modelos, no existe inconveniente alguno en aprovechar, en el momento interpretativo, las propiedades de la implicancia lógica para simular tanto sea la causación (con la que a veces se la confunde) como procesos que morfológicamente no se le parecen; de hecho, ese mismo aprovechamiento se realiza cuando se lee procedimental o declarativamente un programa de simulación. No por ello, como ya hemos visto, quien lee así un programa comete el error de identificar el comportamiento del mundo con el de la lógica; lo que se correlaciona en un programa no es en un sentido amplio el mundo y la lógica, sino un fenómeno y un modelo; las fases del comportamiento del modelo no son las consecuencias lógicas de las fases anteriores, ni aún un producto de sus causas, sino la mera consecuencia procedimental de la descripción realizada, consecuencia que bien podría ser indeterminada o aleatoria sin que por ello la implicación lógica desaparezca o las causas se esfumen. De todas maneras, ni siquiera a un nivel interpretativo la identificación de causa e implicancia es necesaria: el educto del programa puede interpretarse como una secuencia o correlación objetiva de acontecimientos, sin involucrar relaciones de causalidad. 6) Bateson ha desconocido por completo la existencia de lógicas alternativas y de formalismos constructivos de representación, como si en la forma que él mismo escoge para una representación del fenómeno más bien aviesa y paródica se agotaran las posibilidades representacionales imaginables. Ignora además la diferencia entre los lenguajes de programación procedimentales y los declarativos, y se expresa (equivocadamente) como si los que se utilizaron desde siempre en computación hubieran sido de esta última categoría. 7) Carece de sentido afirmar que la lógica no puede expresar el tiempo porque los "entonces" de la implicancia deductiva no son inherentemente temporales. Aparte del hecho de que las posibilidades representacionales de la lógica no se agotan en la implicancia, Bateson debería saber que, por el viejo principio de la arbitrariedad del signo, no tiene por qué haber ninguna inherencia de este tipo 672 entre el lenguaje y los referentes, entre el significante y el significado. El lenguaje no es mera iconicidad, y por ello el sentido y la referencia no se encuentran limitados por las posibilidades del isomorfismo o las indexicalidad, como los sabios cargados de bolsas de Laputa. Pese a que no existen conceptos inherentemente ardientes o húmedos, es no obstante posible (hasta donde sabemos) hablar del fuego y del agua. 8) Correlativamente a la afirmación de la naturaleza ilógica del fenómeno, Bateson insinúa la insuficiencia empírica de la lógica. Esta postura implica que (más allá de toda descripción particular) existirían secuencias o clases peculiares de hechos que, por sí solas, ponen en tela de juicio las capacidades estrictamente formales de la inferencia lógica y de la racionalidad humana. Ahora bien, excepto para el joven Wittgenstein, para Brand Blanshard y para algunos empiristas extremos, la lógica no es un espejo objetivo del mundo, sino una disciplina formal que se ocupa de la relación de implicancia (también formal) entre razonamientos que pueden o no referirse a él. Si los filósofos se hubieran atenido a la premisa de que la lógica debe "reflejar el mundo", la lógica difícilmente habría podido constituirse, pues no existe ni existirá jamás ningún modo formal de asegurarse que la lógica subsume todos los tipos posibles o pertinentes de fenómenos, ni parece demasiado viable construir un formalismo convergente que de alguna manera reproduzca la totalidad de la estructura del mundo. Aún cuando se acepte la plausibilidad de sostener que a distintas estructuras de fenómenos deben corresponder distintas lógicas42, ello no implica que no se pueda formular una lógica capaz de analizar formalmente el fenómeno de que se trate. Sea como fuere, el problema de causación circular planteado por Bateson es expresable y susceptible de resolverse en cualquier formalismo con pasmosa facilidad, sin poner en peligro las bases racionales de la civilización de Occidente. Lo que sigue es un modelo de simulación de timbre batesoniano en el dialecto Turbo del lenguaje Prolog. Implementado en una máquina, el modelo no sólo funciona y la lógica no sólo sobrevive, sino que no se genera ninguna paradoja autocontradictoria y el timbre suena en impulsos de 440 ciclos cada 5 centésimos de segundo, porque así lo ha especificado el programador. La cláusula "contacto" al final del procedimiento "desactivado" reenvía al principio de la serie, garantiza la circularidad del constructo y simboliza, en cierto modo, la estructura cíclica de la causalidad. El investigador puede introducirse en el circuito ingresando el nombre simbólico de cualquiera de sus etapas. 42 Tal es lo que se cuestiona en la disputa entre "monistas" y "pluralistas", formalmente idéntica a la querella entre "formalistas" y "sustantivistas" en antropología económica. cf. Haack 1982:246-257. 673 Cualquier proposición, descripción o teoría mal o bien planteada puede modelizarse. Probablemente las formas optativas de programar una simulación como ésta sean infinitas, aún cuando limitáramos el lenguaje a uno solo. Pese a que Bateson aseguraba que la lógica no podía modelizar una causalidad circular, nosotros lo hemos hecho: el timbre suena. Este recurso al realismo escénico se agrega con el objeto de complementar la prueba formal con un golpe de efecto pragmático, y para demostrar que nuestra crítica a la crítica batesoniana de la lógica no sólo presume de desbaratarla. Podemos también echar un ojo a la escena para que el ridículo sea abrumador: en computación, todo el mundo sabe que un programa bien estructurado (o estructurado, a secas) debe poseer una configuración circular. ¿Cómo es posible que un profesional tan venerado se equivoque tanto? La crítica de Bateson sobre los supuestos límites representacionales de la lógica fracasa, indudablemente, porque el problema no se aborda ni remotamente con la garantía de los conocimientos necesarios para resolverlo. Esta actitud merece tipificarse. Entre antropólogos, posar de experto en lógica o en lo que fuere puede llegar a ser absurdamente fácil; la propia Mary Catherine Bateson, sin embargo, ha destruido el mito de la erudición batesoniana, revelando que su padre leía apenas un par de libros al año (Bateson 1989:98-99). Eso se nota. Pero el problema es menos el ojo que le falta a Bateson que la ceguera crónica de la antropología y de las ciencias conexas, en las que aserciones como la que estamos tratando invariablemente quedan sin contestar. Todas las críticas análogas que conocemos adolecen de idéntica frivolidad y de una tendencia irrefrenable a encontrar escollos en los pocos lugares donde no los hay, o a imaginar que a los verdaderos dilemas se los puede superar a puro discurso y sin consecuencias, como cuando en sobremesa se discute cuál es la más sabrosa de las comidas. ¿Cuál es la realidad? Sea pertinente o no la crítica de Bateson a la lógica, es sin embargo bien sabido que las lógicas convencionales no se prestan convincentemente al tratamiento de la temporalidad, y de hecho la excluyen de toda problemática. El problema de las fallas de la lógica no pasa empero por donde lo imaginaba Bateson (el realismo causal), sino por la varianza o dependencia temporal de los valores de verdad. La explicación de este olvido, paradójicamente, parece ser de orden contextual e histórico: Los pioneros de la lógica formal moderna fueron motivados principalmente por el deseo de representar los argumentos matemáticos de forma rigurosa. En consecuencia, y debido a la irrelevancia de las consideraciones sobre el tiempo respecto a la (in)validez de los argumentos matemáticos, pudieron ignorar en gran parte el hecho de que en los argumentos informales sobre asuntos no matemáticos el tiempo es a veces crucial (Haack 1982: 180). Los lógicos académicos con frecuencia descartan o minimizan este problema -junto con problemas afines acarreados por las expresiones indexicales- argumentando que en la representación de argumentos informales en forma simbólica se debe cuidar que el tiempo permanezca constante a través de todo el argumento. Algunos autores de primera línea, sin embargo, han sido sensibles al problema que representa la temporalidad; consecuentemente, se han propuesto dos estrategias distintas: en su obra más conocida, Willard Van Orman Quine (1960) insiste en que el discurso temporal se represente dentro del aparato de la lógica estándar, interpretando las variables del cálculo de predicados como fluctuando no sobre individuos que perduran espacio-temporalmente, sino sobre "épocas". Arthur N. Prior, por el contrario, enfatiza la necesidad de adecuar el formalismo lógico al discurso tem674 poral mediante una extensión que introduzca nuevos operadores temporales específicos (Prior 1957, 1967, 1968). Hay alguna injusticia en el estereotipo que sostienen los antropólogos y que endilga a los lógicos escasa sensibilidad temporal. Las lógicas del tiempo no se agotan con los sistemas de Prior y de Quine; podemos incluir entre ellas los razonamientos de Aristóteles en torno de los futuros contingentes, los de Diodoro Cronos sobre el papel del tiempo en la implicación, las proposiciones modales temporalizadas de la tradición islámica, la teoría escolástica de la ampliación temporal, las matrices de Kripke, el sistema minimal de E.J. Lemmon, la lógica de la datación de Jerzy Los, la lógica de la sucesión de los estados del mundo de Meredith, Rescher y Urquhart, la lógica tomista del movimiento de Laurent Larouche y la lógica direccional hegeliana elaborada por Rogowski. Algunos sistemas lógicos informales, atinentes a la dialéctica y a la historicidad, forman también parte de este rico conjunto, demasiado amplio y preñado de consecuencias para intentar resumirlo (cf. Gardies 1979). Hay mucho que explorar y que aprender antes de concluir que "la lógica no puede hacerlo". Más que condenar la clausura intelectual de Occidente, expediente metodológico sospechosamente fácil, podríamos objetar el hecho de que las reflexiones antropológicas sobre la representación del tiempo, en su mayor parte, se desarrollaron haciendo caso omiso de esta tradición (cf. OhnukiTierney 1969; Bloch 1977; Bourdillon 1978; Fabian 1983; Friedman 1985; Geertz 1987). En algunos círculos de debate, sin duda, ha sido de buen tono disfrazar de estrechez del pensamiento ajeno lo que no es otra cosa que ignorancia propia. Es cierto que Friedman menciona al pasar a Quine y a Wittgenstein, pero en ninguna parte hay una analítica detallada de las correspondencias y los choques entre las concepciones en pugna, ni una constancia documentada de que el autor está en posesión de todos los hechos filosóficos pertinentes. En general los antropólogos favorecen perspectivas del tipo "en la tribu X se sostiene una idea del tiempo distinta de la nuestra", sin saber que pensamientos muy semejantes a los que intentan describirse también han sido filosóficamente nuestros alguna vez43 y hasta han alcanzado con frecuencia un poderoso estatuto formal. Pero más lamentable, sin duda, es la escasa preocupación por asimilar todos estos antecedentes que trasuntan las elaboraciones computacionales del asunto, al punto que entre las tres líneas investigativas (lógica, antropología, computación) no se encuentran casi conceptos ni herramientas en común, pese a que resulta obvio que todos están hablando de la misma cosa. Las excepciones (los pensamientos de un Balandier vuelto posmoderno sobre la imagen informática del "tiempo real", las erudiciones sintéticas de Jonathan Friedman y alguna otra comidilla suelta) no logran desmentir la tendencia (cf. Balandier 1989:160). En las implementaciones de sistemas basados en el conocimiento (KBS), una de las cuestiones más delicadas del razonamiento temporal tiene que ver con lo que se ha llamado proyección: la derivación de conclusiones sobre lo que en un momento dado puede ser verdad a partir de lo que es verdadero en otro momento, y el mantenimiento de una estructura de conocimientos que permita almacenar y encontrar esas soluciones. Se trataría de algo así como un remedo formal de la experiencia. En general se admite que la inteligencia artificial no ha desarrollado aún respuestas óptimas a este planteamiento; algunas estrategias implementadas, sin embargo, merecen referirse. Modelizar el tiempo es dificultoso, pero posible. Los dilemas proceden menos de la insuficiencia de la lógica que de las flaquezas de la imaginación. Una de las primeras estrategias que 43 Es decir, han tenido oportunidad de pensarse en la lógica o en la filosofía occidentales. 675 procuraron enfrentarse al problema de la temporalidad fue el análisis situacional. Este método permite definir situaciones que representan intervalos de tiempo sobre los cuales se puede presuponer que ninguno de los estados pertinentes del sistema ha de modificarse. Un estado es simplemente un rasgo o propiedad que se pueda atribuir a este intervalo intemporal. Lo que se puede describir concretamente en un cálculo situacional son tales situaciones, sus estados correspondientes y las transiciones entre ellas. El análisis situacional en simulación de procesos existe hoy en dos variantes, una de ellas discreta y la otra continua, que difieren en la naturaleza de los algoritmos utilizados; cada especie se divide a su vez en implementaciones de tipo simbólico o de orden cuantitativo (cf. Widman y Loparo 1989). Fuera del análisis situacional prevalecen dos modalidades contrapuestas y unilaterales, tal vez inevitables, que difieren en la forma de introducir el tiempo como variable en un programa lógico o en un sistema orientado al conocimiento. La primera tiende a concentrarse en la base de datos como si fuera la clave del problema; la segunda asume la información de la base como algo dado y se restringe a las operaciones que posibilitan realizar inferencias proyectivas o retroyectivas. En la terminología de McDermott, las bases de datos dinámicas se conocen como gestores de mapas temporales [time-map manager] y las funciones para desarrollar razonamientos temporales se definen como analizadores del sistema temporal [time-system analyzer]. Un programa que integre estas dos orientaciones se considera un sistema de proyección temporal [time-projection manager] (Tello 1987:487-494). Es posible profetizar que todas las formalizaciones conocidas acabarán fusionándose tarde o temprano en una heurística unificada, probablemente parecida a un algoritmo genético. La modelización temporal disfruta de una frecuentación cada día más intensa; existen variados inventarios de sus características y numerosas exploraciones computacionales que afrontan los problemas que presenta o que matrizan sus aspectos: determinismo temporal, granularidad, puntos e intervalos, límites difusos, persistencia, mediación, correlatos adverbiales, coexistencia, representación espacial, deixis (Kwong 1988). También la lingüística del discurso y la enunciación, la más sensible al fenómeno de la dependencia contextual, ha incidido en estos estudios a través de sus extensiones computacionales. Más allá de los antecedentes venerables de Quine y Prior, en lógica computacional los referentes formales han sido más bien Rescher y Urquhart (1971), quienes han construido su modelo del Sistema R en torno de una rigurosa imaginería topológica. En este modelo se ha definido un operador de realización temporal, t, complementado por otro operador deíctico de uso frecuente, n, que denota "ahora". Como ya lo hemos explicado otras veces, dichos operadores se pueden introducir en Prolog mediante el comando , o se pueden expresar mediante nombres o términos de predicados. Las interfaces del lenguaje con la máquina son asimismo capaces de establecer con suma precisión qué significa "ahora" numéricamente. Mientras que la lógica proposicional común utiliza tablas de verdad, la lógica temporal de Rescher y Urquhart se sirve de un cubo veritativo en el que el tercer eje representa un conjunto de tiempos sobre el que se pueden mapear puntos o intervalos. Con posterioridad se han propuesto otros esquemas muy refinados, como el de Drew McDermott (1982); éste prevé tomar en cuenta el cambio continuo y la indeterminación del futuro, así como la multifurcación de futuros posibles. El advenimiento de los procesadores en paralelo, con toda seguridad, permitirá profundizar aún más en estas representaciones. Hemos experimentado algunas formas de simular el tiempo en Prolog, ya sea aprovechando la temporalidad inherente a los procesos de computación de las máquinas de Von Neumann, o introduciendo algoritmos especiales y estructuras de datos que se van modificando conforme se suceden 676 aserciones y retracciones de premisas. Nuestros modelos de simulación de procesos elaborados como parte de los intercambios metodológicos con las investigaciones del lic. Hugo Yacobaccio, han demostrado la suficiencia y el poder del lenguaje para este tipo de representaciones. Las demandas de la categorización antropológica, concentrada ésta más en el polo de las estructuras que en el de los procesos, no arrojan sobre la programación lógica ninguna presión insoportable, sino que más bien se encuentran en déficit, superadas por la magnitud de la oferta. Programando estrategias más bien simples, es posible implementar simulaciones en reversa, generar retrodicciones, estirar o comprimir el tiempo simulado, modular suaves pendientes de continuidad o avanzar por saltos interválicos abruptos, y mostrar todo eso ya sea en números, en palabras o en imágenes. Uno de esos modelos, el más breve, figura en la cuarta parte del apéndice de la presente tesis. n) Lógicas de la Relevancia, Libres y Superevaluativas Al igual que en el caso de la lógica modal o de la lógica no monótona, existe un amplio rango de lógicas de la relevancia. Las más renombradas se conocen como el sistema R o sistema de la implicación relevante, propuesto por Anderson y Belnap (1962, 1975) y el sistema E, que surge de una combinación de R con el sistema modal S4 para producir una lógica del entrañamiento (Anderson y Belnap 1975). El sistema R no debe confundirse con el esquema homónimo desarrollado por Rescher y Urquhart, aplicado al tratamiento lógico del tiempo. Los lógicos de la relevancia objetan el formalismo convencional que deriva conclusiones válidas a partir de premisas irrelevantes (o que considera irrelevante la relevancia para determinar la validez de un argumento) y exige la relevancia de las premisas antes de considerar válida una conclusión (Anderson y Belnap 1975). Desde un punto de vista algo más formal, y partiendo de la base de que el entrañamiento es la inversa de la deducibilidad, los lógicos de la relevancia afirman que B es deducible de A solamente si se usa genuinamente la derivación de B y no se hace simplemente un rodeo pasando por A. Para que B sea deducible de A, A debe entrañar B. Fogelin resume esta exigencia como la "regla de los negocios sin trampas". El sistema E restringe aún más la deducibilidad, añadiendo a la relevancia el carácter necesario y otras restricciones características de la implicación estricta, tal como se la definió en el sistema modal S4. La lógica de la relevancia no solamente restringe la noción de deducibilidad, agregando operadores específicos para la implicación relevante, sino que en ella, debido a diversos efectos de implicación, las reglas de inferencia clásicas (y ante todo el modus ponens) virtualmente no funcionan. Haack le objeta el hecho de que las consideraciones de relevancia son apropiadas para relegarlas a una dimensión retórica de la valoración de argumentos, más que a una dimensión lógica, y asienta sus sospechas respecto de que la relevancia es desesperadamente recalcitrante al tratamiento formal (1982:36-37, 227). El argumento defensivo de Haack, casi siempre demasiado entusiasta en favor de las opciones conservadoras, es sólo en parte atinado. La relevancia de los antecedentes para probar los consecuentes es un aspecto que la lógica convencional en general no ha problematizado por cuanto ha estado más pendiente de las falacias que se suceden en el encadenamiento de dos o a lo sumo tres premisas, que de la estructuración de verdaderos sistemas lógicos. Haack olvida que la sustancia de los sistemas lógicos se constituye en base a condicionalidades deliberadas y sujetas a un juego 677 acumulativo, y no primariamente en base a implicaciones estrictas acomodadas miembro a miembro. Nada impide que en uno de tales sistemas se fije una condicionalidad contingente de este tipo: Aunque el ejemplo es inductivamente indefendible y por lo tanto falaz de antemano, bien pudiera ser que en un sistema real se filtren otros que no lo sean de una manera tan ostensible. El recorrido sinuoso de los procesos de inferencia por la masa de condicionalidades que se encadenan en un sistema real y el hecho de que no se pueda prever cuáles habrán de ser las preguntas, conjunciones y disyunciones que se propongan a un sistema, incrementan las posibilidades de incurrir en errores de relevancia. Ninguna heurística de procedimientos, hoy en día, ni siquiera en la más computacional de las lógicas, nos pone al abrigo de semejante amenaza. Una vez más, el sentido hiperestricto que los lógicos otorgan al término diverge de la vaguedad connotativa y de la ideologización que se han apoderado de la palabra "relevancia" en antropología. Pero el caso es que la relación entre la relevancia lógica y la relevancia sustantiva, definida ésta última desde los parámetros axiológicos de una disciplina como la nuestra, dista mucho de ser una problemática que alguien haya abordado formalmente alguna vez. Por desdicha, la soberanía de la lógica tiene que ver con la consistencia de las conclusiones a las que se llega, y no con la importancia humana, ética o ideológica de los asuntos que se tratan; ninguna capacidad de modelización inmuniza contra la trivialidad. La relevancia relativa de un asunto por encima de otro (la situación política durante el régimen de Marcos en Filipinas versus la fabricación de bebidas fermentadas entre los subanum según Frake; las matanzas iniciadas por los paramilitares de Sukarno versus la riña de gallos en Bali según Geertz; la secundariedad de las cosas del estómago según Sahlins versus la muerte por hambre en Somalía) seguirá siendo materia eternamente opinable, por cuanto aún en una ciencia axiomatizada esa tensión atañe a la esfera de la interpretación y no a la de las relaciones formales en el interior de un modelo. Es probable que, pese a la seductora promesa que se esconde en su nombre, las lógicas de la relevancia sigan siendo por unos años irrelevantes a los fines de la formalización de nuestra disciplina. De las lógicas llamadas libres no hay mucho que decir, salvo que su denominación vuelve a ser impropia desde la mirada de nuestra disciplina, por cuanto son acaso más "puras" (y más restrictas) que la lógica convencional. En efecto, una lógica libre es, en rigor, una formulación despojada de compromisos ontológicos, que no asume ningún supuesto acerca de la existencia o inexistencia de los términos singulares que la componen, lo cual afecta, de rebote, tanto al uso como a la interpretación de los cuantificadores (cf. Bencivenga 1986). Históricamente, estas lógicas se inspiran en las lógicas inclusivas de Jaskowski (llamadas así por Quine), inventadas en la década del 30 como sistemas de deducción natural capaces de admitir dominios de cuantificación vacíos. También tienen que ver con las lógicas libres los sistemas superevaluativos de Van Fraasen (1969), diseñados para superar las discrepancias entre distintas filosofías del lenguaje subyacentes al trabajo lógico, y las teorías formales de la descripción de Lambert, Grandy y Bencivenga (cf. Bencivenga 1986:415421). Todas estas lógicas tal vez sean adecuadas para expresar ideas que en la antropología sociocultural son recurrentes, tales como los conceptos teóricos (emic o etic) y las entidades míticas, cuyo tratamiento interpretativo, en términos convencionales de denotación, podría llegar a ser enredado o 678 quizá imposible. Se trata no obstante de un ámbito demasiado viscoso y complicado como para que un solo investigador, proveniente de una ciencia extraña, se aventure en él sin la garantía de un apoyo especializado. o) Lógicas Promiscuas Con el correr del tiempo, el eclecticismo acabó por penetrar en las especulaciones antropológicas sobre la fundamentación, que es quizá el único territorio en el que cabría con alguna sensatez proscribir su práctica; testimonio de ello son, por ejemplo, los comentarios de D. Zeitlyn (1984) en los cuales, situándose a la zaga de Cooper, Salmon y Evens, se introducen alternativas que son menos heterodoxas que heterogéneas y menos fundamentadoras que programáticas. El argumento de Evens, espléndidamente escrito, afirma que el problema de la "mentalidad primitiva" siempre ha acabado degenerando en la presunción de que las funciones de esa mentalidad son análogas a lo que nosotros llamamos lógica. Discusiones recientes en el espíritu del neotylorismo, como las de Wilson (1970) o las de Horton y Finnegan (1973), participan de esta tradición. Para Evens la lógica (incluso las lógicas alternativas o la lógica levistraussiana de lo concreto) son impotentes para racionalizar lo que no es racional, "los modos de pensar que, de acuerdo con los trabajos hoy en día más autorizados, son constitucionalmente ambiguos" (1983:114). Y prosigue: No es sorprendente que los antropólogos, de Tylor a Lévi-Strauss, hayan sostenido y reclamado haber resuelto el problema de la mentalidad primitiva dando por sentado que la "lógica" de las prácticas religiosas de los primitivos y las nuestran son estrictamente análogas. Como clientes inconscientes de su propia tradición filosófica, esos antrópologos difícilmente pudieran hacer otra cosa. Nuestra lógica sólo puede discriminar por un lado la lógica en tanto lógica y por el otro la no-lógica, pero no puede reconocer nada entre medio (1983:115). Evens intuye una salida relativista al autoritarismo de la lógica occidental en la adopción lisa y llana de la lógica primitiva como modelo de cobertura. El concepto de primitivo no sólo denota -dice- lo que es anterior en el tiempo, sino también lo que es fundamental. Al no poder construir un esquema lógico para dar cuenta de las prohibiciones del incesto entre los Nuer, Evens ha propiciado abandonar el campo de las lógicas convencionales y trasladarse hacia una "lógica vivida", una "ley de la naturaleza" elíptica que, formalmente hablando, no se sabe muy bien en qué consiste (Evens 1983:122-123). Reaccionando ante este retroceso que nos privaría de toda sustentación, Zeitlyn propone una nueva modalidad de lógica, reputando fallidos tanto los intentos de Reichenbach en física cuántica como los de Cooper y Salmon en antropología. La propuesta de Zeitlyn no es otra cosa que la lógica intuicionista. En este modelo, la ley de la doble negación trabaja en el sentido de que se encuentra legítimo deducir la fórmula siguiente: pero no se considera válida esta otra opción: 679 Lo cual, incidentalmente, coincide con una prescripción notacional y semántica del Prolog que no tiene nada que ver con la filosofía intuicionista. El modelo de Zeitlyn excluye la reducción al absurdo, por cuanto en esa lógica nada se sigue de la afirmación simultánea de un hecho y de su contrario. Dice Zeitlyn: Deberíamos discutir la relevancia de la lógica intuicionista para el caso de los Nuer. Esta es una tarea que debo delegar a otros que estén más familiarizados que yo con la etnografía. [...] Simplemente sugiero que deberíamos preguntarnos cómo sería la operación de esa lógica y cómo podría descubrirse que alguien la está utilizando. Las posibilidades deberían por lo menos discutirse, y sólo después se las debería rechazar (loc.cit.). Lamentablemente, afirmar al mismo tiempo una cosa y la contraria conduce, sea cual fuere nuestra intuición al respecto, a la imposibilidad de demostrar lo que fuere, a menos que se redefina en algún sentido exótico lo que quiere significar cuando se habla de deducir. Hay algo de poco convincente en la postergación de Zeitlyn de lo que, según sus palabras, vale la pena considerar. Por desdicha, las elaboraciones de Evens y los comentarios de Zeitlyn no logran trascender la confusión entre la lógica efectivamente utilizada por los nativos (y que nosotros no vemos por qué ha de ser "racional" y no contradictoria) y la lógica a la que ha de atenerse el modelo que la describa. La diferencia básica radica en que en este último, las aserciones pueden ser contradictorias sin conflicto para el cálculo de sus consecuencias, ya que tanto la afirmación implícita de p y la negación no-p no son operadores, sino valores literales que un mecanismo de cálculo (como lo hemos dicho al principio) ni siquiera interpreta. Hay una diferencia tremenda entre afirmar en una cláusula: y testimoniar mediante la aserción de un hecho que alguien sostiene ideas que, interpretadas por el científico, puedan ser contradictorias, como en este caso: Al haber confundido el lenguaje con el metalenguaje, la lógica con la metalógica, la racionalidad del método con la de su objeto, las ideas de Zeitlyn y Evens (y con ellos, las de Salmon, Cooper y el propio Lévi-Strauss) dejan de ser pertinentes para lo que aquí cabe discutir. Después de esta polémica, creemos percibir un proceso de dispersión en las pocas propuestas que se han publicado o comunicado en favor de alternativas lógicas. Algunas de ellas se acercan peligrosamente a enunciados de sentido común, como si la construcción de un sistema lógico fuera cuestión de añadir operadores o columnas veritativas, o de formular criterios explícitamente elásticos. En los últimos años han abundado opiniones episódicas como "habría que dar lugar a sistemas polivalentes, que reconozcan infinitos valores de verdad" o "habría que implementar mecanismos flexibles de razonamiento difuso o incompleto", sin que nadie se tomara la molestia de especificar cómo es que semejantes replanteamientos formales han de llevarse adelante y cuál ha de ser su escala, su límite y sus criterios de fundamentación. La mayor parte de los científicos que suscriben esos puntos de vista desconoce los esfuerzos que otros pensadores vienen realizando desde hace años en ese campo, esfuerzos que en alguna medida hemos tratado de documentar en los capítulos precedentes. 680 No por nada es más frecuente que estas opiniones se escuchen decir y no que se vean escritas. Si en algo Tyler tiene razón, es en que un sistema lógico difícilmente pueda ser verbal (cf. Tyler 1987). La palabra hablada es menos vinculante que la letra de molde, y en nuestra disciplina todo el mundo ha aprendido a pronunciar castillos en el aire sin sentirse comprometido. Pero si se habla de reformular la lógica (que en definitiva está compuesta por conjuntos de desarrollos axiomáticos), habría que rigorizar mínimamente los nuevos programas y brindar modelos de recambio explícitos, que posean un grado de instrumentalidad por lo menos equivalente al que se disfrutaba antes. No satisfechos con la multiplicidad de las lógicas formales, o tal vez no conociéndolas con la familiaridad debida, algunos antropólogos han inventado otras nuevas, dotadas de operadores y términos capaces (según alegan) de dar cuenta de los matices de razonamiento más recónditos del pensamiento humano en general y de la mentalidad primitiva en particular. Una de esas lógicas desviadas, la de mayor aliento poético es la propuesta por Bateson (1989:39). En ella sería válido este razonamiento: Este mecanismo de inferencia, denominado el "silogismo de la hierba" es, a todas luces, el mismo que rige las metáforas. Su carácter transgresor es ostensible, pero ni aún así elude la posibilidad de implementarse en Prolog mediante técnicas de metaprogramación similares a las que ya hemos visto. Otra de las creaciones en el campo de las lógicas alternativas es la del especialista en inteligencia artificial y antropólogo de la Universidad de Wisconsin en Madison, Sheldon Klein (1983). Se trata de un sistema que no fue satisfactoriamente discutido en oportunidad de su publicación inicial y que vale la pena examinar en detalle por lo que tiene de representativo y por la forma en que permite desplegar en su refutación, como argumento culminante sobre la expresión de unas lógicas por otras, algunas herramientas inducidas por la práctica con el cálculo de predicados. El punto de partida de Sheldon Klein es un conjunto de razonamientos en apariencia sensatos, pero (como ya lo hemos verificado en otros capítulos) insanablemente erróneos: Si el cerebro humano es una especie de autómata de estado finito (es decir, una especie de computadora) en el hecho de que debe realizar cálculos en una cantidad finita de tiempo, utilizando un número finito de pasos para manipular una cantidad finita de información en un espacio finito, entonces explicar la forma en que los seres humanos generan e interpretan la conducta sin utilizar una cantidad desmesurada de tiempo de procesamiento es un problema mayor. Si se afirma que las reglas de conducta están codificadas en una notación equivalente a las estructuras de la lógica proposicional, uno se encuentra ante el hecho desagradable de que el tiempo de procesamiento se incrementará combinatoriamente con la magnitud de la base de datos. Las computaciones con una base de datos del tamaño suficiente para dar cuenta de las reglas de la cultura tomarían demasiado tiempo para permitir que la interacción humana proceda a un ritmo normal. [...] Se sigue entonces que las reglas de conducta deben estar codificadas de otra manera (Klein 1983:151). Ya hemos demostrado que ninguna teoría concibe el mecanismo humano de procesamiento de información como si fuera un autómata finito (Klein debería haber dicho más bien una máquina de Turing), que el tiempo de procesamiento sobre una base de datos se incrementa lineal (y no exponencialmente) conforme a su magnitud, y que el problema es tal vez un seudoproblema, a la luz 681 de la existencia de heurísticas y esquemas mentales que hacen que no toda alternativa conductual deba ser calculada cada vez como si fuera la primera ocasión en que ocurre. Digamos además que es impropio en este caso hablar de base de datos, pues el dilema gira más bien en la naturaleza de las reglas de cálculo, y no tanto en la estructura o en la magnitud de los hechos a que esas reglas (como procedimiento de inferencia) se aplican. También cabe asegurar que en ningún momento, en toda la analítica de Klein, la codificación de los hechos simbólicos se vincula a algo que se parezca a una normativa de las alternativas de conducta a la mano. Pero aunque toda la propuesta de Klein se funde en bases endebles y utilice terminología equívoca, vale la pena examinar esa "otra manera" en que según él se encuentra codificada la información cultural. La semblanza de esa lógica cultural alternativa es un tanto confusa. Dice Klein que el principal componente de las reglas para calcular la conducta humana residen fuera del individuo, en ese fenómeno colectivo que los antropólogos acostumbran llamar "cultura". Este modelo contiene reglas de conducta codificadas en forma de operadores analógicos que relacionan descripciones de estados situacionales. Estos operadores se llaman Operadores Aposicionales de Transformación o ATOs; los ATOs reenvían a las teorías sobre la partición hemisférica cerebral que oponen los modos de razonamiento proposicional y aposicional y que consideran que esa oposición o división del trabajo se encuentra culturalmente determinada (cf. TenHouten y Kaplan 1973; Paredes y Hepburn 1976). Estos ATOs serían al mismo tiempo un mecanismo analítico que puede ser utilizado para calcular la conducta humana por analogía, de una manera que evade muchos de los problemas combinatorios asociados con una presunta computación en base a reglas proposicionales. Muchos de los ATOs de una sociedad dada se encontrarían codificados en los artefactos materiales y simbólicos de su cultura, la cual serviría entonces como repositorio de los mismos. Los sistemas ATOs, dispuestos en complejas jerarquías e identificados con la cultura, son algo así como medios inconscientes por medio de los cuales los hombres en sociedad calculan la conducta por analogía. Un conjunto de items que se refieran a los pares "varón"/"mujer", "joven"/"adulto", "odiar" /"amar", "luz"/"oscuridad", por ejemplo, serviría para formular la analogía siguiente (Klein 1983:152): : Las operaciones desenvueltas por Klein definen algunas abreviaturas que luego no utilizan, se aplican a casos didácticos para los cuales sería tortuoso encontrar correlatos culturales significativos, no problematizan la toma de turnos entre las modalidades "diestras" y "siniestras" de procesamiento cerebral y dan por sentado en el lector un fondo de virtuosismo matemático que el propio autor domina a duras penas. Sea como fuere, el cálculo de la analogía se encarrilaría de este modo: : 682 Como queda evidenciado en el ejemplo, no hay nada que caracterice al operador analógico y que sea matemáticamente distinto de una vulgar operación "proposicional" entre términos dispuestos en pares binarios. En ninguna parte del modelo existe la menor indicación respecto de otras formas no binarias de codificación básica, masivamente testimoniadas por la indagación etnográfica, ni se describen las operaciones analógicas que serían propias de esas estructuras polivalentes o difusas, ni se compara el rendimiento de la inferencia analógica con otras heurísticas en las que abunda la inteligencia artificial reciente. No describiremos aquí ni la naturaleza matemática de los operadores aposicionales ni la sesgada ejemplificación, que recorre las prácticas adivinatorias del I Ching, la pintura navajo en arena y los mandalas de Extremo Oriente, además de otras cuestiones algo más cotidianas. Los malabarismos de Klein con las sumas binarias no hacen olvidar que su dominio de la literatura relevante y de la terminología técnica de la teoría de autómatas es bastante menos que discreta. Si lo hemos comprendido bien, los operadores aposicionales trabajan en términos de analogías entre dominios, fenómenos y niveles que efectúan una función de atajo en la compleja maraña de las oposiciones binarias que constituirían, según Klein lo entiende, el modo proposicional de cálculo, a la larga identificado con toda la lógica. Llamativamente, los ATOs discurren a través del mismo tipo de binarización, por lo cual quedan al margen de toda la investigación reciente sobre la analogía (Sternberg 1977; Anderson 1981) o sobre la semántica difusa: como lo señala Stevan Harnad en sus comentarios críticos, las operaciones analógicas definidas por Klein (de tipo "A es equivalente a B") son simples relaciones proposicionales; la combinatoria ciega, por otro lado, no es el estereotipo correcto de lo que en muchos círculos inclinados al irracionalismo pasa por ser lo "proposicional". Klein coteja los modos proposicionales y analógicos como si tanto los primeros como los segundos tuvieran que vérselas con una retícula arbolada de oposiciones de tipo A/no-A, un poco a la manera de Lévi-Strauss. Antes de aceptar las heurísticas de la analogía, deberíamos estar persuadidos que ese binarismo es un reflejo fiel del modo proposicional del cálculo, lo cual hoy en día es algo bastante difícil de aceptar. Según creemos, las investigaciones de Berlin, Kay y Rosch en Berkeley han arrojado todas esas maniobras de la lógica aristotélica de clases y de la teoría de conjuntos convencional al desván de los malos recuerdos, por no decir nada de lo que resultaría un cotejo con otras formas elaboradas de modelización. Recórranse nuestros programas lógicos o nuestros capítulos sobre las modalidades de representación del conocimiento, y a duras penas se encontrarán estructuras de ese tipo, hechas a la medida para que los adversarios de la computación aplicada diseminen sus lugares comunes. Las ideas de Klein sobre el procesamiento humano de la información corresponden a un pensamiento binarizante que ya se ha demostrado estéril y que es epistemológicamente anterior, incluso, a las fallidas aventuras de la antropología cognitiva clásica derivada de Goodenough. Expresar en un lenguaje de la potencia descriptiva del Prolog los procedimientos del cálculo analógico, restringido a estructuras del tipo "A/no-A" sería harto sencillo, como ya hemos tenido oportunidad de corroborarlo a propósito de (por ejemplo) los esquemas de representación en forma de árbol binario o de clave clasificatoria. La construcción de un sistema cultural atravesado por operadores aposicionales se haría en primera instancia definiendo las oposiciones "proposicionales" básicas en términos de hechos y luego sobreimponiendo reglas de generalización equivalentes a los operadores de la analogía. Según parece, el razonamiento analógico no posee ninguna peculiaridad 683 formal que lo haga inmune a la analiticidad y que impida, por lo tanto, describirlo en un lenguaje orientado a la descripción. Los ejemplos provistos por Klein, por desdicha, no suministran una descripción lo suficientemente completa o clara como para representarla con alguna ganancia. Todo es insinuación y fragmentariedad, como si los razonamientos analíticos hubieran sido ganados por la analógica que suponen caracterizar y como si la contextura binarizante de los dominios modelados no pudiera impugnarse en nombre de frames y esquemas bien conocidos por la ciencia cognitiva y corroborados por un consistente trabajo de campo. El discurso kleiniano está atiborrado de esquemas imaginales que no lo didactizan, y que se aplican al margen de toda la tradición cognitiva y computacional en torno de las redes semánticas y los grafos conceptuales. Oscuro en lo formal, el modelo de Klein se encuentra afectado además por la imposibilidad de una verificación de carácter empírico, que demuestre o que insinúe con cierto margen de plausibilidad que la conducta en los medios sociales que aborda es efectivamente reglada por el desencadenamiento de las operaciones analógicas que él describe. Después de la experiencia recabada por la ciencia cognitiva, que demostró lo difícil que es elicitar sin inducir e informar sin diseminar racionalizaciones, entendemos que una demostración semejante es imposible en principio, lo cual remite todo el esquema a las esferas de la pura especulación, impugnable incluso como axiomática abstracta. No lo seguiremos hasta allí. 4. La Antropología y el universo de las lógicas Los capítulos anteriores han demostrado que, independientemente de la potencia representacional de los principios lógicos que rigen by default, la implementación computacional de la lógica de predicados del primer orden sirve con suprema eficiencia como formalismo para la construcción de modelos fundados en lógicas no del todo coincidentes o discrepantes con el esquema apofántico asertivo binario convencional. Con ello hemos coronado el plan fijado por el equipo de Thayse, describiendo una trayectoria más consecuente, exhaustiva y ordenada de la que siguiera él mismo. Al margen de esa demostración (que se opera en esta tesis por primera vez) hemos trazado sin casi advertirlo un cuadro de correlaciones de problemas sustantivos de las ciencias humanas por una parte y elaboraciones lógicas formales por la otra. La elaboración de estas correspondencias no han sido aún expuestas en su versión definitiva en el transcurso de la tesis. Provisionalmente, dichas correlaciones admiten acomodarse en un conjunto sistemático de pares ordenados: 1) La concepción de Kripke sobre los mundos posibles brinda un formato riguroso a la idea de los universos finitos de sentido de la fenomenología schutziana y a los "mundos con su propia lógica" que pretenden dar cuenta de un abigarrado conjunto de fenómenos culturales, cuando no de las diferencias culturales mismas. 2) Las normas contradictorias de la lógica deóntica que perturbaban a Von Wright tienen su contrapartida en la hipótesis batesoniana del doble vínculo y en las elaboraciones de Festinger sobre las disonancias cognitivas. 684 3) Los lenguajes presuposicionales de Van Fraasen articulan una expresión sistemática de los implicit meanings de Mary Douglas, de los enigmáticos unsaid y unspeakable de Stephen Tyler y de los "presupuestos que se dan por descontados" que pululan en textos que testimonian el tardío redescubrimiento antropológico y etnometodológico de la convencionalidad. 4) Las "extensiones" de la lógica modal re-expresan una idea interesante (pero bastante mal formulada) en el complementarismo de Devereux. 5) La polémica entre el monismo y el pluralismo lógico reproduce los sentidos y las inflexiones de la querella antropológica entre el formalismo y el sustantivismo económico. 6) La lógica temporal axiomatiza algunas de las reflexiones construidas al abrigo de las modalidades dinamistas, procesuales y diacrónicas del pensamiento antropológico. El tratamiento de la diacronía y el cambio en términos lógicos pone al descubierto dificultades que no habían sido previstas en los abordes que se atienen al sentido común. No por nada los modelos computacionales en los que prevalece la temporalidad son "modelos de simulación de procesos". Esta es una especie formal que se construye a falta de otra solución mejor, cuando todavía los resortes esenciales de un mecanismo sistémico son desconocidos. 7) Del mismo modo, la lógica inductiva ha producido reflexiones que esclarecen los dilemas estadísticos y categoriales de la antropología transcultural, relacionando (programación lógica mediante) las estructuras de la representación de datos y el álgebra relacional con los teoremas formales de la inducción. 8) Hemos tomado registro de la concomitancia entre los grados de evidencia de la lógica intuicionista de Heyting y la semántica de prototipos de los científicos cognitivos, quienes hablan por aquel lado de intuiciones más o menos rotundas y por éste de valores de verdad más o menos taxativos. 9) La lógica multivaluada, por último, ha servido para indagar disciplinadamente problemas antes remitidos a un difuso "pensamiento prelógico", cuya lógica, en rigor, tampoco ha sido sistemáticamente examinada en términos formales. El registro es impresionante más por lo que anuncia como programa de investigación que por lo que concluye como indagación consumada. Creemos que muchas de esas concomitancias pueden ser metodológicamente significativas, y estamos resueltos a profundizar en su desarrollo cuando la ocasión se presente. Es probable que la elaboración de modelos lógicos para ciertos espacios temáticos de la disciplina se encuentre, de aquí a unos años, cotejando la fuerza de lógicas alternadas, puliendo los conceptos disciplinares al mismo tiempo que los inserta en matrices controlada y axiomáticamente distintas para observar, con toda intención y escrúpulo, cómo es que actúan cuando el escenario difiere. En un segundo nivel de sistematización (ya sea porque no se contrastan con formulaciones lógicas históricamente dadas o porque lo hacen de un modo que ya ha sido descubierto) se acomodan los pares ordenados análogos de algunos problemas tradicionales, vertidos en una nueva matriz: la semántica de prototipos y la lógica difusa, el análisis componencial y las grillas de repertorio, el paradigma indicial (o la "inferencia clínica") y las heurísticas expertas. Ninguna lógica, ninguna 685 práctica de representación, a pesar de la enorme distancia que media y seguirá mediando entre los desarrollos formales y las teorías empíricas, se nos ha revelado inservible a priori. La reformulación de todos esos problemas en términos lógicos traza una perspectiva que creemos harto más homogénea, ordenadora y precisa que las que se han prodigado en el profuso género literario de los "replanteamientos" discursivos que periódicamente sacuden a la disciplina (Leach 1961; Hymes 1972; Sperber 1974; Rosaldo 1989). Un solo modelo vinculante (el de la programación lógica) congrega y asume las funciones de una cantidad indefinida de propuestas de renovación estratégica. Ante esta promesa, el peligro mayor que avizoramos es el de la desmesura, de la que periódicamente los revisores preliminares de esta tesis no han acusado con alguna justicia, aunque sin parar mientes en lo restringido de los propósitos, de contrastarlos con los de esas obras mesiánicas. Que la nuestra no sea, como tantas otras, una intentona de replantear la antropología en su conjunto; nos damos por satisfechos con repensar sus métodos y con aportar una pequeña salida positiva a la crisis en la que, a despecho de aquellos grandes proyectos, nos hemos precipitado. La lógica, entonces, tiene algo que decir, aunque la programación lógica merezca descartarse a largo plazo. Lo anteriormente expuesto confluye con las observaciones asentadas a propósito de las relaciones entre los tipos de problemas y los tipos de formalismos que requieren, comenzando a trazar las líneas para una futura correlación sistemática (típica, paramétrica, en el peor de los casos orientadora) entre clases de problemas antropológicos y modos lógicos de resolución. Para evitar que, como suele suceder, esa realización se postergue ad calendas graecas, la hemos comenzado a sustanciar en nuestros programas de aplicación. Queda pendiente, de todos modos, dirimir filosóficamente la polémica entre monismo y pluralismo lógico, que es la más violenta y dificultosa de todas (cf. Haack 1979, 1982). Al igual que en la querella entre formalismo y sustantivismo, la disputa entre ambas facciones se articula sobre las ideas conflictivas de (a) una lógica universal para subsumir todos los problemas, o (b) una floración infinita o innumerable de lógicas particulares, que al obedecer a los dictámenes de la especificidad de los fenómenos que aborda, deja de constituir un marco fijo de referencia. Olvidado ya el simplismo de las categorías aristotélicas o kantianas, desacreditado el racionalismo que sostiene que toda la estructuración del mundo sale de nuestras cabezas, el punto es que no se sabe con certeza cuántas lógicas nos obligará a postular la variabilidad objetiva del mundo, de las sociedades y de las culturas. No hemos podido aún gestar sobre un algoritmo irreprochable la recomendación en favor de una lógica determinada, en detrimento de otras. Tampoco nos hemos ocupado frontalmente de decidir cuál de todas las lógicas es la mejor construida o la más instrumental, pues entendemos que no hay un piso común para apoyar esta comparación. Dando quizá su cuota de razón al pluralismo, sospechamos que ello depende del problema al que corresponda aplicarlas. 686 V PROGRAMAS Y ESTUDIOS DE CASOS 0. INTRODUCCION No se hace justicia a un mecanismo cuya capacidad de respuesta es exponencial respecto al número de variables que trata si se lo describe a través de la secuencialidad de un medio escrito inerte, estático, incapaz de reflejar el comportamiento dinámico del objeto que refiere. En la propia descripción del modelo computacional se tornan reflexivamente palpables las limitaciones de toda escritura discursiva (y por ende, de la lengua natural) cuando se trata de referir una situación móvil, un proceso decisorio que se ramifica, una deducción cuyas premisas se transforman, una interacción que se enriquece en el tiempo, a despecho de que uno de los interactores sea una máquina: si el lenguaje escrito convencional es inadecuado para describir el modelo, como parece serlo, no cabe ni siquiera pensar en confiarle que dé cuenta sistemáticamente de la realidad, en permitir que se arrogue él ese delicado privilegio que es el de dar cuerpo e impulso al modelo mismo. Pese a que un lenguaje formal puede no ser mejor que la lengua natural para describir una dinamicidad cualquiera, es seguro que servirá de todos modos al propósito de simularla o de convertirse en un análogo. Aunque por otros motivos (que nada tienen que ver con la objetividad, ni con las certidumbres trascendentales, ni con el anhelo de construir imposibles teorías axiomáticas) alguna razón tenían quienes afirmaban que el pensamiento riguroso requiere de una signatura o un lenguaje específico, de una Ars Signorum como la de Dalgarno o una Begriffschrift como la de Frege. Delegar en el lenguaje vulgar la responsabilidad de la modelización equivaldría a instaurar una discursividad que al mismo tiempo se erige en modelo y metamodelo, práctica de la ciencia y epistemología, hermenéutica y representación. Una formulación discursiva no tiene límite y casi cualquier aserción le está como adherida, veniendo al caso para su cuestionamiento o su defensa. El lenguaje natural ya tuvo su chance durante más de un siglo, y estamos como estamos, aunque no sólo sea por eso. El lenguaje común puede servir a muchos fines, desde la evocación en el sentido de Tyler hasta la polémica teórica a la manera de Harris, pasando por la narrativa, la crónica, la ironía, la dialógica y la heteroglosia; qué duda queda que seguirá sirviendo a esos propósitos y a otros, sin importar que a través de él mismo se proclame su caducidad. Pero no es creíble que el lenguaje de la cotidianeidad, con su peso y sus resonancias, constituya el material óptimo para la representación modélica de las cosas, aunque en última instancia siempre deba retornarse a él. Hacer un modelo es, ante todo, romper con el lenguaje, aunque sólo fuere a título provisional. A esta altura del desarrollo de la tesis, resultará obvio que en nuestra elaboración epistemológica optamos por un lenguaje formal, aunque insistimos muy poco en las habituales prédicas escolásticas en torno de las frases-bien-formadas y otros personajes familiares del folklore axiomático, porque todo sistema computado presupone ya el control del parsing; y esa tarea, en buena hora, ha dejado de figurar en la agenda humana. Ahora bien, cuando el lenguaje formal es un lenguaje de computadora, el modelo ya no es sólo una expresión lingüística que puede comunicar algo, sino un programa que debe funcionar de alguna manera, y el criterio para evaluarlo es menos la elegancia abstracta de la formulación o su verosimilitud que la eficacia concreta de la computación resultante. El espectáculo no está en los arabescos del lenguaje, sino en los comportamientos modélicos que desencadena: el lenguaje los hace factibles al sentar un cauce y un orden, y reglas de juego que pueden ser arbitrarias 687 y pobres, pero que al menos son reglas. Los ejemplos que figuran en el apéndice no pueden demostrar la fuerza de la programación lógica a quienes no los hayan visto en su versión computacional, funcionando a pleno y proporcionando respuestas. A escala de lo que se acostumbra en el gabinete antropológico, podría decirse que la productividad de estos modelos en materia de respuestas es más que exponencial: es, al igual que los universos lógicos que se generan y los espacios de búsqueda que se abren, incontablemente infinita, porque las preguntas a las que ellos pueden responder no han sido definidas de antemano y cualquier combinación, cualquier operación conjuntiva o disyuntiva es posible. Un modelo así se enajena a quien lo construye aún más de lo que las escrituras llegan a ser extrañas para quien las escribe, porque puede responder a preguntas que están más allá del plan inicial. Y esto es así no por virtud de los modelos concretos que hemos programado, sino por la potencia de cálculo de los formalismos abstractos que los fundamentan. Razones de extensión nos fuerzan a incluir unos pocos programas, los más breves que hayamos diseñado para cada género y ciertamente no los mejores; una selección más adecuada habría desbalanceado este ensayo, haciendo aparecer los razonamientos que preceden a los ejemplos como si fueran un pre-texto. Hay que advertir que ningún programa agota, con sus objetivos explícitos, las posibilidades resolutorias del campo que su interpretación cubre. Aquí sólo se trata de demostrar que la programación lógica forma parte de un proyecto poderoso y sensato, y no de resolver todos los problemas sustantivos que pueden surgir alrededor de una investigación antropológica circunscripta, a la escala obsesivamente magnificada en la que el especialista los percibe en el estudio de un caso. Pero son estos programas, la experiencia que trasuntan y su contexto de producción en intercambio con otros investigadores los que evitan que este ensayo sea (valga la paradoja) un enunciado programático de un entusiasta que no ha medido las consecuencias de lo que asegura, y que promueve utopías metodológicas sin tomarse la molestia de averiguar si son viables. En nuestro trabajo en cooperación con especialistas de áreas, han sido éstos (y no nosotros) quienes han pronunciado la última palabra respecto del valor de las herramientas desarrolladas y de la naturalidad de las soluciones provistas. Sabemos incluso que algunos de nuestros programas, pensados más que nada con fines didácticos y experimentales, han seguido la ruta pirata y están siendo utilizados como si fueran herramientas acabadas dentro y fuera de la antropología. No todas las idas y venidas de la elaboración pueden transcribirse, y es una pena que así sea. Un programa de computadora sólo es legible en pequeñas dosis, en los episodios en que se abordan inflexiones definitorias de una estrategia, heurísticas nuevas, pruebas de importancia crítica. A los efectos de la documentación los programas incluidos son modelos completos, acabadamente implementados, pero en el cuerpo de la tesis sólo se describe a grandes trazos su estructura global y sus procedimientos fundamentales. Un listado de un programa fuente requiere una lectura estructurante, y de allí la abundancia de comentarios, las ilustraciones, las notas sedimentadas y convergentes. Hemos renunciado a explicar paso por paso la forma en que cada programa resuelve cada uno de los dilemas (antropológicos o computacionales) que se le plantean, y nos contentamos con indicaciones genéricas que podrán ser luego precisadas ante quien lo solicite. Ninguno de los programas incluidos es lo que se dice una entidad definitiva, ya que periódicamente volvemos sobre ellos para mejorarlos, ponerlos a prueba con mayor dureza o añadirles prestaciones. Un programa lógico no es, a fin de cuentas, una finalidad en sí mismo, e igual cosa debería poder decirse del modelo que él encarna. Los programas incluidos, sin embargo, pese a su declarada provisionalidad, funcionan y se exponen en público a quienes deseen formular un camino igualmente replicable, pensando en su opti688 mización o en su escarnio. Esto es más de lo que puede decirse de tantos métodos antropológicos que se han propuesto y que, en el momento justo en que toca exponer una preceptiva de implementación capaz de garantizar su replicabilidad, cuando se levanta la fachada de palabras para exhibir sus resortes, se muestran refractarios a una expresión sincera. Aparte de funcionar mal o bien, nuestros programas proporcionan un punto de arranque concreto (al cual admitimos ampliamente perfectible) e insinúan líneas de búsqueda tendientes a una instrumentación más fluida de la inteligencia artificial en las ciencias sociales, o por lo menos de la programación lógica en la antropología. Al contrario de lo que ha sido característico de otras estrategias, asimismo, lo que se expone en esta tesis es menos la construcción del momento metodológico de una investigación real basado en determinado formalismo, que la demostración axiomática y general de su constructibilidad. Aunque nuestra motivación rehuye a las pedagogías, el aprendiz de Prolog puede extraer ya mismo de estos ejemplos pautas generales de programación que los libros de texto rara vez consignan: tratamiento integral de representación en pantalla, selección de rutinas, control de procedimientos, heurísticas, conversión de programas declarativos a procedimentales, organizaciones alternativas de bases de datos, representación de la incertidumbre, arrastre de probabilidades, herencia de atributos por la pendiente de las jerarquías taxonómicas, construcción de motores de inferencia orientados a la clasificación y a la diagnosis. Todas las claves para el desciframiento de los predicados built-in incluidos en estos programas figuran en el Apéndice VIIa; los elementos no incluidos en dicho anexo son procedimientos y cláusulas ad hoc, lógicas o procedimentales, cuya explicación se desprende de la estrategia de resolución específica del programa en que aparecen. Aunque cada una de las soluciones computacionales ensayadas ha sido discutida en extenso con especialistas en programación o en inteligencia artificial, no estaría de más que algún antropólogo se plegara al debate. No vendría mal que el lector afronte las ejemplificaciones que proporcionamos como una instancia capaz de desmentirnos; eso sería preferible a que se las salteara, reputando los formalismos como un ornamento inútil, como un señuelo para deslumbrar incautos o como un rigor espurio, à la Gardin, concebido para impresionar. Entendemos que un lenguaje de computación debería ser una referencia formal de dominio público que posibilita la comunicación entre científicos, como una lingua franca, y no una criptografía privada consagrada a preservar el secreto de los métodos que no funcionan. Por este motivo, los desarrollos adjuntos han procurado no ser idiosincráticos; se rigen por lineamientos de programación propios de diversas versiones de Prolog que el progreso tecnológico ha tornado asequibles y promueven la replicabilidad y el acatamiento de estándares como un valor adicional. Los programas han sido escritos tal como se requiere para su implementación inmediata en un equipo tipo Personal Computer IBM Compatible con 512 Kilobytes de memoria mínima, a condición de contar con el programa intérprete. A la fecha [enero de 1991], el costo total de una base de trabajo para una implementación de este tipo insumiría en nuestro país entre mil docientos y tres mil dólares, incluyendo la máquina, el sistema operativo y el software. Los dialectos del lenguaje Prolog utilizados han sido los siguientes: Turbo Prolog de Borland, versión 2.0 (cf. Turbo Prolog Reference Manual y Turbo Prolog User's Guide; Townsend 1986; Schildt 1986; Smith 1988; Rich y Robinson 1988). Constituye el dialecto más vendido del lenguaje. Está dotado de una eficaz interface con el usuario y posee un enorme repertorio de predicados para tratar con la máquina. Arity Prolog Interpreter, versión 4.0, de 1986. Distribuido por la Arity Corporation de Concord, Massachusetts. Incluye un núcleo de Prolog puro casi cien por ciento conforme al estándar de Edinburgo o Prolog de Clocksin y Mellish. 689 Arity Prolog Compiler & Interpreter, versión 5.0, de 1988 (cf. Clocksin y Mellish 1987). Subsume al núcleo puro de la versión anterior y proporciona una poderosa interface de programación. El Prolog/V complementario del Smalltalk/V de Digitalk, en versión de 1989. Esta es una versión ligeramente atípica del lenguaje, inserta en un entorno gráfico de programación orientada al objeto. Micro-Prolog, versión 3.1 (cf. Clark y McCabe 1984). Es un producto originariamente desarrollado por Logic Programming Associates de Londres para sistemas Z-80 bajo CP/M. Aunque se aparta muchísimo del estándar, admite una interface de simulación de Prolog DEC-10, apta para problemas de mediana complejidad que no requieran soluciones instantáneas. Utilizamos una copia mínima del producto, restringida al intérprete, sin compiladores ni interfaces elaboradas. Turbo Prolog, uno de los dialectos utilizados, parece ser conflictivo. Aclaremos, sin embargo, que todos los programas han sido escritos y puestos a punto en todos y cada uno de los dialectos de que disponemos, modificando las estrategias de programación conforme a su varianza tipológica. La decisión de adoptar el Turbo Prolog y de otorgar prioridad a las ejemplificaciones en este dialecto responde a sus extraordinarias condiciones de portabilidad: pese a que la sintaxis de los programas elaborados en Turbo Prolog no obedece al estándar de facto, los programas aquí incluidos posiblemente se hallen entre los desarrollos antropológicos en inteligencia artificial más portables y compatibles que existen. En efecto, los usuarios del dialecto escogido suman más de un cuarto de millón en todo el mundo y las máquinas en que dichos sistemas pueden implantarse no son menos de treinta millones. Las posibilidades de que un eventual lector transcriba los programas en su instalación y obtenga el mismo efecto son por consiguiente mucho más amplias si se escoge esta opción. Todo ponderado, digamos que la elección de un dialecto difícilmente pueda defenderse sobre una base axiomática, pues el dialecto mismo está destinado a modificarse a la brevedad (dos años, como máximo, con tendencia a disminuir) para posibilitar su supervivencia en un mercado competitivo, y algunas veces sólo para simbolizarla. Durante el período de escritura de esta tesis, el Turbo Prolog ha desaparecido del mercado, reapareciendo con marca de fábrica PDC Prolog bajo la responsabilidad de sus diseñadores originales del Prolog Development Center de Broendby, Dinamarca. Admitimos de buen grado que este dialecto del lenguaje no es el ideal; ninguno lo es, en rigor, pero éste en particular no disfruta de demasiado prestigio entre los puristas lógicos, por cuanto no se atiene al canon sintáctico y está regido por un control de tipificación que, en apariencia, restringe su flexibilidad (cf. Malpas 1987:422-430; Covington et al 1988:458-481; Tello 1988:377-384). Se ha dicho, por ejemplo, que en Turbo Prolog es difícil o imposible metaprogramar, asertar reglas, estipular cláusulas genéricas de cálculo de predicados de segundo o tercer orden y definir nuevos operadores. En general estas objeciones carecen de sustento, como todas las que giran en torno de afirmaciones proyectivas sobre lo que un lenguaje no es capaz de hacer. Un verdadero lenguaje, así se rija por una gramática de cláusulas generales, es siempre un formalismo casi ilimitadamente productivo, y sus límites de articulación, recursividad y educción son muy difíciles de calcular de antemano. Sean cuales fueren sus peculiaridades en cuestiones de sintaxis, control de tipos y eficacia computacional, todos los dialectos de Prolog utilizados responden a la misma fundamentación formal y al mismo plan genérico. Se ha demostrado, además, que el Turbo Prolog es lo suficientemente flexible como para oficiar de metalenguaje al propio Prolog de Edinburgo, y se han programado motores de in- 690 ferencia capaces de simular una máquina lógica idéntica a la del lenguaje canónico (cf. Weiskamp y Hengl 1988; Rich y Robinson 1988; Floyd 1988; Hashim 1988). El alcance del Turbo Prolog en materia de proyectos de inteligencia artificial excede a la del paradigma de la programación lógica en sentido estrecho. Hace pocos meses, sin ir más lejos, Berkshire Software ha anunciado la comercialización de un producto conocido como Neuralog, una herramienta para implementar redes neuronales programada en Turbo Prolog que habremos mencionado al pasar. Neural