METÁFORAS EN LA EVOLUCION DE LA CIENCIA Héctor A. Palma REFERENCIA: Palma, H. (2004), Metáforas en le evolución de las ciencias, Buenos Aires, J. Baudino Ediciones. AGRADECIMIENTOS Este trabajo es una versión, con algunas modificaciones, de mi tesis de doctorado titulada “Estudio sobre la relevancia epistémica de las metáforas en la evolución de la ciencia”, presentada en la Universidad Nacional de Quilmes, defendida el 18/9/03, y realizada bajo la dirección del Dr. Pablo Lorenzano. Vaya mi agradecimiento hacia él; algunos aciertos de este trabajo se deben a sus excelentes sugerencias y acompañamiento, pero, de hecho, lo desligo definitivamente de toda responsabilidad por eventuales errores. También quiero agradecer al sistema universitario público argentino porque, aún en condiciones de adversidad inusitadas, sigue produciendo conocimiento y generando las condiciones para la formación académica y profesional de sus estudiantes de grado y posgrado: en particular a la Universidad de Buenos Aires donde realicé mi formación de grado; a la Universidad Nacional de Quilmes porque me ha permitido cursar estudios de posgrado en un clima amable y de excelencia académica; y, principalmente, a la Universidad Nacional de Gral. San Martín porque su apoyo me ha permitido crecer en investigación y docencia. En momentos muy dificiles para el sistema educativo en su conjunto renuevo mi compromiso con los valores de la universidad pública. PRESENTACION El recopilador de graffitis “Era una metáfora. La metáfora es siempre la mejor forma de explicar las cosas” (J. Saramago, Todos los nombres) Una afirmación bastante curiosa podía leerse, hace ya muchos años -muchísimos para mi gusto-, en el portón de la casa en que convivíamos, a veces en equilibrio precario y según la costumbre de la inmigración italiana, abuelos, padres, nietos, tíos y primos. Escrita con tiza de cera negra, sostenía que “La muerte tiene complejo de altura”. Podía pensarse que se trataba de un inquietante solapamiento entre alguna variante psicoanalítica y el eterno problema de la frágil existencia humana. O de una parte, extrapolada arbitrariamente, de una ontología capaz de cuantificar en términos de estatura el acto final y solitario de nuestra vidas. Como quiera que sea, que alguien se haya tomado el trabajo de escribirla, y justamente allí, indicaba que ese intento comunicativo no era simplemente una afirmación absurda. Algún significado bien oculto parecía estar acechando, desafiante, por detrás de esas pocas palabras. Así pareció entenderlo alguien que recopilaba graffitis por la ciudad de Buenos Aires y en poco tiempo la frase apareció junto con otras, publicada en una de esas revistas semanales, olvidable por varios motivos aunque, por lo menos para mí, no por este. El recopilador, intrigado y sin ninguna pista sobre su sentido misterioso, atribuyó al autor y con eso supongo que habrá quedado tranquilo, la posesión de cierta racionalidad-oculta eso sí- que permitiría en caso de conocerla, realizar la traducción de la frase. No cabía sino tomar aquello como una metáfora, como una gran metáfora. Y consideró que tal calidad metafórica, en relación directa con su sentido profundamente oscuro, debía hacer referencia a alguna cuestión de gran trascendencia filosófica o algo parecido. Pero nosotros sabíamos que ‘la muerte’ era el mote con que algunos niños del barrio llamaban a una persona que tenía mal carácter, debido, según la particular óptica de ellos, a algún conflicto psicológico derivado de su baja estatura. La inquietante metáfora no era, finalmente, más que una vulgar frase perfectamente descriptiva. Y además, de dudosa validez psicológica y casi seguramente falsa. No había, pues, más que lo que se decía. Me gustaría poder decir que este episodio, anterior a cualquier interés mío por la filosofía de la ciencia, fue de tal significación emocional que signó mi vida posterior y mi investigación sobre las metáforas; que la dualidad de sentidos ante el mismo conjunto de signos quedó como una suerte de atavismo que resurgió en el momento menos esperado y con tanta fuerza que marcó mi interés intelectual mucho tiempo después. Pero estaría faltando a la verdad, aunque no es eso lo que me priva de decirlo. También aquí la verdad es más simple. El insignificante episodio barrial volvió a mi memoria, aunque en un sentido diferente al de otras ocasiones, luego de terminar este trabajo en el que propongo analizar en su sentido literal las metáforas que se utilizan en ciencia. Es decir, una actitud opuesta a la del recopilador de graffitis. Habitualmente se sostiene que las metáforas son expresiones en las cuales se dice algo pero se evoca o sugiere otra cosa, que sus mejores ejemplos pertenecen al lenguaje literario y que no son relevantes en el discurso científico. Este trabajo se propone discrepar en distinto grado con estas tres afirmaciones: se sostendrá que la metáfora dice algo por sí, y no como mera subsidiaria de otra expresión considerada literal; que si bien hay excelentes ejemplos de ellas en la literatura, también hay metáforas brillantes y fecundas en la ciencia y, la tesis más fuerte, que las metáforas cumplen en la ciencia un papel constitutivo fundamental. Qué hacen sino una metáfora, los que sostienen que el universo es una especie de organismo, o bien que es una máquina, o que es un libro escrito en caracteres matemáticos; los que sostienen que la humanidad o una civilización se 'desarrolla' o se 'muere', que las leyes de la economía o la sociología son exactamente análogas a las de la física newtoniana, que entre las empresas comerciales, las innovaciones tecnológicas, o aun entre los pueblos y culturas hay un mecanismo de selección de tipo darwiniano; que el mercado se autoregula a través de la ‘mano invisible’, que la evolución de las especies puede exponerse a través del 'árbol de la vida'; que la mente humana es como una computadora o bien que una computadora es como una mente, que la ontogenia humana repite o reproduce la filogenia o al revés que la filogenia repite la ontogenia, y una lista casi interminable de ejemplos más. Muchas veces, y en defensa del privilegio epistémico de la ciencia suele presentarse a las expresiones precedentes como meras ‘formas de hablar’, como un lenguaje figurado o desviado que cumpliría en el mejor de los casos funciones didácticas o heurísticas, pero que no expresaría la verdadera explicación, que la ciencia posee pero que es inaccesible para los no especialistas. Es indudable que esta es una parte, quizá la menos interesante, del problema; pero también resulta claro que en infinidad de ocasiones las metáforas utilizadas parecen ser genuinos intentos de descripción y/o explicación acerca del mundo. Sobre esta base puede redoblarse la apuesta: la ciencia no sólo utiliza metáforas a veces y de manera marginal o accesoria, sino que, por el contrario, se constituye principalmente a través de procedimientos metafóricos que, en este sentido, son más la regla que la excepción. En la relación entre metáforas y conocimiento pueden distinguirse varias líneas que a su vez pueden ser vistas como etapas. La primera, la más extensa, atada a la concepción estético-literaria, que niega a la metáfora toda relevancia y valor cognoscitivo; todos los esfuerzos teóricos por establecer la naturaleza de la metáfora en este sentido coinciden en expulsarla del campo del conocimiento y del lenguaje referencial, salvo a través de la intermediación del lenguaje literal. Una segunda etapa que culmina con el desarrollo de las versiones de la epistemología estándar en el siglo XX basadas en el esfuerzo por depurar y formalizar el lenguaje científico pero cuyas derivaciones a despecho de las formulaciones iniciales, contemplan el valor heurístico de las metáforas y modelos científicos; en el mejor de los casos, se reconoce a las metáforas un papel psicológico irremplazable en el contexto de descubrimiento. Una tercera etapa que se ha ido consolidando en las últimas décadas rescata el valor de las metáforas a costa de considerar el lenguaje científico en los mismos términos que el lenguaje literario o bien como una práctica que no difiere, en lo sustancial de otras prácticas humanas con resultados discursivos. Este trabajo pretende, algo presuntuosamente quizás, inaugurar una cuarta etapa, que sin caer en posiciones retoricistas o hermenéuticas, rescate el valor cognoscitivo y epistémico de las metáforas considerando que las que circulan y circularon a través de la historia de la ciencia poseen dos cualidades: por un lado un valor referencial propio y no secundario o subsidiario de un lenguaje literal, es decir un status cognoscitivo genuino y, por otro lado relevancia epistémica, es decir funciones de legitimación del conocimiento circulante, en el contexto de las circunstancias históricas y sociales. En términos conceptuales, la relación entre ciencia y metáforas seha plantedao en general a través del siguiente dilema: o (primer cuerno) las ciencias solamente emplean recursos cognoscitivos representacionales y transmisores de información y por ello desechan todo uso de metáforas y analogías o (segundo cuerno) las ciencias se literaturalizan, se consideran como usos lingüísticos con referencialidad difusa y por ende se admite con toda libertad el empleo de recursos retóricos y estilísticos que apunten a convencer y lograr consenso. Pero se trata de un falso dilema, porque ambos cuernos (perspectivas) se basan en el mismo supuesto: la negación del valor cognoscitivo/epistémico de las metáforas. En efecto, la perspectiva deudora de la tradición epistemológica estándar, pretende defender la especificidad de la ciencia sobre la base de un lenguaje formalizado y depurado en el cual algunos de sus enunciados tienen una referencia empírica directa sin mediación alguna. Pero pretender que las prácticas científicas y el lenguaje resultante no difieren en lo sustancial, más allá de ciertos rituales y particularidades instrumentales, de otras actividades y lenguajes no referenciales también implica no reconocer un valor cognoscitivo para las metáforas; se trata más bien de establecer aquello en lo que la ciencia coincide con otras prácticas y aquí las metáforas- y otros recursos retóricos- apoyarían la disolución de la diferencia. Este trabajo cobra sentido apartándose de este falso dilema y encuentra su ubicación a partir del convencimiento de que son tan indefendibles tanto las tesis fuertes de la CH y sus derivaciones como así también las impugnaciones extremas de la misma. Evidentemente un planteo semejante implica una ampliación de la base de análisis de la racionalidad científica que va más allá de pautas meramente metodológicas o logicistas; pero no hay que temer que una ampliación semejante pueda caer en la negación o disolución de esa misma racionalidad porque la revalorización de las metáforas puede hacerse sobre bases diferentes. El objetivo de este trabajo es, en apretada síntesis, proponer un programa de investigación en estudios sobre la ciencia que considere a un tipo especial de metáforas -las metáforas epistémicas- como unidad de selección de una epistemología evolucionista y, además exponer -en la segunda parte- una serie de episodios tomados de la historia de la ciencia en los cuales puede reconocerse el uso de metáforas. Tales propósitos implican, en primera instancia una elucidación y posterior reevaluación del concepto de 'metáfora' y la propuesta de una epistemología evolucionista. Con respecto a la metáfora se argumentará (Capítulo 1) en favor de una concepción que combine criterios semánticos y pragmáticos y que pueda eliminar diacrónicamente la distinción literal/ metafórico para considerar a los enunciados en un pie de igualdad con su referencia. También se argumentará en favor del 'parecido de familia' que hay entre metáforas y buena parte de los modelos científicos. Asimismo se expondrá el estado actual de la cuestión en los estudios sobre la ciencia (Capítulo 2) en general y en particular en el tratamiento que se hace de la metáfora en las distintas líneas para mostrar la existencia de un clima favorable a la revalorización del uso de metáforas en ciencia. Pero no se trata tan sólo de sostener la relevancia de las metáforas, sino además mostrar que el desarrollo de la ciencia puede ser explicado desde un punto de vista evolucionista, es decir tomando como modelo para su comprensión y descripción los conceptos básicos que surgen de la biología evolucionista. Se propondrá una epistemología evolucionista (Capítulo 3) que pueda superar algunas deficiencias ya detectadas en algunas versiones conocidas. Básicamente, se pretende generar un modelo que pueda ser aplicado tanto a un análisis diacrónico como sincrónico de la práctica científica, y que suponga que sobre el conjunto de estructuras conceptuales disponibles en cantidad limitada pero amplia surgida de ciertos mecanismos de producción de variedad, operan instancias diversas de selección entre esa variedad disponible. Finalmente, deben operar ciertos mecanismos de transmisión-conservación de alguna/s variedad/es a través del tiempo. Estas estructuras conceptuales pueden ser de la más variada índole, complejidad, origen y alcance, tales como taxonomías, conceptos, teorías, valores culturales, valores epistémicos, prejuicios, etc., y los diversos mecanismos de selección (en lo que aquí importa los referidos exclusivamente al quehacer de los científicos) se ponen en funcionamiento en la medida en que tales estructuras conceptuales van extrapolándose, deslizándose o filtrándose de un ámbito de conocimiento a otros, a través de un juego de tipo metafórico. Las estructuras y modelos conceptuales, pueden considerarse entonces como el arsenal de potenciales metáforas disponibles. A esas metáforas que cumplen un papel destacado e insustituible en la ciencia se las denominará 'metáforas epistémicas', para diferenciarlas de aquellas otras que cumplen funciones estéticas u ornamentales, aunque la diferencia entre ambos tipos, en muchos casos sea sólo de grado, habida cuenta que las metáforas epistémicas suelen ser bellas. La Segunda Parte, denominada 'Las metáforas en la historia de la ciencia', estará dedicada a exponer sumariamente algunos episodios de la historia de la ciencia en distintos niveles de amplitud y alcance. En primer lugar de un nivel muy general, como por ejemplo las posiciones derivadas del teleologismo clásico –asociadas al concepto de physis del mundo griego- y el mecanicismo moderno. Luego se analiza el tráfico de metáforas de una ciencia consolidada hacia otras áreas o disciplinas. Básicamente se tomarán dos fuentes proveedoras de metáforas: la física newtoniana y la biología. En tercer lugar, en un nivel de menor generalidad aun, se abordarán las metáforas de uso interno en las distintas disciplinas o áreas científicas y también se hace alguna referencia al uso didáctico o pedagógico de las metáforas. PRIMERA PARTE EPISTEMOLOGÍA DE LAS METAFORAS CAPITULO 1 METÁFORAS Y MODELOS CIENTÍFICOS Aires de familia -¡Metáforas! -¿Qué son esas cosas? El poeta puso una mano sobre el hombro del muchacho. -Para aclarártelo más o menos imprecisamente, son modos de decir una cosa comparándola con otra. (A. Skarmeta, Ardiente paciencia) Este Capítulo persigue varios objetivos relacionados con la elucidación del concepto de ‘metáfora’. En primer lugar explicitar las concepciones semánticas y pragmáticas acerca de la metáfora para mostrar algunas deficiencias que ambos puntos de vista presentan si se los toma en forma aislada. Un enfoque combinado parece más adecuado ya que si bien en la metáfora algo ocurre en el nivel del significado, también es cierto que es indispensable atender al contexto de su formulación. En segundo lugar proponer una concepción sincrónica/diacrónica de la metáfora, considerando que el lenguaje metafórico surge por un proceso que se denominará "bisociación"; pero, una vez producida, ese lenguaje inicialmente metafórico, dice algo por sí y no subsidiariamente. Por ello la distinción entre lenguaje literal y lenguaje metafórico adquiere una dimensión diferente: tiene sentido en un análisis sincrónico pero resulta estéril, cuando menos para las metáforas usadas en ciencia, cuando se hace un análisis diacrónico. En tercer lugar se analizan algunos aspectos en los cuales modelos científicos y metáforas guardan profundas similitudes: hay discusiones acerca del estatus cognoscitivo/epistémico de las metáforas en paralelo con el que se ha desarrollado acerca de los modelos científicos; si lo que se intenta mostrar en este trabajo es de qué modo algunos modelos y metáforas particulares de un ámbito de la ciencia, pasan a otro ámbito nuevo, puede equipararse la distinción lenguaje metafórico/lenguaje literal/realidad con la distinción modelo científico1-el del ámbito original- /modelo cientifico2el del ámbito receptor-/realidad. No se tratará, pues, de discutir el status ontológico de los modelos ni su relación con el sector del mundo del cual son modelos, sino de esos procesos en los cuales un modelo pasa de un ámbito de conocimiento a otro: los modelos científicos pueden considerarse como originales que se transforman en metáforas cuando son extrapolados desde un ámbito científico determinado hacia otro en el cual no se habían usado con anterioridad. Pretender establecer la vinculación entre metáfora y conocimiento remite inmediatamente a algunos tópicos. En primer lugar, y surgiendo de las concepciones tradicionales, el estigma de las metáforas: constituyen una ubicua función del lenguaje, al tiempo que un obstáculo para cualquier comprensión racional de la realidad. En efecto, entre las funciones del lenguaje pueden identificarse claramente las de producción y transmisión de información y conocimiento por un lado, y por otro la de establecer comparaciones, analogías y ese tipo particular de analogías que son las metáforas. Habitualmente se ha establecido una clara distinción entre ambos grupos de funciones, considerándolas no sólo como disociadas sino, en sentido estricto, como incompatibles. El primer grupo permanece asociado a la descripción y explicación de ‘lo real’, el segundo a la zona nebulosa y misteriosa de la intuición y la creatividad sin rigor ni límites. En segundo lugar, hay una amplia zona de intersección entre ciencia y metáforas que está dado por el uso habitual de éstas en la divulgación científica y en la enseñanza de las disciplinas curriculares en tanto recursos didáctico-pedagógicos. Suele justificarse este procedimiento, considerado no legítimo en sentido estricto, por la imposibilidad del público no iniciado y de los alumnos que comienzan su formación profesional, de comprender la ciencia tal como la hacen los científicos. En tercer lugar, y ya con relación directa no tanto con la transmisión sino con la producción misma de conocimiento científico, surge el problema del estatus de un caso muy especial de analogías, los ‘modelos científicos’, instrumentos cognitivos con cierto rigor conceptual y a los que se otorga una isomorfía parcial con un sector de la realidad que se pretende conocer y/o explicar. Los modelos científicos se parecen mucho a las metáforas. Hay entre ellos cierto aire de familia: ambos determinan, delimitan y refieren a dos ámbitos y suponen la posibilidad de establecer alguna semejanza, comparación o relación de comunidad entre ellos, es decir, en la posibilidad de plantear algún tipo de analogía. Incluso los significados comunes y técnicos de las nociones de ‘modelos’ y ‘metáforas’ en buena medida se superponen, de modo tal que las diferencias no siempre se pueden establecer con claridad y de modo excluyente. Desde la antigüedad no ha habido problemas con las metáforas y en general con las analogías: se ha constituido en lugar común afirmar que en la medida en que resultan de un lenguaje figurado o desviado, no poseen en última instancia valor cognoscitivo alguno. Por otro lado, la filosofía de la ciencia del último siglo ha tratado de rescatar y precisar la noción de modelo científico, que, no obstante, está sujeta a disputas de fondo derivadas tanto de su eventual relación con el mundo empírico como sobre su estatus ontológico: ¿en qué sentido puede decirse que los modelos son copias de algo?; ¿tienen los modelos un valor meramente instrumental o heurístico o, por el contrario, constituyen descripciones realistas de algún sector del mundo?. En suma, hay un campo de problemáticas sumamente extenso y complejo que, por lo menos en algunos aspectos, merece ser analizado con cierto detenimiento. 1. TEORÍAS SOBRE LA METAFORA Por lo que sabemos, Aristóteles, fue el primer autor que abordó el estudio de la metáfora sistemáticamente, a la par que fijaba lo que consideraba su limitación fundamental. Su ya clásica definición es: “(...) la transposición de un nombre a cosa distinta de la que tal nombre significa. Esta transposición puede hacerse del género a la especie, de la especie al género, de la especie a la especie o por una relación de analogía” (Aristóteles, Poética, 1457b) Según esta definición, entonces, habría cuatro formas de producir metáforas. La primera, la que va del género a la especie, Aristóteles la ilustra tomando la frase con que Méntor informa a Ulises: “allí estuvo parada mi nave”: la metáfora aparece en la expresión ‘estuvo parada’ ya que ‘anclar’ es cierta manera de estar parado; el nombre propio es ‘se encuentra anclado’ que constituye una especie del género ‘estar parado’. Se dice el género en lugar de la especie. La segunda, de la especie al género, se ejemplifica en la escena en que Ulises castiga a Tersites. Alguien comenta que el héroe “ha cumplido un millar de acciones hermosas”. Allí ‘un millar’ está tomado en sentido metafórico, siendo un caso específico de la expresión genérica ‘un gran número’. La tercera forma, de especie a especie se realiza cuando un término es reemplazado por otro del mismo nivel de generalidad. “Digo que una especie sustituye a otra por ejemplo en las siguientes: ‘Extrayéndole el alma con el bronce’ y ‘Degollando con el indomable bronce’. Aquí, en efecto, ‘extrayendo’ quiere decir ‘degollando’, y ‘degollando’, ‘extrayendo’, pues ambas palabras representan 1 modos de ‘sacar violentamente’ (Aristóteles, Poética, 1457b) La cuarta y última forma de construir una metáfora es por relación de analogía (Poética, 21, 23-25; Retórica, 1410b y ss.). Una analogía es posible toda vez que existen cuatro términos relacionados de tal manera que el segundo (B) es al primero (A) como el 1 En la traducción castellana esta metáfora resulta bastante forzada y poco efectiva cuarto (D) es al tercero (C). La forma típica de la metáfora por analogía se construye, entonces, intercambiando los términos B y D de la proposición, como en el ejemplo que sigue tomado del propio Aristóteles: si tomamos dos ámbitos diferentes, como el de la biología y el de la astronomía, y en su interior distinguimos dos campos, el de la vida individual (B) y del día solar (D), podemos establecer entre ellos una semejanza: "una vida es como un día" (o viceversa, pues la semejanza y la analogía, a diferencia de la metáfora, son reversibles). A partir de esta semejanza puede definirse la siguiente analogía: “vejez / vida = tarde / día", es decir, "la vejez es a la vida como la tarde es al día". De aquí se siguen metáforas de los tres tipos mencionados: • A de D: "la vejez del día" (de donde: "envejecía el día", etc.) • C de B: "la tarde de la vida" (de donde: "en el ocaso de su vida", “aspecto crepuscular”, etc.) • A es D: "la vejez es un atardecer" El ejemplo precedente está en línea con el sentido clásico de analogía, que significa ‘correspondencia’, ‘proporción’, ‘según proporción’, ‘proporcional’. Básicamente se trata de la semejanza que se establece entre términos, conceptos o cosas que se comparan. Mediante la analogía, a veces incluso de modo metafóricamente caprichoso, pueden agruparse distintos conjuntos de cosas de los que se afirma una característica común por semejanza: el niño, el río, el vino o el vinagre y hasta la lengua tienen todos “madre”; el aspecto, el clima o el alimento son “sanos”, pero en un sentido que a la vez coincide y que difiere, aunque en realidad todo predicado ha de entenderse analógicamente, cuando no se hace abstracción de la realidad: hablar de la vida vegetal y de la vida animal es un uso analógico del término, que se aplica en realidad de forma distinta a un vegetal o a un animal. La proporción a que se refiere la etimología, y que ha fundamentado su uso tanto en el lenguaje ordinario como en el filosófico, es la proporción matemática2, llamada propiamente geométrica, que se expresa según la secuencia a:b::b:c, en la que el primer término se refiere al segundo igual como éste al tercero; cada uno de estos términos se llama analogado; la relación o proporción, cuantitativa en origen, pasó luego a ser cualitativa. Aristóteles también se refiere a un caso especial de metáforas consistente en atribuir el nombre de una cosa a otra que no tiene nombre, proceso denominado catacresis, para lo cual aconseja que “no se obtengan metáforas de cosas remotas sino próximas y 2 El término procede de los escritos de los pitagóricos, donde significa proporción matemática, concepto que aplican tanto a la armonía musical como a las magnitudes del cosmos. Platón utiliza la noción de analogía como proporción (matemática) para explicar sobre todo la función del Bien en su teoría fundamental de los dos mundos (“lo que es el sol en el mundo visible es el bien en el mundo invisible”), así como para señalar el grado de claridad y verdad que poseen los segmentos a que se refiere la metáfora de la línea. Aristóteles, además de utilizarla como método comparativo en ética y biología -iniciando así el uso del argumento de analogía- funda la teoría de la analogía del ser, que se convertirá en punto fundamental de la metafísica de la filosofía escolástica medieval, que establece una relación metafísica u ontológica, por lo mismo de algún modo real, entre los analogados. Andando los siglos, I. Kant llama ‘analogía’ a los principios del entendimiento que regulan en general la experiencia y la naturaleza. No hay naturaleza ni experiencia, según Kant, sin que nuestra mente se represente a priori que todo fenómeno supone una conexión necesaria de percepciones, de modo tal que “la experiencia sólo es posible mediante la representación de una necesaria conexión de las percepciones”. El principio general de las analogías dice: “todos los fenómenos, en cuanto a su existencia, están sometidos a priori a reglas que determinan sus relaciones reciprocas en un tiempo”. Todo fenómeno representa una sustancia que permanece en el cambio, una causa o un efecto que se suceden en el cambio, o una interacción de reciprocidad. A estas tres posibilidades llamó Kant analogías de la experiencia en general y, en particular: principio de la permanencia de la sustancia (“en todo cambio de los fenómenos permanece la sustancia y el quantum no aumenta ni disminuye en la naturaleza”); principio de la sucesión temporal según la causalidad (“todos los cambios tienen lugar de acuerdo con la ley que enlaza causa y efecto”), y principio de la simultaneidad según la ley de la acción recíproca o comunidad (“todas las sustancias, en la medida en que podamos percibirlas como simultáneas en el espacio, se hallan en completa acción recíproca”). emparentadas, de modo tal que el parentesco se perciba claramente tan pronto se han dicho las palabras”. Además del estudio de las formas posibles que adquiere la metáfora, Aristóteles (Retórica 1404b 32 - 1405b 20), trazó normas para su utilización. Concebía este recurso como circunscripto al lenguaje poético, constituyendo su adecuado uso una demostración del genio del escritor. Por otro lado, el conocimiento no podía quedar atado a una instancia tan impredecible y carente de reglas. Frente a la abundancia del lenguaje figurado y de imágenes utilizados por su maestro Platón, Aristóteles sostuvo la necesidad de una extrema sobriedad para evitar la ambigüedad y la equivocidad. Por ello el lenguaje metafórico debía ser suprimido de la episteme. La caracterización desarrollada por Aristóteles, adolece a mi juicio de dos limitaciones básicas: la primera, no demasiado importante por depender sólo del criterio de evaluación, reside en el hecho de considerar a las metáforas principalmente como un recurso literario; la segunda, más sustancial y de alguna manera causa de la primera, es que se basa en un orden metafísico determinado que es inteligible en términos de género y especie, de modo tal que la distinción entre uso literal y metafórico obedece al orden de lo real. Sin embargo, desde los griegos hasta la actualidad y a propósito de metáforas, ha corrido mucho agua bajo el puente. Si bien la tradición aristotélica, con variantes menores, ha perdurado durante siglos, la cuestión no parece agotada y en las últimas décadas han proliferado debates en torno a la distinción entre lenguaje literal y metafórico y las relaciones que entre ellos se establecen; sobre la naturaleza semántica o pragmática de las metáforas; y aun sobre la posibilidad de asignarles contenidos cognitivos genuinos. Ya es tiempo, entonces, de analizar con algo más de detalle estas disputas, que surgen de enfoques que exceden los marcos tradicionales de la retórica y la lingüística. Hay varias formas de establecer una sinopsis de las discusiones acerca de la metáfora, sobre todo si se trata de vislumbrar su papel estético/literario. Pero la intención de este trabajo no es clasificar las distintas formas que adquiere la metáfora (cf. Vianu, 1967) sino más bien abordar otras dos cuestiones. Por un lado los análisis acerca de la naturaleza de las metáforas, expresados en la oposición entre concepciones semánticas y pragmáticas, con el objetivo de mostrar que ninguna de las dos da debida cuenta de lo que significa ‘usar’ y ‘comprender’ una metáfora, sobre todo el tipo de metáforas cognoscitivas; por lo cual se hace necesario más que tomar partido por una u otra versión tratar de complementarlas, reconociendo tanto que hay en ellas una transferencia de significados como sostiene la concepción semántica como así también que su éxito y vigencia se resuelven en el uso del discurso, tal como sostienen las concepciones semánticas. Por otro lado, y a propósito de la distinción entre lenguaje literal y lenguaje metafórico, se reconstruirá parcialmente el debate entre los que mantienen la dualidad de lenguajes e indagan sobre las relaciones entre ambos y sobre la naturaleza misma de tal dualidad y, en el otro extremo, los que sostienen que no existe nada que pueda propiamente llamarse lenguaje metafórico en oposición a un lenguaje literal. Se sostendrá también aquí una posición que complemente ambos polos de la oposición: puede hablarse de una dualidad de lenguajes en un análisis sincrónico dado que una expresión o conjunto de expresiones de uso literalizado en un ámbito de discurso determinado pasa a otro ámbito nuevo como discurso, inicialmente, metafórico; pero en un análisis diacrónico debe abandonarse la distinción literal/metafórico y, entonces el lenguaje inicialmente metafórico enfrenta las mismas cuestiones que cualquier lenguaje considerado literal y puede ser considerado a la luz de sus posibilidades cognoscitivo-epistémicas. 1.1. concepciones semánticas de la metáfora Existen históricamente dos grandes líneas que analizan la naturaleza del discurso metafórico: los llamados enfoques semánticos, ya clásicos como Aristóteles, ya contemporáneos como I. A. Richards (1936), P. Ricoeur (1975), M. Black (1962), o N. Goodman (1968), entre otros; y los enfoques pragmáticos como los de D. Davidson (1984, 1991), A. Martinich (1991), o J. Searle (1991), entre otros. Estos enfoques dispares tienen consecuencias directas sobre uno de los tópicos del análisis: la distinción entre lenguaje literal y lenguaje metafórico, que implica a su vez establecer la naturaleza de tal distinción o bien justificar su inexistencia. El enfoque semántico sostiene que el juego metafórico surge porque algo ocurre con el significado de los términos o expresiones intervinientes. Entre estas teorías semánticas pueden distinguirse enfoques que apuntan a solucionar la cuestión apostando a que la metáfora opera como una sustitución de significado, de otros que sostienen que se da algún tipo de interacción entre lenguaje literal y metafórico. Un análisis, fundamentalmente semántico, aunque con un reconocimiento explícito de la importancia de la dimensión pragmática es el que ha desarrollado, en un texto ya clásico en la materia, Black (1962). Alli, Black distingue dos enfoques básicos acerca de la relación entre ambos lenguajes: por un lado, el enfoque sustitutivo (susbtitution view), con su variante el enfoque comparativo (comparison view) y, por otro lado el que él propone, el enfoque interactivo (interaction view). Según el enfoque sustitutivo la expresión metafórica funciona como un sustituto de una expresión literal. El uso metafórico consistiría así en el uso de una expresión en un sentido distinto del suyo propio o normal, en un contexto que permitiría detectar y transformar del modo apropiado aquel sentido impropio o anormal. Lo mismo que dice la metáfora podría expresarse de modo literal. Comprender una metáfora sería como descifrar un código o hacer una traducción. Es comprensible que, según este enfoque, se adjudique a las metáforas un papel principalmente estilístico u estético. Black distingue, dentro del enfoque sustitutivo un caso especial, el enfoque comparativo, según el cual la expresión metafórica tiene un significado que procede, por cierta transformación, de su significado literal normal. En este sentido la metáfora sería una forma de lenguaje figurado (como la ironía o la hipérbole) cuya función es la analogía o semejanza, y en tal sentido la expresión metafórica ‘M’ tendría un significado semejante o análogo a su equivalente literal ‘L’. El problema parece estar, y en ese punto centra sus críticas Black, en suponer que para que ‘M’ pueda sustituir a ‘L’ debería haber una analogía o semejanza dada de antemano. Si esto fuera así, sostiene Black, las metáforas estarían regidas por reglas estrictas tanto de producción como de interpretación, siendo que la potencia de la metáfora parece proceder más bien de su carácter un tanto impreciso. En todo caso parecería más apropiado y esclarecedor decir que la metáfora crea la semejanza más que dar cuenta de una semejanza preexistente. A la hora analizar la metáfora, Black sostiene que se trata de un enunciado –u otra expresión- en el cual alguna/s palabra/s tiene/n un uso metafórico en medio de otras palabras que no lo tienen, como por ejemplo en las expresiones: • ‘el hombre es un lobo’ • ‘atacó todos los puntos débiles de mi argumento’ En los ejemplos precedentes se puede diferenciar entre el foco -la o las palabras usadas metafóricamente -en este caso 'lobo' y 'atacó'- y el marco, es decir, el resto no metafórico de la expresión. En cualquier caso el análisis de Black supone la existencia de dos tipos de lenguaje, el literal por un lado y el metafórico por otro, y, en ese sentido puede darse que dados dos marcos diferentes, una misma expresión pueda o bien producir metáforas diferentes o bien producir una metáfora en uno de los marcos y ser incapaz de hacerlo en el otro. Este señalamiento, y aunque Black es habitualmente ubicado entre los defensores de una concepción semántica, ubica la atención en una cuestión clave: las metáforas no representan tan sólo una cuestión semántica, sino también y quizá principalmente, se desenvuelven en el ámbito de la pragmática del lenguaje. En efecto, si bien cuando se dice que una expresión es una metáfora se dice algo acerca de su significado, también es cierto que hablar de metáfora implica atender a las condiciones mismas de posibilidad de su concreción: las circunstancias en que se emplean, los pensamientos, actos, sentimientos e intenciones de los hablantes en las ocasiones correspondientes. Existe una enorme cantidad de contextos en los cuales el significado de la expresión metafórica depende de las intenciones de los hablantes, de las circunstancias concretas en que es emitida, ya que no existen reglas precisas en el uso normal del lenguaje que permitan detectarlas y entenderlas de manera unívoca. Black propone, como superación de los enfoques sustitutivo y comparativo, considerar a las metáforas según un enfoque interactivo. Cuando se construye una metáfora, más que una comparación o sustitución, se ponen en actividad simultánea –en interacción- dos ámbitos que habitualmente no lo están según las siguientes características: 1. El enunciado metafórico tiene dos asuntos (subjects) distintos: uno principal y otro subsidiario. 2. El mejor modo de considerar tales asuntos es, con frecuencia, como ‘sistemas de 3 cosas’ y no como ‘cosas’. 3. La metáfora funciona aplicando al asunto principal un sistema de ‘implicaciones acompañantes’ característico del subsidiario. 4. Estas implicaciones suelen consistir en ‘tópicos’ acerca de este último asunto, pero en ciertos casos oportunos pueden ser implicaciones divergentes establecidas ad hoc por el autor. 5. La metáfora selecciona, acentúa, suprime y organiza los rasgos característicos del asunto principal al implicar enunciados sobre él que normalmente se aplican al asunto subsidiario. 6. Ello entraña desplazamientos de significado de ciertas palabras pertenecientes a la misma familia o sistema que la expresión metafórica; y algunos de estos desplazamientos, aunque no todos, pueden consistir en transferencias metafóricas. 7. No hay ninguna razón sencilla y general que de cuenta de los desplazamientos de significado necesarios: esto es, ninguna razón comodín de que unas metáforas 4 funcionen y otras fallen” (Black, 1962, [1966, p.224]) . En la expresión ‘el hombre es un lobo’, según el punto de vista interactivo, hay dos asuntos, el principal, el hombre (o los hombres) y el subsidiario, el lobo (o los lobos). Para que la metáfora funcione, el destinatario no debe ser totalmente ignorante acerca de los lobos, pero tampoco es necesario que conozca el significado normal, de diccionario o biológico acerca de los lobos, o que sea capaz de usar esta palabra en sus sentidos literales, sino que tan sólo le resulta indispensable conocer el ‘sistema de tópicos’ que acompañan a la expresión. Black argumenta: (…) Imaginemos que se pide a un profano que diga, sin reflexionar especialmente sobre ello, qué cosas considera verdaderas acerca de los lobos: el conjunto de afirmaciones resultantes se aproximaría a lo que voy llamar aquí el sistema de tópicos que acompañan a la palabra ‘lobo’; y estoy asumiendo que en cualquier cultura dada, las respuestas de distintas personas a este ensayo concordarían bastante bien, y que incluso un experto ocasional, que podría poseer unos conocimientos desusados acerca de tal cuestión, sabría, con todo, ‘lo que el hombre de la calle piensa sobre ella’. Sin duda, desde el punto de vista de la persona enterada, el sistema de tópicos podría incluir muchas semiverdades o, simple y llanamente, errores (como cuando se clasifica la ballena entre los peces); pero lo importante para la eficacia de la metáfora no es que los lugares comunes sean verdaderos, sino que se evoquen presta y espontáneamente (y por ello una metáfora que funcione en una sociedad puede resultar disparatada en otra: las personas para las que los lobos sean encarnaciones de difuntos darán al enunciado ‘El hombre es un lobo’ una interpretación diferente de aquella que estoy dando por supuesta aquí). (...) Por tanto, el efecto que produce el llamar metafóricamente- ‘lobo’ a una persona es el de evocar el sistema de lugares comunes relativos al lobo: si esa persona es un lobo, hace presa en los demás animales, es feroz, pasa hambre, se encuentra en lucha constante, ronda a la rebusca de desperdicios, etc.; y cada una de las aserciones así implicadas tiene que adaptarse ahora al asunto 3 Luego (1977), Black realiza algunas precisiones tales como llamar ‘primario’ y ‘secundario’ en lugar de ‘principal’ y ‘subsidiario’ y el asunto secundario (principalmente) como un sistema de cosas antes que como cosas. 4 En las referncias bibliográficas se indica la fecha de la publicación original. En los casos en los que se transcribe de la versión en español se señala, además, entre corchetes el año de edición y la página. principal (el hombre), ya sea en un sentido normal o en uno anormal; lo cual es posible – al menos hasta cierto punto- si es que la metáfora es algo apropiada. El sistema de implicaciones relativo al lobo conducirá a un oyente idóneo a construir otro sistema referente al asunto principal y correspondiente a aquél; pero estas implicaciones no serán las comprendidas por los tópicos que el uso literal de ‘hombre’ implique normalmente: las nuevas implicaciones han de estar determinadas por la configuración de las que acompañen a los usos literales de la palabra ‘lobo’, de modo que cualesquiera rasgos humanos de que se pueda hablar sin excesiva violencia en un 'lenguaje lobuno’ quedarán destacados, y los que no sean susceptibles de tal operación serán rechazados hacia el fondo –la metáfora del lobo suprime ciertos detalles y acentúa otros: dicho brevemente, organiza nuestra visión del hombre”. (Black, 1962, [1966, p. 49/50]) Para ilustrar su posición interactiva, Black introduce un ingenioso artefacto (hablando de metáforas): un vidrio ahumado en el que se ha trazado un reticulado de líneas que permiten el paso de la luz (“let us try to think of the metaphor as a filter”). Si se mira el cielo estrellado a través este filtro se entiende, según Black, la interacción: puede decirse, sin exagerar, tanto que se ve el cielo a través del filtro como el filtro a través del cielo. Esta idea ha sido muy fructífera en la epistemología y tiempo después Th. Kuhn (1979), arriesgará la conjetura de que el mismo proceso de tipo interactivo es el que se pone en juego en la producción y uso de conceptos y modelos en ciencia. Ricoeur es otro de los representantes del punto de vista semántico y pretendiendo establecer una superación del punto de vista tradicional, saca a la metáfora de los límites restrictivos de la palabra y la lleva al nivel de la frase para definirla como una innovación semántica que se produce a partir de un desvío (Ricoeur, 1975) originado por la tensión entre las dos posibilidades interpretativas que el enunciado admite. La antigua retórica, según Ricoeur, privilegiaba el tropo porque se limita a indicar el efecto de sentido que recae sobre una parte de la palabra y no la producción de sentido que opera en el nivel del enunciado completo. Pero el ’desvío, señalado por Ricoeur aparece en la predicación total y compete a la capacidad interpretativa, por lo cual se producen dos interpretaciones, una literal y otra metafórica entre las cuales se establece una tensión que tiende a suprimir la interpretación literal. Esta interpretación metafórica, según Ricoeur, establece una contradicción que luego destruye, transformándola en una contradicción significante. La semejanza, al ser eliminada la relación palabra con palabra se convierte en un parentesco que aparece allí donde la visión ordinaria no percibe ninguna conveniencia mutua y compromete así a todo el enunciado. La acepción nueva que ha adquirido la relación de semejanza elimina la sustitución de una palabra por otra y la reemplaza por una tensión que otorga sentido en el nivel del enunciado, de modo que la metáfora aparece como un proceso instantáneo de creación por el cual se ha operado una innovación semántica, innovación que no permite la traducción y que al mismo tiempo proporciona conocimiento. De las concepciones semánticas interesa aquí rescatar la idea de que las metáforas producen nuevos significados, sea cual fuere el mecanismo por el cual lo hacen; la imposibilidad de dar una parafrasis literal de las mismas, su intraducibilidad en suma, es argumento en favor de ello (luego se volverá sobre el tema). De este modo queda abierta la puerta para tratarlas como a cualquier enunciado informativo literal. 1.2 las concepciones pragmáticas ¡Qué con las metáforas, pues, Don Pablo, tiene a mi hija más caliente que una termita! (A. Skarmeta, Ardiente paciencia) El punto de vista semántico tiene serios problemas a la hora de explicar por qué puede suceder que una expresión lingüística sea interpretada literalmente en un contexto y metafóricamente en otro o por qué algunas metáforas tienen éxito. Esto ha llevado a pensar que se trata de una cuestión atendible desde la pragmática. La dimensión pragmática cobra sentido a partir de separar entre lo que es el significado lingüístico, determinado por el sistema de la lengua, y el significado comunicativo, determinado por el contexto en que los hablantes usan la lengua según reglas que les permiten entenderse. El significado lingüístico está determinado por las reglas de la gramática y la semántica, y constituye un núcleo relativamente fijo de convenciones lingüísticas. El significado comunicativo por su parte se rige según ciertos principios no demasiado rigurosos que regulan la interacción comunicativa racional. Las perspectivas o concepciones pragmáticas comparten básicamente la idea de que hay elementos ajenos a los propiamente lingüísticos, es decir, elementos del contexto, que determinan o influyen decisivamente en la producción y/o comprensión de las acciones lingüísticas. Subyace a esta consideración básica un modelo de producción y comprensión de significado que se suele calificar como inferencial, en contraste con el modelo semiótico, basado en la noción de código (de Bustos, 2000). Según el modelo inferencial, los procesos de codificación y descodificación no desempeñan ningún papel significativo en la descripción y explicación de la comunicación lingüística. Se trata de una consideración fundacional: los humanos no se comunican lingüísticamente operando códigos mentales subyacentes que permiten la expresión y comprensión de lo que las acciones significan, sino que, por el contrario, lo hacen según un modelo inferencial, produciendo y captando información a partir de informaciones antecedentes en un proceso en el cual alguien quiere transmitir información a otro. Para ello utiliza su conocimiento del conjunto de convenciones compartido por la comunidad comunicativa a la cual ambos pertenecen. Ese conjunto de convenciones se pone en juego de forma relativa a la representación de la situación, en que va a realizar la acción. Dicha representación constituye básicamente lo que se conoce como contexto de la acción verbal. Ambos hablantes, agente y receptor funcionarían del siguiente modo: “i) Si quiero decir (significar, transmitir, hacer saber...) x, entonces, dado C, he de hacer z. Donde x representa al objeto de la intención comunicativa del agente, es decir, lo que se denomina el significado del hablante, C el contexto pertinente para la expresión de esa intención y z la acción verbal que constituye el medio apropiado tanto para su expresión como para su comprensión. Desde el punto de vista de la recepción, el proceso es básicamente el inverso, esto es, consiste esencialmente en la reconstrucción de la intención comunicativa del agente: (ii) Si A ha hecho z, entonces, dado C, ha querido decir x. Esto es, para la comprensión del significado de la acción verbal, el auditorio ha de partir igualmente de una representación del contexto, que puede coincidir o no con la del agente, y de su conocimiento de las convenciones sociales y comunicativas que restringen el ámbito de las posibles interpretaciones de z. Utilizando ambos tipos de conocimiento como parte de la información movilizada en sus conjeturas sobre el sentido de la acción de A, puede llegar a una conclusión sobre el objeto de su intención comunicativa, esto es, acerca del significado de la acción verbal”. (de Bustos, 2000, p. 269) Probablemente dos autores fundamentales que analizan el surgimiento del significado metafórico desde un punto de vista pragmático sean Searle y Davidson. El primero sostiene que el problema que plantean las metáforas es un caso particular del problema de explicar de qué modo el significado del hablante y el significado léxico u oracional se distinguen o separan. Sería un caso especial de decir una cosa y significar algo más. Sostiene que es erróneo plantear que la oración (o el término) tienen dos interpretaciones o acepciones diferentes, una literal y otra metafórica, y la semántica tuviera que dar cuenta de ambas y de sus posibles relaciones. En todo caso las expresiones en cuestión pueden usarse de dos formas diferentes. Según Searle, el significado metafórico "es siempre significado proferencial del hablante", esto es, significado que adquieren sus palabras cuando se utilizan en circunstancias concretas, significado no convencional. Al distinguir de un modo tan tajante los ámbitos propios del significado literal y el significado metafórico, se plantea el problema inmediato de su (posible) relación: o bien no existe relación en absoluto y el auditorio deriva la interpretación metafórica de principios ajenos a la semántica, o bien existe un procedimiento lingüísticamente especificable mediante el cual el auditorio deriva esa interpretación, calculándola o computándola. Ahora bien, la concepción de Searle sobre el comportamiento humano en general, y el lingüístico en particular, es intencionalista. La interpretación de las proferencias de un hablante por parte de un auditorio requiere la captación de las intenciones de ese hablante al utilizar las expresiones. Por tanto, la pragmática debe indicar los principios mediante los cuales se efectúa esa adquisición. Parte de esa explicación es general y parte particular. El aspecto general se refiere a los principios que permiten a la audiencia comprender que el hablante quiere decir, y dice, algo más, o algo diferente, de lo que sus palabras dicen. Esto vale tanto para las expresiones metafóricas, como para las irónicas, los actos de habla indirectos, etc. En general, forma parte de la explicación de por qué y cómo el significado de las proferencias del hablante difiere de su significado convencional o semántico. En cambio, la parte específica de la explicación ha de referirse a los medios o estrategias particulares que emplea el hablante/oyente para producir/interpretar las expresiones metafóricas. Searle (1991) desarrolla ocho de estos principios pragmáticos por los que puede arribarse a metáforas exitosas: "Principio 1: Aquellas cosas que son P son por definición R. Usualmente, si la metáfora funciona R será una de las características salientes de P. Así, por ejemplo: ‘Sam es un gigante’ será tomado para significar ‘Sam es grande’, porque los gigantes son grandes por definición. (...) Principio 2: Aquellas cosas que son P son contingentemente R. Si la metáfora funciona, la propiedad R debería ser una saliente o bien conocida propiedad de las cosas P. Así, por ejemplo: ’Sam es un cerdo’ será tomado para significar ‘Sam es sucio, glotón, y demás’. (...) Principio 3: Aquellas cosas que son P frecuentemente se dice o se cree que son R, aun aunque tanto el hablante como el que escucha puedan conocer que R es falso de P. Así, por ejemplo: ’Richard es un gorila’ puede ser enunciado para significar ’Richard es indigno, sucio, proclive a la violencia, y así’. Aun cuando tanto el hablante y el que escucha conozcan de hecho que los gorilas son asustadizos, tímidos, y criaturas sensibles, generaciones de mitologías sobre los gorilas han instalado asociaciones que permiten que la metáfora funcione aun cuando hablante y oyente sepan que estas creencias son falsas. (...) Principio 4: Las cosas que son P no son R, ni son ellas como las cosas R, ni se cree de ellas que sean R, ni siquiera es un hecho sobre nuestra sensibilidad, sea cultural o naturalmente determinada, que percibamos una conexión, de modo tal que la proferencia de P sea asociada en nuestras mentes con propiedades de R. Así, por ejemplo: ‘Sally es un bloque de hielo’; ’Estoy con un humor negro’; ’Mary es dulce’, son sentencias que podrían proferirse para significar metafóricamente que: ’Sally es insensible’; ’Yo estoy enojado y depresivo’; ’Mary es gentil, afable, divertida y demás’, aun cuando ellas no sean similitudes literales sobre las cuales esas metáforas están basadas.(...) Principio 5: Las cosas P no son como las cosas R, y no se cree que sean como las cosas R, ni siquiera la condición de ser P es como la condición de ser R. Así, se podría decir de alguien quien ha recibido justo una enorme promoción: ’Te has vuelto un aristócrata’ no significando que él personalmente se haya vuelto como un aristócrata, sino que su nuevo estatus o condición es como el que tiene un aristócrata. (...) Principio 6: Hay casos en los cuales P y R son iguales o similares en significado, pero donde uno, usualmente P, tiene un uso más restringido y no se aplica literalmente a S. (...) Principio 7: No se trata de un principio independiente sino de una forma de aplicar el principio 1 a través del 6 para casos simples en los cuales no hay una forma ‘S es P’ sino metáforas relacionales, o metáforas de otras formas sintácticas tales como las que implican verbos y adjetivos predicativos. Considérese metáforas relacionales como: ’Sam devora libros’; ‘El barco abre surcos en el mar’; ‘Washington fue el padre de la patria’. La tarea del que escucha no es ir desde ‘S es P’ a ‘S es R’ sino desde ‘SP- relación S’ a ‘SR-relación S ’(...) Principio 8: De acuerdo a mi enfoque de la metáfora, ella deviene un asunto terminológico si queremos construir metonimias y sinécdoques como casos especiales de la metáfora o como tropos independientes. Cuando uno dice, ‘S es P’ y significa que ‘S es R’, P y R pueden asociarse para tales relaciones como la relación parte-todo, la relación continente-contenido (...). En cada caso, como en la metáfora propia, el contenido semántico del término P se transfiere al contenido semántico del término R por algunos principios de asociación. Dado que los principios de la metáfora tienen varios modos, prefiero tratar a la metonimia y la sinécdoque como casos especiales de metáforas y agregar sus principios a mi lista de principios metafóricos. Puedo, por ejemplo, referirme al monarca británico como ‘la Corona’ y a la rama ejecutiva del gobierno de los EEUU como ‘la Casa Blanca’ explotando principios sistemáticos de asociación" (Searle, 1991, p. 533 y ss.) Las virtudes y debilidades de este tipo de explicaciones resaltan cuando se consideran los principios de interpretación metafórica que Searle propuso para explicar cómo un hablante que profiere una expresión con el esquema ‘S es P’ significa, no obstante ‘S es R’, donde P no significa léxicamente R. En primer lugar, la interpretación metafórica se pone en marcha de acuerdo con la siguiente estrategia: "cuando la proferencia es defectiva si se toma literalmente, búsquese un significado proferencial que difiera del significado oracional". Lo que haría la audiencia, entonces, es aplicar a la conducta lingüística del hablante lo que se ha denominado principio de caridad interpretativa, según el cual se asigna a la conducta del hablante la característica de ser comunicativamente racional. La audiencia intenta encontrar un sentido comunicativo a las palabras del hablante, aunque éstas incurran en falsedades manifiestas, absurdos, violaciones categoriales de las condiciones de los actos de habla, etc. Para ello, y en el caso de la expresión ‘S es P’, trata de hallar los valores posibles de R “buscando formas en que S puede ser como P y, para hallar los aspectos en que S podría ser como P, considérense rasgos distintivos, conocidos y perspicuos de las cosas P”. Como las cosas pueden parecerse, o considerarse parecidas entre sí de múltiples formas, el conjunto de valores de R puede ser demasiado grande para determinar una interpretación viable. Por ello, la audiencia ha de “volver al término S y considerar cuál de los múltiples candidatos de los valores de R son probables o siquiera posibles propiedades de S”. Dicho de otro modo, ha de considerar la naturaleza del contexto comunicativo para asignar diversos valores de probabilidad a las diferentes interpretaciones de la metáfora, eligiendo la que tenga el valor más alto entre ellas. La concepción de Searle supone, más allá de romper con las consideraciones semánticas, una tesis tradicional: cualquier expresión puede tener, además, del significado literal de una expresión, un significado metafórico. Puede sostenerse, con Lakoff y Johnson (1998), que dicho punto de vista concluye favoreciendo, de otro modo, la antigua primacía del lenguaje literal por sobre lo figurativo, ya que los procedimientos postulados por Searle, basados ambos en la formulación "busca primero lo literal, y -sólo como última instancia, en caso de haber fallado- busca lo metafórico", reforzarían el supuesto de que el lenguaje metafórico es desviado y secundario con respecto al lenguaje literal. Esta tesis de la dualidad significativa de las expresiones metafóricas es la que Davidson (1984) puso en cuestión, criticando cualquier enfoque de interacción e insistiendo en que la metáfora significa tan sólo lo que las palabras usadas para expresarlas significan literalmente y nada más. Rechaza así todo punto de vista que sostenga que se debe establecer una distinción entre un lenguaje literal y otro metafórico. De este modo, Davidson, sitúa la metáfora fuera del alcance de la semántica, al insistir en que carece de otro significado que no sea el literal. Anula la distinción entre lenguaje literal y metafórico porque considera que las nociones semánticas tales como ‘significado’, sólo tienen un papel dentro de los límites bastante estrechos (aunque cambiantes) de la conducta lingüística regular y predictible, los límites que delimitan (temporalmente) el uso literal del lenguaje. Para Davidson, en todo caso, lo que se necesita es una explicación de cómo es comprendida la metáfora pero considerando que tal proceso de comprensión es el mismo tipo de actividad que se pone en juego para cualquier otra expresión lingüística, que requiere un acto de construcción creativa de lo que el significado literal de la expresión metafórica es y lo que el hablante cree sobre el mundo. Hacer una metáfora, como hablar en general, es una empresa creativa. Davidson interviene de un modo peculiar en el debate sobre la paráfrasis de las expresiones metafóricas. Black encontraba en la imposibilidad de establecer una paráfrasis literal, una objeción al enfoque sustitutivo. Incluso los que sostienen que una paráfrasis literal siempre es posible, aceptan que una gran cantidad de metáforas es intraducible como resultado de su capacidad de portar información extra con respecto a la expresión en algún contexto considerada literal. Esta condición parece conducir de un modo natural a la posición de Davidson, pero la crítica de éste se dirige más que nada a la idea, defendida tanto por los que aceptan como por los que no aceptan la posibilidad de la paráfrasis, según la cual la metáfora puede cumplir una función significativa y comunicativa de modo peculiar y secreto, como por ejemplo la idea de Ricoeur, quien desde una concepción semántica parece defender la existencia de cierta capacidad o cualidad misteriosa de la metáfora, capaz de suministrar “un conocimiento profundo verdadero de la realidad”. El punto de vista de Davidson viene a ubicarse en la crítica de esta supuesta cualidad misteriosa, bajo la sospecha que no haya, en verdad, ningún significado metafórico por oposición a otro literal. “El error fundamental que me propongo atacar es la idea de que una metáfora posee, además de su sentido o significado literal, otro sentido o significado. Esta idea es común a muchos de quienes han escrito acerca de la metáfora: se la encuentra en las obras de críticos literarios como Richards, Empson y Winters; filósofos desde Aristóteles a Max Black; de psicólogos desde Freud a Skinner; lingüistas desde Platón a Uriel Weinreich y George Lakoff. La idea toma muchas formas, desde la relativamente simple en Aristóteles hasta la relativamente compleja en Black. Aparece en escritos que sostienen que puede obtenerse una paráfrasis literal de una metáfora, pero es también la comparten quienes sostienen que típicamente no puede hallarse dicha paráfrasis literal Muchos ponen el acento en la percepción especial que puede inspirar la metáfora e insisten que el lenguaje ordinario, en su funcionamiento usual, no produce tal percepción. Pero también este punto de vista ve a la metáfora como una forma de comunicación paralela a la comunicación ordinaria; la metáfora conduce a verdades o falsedades acerca del mundo de manera muy parecida a como lo hace el lenguaje común, aunque el mensaje puede ser considerado más exótico, profundo o artificiosamente ataviado" (Davidson, 1984 [1995, p. 245]) Todo parece poder reducirse al problema irresuelto del significado. O bien un juicio metafórico posee otro significado además del literal que le provee la capacidad de suministrar ese impulso de captación que se obtiene de algunas buenas metáforas, o bien el fenómeno de la metáfora no es sólo una cuestión de significado de las palabras o expresiones sino un rasgo del contexto de su empleo, es decir de su pragmática. La primera opción lleva a la enorme dificultad de cualquier teoría del significado de dar cuenta del proceso metafórico, y la segunda, al negar la distinción de lenguajes, le ahorra a la teoría del significado un problema extra: dar cuenta del significado oblicuo o sesgado. Ahora bien, puede pensarse que una disputa en estos términos podría superarse considerando una teoría amplia del significado que pudiera incluir las metáforas. Sin embargo,digámoslo una vez más, no está allí la clave del problema: Davidson se opone no tanto a una teoría puramente semántica que pudiera dar cuenta de los procedimientos metafóricos, sino a una suerte de teoría subyacente según la cual la metáfora contendría un elemento cognoscitivo que sólo ella podría transmitir y que tal elemento es lo que se debería captar para entenderla. El problema, en todo caso, no es que la metáfora sugiera o provoque de un modo indirecto cierta captación de su objeto. Lo que Davidson niega es que la metáfora resulte un instrumento de conocimiento insustituible. No se trata de que haya un significado en la metáfora con relación al objeto, sino que este significado sea verdadero, y verdadero de un modo que sólo la metáfora puede aportar. Davidson no se opone a considerar el poder psicológicamente potente de las metáforas, pero sí que esto se produzca a través de un significado especial o un contenido cognoscitivo específico. No cree que haya interacción entre ideas ni que una metáfora diga una cosa pero signifique otra. En todo caso la metáfora, sostiene, funciona a través de otros intermediarios y suponer que: "(...) sólo puede ser efectiva transmitiendo un mensaje cifrado es como pensar que una broma o un sueño enuncian alguna proposición que un intérprete agudo puede traducir en prosa Ilana. La broma, el sueño o la metáfora pueden, como un cuadro o un puñetazo en la cabeza, hacernos apreciar cierto hecho, pero no significando el hecho o expresándolo" (Davidson, 1984 [1995, p. 255]) Lo que horroriza a Davidson es que se pretenda que hay formas o facultades de conocimiento ocultas bajo velos que no se pueden traspasar y por fuera de los límites tradicionales del conocimiento: la percepción y el juicio. Eliminada la dualidad literal/metafórico, de lo que se trata es de la presencia o ausencia de contenido cognoscitivo en las metáforas. Según el modo de ver de Davidson los enunciados metafóricos deben arreglárselas solos en su relación con su objeto de referencia. “(...) lo que intentamos al ‘parafrasear’ una metáfora no puede ser suministrar su significado, porque éste se encuentra en la superficie; más bien, intentamos evocar lo que la metáfora trae a nuestra atención. Puedo imaginar a alguien que concede esto, obviándolo como no más que una insistencia en limitar el empleo de la palabra ‘significado’. Esto sería una equivocación. El error central sobre la metáfora es más fácilmente atacado cuando toma la forma de una teoría del significado metafórico, pero detrás de esa teoría, y formulable de modo independiente, se encuentra la tesis de que, asociado a la metáfora, va un contenido cognoscitivo que su autor desea comunicar y que el intérprete debe aprehender para captar el mensaje. Esta teoría es falsa, llamemos o no a este pretendido contenido cognoscitivo un significado” (Davidson, 1984 [1995, p. 250]) Para resumir la posición de Davidson: 1. las expresiones lingüísticas sólo tienen un significado: el literal. Por ello las expresiones metafóricas no tienen un significado que venga a agregarse al literal 2. dado que no tienen una referencia especial las metáforas no tendrían contenido cognitivo alguno. No se corresponden con ningún hecho. No tiene sentido por tanto pensar que pueda haber equivalencias con algún otro enunciado considerado literal 3. las metáforas son usos peculiares de expresiones más que usos no literales 4. tiene una función comunicativa que no es la de expresar o transmitir ideas, sino la de hacer notar, indicar, invitar a un auditorio a ver una realidad en términos de otra Tanto la versión de Searle como la de Davidson comparten, aunque difieran en otros aspectos, el supuesto de que existe un significado literal en el que las palabras refieren directa o rectamente. Luego volveremos sobre el punto, por ahora cabe advertir que la explicación de la sustancia de la interpretación metafórica va poco más allá de lo avanzado por las teorías tradicionales, pero tiene el mérito de situar ese núcleo teórico en un contexto dinámico, el de la comunicación lingüística. De hecho, las explicaciones pragmáticas proporcionan una explicación más adecuada de cuándo o por qué se interpreta metafóricamente una expresión, pero no respecto al problema de en qué consiste tal interpretación. Es necesario entonces, reconocer que si bien la metáfora implica algo acerca de los significados involucrados, también es indispensable un contexto y condiciones adecuadas, por lo cual una complementación o síntesis entre los puntos de vista semánticos y pragmáticos resultará menos interesante, pero más adecuada, sobre todo cuando de lo que se tratará es de mostrar de qué modo algunas metáforas resultan recurrentes y dominantes en determinadas épocas. Para clarificar este giro que pretendo darle a la noción de metáfora resultará útil echar mano del concepto de ‘bisociación’, introducido por A. Koestler en un contexto algo más amplio y diferente, y que permite, con algunos retoques, combinar las condiciones semánticas con las pragmáticas o contextuales sobre todo con relación al problema de la distinción entre lenguaje literal y lenguaje metafórico. 1.3 una propuesta superadora: el concepto de ‘bisociación’ de Koestler La concepción que Koestler desarrolla en The act of creation (1964) respeta la distinción básica entre dos ámbitos que se relacionan, pero introduce el concepto de ‘bisociación’5 (bisociation) para nombrar la intersección de dos planos asociativos o universos de discurso que ordinariamente se consideran como separados y, a veces, hasta incompatibles. Hasta el momento en que alguien hace converger ambos universos o planos produciendo un resultado novedoso e inesperado, que supone cambiar la perspectiva (Burke, 1945) o recurrir a un filtro (Black, 1962) no empleado hasta ese momento, ambos planos asociativos constituían mundos separados y no asociables, funcionando según una lógica propia y constituidos por elementos que sólo se producen en ese plano. Cuando alguien ofrece otro plano asociativo establece una convergencia inédita que produce un cambio igualmente inédito en la percepción de los hechos y la lógica habitual de acuerdo a la cual se consideraban los hechos dentro de una esfera resulta invadida por la lógica de la otra esfera. Procesos de este tipo son moneda corriente en la ciencia, en la cual, en un momento determinado, los hechos salen del marco en que ordinariamente se percibían y comienzan a organizarse y pensarse según una nueva lógica produciendo resultados nuevos y sorprendentes. Pero este tipo de procedimientos no se refiere tan solo a un cambio de perspectiva sobre el mismo hecho o grupo de hechos al modo en que las distintas disciplinas abordan objetos complejos. La nueva mirada producto de la transferencia metafórica – bisociación- puede también producir una reorganización de lo conocido, e, incluso puede, literalmente, inaugurar o introducir nuevos hechos pertinentes y relevantes. Según una terminología epistemológica puede decirse que modifica en un sentido, a veces fundacional y no necesariamente acumulativo, la base empírica. La noción de ‘bisociación’ supera a otras concepciones acerca del proceso metafórico: en principio da cuenta de la reconocida capacidad de la metáfora de decir algo que ninguna paráfrasis literal podría traducir; al mismo tiempo da inteligibilidad a la idea de innovacion semántica; también da una versión, fenomenológica cuando menos, del "puñetazo en la cabeza" de Davidson, es decir el momento del eureka!, el asombro, la perplejidad, la exaltación, la carcajada, etc. Kostler asocia los conceptos de bisociación, metáfora y analogía sosteniendo que hay una " estrecha relación entre el hombre de ciencia que ve una analogía donde nadie la vio antes y el descubrimiento del poeta de una metáfora o un símil originales”. El concepto de bisociación permite además el análisis de dos lenguajes sin otorgar privilegios a alguno de ellos, a no ser por una cuestión meramente analitica. Permite pensar que la creatividad (o por lo menos una forma de ella) y la generación de novedades surge de este tipo de procesos. De hecho no resuelve el problema psicológico de la creatividad ni de esta suerte de propensión a poner en bisociación planos usualmente desconectados entre sí Esta súbita iluminación, este acto por el que el hombre de ciencia ve una analogía allí donde nadie la vio antes muestra un costado sincrónico y, si se quiere fenomenológico del proceso de bisociación que, sin embargo, requiere una evaluación más profunda que surja de un análisis diacrónico para dar cuenta del proceso por el cual las metáforas tienen éxito y mueren rápidamente como tales literalizándose. Lo que se inicia como una bisociación entre ámbitos ajenos, a partir del éxito, rápidamente acaba siendo una explicación literal del ámbito adoptivo al cual fue extrapolada en un principio. Esta ubicación de la metáfora en el transcurrir temporal obliga a tomar en cuenta su inestabilidad y al mismo tiempo su potencia; en este sentido puede decirse junto con A. Turbayne: “Hay tres etapas principales en la vida de la metáfora. Al principio el empleo de una palabra es simplemente inadecuado. Ello sucede porque le asigna a una cosa un nombre que pertenece a otra (...) A este respecto, las grandes metáforas no son mejores ni peores que los comunes errores de nominación (...) Pero puesto que semejante afirmación y negación producen la requerida dualidad de sentido, la metáfora eficaz rápidamente entra en la segunda etapa de su vida; el que una vez fuera nombre inapropiado se convierte en metáfora. Alcanza su momento de triunfo (...) El momento en 5 Aquí utilizaré el concepto de ‘bisociación’ para las metáforas de la ciencia, pero para Koestler el uso es más amplio y se extiende, además, a los contextos de lo cómico y lo artístico. que la metáfora es inapropiada y el momento de su triunfo son breves comparados con el periodo infinitamente largo, en que la metáfora es aceptada como lugar común. Las dos últimas etapas a veces son consideradas como transición de una metáfora ‘viva’ a una ‘moribunda’ o ‘muerta’”. (Turbayne, 1962 [1974, p. 38]) Está claro que la producción y supervivencia de las metáforas en general es un asunto diacrónico y justamente atender al proceso temporal permite concebir la trayectoria de las metáfora como un proceso de bisociación sincrónica seguido de una literalización diacrónica. Esta doble condición del proceso por el cual se construye e instala una metáfora obliga a reconsiderar, como ya se adelantara, la distinción entre lenguajes: puede hablarse de dos lenguajes, uno literal y otro metafórico, en el momento de la bisociación –momento del análisis sincrónico-, pero luego, en el análisis diacrónico ninguno de los dos lenguajes es subsidiario del otro, sino que, en todo caso, sólo puede hablarse de dos lenguajes pero en el sentido en que ellos son independientes, porque ambos son literales, por así decir. En suma, si bien puede defenderse una dualidad de lenguajes en el momento en que opera la transferencia metafórica, tal dualidad resulta irrelevante cuando esta operación culmina. En todo caso, una vez operada la transferencia de un ámbito a otro, la eliminación de la distinción lenguaje literal/ metafórico hace que se disuelva el problema de la metáfora en el del lenguaje en general. Si seha de considerar la relevancia cognoscitiva de las metáforas, el lenguaje que aparecía como subsidiario tiene que arreglárselas en soledad con su referencia, y resulta para este caso irrelevante el origen –desviado, figurado, sesgado- de tal lenguaje. En esta nueva consideración, las metáforas han de enfrentar el problema de la verdad, la referencia y el significado, la relación términos teóricos/términos empíricos, etc., del mismo modo que un supuesto, y ahora ya no privilegiado, lenguaje literal. Esto supone parámetros de análisis distintos que los que empleará el crítico literario, que analiza las metáforas como novedosas, triviales, reiterativas o exóticas, pero no como verdaderas o falsas en un sentido relevante. Precisando algo más la cuestión, puede decirse que existen dos lenguajes -literal y metafórico- pero bajo una triple caracterización, semántica, pragmática y diacrónica, esto es: el uso de un lenguaje en un ámbito determinado del conocimiento resulta un original que puede ser extrapolado a otros ámbitos en los cuales resultan novedosos en principio pero luego se literalizan, según el concepto de metáfora epistémica (en adelante ME). Una ME puede caracterizarse como sigue: en el uso epistémico de las metáforas una expresión (término, grupo de términos o sistemas de enunciados) y las prácticas con ellos asociadas habituales y corrientes en un ámbito de discurso determinado socio-históricamente, sustituye o viene a agregarse (modificándolo) con aspiraciones cognoscitivo-epistémicas, a otra expresión (término, grupo de términos o sistemas de enunciados) y las prácticas con ellos asociadas en otro ámbito de discurso determinado socio-históricamente; este proceso se desarrolla en dos etapas, a saber: bisociación sincrónica/literalización diacrónica. 1.4 la distinción literal – metafórico y la indeterminación de la traducción Uno de los tópicos acerca de las metáforas, que va en detrimento de las posiciones comparativas y en apoyo de los que sostienen que hay algo nuevo en las metáforas, consiste en señalar la imposibilidad de establecer una paráfrasis literal de las mismas. La discusión atraviesa las concepciones semánticas y pragmáticas: la innovación semántica de Ricoeur y el enfoque interactivo de Black presuponen la defensa de una dualidad de lenguajes pero también otros autores que provienen del lado de los análisis pragmáticos como Searle defienden, aunque desde otro punto de partida, cierta dualidad. Pero resta aún exponer un argumento a favor de la necesidad de considerar al lenguaje metafórico como irreductible al lenguaje literal que no provenga de la apelación a cualidades o condiciones misteriosas o incognoscibles. La tesis de W. V. O. Quine sobre la indeterminación de la traducción puede servir aquí. Si bien se puede pensar que esta tesis va directamente en apoyo de la posición de Davidson, quien sostiene que no hay dos lenguajes en la relación literal/metafórico sino, en todo caso dos lenguajes en el mismo nivel, también es posible desde la tesis de la intraducibilidad defender la dualidad en un sentido diacrónico. En efecto, esto es así en la medida en que si bien la plena comprensión del nuevo lenguaje (metafórico) resulta imposible si se pretende hacerlo desde la traducción de la expresión literal, puede no obstante conducir a un ajuste y comprensión paulatinas. La argumentación de Quine está referida a la relación entre dos lenguas, pero puede utilizarse igualmente para tratar sobre esas dos lenguas que son el lenguaje (considerado) literal y el lenguaje metafórico. Quine (1960) desarrolla una de sus tesis más discutidas y originales: la de la ‘indeterminación de la traducción’, según la cual, siempre sería posible redactar una serie de ‘manuales de traducción’ diversos e incompatibles entre sí. Aun permaneciendo fiel a las disposiciones expresivas individuales de los interlocutores, cada manual recortaría un universo de comunicación finito, sin suministrar los instrumentos para una traducción universal. Esta tesis que resuena incluso en la noción de inconmensurabilidad de Feyerabend y Kuhn, aún produce ricas consecuencias. Quine, partidario del holismo semántico especialmente en epistemología, distingue, para iniciar su argumentación entre los tipos de frases posibles, aquellas que denomina frases ocasionales: expresiones como "Esto es un conejo”, no exigen más que el consentimiento o la aprobación de un hablante y, en suma tienen sentido aún tomadas aisladamente. En estas condiciones, una teoría empirista de significación-estímulo podría definir la sinonimia entre expresiones de lenguas diferentes sobre una base totalmente realista y conductual, pero contra esta posición dirige Quine su argumentación. Parte de una situación de traducción radical, en la cual un lingüista se encuentra ante una lengua desconocida que debe aprender mediante un método directo, observando lo que dicen los indígenas, sin poseer un diccionario previo y ninguna otra evidencia de su conducta habitual. Suponiendo que el lingüista en cuestión observara cierta concomitancia entre el paso de conejos y la emisión por parte de los indígenas de la expresión gavagai; el lingüista puede fabricar la hipótesis de que gavagai significa "conejo". Para verificar su hipótesis, presenta a un informador la expresión gavagai como pregunta, cuando ambos están en presencia de conejo, y señalándole el animal con el dedo. Si el indígena consiente ¿puede concluir que ha hallado la traducción correcta?. Quine sostiene que no, porque el indígena daría exactamente la misma respuesta si gavagai significase "parte no separable del conejo" o "segmento temporal de conejo", de modo tal que la traducción está indeterminada porque muchas hipótesis son compatibles con los datos conductuales. No hay un verdadero criterio de sinonimia para igualar gavagai y "conejo", así como tampoco hay medios experimentales para distinguir, en el aprendizaje de los indígenas de la forma de aplicar una expresión, lo que surgiría exclusivamente del aprendizaje lingüístico y lo que tendría su fuente en los elementos. Pero no hay que pensar que la indeterminación de la traducción es sólo una variación sobre algunos conceptos, sino que para Quine ‘conejo’, ‘parte no separable de un conejo’ o ‘segmento temporal de conejo’ no son tan sólo expresiones lingüísticas que poseen significaciones diferentes, sino que son cosas diferentes. Huelga señalar las consecuencias epistemológicas que esta argumentación posee en la medida que lo que se trata es de la inescrutabilidad de la referencia. La simple observación no sirve para distinguir entre dos o más interpretaciones posibles. Desde luego, un lingüista no se quedará en la indeterminación y puede ir más adelante en lo que Quine denomina hipótesis de análisis, construyendo paso a paso un manual de traducción. El lingüista precede identificando poco a poco los elementos de la lengua indígena con nuestros procedimientos de individuación (el plural, artículo, por ejemplo). Ciertamente tiene razón y no existe otra forma preceder; a la larga, los lingüistas terminan siempre construyendo buenos manuales de traducción, es decir, buenas herramientas lingüísticas. Se podría entonces pensar que las hipótesis de análisis terminan por eliminar la indeterminación de la traducción. Ciertamente, ocurre así en la práctica, pero Quine niega que esto modifique en absoluto el principio de fondo, en la medida en que la interpretación de la lengua indígena se hace tomando decisiones desde la propia lengua, de modo tal que no se hace más que proyectar una cultura sobre otra. Se pueden tener proyecciones mejores o peores pero, según este punto de vista no puede haber criterios no lingüísticos para dilucidar la cuestión. Si los hubiera, ello significaría que se podrían decidir en forma empírica y absoluta entre muchas hipótesis de análisis incompatibles. Pero no se dispone de un principio de demarcación que permita distinguir lo que surge del lenguaje propio o de las propias hipótesis analíticas y lo que surge de la propia realidad. Siempre se puede hacer que dos hipótesis lógicamente incompatibles entre sí, sean las dos perfectamente compatibles con el comportamiento observable. Los dos pasos de la argumentación de Quine – la indeterminación de la traducción y la posibilidad de establecer hipótesis de análisis que aporten una comprensión progresiva de la nueva expresión- pueden ser aplicados a la comprensión de las metáforas, dado que las expresiones literal y metafórica pueden ser consideradas como dos lenguajes entre los cuales es posible establecer una comprensión progresiva que va desde un ámbito original y habitual de una expresión hacia otro en el cual aparece como una novedad radical pero en el cual puede llegar a literalizarse. 1.5 verdad y metáforas Si se trata de relacionar metáforas y ciencia, resulta insoslayable discurrir sobre el problema de la verdad, sea para dar una versión de la cuestión, sea para negar que la verdad en su acepción correspondentista estándar (o alguna de sus herejías) constituya el fundamento de los enunciados científicos. Sin embargo, las tesis expuestas en este libro son impotentes para resolver el problema de la verdad pero pueden ser defendidas aceptando que la cuestión de la verdad metafórica es igual de problemática que la de la verdad literal. En verdad se elude el problema de la verdad disolviéndolo en el problema de la verdad del lenguaje general. No habría, en suma, un problema de la verdad metafórica sino, en todo caso un problema de la verdad referido a todos los enunciados en general. Ya he adelantado que los enunciados producto de un proceso metafórico deben arreglárselas en soledad con su referencia. En este sentido mi posición no difiere de la de Davidson: las oraciones en las que aparecen las metáforas son verdaderas o falsas en la forma literal, independientemente del sinnúmero de situaciones y derivaciones que una metáfora pueda generar. Pero vale la pena analizar con algo de detalle cuando menos el o los planteos posibles del problema de la verdad que surge apenas se esboza una versión no sustitutiva o reductiva de la metáfora. Se trata principalmente de establecer a qué refiere la metáfora, es decir qué tipo de relación se establece entre ese tipo especial de lenguaje que parece enturbiar (y quizá embellecer) la relación con el mundo extralinguístico. Para las tesis reduccionistas o, como llamaba Black sustitutivas de la metáfora, hemos visto que no hay problema alguno a resolver: sólo hay que establecer el original que la metáfora está sustituyendo y ese enunciado será el que tiene referencia. Pero aquí defiendo una tesis que podríamos llamar no reduccionista, en la cual el enunciado metafórico es intraducible, tiene una aspiración propia a su referencia y, por lo tanto, recomienza nuevamente el problema de la verdad y la referencia pero no subsidiariamente sino del mismo modo que con cualquier otro enunciado6. Por otro lado, la relación entre las metáforas y el mundo es un problema relevante para la filosofía de la ciencia, a condición de que pueda decirse algo en el orden de la verdad. A lo largo de las reflexiones sobre el punto se han dado dos líneas o tendencias definidas (cf. De Bustos, 2000). Las que consideran incuestionada o incuestionable la noción 6 De Bustos (2000) establece otra distinción entre las concepciones realistas y no realistas de la metáfora con relación a su referencia. Considera que son realistas aquellas teorías que, reconociendo la aplicabilidad de la referencia a las metáforas, entienden esta referencia como derivada de la relación que une el lenguaje con una realidad independiente de cualquier marco conceptual. Por otro lado serian no realistas aquellas teorías que consideran la referencia (metafórica o no) sin el importe ontológico que tiene en el realismo filosófico. La metáfora en este sentido contribuye a inaugurar nuevas perspectivas habida cuenta de que no habría un fundamento extralingüístico último ni la búsqueda de una descripción final y definitiva del mundo. de verdad y el problema está circunscripto a determinar la relación que la metáfora tiene con ese punto literal fijo, de modo que “cualquier duda filosófica que pueda surgir en el análisis de la relación entre verdad y metáfora arrojará sospechas sobre la metáfora y no sobre la verdad” (De Bustos, 2000, p. 116). Por otro lado, las que extendiendo la noción de metáfora o detectando que surgen problemas si se le quiere aplicar la noción de verdad, cuestionan a ésta y no a la metáfora. Esta última vía que es la que adoptan los estudios sobre la ciencia más relativistas, porque discuten o creen discutir contra posiciones epistemológicas que en realidad están prácticamente en desuso y no optan por una vía más prometedora: reevaluar el rol epistémico de las metáforas. A modo de resumen puede decirse que una taxonomía de las teorías sobre la verdad metafórica, debería incluir: 1. en primer lugar las teorías que otorgan independencia o niegan la subordinación de la verdad metafórica. Aunque puede haber varias versiones en esta línea, quizá la más importante sea la que sostiene M. Hesse (1966). Para ella el lenguaje es esencialmente metafórico, por lo cual el único privilegio del llamado lenguaje literal es que se trata de un caso límite de la convencionalización del lenguaje metafórico, lenguaje que tendría una relación con el mundo similar a la de las teorías o modelos. Obviamente la verdad a la que se refiere nunca se ubica como única, absoluta o definitiva. 2. En segundo lugar las teorías que sostienen la subordinación de la verdad metafórica. Las expresiones metafóricas son verdaderas de manera indirecta, es decir a través de otras expresiones, literalmente verdaderas, de las cuales derivan. 3. Por último las teorías que niegan valor de verdad a las expresiones metafóricas, ya sea porque se les asigna únicamente otros valores –como la belleza, por ejemplo-, ya sea porque se considera que carecen de un significado propio. 2. MODELOS CIENTIFICOS “(...) el mapa de una sola provincia ocupaba toda una ciudad, y el mapa del imperio, toda una provincia. Con el tiempo, esos mapas desmesurados no satisficieron, y los Colegios de Cartógrafos levantaron un mapa del imperio que tenía el tamaño del imperio y coincidía puntualmente con el. Menos adictas al estudio de la cartografía, las generaciones siguientes entendieron que ese dilatado mapa era inútil y no sin impiedad lo entregaron a las inclemencias del sol y de los inviernos. En los desiertos del oeste perduran despedazadas ruinas del mapa, habitadas por animales y por mendigos (...)" J. L. Borges "Del rigor de la ciencia" La palabra ‘modelo’ se utiliza en varios sentidos en el lenguaje natural, e incluso hay varios usos diferentes en la ciencia. En general hacen referencia a sistemas usados para investigar y comprender los sistemas reales de los que ellos son modelos. Así, en biología, ciertos organismos son seleccionados como modelos, sobre la base de la comodidad para la investigación y manipulación y son investigados intensivamente, con la esperanza de generalizar los resultados para otros organismos. En la investigación biomédica, se usan frecuentemente ratones, perros y monos como modelos para estudiar los efectos de drogas en los seres humanos. Buena parte de la investigación genética se hace utilizando moscas y algunos tipos de bacterias. También hay un uso especial de ‘modelo’ en ciencia relacionado con la teoría lógica de los modelos. En física, se usan modelos mecánicos de los procesos naturales, como por ejemplo un sistema de bolas de billar en movimiento aleatorio se puede tomar como modelo para el estudio de los gases. Esta relación modelística no implica que las bolas de billar sean como partículas de gas en todos los respectos, simplemente que las moléculas de gas son análogas a las bolas de billar. Bajo el modelo, algunas propiedades de las bolas de billar se deben adscribir a las moléculas de gas, esto es, el movimiento e impacto (lo que Hesse llama analogía positiva), mientras que otras propiedades de las bolas de billar tales como el color o la dureza (la analogía negativa) no tienen su análogo en las moléculas. Según Hesse (1966), también hay ‘analogías neutrales’, usadas cuando no se sabe si las propiedades son compartidas y que permiten hacer nuevas predicciones. Black sostuvo que “el uso de un modelo particular puede ayudarnos a notar lo que de otra manera podríamos pasar por alto, cambiar el énfasis en algunos detalles, en suma, ver nuevas conexiones” (Black, 1962, [1966, p. 237]). N. R. Campbell (1920) en el contexto de una polémica acerca de la naturaleza y el papel de las analogías aseguraba que, por ejemplo, durante el desarrollo de la teoría cinética de los gases, el modelo mecánico de las bolas de billar de la teoría jugó un papel esencial en su extensión, de modo tal que la disponibilidad de un modelo de trabajo, a veces, es muy importante para el éxito de la teorización en ciencias. La analogía no cumple para él una función de asistencia provisional en la formulación de las hipótesis, sino que constituye el resorte mismo del poder explicativo de un sistema de proposiciones que funciona como una teoría. P. Duhem (1954), por el contrario, argumentó que tal uso de modelos en ciencia era preliminar, opcional y potencialmente engañoso, y que las teorías propiamente científicas estaban expresadas abstracta y sistemáticamente; si bien el uso de modelos es obvio en la construcción del sistema de axiomas de una teoría ellos no son un componente esencial de una teoría científica. Cuando Duhem critica los modelos mecánicos utilizados por los físicos ingleses de la escuela de Lord Kelvin, y que reproducen los efectos de un determinado número de leyes gracias a mecanismos que ponen en juego una lógica de funcionamiento completamente distinta, distingue cuidadosamente entre este recurso imaginativo, basado en semejanzas superficiales, y el procedimiento analógico propiamente dicho que, al pasar de relaciones abstractas a otras relaciones abstractas, constituye el resorte heurístico de las generalizaciones y de las transposiciones fundadas en una teoría. De manera independiente a esta polémica podemos considerar que hay dos modos principales para la relación modelo-realidad: la noción de modelo como ‘lo representado’ por un lado y como la ‘representación’, por otro. 2.1 lo ‘representado’ como modelo J. Mosterín (1984), señala la equivocidad de la noción de modelo en los lenguajes naturales: algunas veces se aplica a lo pintado, dado, representado, de modo tal que se entiende como modelo de un pintor, de un fotógrafo, de ropa, etc. Por lo tanto, la afirmación “X es modelo de Y” significa que: ‘X’ es lo representado Fotografiado Pintado Imitado ‘Y’ es la representación Fotografía Pintura Imitación Uno de los sentidos de modelo en ciencia está en paralelo con esta acepción del lenguaje corriente. Se trata del significado que tiene en la teoría de los modelos de la lógica y que suele denominarse modelo matemático. Mosterín prefiere mantener ese uso porque permite trasladar al análisis epistemológico de las ciencias fácticas, los resultados técnicos de la teoría de modelos: “Una teoría cualquiera determina la clase de sus modelos. Y un sistema cualquiera determina unívocamente la clase de todas las teorías de las que él es un modelo. Así, podemos partir de una teoría y buscarle modelos, o partir de un modelo (de un sistema) y buscarle teorías. Y podemos obtener información sobre las teorías estudiando sus modelos, y sobre los sistemas estudiando sus teorías. Respecto a todos estos y otros muchos aspectos de las relaciones entre teorías y modelo, la teoría de modelos ofrece métodos precisos y resultados abundantes a los que evidentemente no quisiéramos renunciar” (Mosterín, 1984, p. 153) De modo tal que un modelo es una interpretación que hace verdaderos todos los axiomas de un sistema axiomático. Esta noción de modelo como ‘lo representado’ ha sido defendida por buena parte de la literatura epistemológica: “(...) los modelos de una teoría son los correlatos formales de los trozos de realidad que la teoría explica” (Moulines, 1982, p. 78); “(...) un modelo de una teoría puede ser definido como una realización posible en la cual todas las sentencias válidas de una teoría son satisfechas y una realización posible de una teoría es una entidad de la correspondiente estructura de la teoría de conjuntos” (Suppes, 1969a, p. 252) “(...) una proyección de una teoría de tal forma que una teoría puede tener distintas proyecciones posibles todas ellas isomorfas entre sí' (Wartofsky, 1968, p. 25)" Vale la pena detenerse un momento en una utilización algo diferente de esta noción de modelo, también denominado modelo matemático, muy común en las ciencias sociales. Se trata, más bien de una suerte de simplificación cuantitativa que, según Black opera siguiendo la siguiente secuencia: “1. En un campo determinado se identifica cierto número de variables pertinentes, ya sea basándose en el sentido común, ya en virtud de consideraciones teoréticas más alambicadas. (...) 2. Se forman hipótesis empíricas concernientes a las relaciones imputadas entre las variables elegidas. (...) 3. Se introducen simplificaciones a menudo drásticas, con objeto de facilitar la formulación y la manipulación matemáticas de las variables. (...) 4. Se hace un esfuerzo por resolver las ecuaciones matemáticas resultantes, o, en caso de que ello fracase, por estudiar los rasgos globales de los sistemas matemáticos así construidos. (cuando menos conclusiones cualitativas acerca de las distribuciones de los máximos, mínimos, etc.) 5. Se intenta extrapolar las consecuencias susceptibles de contrastación al campo original (...) 6. La eliminación de algunas restricciones impuestas en beneficio de la sencillez sobre las funciones componentes (por ejemplo su linealidad) puede conducir a cierto aumento de la generalidad de la teoría”. (Black, 1962, [1966,p. 221]) No se trata, en suma, de modelos matemáticos, sino de expresiones cuantitativas o cuantificables que forman parte de teorías. Las drásticas simplificaciones que se requieren para que pueda llevarse a cabo con éxito el análisis matemático involucran un grave riesgo de confundir la exactitud de la matemática con la fuerza de la verificación empírica en el campo original. Es muy común el uso de este tipo de modelos en economía con el consiguiente giro ideológico consistente en creer (y sobre todo hacer creer) que el tratamiento matemático proporciona explicaciones, como si fuera una descripción de un mecanismo invisible que explica realmente lo social. En este sentido de modelo matemático en el cual modelo es lo representado, el camino recorrido por la modelización es inverso al que se analizará en este trabajo como proceso de asignación metafórica de significados nuevos o extensión de significados, por lo cual será preferible dejarlos de lado. 2.2 el ‘representante’7 como modelo El otro sentido de ‘modelo’ utilizado en ciencia es aquel en el cual ‘modelo’ es la representación, de modo tal que la relación entre representante /representado es inversa a la que se establece en los modelos matemáticos. Probablemente se trate del tipo de modelos más fácilmente asimilable a la noción de metáfora. En ellos la expresión ‘X es modelo de Y’ significa: X es la representación Esquema Imitación Pintura Modelo Y es lo representado Esquematizado Imitado Pintado Modelado Obviamente, existen muy diversos modos de representar, de relacionarse representación y representado en suma, que se expresan en los distintos tipos de tipos de modelos. Pero, además, y esto vale también para las metáforas, en la producción o adopción de un modelo debe señalarse la existencia de un tercer elemento que produzca el enlace entre representación y representado. El tratamiento literario de las metáforas soluciona la cuestión apelando a una instancia más o menos inasible como es la creatividad y, de hecho, en algún sentido puede suponerse lo mismo para el caso de los modelos científicos. Sin embargo, el enlace para el caso de los modelos requiere dereglas mucho más precisas y eventualmente puede suponerse que un modelo es un sistema mediante el que se postula una representación conceptual de un asunto determinado –real o imaginadoconforme a determinada finalidad, constituyendo tal representación conceptual un sistema abstracto. 2.2.1. Modelos a escala (MAE) Los MAE son simulacros de objetos materiales, ya reales como imaginarios, que conservan las proporciones relativas del original: maquetas de edificios o puentes, aviones para pruebas en túneles de viento, etc. Su uso tiene ciertos límites que deben ser tenidos en cuenta. Una maqueta puede ser una reducción e escala de las dimensiones y configuraciones del objeto maquetado, pero esta no es una condición necesaria, pues muchas maquetas no guardan las proporciones en forma precisa. Tampoco una maqueta tiene que tener todas las propiedades del objeto maquetado: una maqueta de un puente puede ser hecha de cartón y madera balsa, y no tener la misma resistencia a la presión lateral que tenga el puente maquetado, incluso en escala; o viceversa, una maqueta puede enfatizar la escala de resistencia y no guardar las proporciones precisas que tiene el original. En general una maqueta enfatizará uno u otro de los rasgos según el empleo que se quiera hacer de ella: por ejemplo si se quiere hacer un estudio de resistencia aerodinámica la maqueta tendrá la misma configuración externa, pero la escala de masa gravitatoria no será relevante, si por otra parte se quiere estudiar la resistencia a la deformación térmica, la maqueta deberá ser del mismo material que el objeto original para estudiar en esa el comportamiento a altas temperaturas. Si por otro lado se quiere estudiar la resistencia a la deformación la maqueta tendrá que tener la misma estructura interna y esto vale para cualquier maqueta. Si sólo se quiere mostrar cómo quedará el proyecto terminado bastará con que tenga un aspecto exterior similar. 7 La cuestión de la representación científica se encuentra lejos de estar resuelta. De hecho se trata de un caso especial del problema del conocimiento acerca del mundo en general. La cuestión central sería: ¿cómo se conectan las representaciones a los objetos representados?. Para el caso de la representación científica las distintas versiones difieren no sólo en cuanto a la naturaleza de la representacion o contenido de la ciencia (sistemas de enunciados, modelos, etc) sino también en cuanto al estatus ontológico de los objetos estudiados (cf. Ibarra y Mormann, 1997) Entre un MAE y su modelado siempre hay una relación asimétrica: A es un MAE de B, pero no a la inversa. El MAE no es un fin en sí mismo sino un medio, un sustituto meramente instrumental y, dado que ilustra sólo ciertos aspectos del original no existe un MAE perfectamente fiel ya que su objetivo es la representación de la cosa que sustituye para poder ‘leer’ propiedades del original a partir de las propiedades del modelo directamente observables. Asimismo debe haber ciertas convenciones subyacentes de interpretación, maneras de ‘leer’ el MAE, que descansan en esa identidad parcial que hace que un modelo se parezca al original, al reproducir algunas de sus características, y al conservar las proporciones relativas entre las magnitudes relevantes y pertinentes. 2.2.2. Modelos analógicos8 (MA) En la historia de la ciencia abundan los ejemplos de modelos analógicos. E. Rutherford y N. Bohr tomaron el sistema solar como modelo para representar el átomo, considerando que la estructura de éste es análoga a la de aquél. C. Maxwell desarrolló la representación del campo eléctrico sobre la base de las propiedades de un fluido incompresible imaginario (éter), C. Huygens elaboró su teoría ondulatoria de la luz con ayuda de sugerencias derivadas de la concepción del sonido como fenómeno ondulatorio; sistemas mecánicos que dan cuenta de fenómenos eléctricos, magnéticos u ópticos, o bien, en el caso del átomo, extrapolan lo que ocurre en algunos sistemas macroscópicos a los sistemas microscópicos, o bien se basan en campos de disciplinas más desarrollados, etc. Dado que se trata del tipo de modelo científico que con mayor facilidad puede incluirse dentro de la categoría de ‘metáfora epistémica’ es necesario detenerse en algunas de las disputas alrededor de los mismos. En la literatura epistemológica hay cierta unanimidad en reconocer que los modelos son valiosos psicológicamente, en la medida en que sirven a las funciones heurísticas de ayuda para sistemas muy complejos, y contribuyen a simplificar inferencias sobre aquellos sistemas, aunque hay fuertes disputas sobre el carácter y el estatus ontológico de los mismos. Aun los modelos conocidos por ser representaciones erróneas del mundo real pueden algunas veces ser eficaces (Wimsatt, 1974). En este sentido Th. Kuhn, refiere un caso típico: “El universo de las dos esferas aún es utilizado ampliamente en nuestros días dada su capacidad de proporcionar un compacto resumen sintético de una vasta cantidad de importantes hechos de observación (...) La mayor parte de los manuales de navegación o de topografía vienen encabezados por una frase similar a esta: ‘Para nuestros objetivos presentes, supondremos que la Tierra es una pequeña esfera inmóvil cuyo centro coincide con el de una esfera estelar, mucho más grande, y animada de movimiento de rotación’. Así pues, evaluado en términos de economía, el universo de las dos esferas continúa siendo lo que siempre ha sido, una teoría en extremo afortunada” (Kuhn, 1957 [1993, p. 68]) Como quiera que sea, la epistemología estándar reconoce a los modelos ciertas funciones como por ejemplo las de comprender un dominio de fenómenos a partir de otro “más accesible y conocido que el primero”; pueden tener también una función didáctica y además “una función heurística, ya que a través de ellas se llega a la formulación de hipótesis sugeridas por las analogías”; pero queda absolutamente claro que no se les reconoce poder explicativo ni probatorio. Se les reconoce sólo utilidad en el 'contexto de descubrimiento' para la búsqueda de nuevos principios explicativos (Hempel, 1966, p. 44) Hay también acuerdo en que debe haber alguna analogía posible entre un modelo usado en ciencias y el fenómeno para el que se usa como explicación aunque tal acuerdo 8 Black (1962), denomina ‘modelo analógico’ a cualquier objeto material, sistema o proceso, destinado a reproducir de la manera más fiel posible, en otro medio, la estructura o trama de relaciones del original. Presupone un cambio de medio. El concepto de 'modelo analógico' que se utiliza aquí es diferente y se encuentra más cercano al uso que hace Estany (1993) de esta denominación. acaba cuando se trata de establecer si ese modelo es una representación realista del fenómeno que se pretende explicar o es meramente un instrumento de predicción o didáctico. El modo (grado) en el cual los modelos son tomados como exacta y adecuadamente representantes de la realidad -desde el puramente instrumental hasta el fuertemente realista- es una de las vías más significativas en que los compromisos con los modelos pueden diferir. Lo que frecuentemente se llama uso ‘instrumental’ considera al uso de modelos como un recurso para calcular. A mitad de camino se encuentran los modelos idealizados, los cuales pueden ser vistos o bien como falsas pero manuables simplificaciones de los procesos del sistema natural en cuestión, y en el otro extremo la consideración de los modelos como verdaderas representaciones de algunas de las fuerzas operantes en el sistema natural. Achinstein (1968), por ejemplo, sugiere una jerarquía de modelos basada en el grado de compromiso ontológico, esto es, desde considerarlos como simples suposiciones que proveen posibles mecanismos sobre cómo los sistemas naturales podrían estar operando, hasta aquellos que tienen pretensiones concretas de que el mundo real sea enteramente como las entidades y dinámica del modelo. En este último caso, la elección del modelo implica un compromiso metafísico sobre el contenido del universo, cuyos objetos y relaciones realmente existen. El proceso por el cual se producen y utilizan estos modelos, y que le confiere un notable parecido de familia con los procesos de producción de metáforas, puede resumirse como sigue: 1. Hay un campo determinado de investigación, en el cual se han logrado ciertos éxitos en la detección de algunos hechos y regularidades sea desde cuestiones desconectadas entre sí y generalizaciones toscas a leyes muy precisas, posiblemente organizadas por alguna teoría relativamente bien articulada; 2. El éxito inicial puede sugerir la posibilidad de extender el corpus de conocimientos y de conjeturas o de vincularlo con otras esferas del conocimiento hasta el momento ajenas; 3. Por este pasaje pueden describirse algunas entidades (objetos, materiales, mecanismos, sistemas, estructuras) pertenecientes al dominio nuevo utilizando herramientas propias del dominio original por considerarlo relativamente no problemático, más familiar o mejor organizado; 4. Debe disponerse de reglas de traducción explícitas que permitan el pasaje de un dominio a otro; 5. Por medio de reglas de correlación se traducen ciertas inferencias acerca de las asunciones hechas en el campo secundario, y se las contrasta independientemente a datos conocidos o predichos del dominio primario. Black rescata el carácter positivo y productivo de los usos de modelos y reconoce su parentesco cercano con las metáforas, además del gran poder conceptual de los mismos, es decir su capacidad para sistematizar la estructura de una teoría, su capacidad para expandir y transformar una teoría y aun la potencia para generar nuevas teorías en campos disciplinares nuevos. Los modelos, en este sentido, no son meros epifenómenos de la investigación científica, sino que: “(...) desempeñan en ella un papel peculiar e irreemplazable: que los modelos no son deshonrosas suplencias de las fórmulas matemáticas. (...) Para muchos el uso de modelos en la ciencia se viene pareciendo al de la metáfora (...) El modelo funciona como un tipo más general de metáfora. No hay duda de que cierta semejanza entre el empleo de un modelo y el de la metáfora (acaso deberíamos decir: de una metáfora sostenida y sistemática) y la crucial cuestión acerca de la autonomía de los modelos tiene su paralelo en una antigua discusión sobre la traducibilidad de las metáforas (los que ven el modelo como una simple muleta se parecen a quienes consideran la metáfora como mero ornamento o decoración). (...) el pensamiento metafórico es un modo peculiar de lograr una penetración intelectual, que no ha de interpretarse como un sustituto ornamental del pensamiento llano Cosas muy parecidas pueden decirse de los modelos en la investigación científica. Si se invocase el modelo después de haber llevado a cabo la tarea de formulación abstracta, sería, en el mejor de los casos, algo que facilita la exposición; pero los modelos memorables de la ciencia son ‘instrumentos especulativos’ (...) El uso de un modelo determinado puede no consistir en otra cosa que una descripción forzada y artificial de un dominio suficientemente conocido ya de otra forma; pero puede ayudarnos también a advertir cosas que de otro modo pasaríamos por alto, y a desplazar la importancia relativa concedida a los detalles: brevemente, a ver nuevas vinculaciones” (Black, 1962, [1966, p. 232]) 2.2.3 Metáforas básicas Resta analizar aún algunos ‘artefactos’ que se presentan como modelos muy básicos y que parecen estar a mitad de camino entre meras metáforas en el sentido tradicional y modelos científicos en un sentido estricto. Los denominaré aquí, y a falta de un nombre mejor, ‘metáforas básicas’. Se trata de las ME de mayor nivel amplitud. S. Pepper (1942), por ejemplo, las denomina 'metáforas radicales' (root metaphors). Las hipótesis cosmológicas, es decir hipótesis que se refieren a la estructura general del cosmos y, en ese sentido solamente pueden ser corroboradas estructuralmente, tienen en su base alguna metáfora radical que ha mostrado su idoneidad. Las que han tenido un papel preponderante en la historia de la humanidad son, según Pepper: 1. La metáfora de la similaridad que da origen al ‘formismo’, llamado a veces realismo o idealismo del tipo platónico. Platón, Aristóteles, los escolásticos y los realistas de los últimos dos siglos responden a este patrón cuyo correlato gnoseológico es la teoría de la verdad como adecuación. 2. La metáfora de la máquina, que ha dado origen al mecanicismo. Los ejemplos típicos se refieren, obviamente a la concepción mecánica de la naturaleza del siglo XVII en adelante, pero también puede ubicarse en esta línea, con las limitaciones contextuales correspondientes, al atomismo de Demócrito. También pueden considerarse como derivados del mecanicismo el empirismo de D. Hume, C. Berkeley y otros. Como se verá luego las formas de mecanicismo son variables, pero una manifestación clásica es el determinismo y, según Pepper, la teoría de la verdad se basa, en este caso en un proceso inferencial y simbólico. 3. La metáfora expresada en un verbo (hacer, experimentar, etc.) representando una sucesión, que da origen al contextualismo, a veces llamado pragmatismo, cuyos ejemplos más destacados son las filosofías de Ch. Peirce, W. James, Bergson, J. Dewey. La hipótesis cósmica resultante subraya el cambio y la novedad y la teoría de la verdad que le corresponde es la teoría operacional. 4. La metáfora del organismo o, mejor dicho de la integración que da lugar al organicismo, cuyas manifestaciones filosóficas son el idealismo absoluto u objetivo (Schelling, Hegel). La teoría de la verdad es la de la coherencia. Este tipo de metáforas, cuyos límites no aparecen delineados con claridad como los otros, parece hundir sus raíces en la constitución misma del conocimiento. Black, que las denomina 'modelos implícitos', señala que las observaciones de Pepper pueden ser aplicadas con mayor amplitud en la medida que la extensión analógica parece típica de gran parte de los procesos de teorización: “En principio, el método parece ser el siguiente. La persona que quiere entender el mundo mira en torno a él buscando algún indicio para su comprensión; se detiene en alguna zona de hechos de sentido común y trata de ver si puede entender otras zonas sobre la base de esta, a la que convierte así en su analogía básica o metáfora radical. Describe lo mejor que puede las características de esta zona, o, si se prefiere, discierne su estructura y convierte una lista de sus características estructurales en los conceptos básicos explicativos y descriptivos (a los que llamaremos conjunto de categorías). Pasa a estudiar a base de estas categorías todas las demás regiones fácticas, sometidas ya a crítica o no - y trata de interpretar todos los hechos tomando como elementos estas categorías-, y, como resultado del impacto de estos otros hechos sobre ellas, puede perfilarlas y reajustarlas, de modo que, de ordinario, el conjunto de categorías cambia y se desarrolla. Como normalmente -y, con bastante probabilidad, al menos en parte también necesariamente- la analogía básica o metáfora radical procede del sentido común, se necesita desarrollar y afinar enormemente el conjunto de categorías para que resulten idóneas para una hipótesis de alcance ilimitado; algunas metáforas radicales demuestran ser más fértiles que otras, tienen mayor capacidad de expansión y reajuste, y ellas son las que sobreviven frente a las demás y engendran las teorías del mundo relativamente idóneas" (citado en Black, 1962, [1966, p. 235]) Ideas parecidas aunque expresadas en otros términos proceden de muchos autores que, al igual que Pepper, atribuyen a este tipo especial de modelos la condición de verdadera condición de posibilidad del conocimiento. Puede ser comparable, en buena medida, a la noción algo más amplia de Weltanschauung, esto es el conjunto de determinaciones sociales, culturales, históricas que delimitan y al tiempo posibilitan el surgimiento de nuevos conceptos, teorías, reglas de cientificidad, etc. E. H. Burtt los llama fundamentos metafísicos (cf. Burtt, 1925); Nisbet (cf. 1976) por su parte rastrea de qué modo la noción de 'desarrollo' que surge de la physis griega clásica, constituye un modelo o metáfora que actúa como noción demarcadora fundamental en la historia de la cultura occidental. Black llama ‘arquetipos’ a este repertorio sistemático de ideas básicas por medio del cual un pensador describe, por extensión analógica, cierto dominio al que tales ideas no sean aplicables, de momento, en forma inmediata y literalmente. R. Hoffman (1985) proporciona una taxonomía que incluye modelos y metáforas. Divide en primer lugar entre metáforas que considera autónomas por no estar ligadas necesariamente a representaciones mentales o no mentales específicas. Están incluidas dentro de este tipo las metáforas raíz-básicas o temas metafóricos, que tienen la propiedad de estructurar u organizar campos completos y muy extensos del conocimiento sobre la realidad, siendo casos típicos el mecanicismo o la conceptualización biológica de la sociedad. Algunos casos como este último pueden ser simétricos, dado que también puede considerarse el organismo en términos sociales. También considera Hoffman que algunas hipótesis o teorías científicas pueden tener carácter metafórico, y es el caso de teorías consolidadas en un ámbito que se extrapolan a otro en principio ajeno, por ejemplo considerar la mente como un ordenador o a la inversa un ordenador como una mente. El segundo grupo de metáforas, según Hoffman, es el que está ligado a representaciones y es aquí donde más propiamente liga modelos y metáforas: imágenes que se basan en metáforas y que pueden mediar entre la percepción la naturaleza de los fenómenos y procesos a explicar: por ejemplo pensar la electricidad como un ‘chorro’ de electrones, el universo como un plano curvo en la teoría de la relatividad, y una infinidad más; los modelos a escala o modelos materiales; y los modelos matemáticos abstractos basados en metáforas, que incluyen principalmente ecuaciones matemáticas, independientemente de que puedan, además, graficarse. 3. RECONSIDERACION DE LA METÁFORA (EPISTÉMICA) Antes de avanzar sobre la consideración de la metáfora en los estudios sobre la ciencia parece necesario recapitular algunos aspectos básicos desarrollados hasta aquí: • hablar de metáforas, y esto vale para todo tipo de metáforas, implica algo con relación al significado. Ellas poseen un plus de significado con respecto a los originales, sea que este plus se considere una interacción, extensión, ampliación o desviación con respecto al significado original. En este sentido las metáforas detectan, inventan, construyen o fantasean sobre alguna analogía entre ámbitos diferentes. Pero no se trata sólo de eso, y dar cuenta de la naturaleza de la metáfora implica extenderse desde la semántica hacia la pragmática del discurso, sobre todo a la hora de dar cuenta de la eficacia metafórica. Y esto no es sólo un problema que atañe a la eficacia estética, sino también a la eficacia cognoscitiva y epistémica. • las metáforas dicen algo acerca del mundo, en principio todas ellas, aunque de hecho no todas sean interesantes para la ciencia. Por lo tanto no sólo tienen una función estética, sino que pueden en muchos casos rivalizar cognoscitivamente con construcciones • • lingüísticas de otra genealogía. Esto no obsta para reconocer la belleza de muchas metáforas científicas y que muchas metáforas de la literatura sean burdas, cursis o triviales. En todo caso la belleza, que durante siglos pasó por ser la esencia de la metáfora, aquí podría considerarse su carácter secundario y accesorio. Conviene reforzar la siguiente cuestión: sostener que las metáforas dicen algo acerca del mundo es una obviedad que no requiere más fundamentación; pero la cuestión se ha planteado desde hace siglos sencillamente descalificando tal pretensión como un sin sentido habida cuenta que las metáforas tenían sólo una finalidad estética. En este contexto se ha señalado que en tanto discurso referencial, las metáforas son siempre afirmaciones falsas. Lo que se pretende aquí es simplemente un giro consistente en analizar ciertas afirmaciones de origen metafórico por su significado literal. Obviamente los resultados de un planteo como este resultarán totalmente inútiles –probablemente absurdos- para la literatura y la retórica. La atribucion de carácter cognoscitivo y epistémico a las metáforas no sólo no invalida ni anula sus posibilidades estéticas, sino tampoco su potencial heurístico. En todo caso se trata de asignarles unas funciones extraordinarias cuya legitimidad deberá ser expuesta. los modelos científicos considerados como representante de, se encuentran cercanamente emparentados a las metáforas y en muchos respectos pueden analizarse de modo similar. Pero, además, estos modelos pueden considerarse como metáforas cuando pasan de un ámbito a otro. Finalmente, he denominado a este tipo particular de metáfora como ‘metáfora epistémica’ que he caracterizado como sigue: en el uso epistémico de las metáforas una expresión (término, grupo de términos o sistemas de enunciados) y las prácticas con ellos asociadas habituales y corrientes en un ámbito de discurso determinado sociohistóricamente, sustituye o viene a agregarse (modificándolo) con aspiraciones cognoscitivo-epistémicas, a otra expresión (término, grupo de términos o sistemas de enunciados) y las prácticas con ellos asociadas en otro ámbito de discurso determinado socio-históricamente; este proceso se desarrolla en dos etapas, a saber: bisociación sincrónica/literalización diacrónica. La índole misma de las metáforas epistémicas y su uso en diferentes niveles de compromiso cognoscitivo impide una caracterización más precisa: a veces puede tratarse de ideas de contornos y determinaciones bastante difusas como la aplicación del evolucionismo a distintas áreas del conocimiento; otras veces a ideas algo más precisas pero que no obstante pueden tolerar distintas elucidaciones como por ejemplo la extensión del mecanicismo en el siglo XVII; también puede incluir teorías consolidadas que pasan de un ámbito a otro, como el uso de la mecánica clásica en la economía o la sociología. El carácter de metáfora le sobreviene del traslado que se opera de un ámbito a otro. CAPITULO 2 LA METÁFORA EN LOS ESTUDIOS SOBRE LA CIENCIA Las vueltas de la historia "Todas aquellas teorías filosóficas que son expresadas sólo en términos metafóricos, no son verdades reales, sino meros productos de la imaginación, vestidos (...) con unas pocas palabras huecas llenas de lentejuelas (...) Cuando sus disfraces extravagantes y lujuriosos entran en la cama de la Razón, (...) la profanan con abrazos impúdicos e ilegítimos" Samuel Parker, Censura libre e imparcial de la filosofía platónica, 1666. Este Capítulo tendrá una conclusión, por así decir, negativa, ya que se tratará de dibujar un mapa del estado de la cuestión en los estudios sobre la ciencia para mostrar el modo en que se ha generado un campo propicio para reconsiderar y revalorizar el uso de metáforas en la ciencia pero, con el objetivo de señalar que tal revalorización resulta de una evaluación sesgada y deficientemente parcial de la práctica científica, en tanto diluye su especificidad en el campo amplio de otras prácticas culturales. Conviene insistir un poco en esta cuestión: me abstendré en este trabajo de revalorizar el uso de metáforas en la ciencia apelando a una suerte de ‘literaturalización’ de la ciencia, tal como lo hacen algunas versiones retoricistas/irracionalistas/postmodernistas de moda. La revalorización de las metáforas desde estas líneas se hace sin cuestionar su esencia retórica y estética y se concluye desnaturalizando la ciencia. En este sentido hago mías las palabras de F. Jacob en tono de advertencia: “El siglo XVII tuvo la sabiduría de considerar la razón como una herramienta necesaria para tratar los asuntos humanos. El Siglo de las Luces y el siglo XIX tuvieron la locura de pensar que no sólo era necesaria, sino suficiente, para resolver todos los problemas. En la actualidad, todavía sería una mayor demostración de locura decidir, como quieren algunos, que con el pretexto de que la razón no es suficiente, tampoco es necesaria” (Jacob, 1981 [1982, p. 132]) 1. LOS ANTECEDENTES La antigüedad clásica ha reflexionado sobre la metáfora ubicándola por fuera de la filosofía y del conocimiento genuino ya que ella sería, casi exclusivamente, objeto de indagación retórica. Platón, quizá uno de los más brutales detractores del lenguaje figurativo (dentro del cual se ubicarían la metáfora, la analogía, la alegoría y la metonimia, entre otras figuras), sostenía que las palabras del poeta no conducían a la verdad y, en tal sentido, eran vanas. En su República afirma que los poetas son sólo creadores de apariencias. La expulsión del poeta, y la consiguiente deportación de la metáfora, son las únicas respuestas posibles ante una práctica que no provee ninguna verdad y solamente consigue promover emociones. Esta concepción tiende a asociar la metáfora con un mero artilugio literario, en un contexto de significación en el que ‘literario’ es un buen sinónimo para ‘engañoso’ o ‘ilusorio’ (y quizá también, para ‘peligroso’). Dado que la poesía es imitación de lo sensible, que es copia de copia de las ideas y por tanto sólo una copia degradada, Platón traslada la metáfora, junto con los otros instrumentos poéticos, a la periferia de la práctica filosófica. Es curioso, no obstante, que Platón haya sido un maestro de la metáfora. Baste recordar las alegorías de la caverna y de la línea, o los mitos de los metales y del carro alado. Con todo, fue Aristóteles quien abordó con una nueva riqueza conceptual y cierta sistematicidad el estudio de la metáfora, inaugurando de manera explícita, en el campo de la reflexión sobre el lenguaje, la oposición entre lo propio y lo traspuesto -en esta última clase se encuentran los sentidos indirectos o tropos. A diferencia de Platón, asigna a la metáfora un papel en el conocimiento humano, destacando su carácter didáctico y alumbrador aunque manteniendo siempre la condición fundamentalmente retórica y ornamental9. Cicerón, en su De Oratore se ocupó del problema del origen de la metáfora atribuyéndola a la insuficiencia de la lengua para expresar ciertas cuestiones que se fueron incorporando por la experiencia creciente de los hombres, a las cuales había que hacer referencia con expresiones ya conocidas. Pero, al igual que ocurrió con la vestimenta que surge para protegerse del frío y luego adquiere en buena medida un carácter estético extra, la metáfora se habría convertido en un objeto de adorno retórico. Cicerón define a la metáfora como una forma abreviada de símil. Los continuadores de Aristóteles -principalmente Teofrasto, pero también Quintiliano y Agustín- pensaron los asuntos lingüísticos sobre la base de lo planteado por el estagirita, priorizando el estudio de las figuras y consolidando la oposición propio – transpuesto. No obstante, perdieron de vista el carácter cognitivo de la metáfora señalado por Aristóteles. En términos generales, para la tradición retórica que va desde Quintiliano- quien destaca la función sustitutiva de la metáfora- al siglo XVIII, la metáfora es algo subordinado, ornamental, un desvío respecto de la norma. Las figuras son valoradas solamente por su poder persuasivo, pero, en la medida en que se consideran reemplazables por enunciados literales sin pérdida de significado, su presencia no resultaría indispensable. La figura es comprendida como un desvío, una forma diferente de expresar un significado que podría expresarse, sin rodeos, en lenguaje literal. Al respecto, César Du Marsais -retórico del siglo XIX- sostiene que las figuras "revisten de ropajes más nobles esas ideas comunes". En resumen, si bien esta visión -fundada en la creencia en un cierto fondo de pensamiento que puede ser expresado tanto de manera directa (literal) como de manera indirecta (por medio de una figura)- reconoce a la metáfora como creativa y orientativa, restringe su campo de validez a la estética y la oratoria, limitándola a la pedagogía y la persuasión. No son pocos los que piensan que la tradición post-aristotélica empobreció las ideas originales del filósofo (cf. De Bustos, 2000) En todo el medioevo los filósofos escolásticos consideraban de escaso valor el papel de la metáfora para el pensamiento humano con la excepción quizá de Santo Tomás quien afirmaba que tenía un papel cognitivo en la medida en que permitía aferrar las verdades espirituales que no eran expresables directamente en un lenguaje literal. Con el correr de los siglos la metáfora continuó siendo descartada por los filósofos como instrumento cognitivo. Th. Hobbes, en verdad tan afecto al uso de metáforas brillantes, la caracterizó como un obstáculo a la comunicación porque propiciaba el discurso ambiguo y oscuro. Para otro de los grandes empiristas británicos, J. Locke, la metáfora es una clase de abuso verbal que debe suprimirse del discurso propio de la expresión del conocimiento, ya que la dimensión retórica del discurso, su virtualidad persuasiva, ha de residir no en la forma verbal, sino en su sustancia lógica: "(...) Admito que en discursos donde buscamos más el halago y el placer que la información y la instrucción, semejantes adornos, que se toman de prestado de las imágenes, no pueden pasar por faltas verdaderas. Sin embargo, si pretendemos hablar de las cosas como son, es preciso admitir que todo el arte retórico, exceptuando el orden y la claridad, todas las aplicaciones artificiosas y figuradas de las palabras que ha inventado la elocuencia, no sirven sino para insinuar ideas equivocadas, mover las pasiones y seducir así el juicio, de manera que en verdad no es sino superchería (...)" (Locke, [1996, III,cap X]). 9 Cf. Aristóteles, Retórica, 1410b Desde una posición opuesta al crecientemente hegemónico racionalismo moderno se pueden rastrear antecedentes de la tesis según la cual la metáfora es central en el lenguaje. B. Pascal pone el énfasis en la autonomía e irreductibilidad del significado metafórico. Autonomía en cuanto que el significado de la metáfora es independiente de las acepciones literales de sus elementos componentes, e irreductibilidad en cuanto que el significado metafórico es intraducible mediante paráfrasis literales. De acuerdo con Pascal, el excedente expresivo de la metáfora la convierte en el medio ideal para trasmitir lo inefable (en su caso el mensaje divino). Puede decirse que, en general, a lo largo de la historia ha prevalecido la tesis que sostiene que la metáfora es un artilugio lingüístico con funciones comunicativas específicas pero, en fin, ajena al conocimiento, y salvo contadas excepciones, la apreciación de la metáfora continuó siendo exclusivamente retórica y un desprecio sobre su papel cognitivo fue la opinión casi unánime. Ya entrada la modernidad y a favor de la instalación creciente de la idea de progreso, el espíritu poético en general y la metáfora en particular pasaron a jugar un papel distinto para algunos autores. G. Vico en su filosofía de la historia (cf. su Scienza Nuova de 1725), distingue una fase poética del espíritu humano anterior a la filosofía, en la cual los hombres presuponen un universo animado, donde cada cosa está poseída de una vida corporal y afectiva, conforme a la humana. El único medio para que los hombres del pasado ampliaran su experiencia era asimilar los objetos nuevos a los datos de la propia experiencia del cuerpo y del alma, de modo que los hombres están inclinados, en esta fase a nombrar los aspectos del universo visible con palabras utilizadas desde el origen para las realidades del cuerpo (‘cabeza’ o ‘pie’ de una montaña, ‘boca’ de un río, ‘lengua’ de mar, etc.). Cada metáfora en lo esencial sería, entonces, una personificación. En este sentido Vico representa una ruptura con respecto a la concepción meramente ornamental clásica de la metáfora pues considera que su fundamento radica en una comprensión especial del mundo, en una metafísica propia de las primeras etapas de la civilización, aunque se trata de una operación no fundada en la razón. K. Marx, tiempo después afirmará en la misma línea que la comprensión mitológica del mundo proviene de las primeras relaciones, de sometimiento, del hombre con las fuerzas de la naturaleza, que desaparecerá cuando el dominio sobre las fuerzas naturales sea real. Esta línea de pensamiento despega la idea de metáfora de la de mero ornamento y la ubica, reificando sus características en una filosofía progresiva de la historia, ligada también al ámbito de las concepciones del mundo pero con la condición de que sea una etapa primitiva y superada, pero esta superación, no obstante, no invalida su papel en la categorización, taxonomización y comprensión del mundo. 2. LA MODERNA FILOSOFÍA DE LA CIENCIA 2.1. la cuestión del lenguaje cientifico Si se ha de abordar el problema del uso de metáforas en la ciencia, es necesario analizar el lugar que han tenido en la filosofía de la ciencia moderna, cuyo inicio puede ubicarse hacia fines del siglo XIX y principios del siglo XX, etapa en la que se consolidó lo que luego dio en llamarse la Concepción Heredada de las Teorias (received view, en adelante CH)10. A decir verdad indagar sobre el uso y status de las metáforas en la ciencia en este contexto es algo que debe hacerse por omisión o ausencia, dado que si a lo largo de la historia la metáfora ha sido asociada a la retórica y por tanto gozado de una desconfianza fundacional, es en la CH, tan proclive a pensar la ciencia sólo como un sistema de enunciados fundados en algunos de ellos con referencia empírica directa, cuando este destierro de la metáfora se hace más obstinado y definitivo. La revalorización de las metáforas requiere, antes bien, del abandono de los postulados epistemológicos que consideran a la ciencia meramente como un cálculo axiomático empíricamente interpretado, 10 Se trata de una denominación acuñada por H. Putnam. abandono que se ha ido dando paulatinamente a lo largo del siglo XX en una serie de disputas en torno, básicamente, aunque no solamente, a la distinción u oposición entre el ‘ideal de transparencia del lenguaje’ y los distintos grados de la tesis de la ‘opacidad del lenguaje’ (cf. Cabanchik, 2000) 2.1.1 el giro lingüístico Hacia fines del siglo XIX y primeras décadas del XX se conforma un clima adecuado para que la filosofía cambie de rumbo. La ciencia no sólo se había separado de la filosofía en el sentido tradicional, sino que se había estructurado y expandido su campo de estudio a nuevos y amplios aspectos de la realidad convirtiéndose en la forma más desarrollada y genuina de conocimiento. Sin embargo, también había mostrado que podía tener problemas sobre los cuales era necesario llevar a cabo una reflexión filosófica. El abandono parcial de la Física Clásica y el desarrollo de la Teoría de la Relatividad y la Mecánica Cuántica fueron considerados pruebas claras de la capacidad de autocorrección de la ciencia y de que un análisis y reflexión continuos sobre su método, estructura y criterios de validación podría ayudar a evitar crisis tan profundas como la padecida a finales del s. XIX. Es más, esos análisis ponían de manifiesto la estructura interna de las teorías, los procesos de su aplicación al mundo y de su contrastación, la conexión entre las afirmaciones teóricas más abstractas y la experiencia. Todo ello era tarea adecuada para una elucidación filosófica, para lo cual se fue disponiendo, además, de un nuevo arsenal de profundos y extensos desarrollos de la lógica. Era un campo propicio para la construcción de una filosofía de la ciencia precisa, empírica y que recurriera a la lógica como método de investigación de modo semejante a lo que hace la física con la matemática; una filosofía de la ciencia que pudiera parecerse a la ciencia, cuya prioridad reconoce, y que no se pareciese en casi nada a la antigua Filosofía de la Naturaleza. La filosofía de la ciencia se consolidaría con esa impronta que marcaría su desarrollo durante varias décadas. En buena parte de la filosofía europea se produce lo que dio en llamarse el ‘giro lingüístico’, que, basándose en el supuesto de que el conocimiento era un reflejo fiel y neutral de lo conocido, preconizaba el estudio del lenguaje en que se describe esa realidad y se formula el conocimiento científico como la forma más objetiva e intersubjetiva de conocimiento. Complementariamente, comienza a crecer con fuerza la idea que será piedra angular de toda la tradición que, generalmente simplificando indebida y exageradamente las cosas (cf. Suppe, 1974; Acero fernández, 1990) se denomina filosofía analítica: los problemas filosóficos son problemas lingüísticos; problemas cuya solución exige enmendar, volver a esculpir nuestro lenguaje o cuando menos, hacernos una idea más cabal de sus mecanismos y de su uso. La filosofía se va convirtiendo en (o se reduce a) el análisis del lenguaje (Frege, 1879). Tanto la filosofía del lenguaje como la filosofía de ese lenguaje particular que es la ciencia se derivan de este estilo de pensamiento (Acero Fernández, 1990, Passmore, 1957). Así, en buena medida la reflexión filosófica adquiere un carácter peculiar en tanto deja de presentarse como una forma genuina de conocimiento con tesis sustanciales propias, para convertirse en una reflexión de segundo nivel sobre las formas concretas del conocimiento humano, utilizando como método propio el análisis lógico de los lenguajes en que esas formas de conocimiento se formulan. De tal modo, la filosofía de la ciencia se piensaa sí misma como una reflexión sobre la naturaleza y características del conocimiento científico, buscando no tanto realizar una descripción adecuada del mismo cuanto establecer las condiciones necesarias y suficientes para que un conjunto de afirmaciones pueda ser considerado ‘ciencia’ tratando de convertirse así en guardiana de la pureza de la ciencia y ser el árbitro último capaz de distinguir el conocimiento genuino del que no lo es. Habitualmente se señala como antecedente fundamental de esta inusitada intimidad entre filosofía y lenguaje, la publicación en 1879, de la obra de G. Frege Begriffsschrift, cuyas tesis fundamentales pueden sintetizarse como sigue: • La finalidad de la filosofía es analizar el lenguaje para superar los obstáculos lógicos que éste tiende. “Si es una tarea de la filosofía quebrar el dominio de la palabra sobre la mente humana al descubrir los engaños que sobre las relaciones de los conceptos surgen casi inevitablemente en el uso del lenguaje, al liberar al pensamiento de aquéllos con que plaga la naturaleza de los medios lingüísticos de expresión, entonces mi conceptografía, más desarrollada para estos propósitos, podría ser un instrumento útil a los filósofos” (Frege, 1879 [1972,p. 10]) • Toda expresión (de la conceptografía) es nombre de alguna entidad. A cada expresión significativa le corresponde un elemento de la realidad. 2.1.2. el primer Wittgenstein. El grado cero de la descripción Con algunas diferencias grandes, la filosofía del atomismo lógico de Russell retoma algunas de las consideraciones básicas introducidas por Frege, pero quizá el autor que más influencia directa ha tenido sobre el empirismo lógico en particular y sobre la CH en general ha sido L. Wittgenstein; fundamentalmente a través de su teoría figurativa del sentido11 y su defensa contundente de la reducción del conocimiento a enunciados elementales. Ya Russell había considerado que era razonable tratar al mundo físico como si fuera una especie de ‘objeto lógico’. Supuso que existía una especie de correspondencia entre las operaciones lógicas de nuestra mente, la lógica de la matemática y la multitud de cosas que existen y se mueven en el mundo. Pero, para Wittgenstein las cosas eran algo diferentes y pensaba que la lógica posibilitó la representación del mundo en el pensamiento, representación en la que los pensamientos eran expresados a través del simbolismo del lenguaje; pero las proposiciones de la lógica no representaban por ellas mismas el mundo; la lógica revela qué situaciones son posibles pero no determina cómo se estructura el mundo como agente causal externo, sino que era una imagen especular del mundo. Así, según Wittgenstein, una proposición es una figura, una especie de mapa o dibujo peculiar de una situación real, ya existente, ya hipotética. De modo tal que comprender una proposición es conocer la situación o el estado de cosas que representa. Ser una figura de una situación, entonces y según este punto de vista, es lo mismo que describirla o que ser un modelo de ella. En resumen, entonces, el supuesto que fundamenta las reglas que un enunciado debe satisfacer para tener sentido (significado) es que existen enunciados elementales en el sentido de que, si son verdaderos, corresponden a hechos absolutamente simples. E incluso para los casos en que no se disponga de tales enunciados debe considerarse que aquellos disponibles dicen lo que se diría afirmando ciertos enunciados elementales y negando otros, es decir, sólo en cuanto dan una imagen, verdadera o falsa, de los hechos “atómicos” primarios. Luego se volverá sobre el punto a propósito de la idea de ‘concepción enunciativa de las teorías’. Antes de avanzar sobre las características que fue adquiriendo la CH en buena medida como resultado de la influencia de Wittgenstein, permítaseme una breve digresión. L. Wittgenstein pensó, al escribir su Tractatus, en un lenguaje objetivo-literal, un lenguaje que describiera hechos y depurado de todo elemento metafórico que respetara aquella relación con la naturaleza que R. Rorty (1979) dio en llamar "especular". Pero, cabe preguntarse: ¿es realmente posible una forma de expresión así?. Es decir, ¿podemos hallar esta suerte de lenguaje minimalista que nos permita describir todas las situaciones del mundo sin la necesidad de apelar a instancias tales como las metáforas u otras formas de desplazamiento del lenguaje?. De acuerdo con la notable cantidad de metáforas que juega un papel insoslayable en nuestra comunicación verbal cotidiana, resulta difícil sostener la posibilidad de un lenguaje descriptivo neutro y exclusivamente literal que fuera capaz de 11 Según Acero Fernández (1990) esta es una expresión más adecuada que “teoría figurativa del significado”. expresar la realidad de una manera precisa, unívoca, en una relación de uno-a-uno. El mismo Wittgenstein, una vez reconocido el reduccionismo de las tesis del Tractatus relacionadas con los rasgos esenciales de la capacidad del lenguaje, ha sugerido la importancia de este tipo de descripciones "indirectas" o no-literales de estados de cosas. En sus Investigaciones Filosóficas reflexiona acerca de expresiones que escapan de la mera literalidad, tales como "No sabía qué ocurría dentro de su cabeza". Con respecto a enunciados como éste, sostiene que, en cierto modo "en el empleo real de las expresiones damos rodeos, pasamos por callejones laterales; mientras que vemos ante nosotros la avenida recta, pero sin que la podamos utilizar, porque está permanentemente cerrada". A partir de esta analogía del lenguaje con la ciudad, Wittgenstein imagina a las metáforas como "callejones laterales", al tiempo que señala para algunos casos la imposibilidad (la "clausura permanente", si se quiere) de una forma de expresión directa, es decir, literal. Puede derivarse de las últimas reflexiones de Wittgenstein, el reconocimiento de que muchas de nuestras formas lingüísticas de comunicación cotidiana están formuladas de una manera no literal y, además, que dichas maneras de expresión pueden ser tomadas como objeto de indagación filosófica. Las impugnaciones posteriores dentro de la tradición de la filosofía de la ciencia hacia la neutralidad de la base empírica, así como la creciente conviccion de que los enunciados de observación sólo cobran sentido dentro de marcos teóricos particulares van en el mismo sentido. 2.2. características generales de la ‘concepción heredada’ Las ideas básicas que derivaron en la CH son llevadas a su máxima expresión en los años veinte por un grupo de científicos y filósofos reunidos bajo el nombre de ‘Círculo de Viena’, que publican en 1929 un breve trabajo denominado “La concepción científica del mundo: el Círculo de Viena” en el cual exponen las líneas directrices de un ambicioso programa de estudios. A continuación del artículo se señala y comenta la bibliografía que sigue esas líneas agrupándola según tres niveles de relación. En primer lugar los miembros del Círculo de Viena: Gustav Bergmann, Rudolf Carnap, Herbert Feigl, Philipp Frank, Kurt Gödel, Hans Hahn, Viktor Kraft, Karl Menger, Marcel Natkin, Otto Neurath, Olga HahnNeurath, Theodor Radaković, Moritz Schlick, Friedrich Waismann. Luego, aquellos “que trabajan en el terreno de la concepción científica del mundo y que se encuentran en un intercambio personal y científico con miembros del Círculo de Viena”: Walter Dubislav, Josef Frank, Kurt Grelling, Hasso Härlen, E. Kaila, Heinrich Loewy, F. P. Ramsey, Hans Reichenbach, Kurt Reidemeister, Edgar Zilsel. Finalmente, según reza el manifiesto citado, aquellos pensadores “líderes del presente que defienden públicamente de un modo más efectivo la concepción científica del mundo y que también ejercen la mayor influencia sobre el Círculo de Viena: Albert Einstein, Bertrand Russell, Ludwig Wittgenstein”. Incluso en algún sentido relevante pueden incluirse dentro de la misma línea a autores que, por lo demás, han sido críticos de algunos postulados del Círculo tales como K. Popper, que aquí desarrollaremos más adelante en pos de la claridad expositiva. De hecho, como es imaginable, hay diferencias12 sustantivas entre los planteamientos iniciales y los últimos desarrollos de la C.H., producto tanto de los debates internos como así también de las notables diferencias entre los autores, pero, básicamente se convirtió en un lugar común para los filósofos de la ciencia el considerar a las teorías científicas como cálculos axiomáticos a los que se da una interpretación observacional parcial por medio de reglas de correspondencia. Lo que la CH pretendía no era tanto reconstruir la estructura de teorías concretas, sino, antes bien, dar una formulación canónica que toda teoría pretendidamente científica debía satisfacer. Es cierto que esa formulación canónica se construía a partir del estudio de teorías existentes tomadas como modelo12 Para un análisis de las reformulaciones de la CH a través del tiempo cf. Suppe (1974) o Diez y Moulines (1997). sobre todo la física- y que fue objeto de numerosas modificaciones con el fin de adecuarla a las teorías ya consagradas que, en algunos aspectos, no la cumplían; pero no es menos cierto que la pretensión última de la CH era que cualquier teoría se construyera siguiendo esos cánones y esa era, en última instancia, la utilidad que la filosofía de la ciencia podía tener para el conocimiento científico. Se ha sostenido, y lo repito aquí con ciertas reservas, que esta impronta de la CH deriva en un punto de vista fuertemente prescriptivo, en oposición a algunos desarrollos posteriores con aspiraciones más descriptivas que atendieran a considerar la relevancia de las prácticas histórico sociológicas. Las características más salientes de la CH13, que a su vez remarcan su imposibilidad de tolerar la atribución de funciones cognoscitivas y epistémicas a las metáforas, han sido: • su militancia antimetafísica • prioridad de la observación: permitiría fundamentar una demarcación clara entre ciencia y otros tipos de creencias y afirmaciones; • distinción entre observación y teoría: se admite la inclusión de enunciados teóricos bajo el supuesto de una distinción clara y tajante entre los informes de la observación y la teoría, siendo obviamente prioritarios y fundamentales los informes de la observación y el experimento. Entre los enunciados empíricos y los teóricos hay una relación de deducibilidad. • el realismo: la ciencia es un intento por descubrir un mundo real, y sus afirmaciones verdaderas no dependen de lo que los individuos crean o supongan. Hay una única y mejor descripción para cualquier parcela del universo. Como derivacion aparece la idea unidad de la ciencia, lo que permite tanto una defensa de la unidad metodológica, como así también, adoptando una tesis ontológica, la unidad, y el carácter reductivo y acumulativo del conocimiento14; • distinción tajante entre contextos de justificación y de descubrimiento. 2.2.1 el rechazo de la metafísica El manifiesto “La concepción científica del mundo: el Círculo de Viena” comienza advirtiendo sobre el crecimiento del pensamiento “metafísico y teologizante” tanto en la vida diaria, como así también en la ciencia. Los extravíos metafísicos se explicaban a partir de distintos orígenes como por ejemplo psicológicos o sociológicos. Pero, según el Manifiesto del Círculo de Viena, tales extravíos también proceden desde el punto de vista lógico: bien por una vinculación demasiado estrecha con la forma de los lenguajes tradicionales o naturales –tan ambiguos y difusos- , bien por una confianza exacerbada e injustificada en que el 13 Coincido en líneas generales con Ibarra y Mormann (1997), en que se trata más bien de una interpretación heredada construida con posterioridad, dado que si bien había sustanciales puntos en común entre sus defensores, también es cierto que había importantes diferencias. En la misma línea se expresan Diez y Lorenzano (2002) al señalar que lo que se conoce como la filosofía de la ciencia del periodo clásico no es más que una reducción artificial operada por los textos introductorios y que,en verdad, las nuevas filosofías de la ciencia a partir de los años ’50 y ’60 más que una auténtica revolución constituyen una profundización o recuperación de aspectos y problemas previamente tratados. La heterogeneidad no sólo está dada por las diferencias entre los autores y a través de los desarrollos en el tiempo de sus pensamientos, sino también porque la expresión CH a veces se refiere a la filosofía clásica de la ciencia en general y otras, más restringidamente, al concepto clásico de teoría, hegemónico durante el periodo clásico. Como quiera que sea en la medida en que esta interpretación se constituye en interlocutor de los nuevos estudios sobre la ciencia debe reconocérsele entidad aunque se traicione en alguna medida difícil de evaluar la tarea exegética exhaustiva y rigurosa. 14 Debe notarse que no todos aceptaban esta distinción entre conceptos observacionales y conceptos teóricos y divergían en el papel que estos últimos tenían en la ciencia “según mantuvieran posiciones realistas, operacionalistas o nominalistas” (Diez y Lorenzano, 2002, p. 17) pensar por sí solo pudiera llevar al conocimiento sin la utilización de algún material de la experiencia. Pero, sostienen la investigación lógica lleva al resultado de que toda inferencia no consiste en ninguna otra cosa que el paso unas oraciones a otras, que no contienen nada que no haya estado ya en aquéllas. No es por lo tanto posible desarrollar una metafísica a partir del pensar puro. El rechazo de la metafísica es amplio: “De esta manera a través del análisis lógico se supera no sólo a la metafísica en el sentido propio, clásico del término, en especial a la metafísica escolástica y la de los sistemas del idealismo alemán, sino también a la metafísica escondida del apriorismo kantiano y moderno. La concepción científica del mundo no reconoce ningún conocimiento incondicionalmente válido derivado de la razón pura ni ningún “juicio sintético a priori” como los que se encuentran en la base de la epistemología kantiana y aún más de toda ontología y metafísica pre y post-kantiana. Los juicios de la aritmética, de la geometría, y ciertos principios de la física, que Kant tomó como ejemplos de conocimiento a priori, se discutirán luego. Precisamente en el rechazo de la posibilidad de conocimiento sintético a priori consiste la tesis básica del empirismo moderno. La concepción científica del mundo sólo reconoce oraciones de la experiencia sobre objetos de todo tipo, y oraciones analíticas de la lógica y de la matemática. Los partidarios de la concepción científica del mundo están de acuerdo en el rechazo de la metafísica manifiesta o de aquella escondida del apriorismo. Pero más allá de esto, el Círculo de Viena sostiene la concepción de que todos los enunciados del realismo (crítico) y del idealismo sobre la realidad o irrealidad del mundo exterior y de las mentes ajenas, son de carácter metafísico, pues ellos están sujetos a las mismas objeciones que los enunciados de la antigua metafísica: no tienen sentido porque no son verificables, no se atienen a las cosas. Algo es "real" en la medida en que se incorpora a la estructura total de la experiencia. (Carnap et al , 1929 [2002, p. 107]) 2.2.2. la demarcación Si la ciencia es el único conocimiento genuino, la Filosofía de la Ciencia debía elaborar criterios de demarcación que permitieran delimitar este ámbito no ya privilegiado epistémicamente, sino único. Y esto es así, porque en el caso de la CH, tal criterio no separa meramente la ciencia de lo que no es ciencia, sino lo que se considera conocimiento válido de las afirmaciones sin sentido. Para ello la C.H. utiliza un criterio basado en el supuesto empirista de que la experiencia es la única fuente y garantía de conocimiento. “Si alguien afirma “no hay un Dios”, “el fundamento primario del mundo es lo inconsciente”, “hay una entelequia como principio rector en el organismo vivo”, no le decimos “lo que Ud. dice es falso”, sino que le preguntamos: “¿qué quieres decir con tus enunciados?”. Y entonces se muestra que hay una demarcación precisa entre dos tipos de enunciados. A uno de estos tipos pertenecen los enunciados que son hechos por las ciencias empíricas, su sentido se determina mediante el análisis lógico, más precisamente: mediante una reducción a los enunciados más simples sobre lo dado empíricamente. Los otros enunciados, a los cuales pertenecen aquellos mencionados anteriormente, se revelan a sí mismos como completamente vacíos de significado si uno los toma de la manera como los piensa el metafísico. Por supuesto que se puede a menudo reinterpretarlos como enunciados empíricos, pero en ese caso ellos pierden el contenido emotivo que es generalmente esencial para el metafísico. El metafísico y el teólogo creen, incomprendiéndose a sí mismos, afirmar algo con sus oraciones, representar un estado de cosas. Sin embargo, el análisis muestra que estos enunciados no dicen nada sino que sólo son expresión de cierto sentimiento sobre la vida. La expresión de tal sentimiento seguramente puede ser una tarea importante en la vida. Pero el medio adecuado de expresión para ello es el arte, por ejemplo, lírica o la música. Si en lugar de ello se escoge la apariencia lingüística de una teoría, se corre un peligro: se simula un contenido teórico donde no radica ninguno. Si un metafísico o un teólogo desea retener el ropaje habitual del lenguaje, entonces él mismo debe darse cuenta y reconocer claramente que no proporciona ninguna representación, sino una expresión, no proporciona teoría ni comunica un conocimiento sino poesía o mito. Si un místico afirma tener experiencias que están sobre o más allá de todos los conceptos, esto no se lo puede discutir. Pero él no puede hablar sobre ello; pues hablar significa capturar en conceptos, reducir a componentes de hechos científicamente clasificables”. (Carnap et al, 1929 [2002, p. 110]) De este modo un conocimiento es genuino si es decidible empíricamente. La combinación de este supuesto con la concepción ‘lingüística’, da lugar al principio verificacionista de significado, que se puede enunciar como sigue: “el significado de una proposición es el método de su verificación”. Según este principio, un tanto estrecho, aquellas proposiciones que no puedan verificarse empíricamente, carecen de significado en sentido estricto y sólo tienen un sentido emotivo: expresan estados de ánimo. Una de las consecuencias más importantes de ese principio es que, por lo menos en principio, expulsa de un plumazo, del ámbito de las afirmaciones con pretensiones de sentido a la metafísica y a toda la filosofía especulativa en general (cf. Ayer, 1959; Schlick, 1959; Stevenson, 1959 Waismann, 1959). Todo discurso cognitivamente significativo acerca del mundo debía ser empíricamente verificable y el problema de la verificación de las aserciones se reduce a la cuestión de cómo deben ser verificadas las aserciones del lenguaje observacional y del lenguaje protocolario. Las proposiciones significativas, entonces, se restringían tan sólo a dos tipos: las proposiciones formales como las de la lógica o la matemática puras, que son tautológicas; y las proposiciones fácticas referidas al mundo empírico y con posibilidad cierta de verificación. Debe consignarse que lo que perdura durante décadas como parte de la agenda epsitemológica es la necesidad de establecer una demarcación, aunque el criterio verificacionista fue rápidamente abandonado dentro de la misma tradición del empirismo lógico (cf. Ayer, 1959), como así también por otros autores como K. Popper (ver más abajo) por ejemplo. 2.2.3 concepción enunciativa de las teorías y distinción teórico/observacional. Las teorías científicas (para ciencias empíricas), son consideradas por la CH como cálculos axiomáticos empíricamente interpretados. La idea básica es desarrollada en la década del ’20 y ’30 del siglo XX por Reichenbach, Ramsey, Brigman, Campbell y Carnap y paulatinamente reelaborada en las décadas siguientes por Hempel, Carnap y Nagel. Las teorías científicas estarían constituidas, entonces, por conjuntos de enunciados, independientes unos de otros, aunque manteniendo entre sí relaciones de deducibilidad. Por otra parte, el número de enunciados que integra una teoría es, a todos los efectos, potencialmente infinito, lo cual obliga a reconstruirla como un sistema de enunciados axiomatizado deductivamente con la ayuda de métodos metamatemáticos, de tal manera que resulte una estructura ordenada y manejable. El arsenal lingüístico de las teorías entonces estará constituido básicamente, entonces, tres clases de términos, a saber: • lógico matemáticos: se trata del vocabulario instrumental formal • observacionales: vocabulario observacional que se refiere a entidades, propiedades y relaciones directamente observables • teóricos: vocabulario que refiere a entidades propiedades y relaciones no directamente observable postuladas para dar cuenta de los fenómenos La articulación de los términos en la teoría permite al nivel de los enunciados otra distinción importante: • enunciados teóricos: contienen como vocabulario descriptivo (es decir no formal) cuando menos un término teórico. • enunciados observacionales: contienen como vocabulario descriptivo únicamente términos observacionales. Es importante en este caso la distinción entre aquellos que se refieren a entidades o procesos singulares, es decir los observacionales en sentido estricto y los que se refieren a la generalidad de los casos, es decir los que suelen denominarse leyes empíricas. • reglas de correspondencia: contienen tanto términos teóricos como observacionales. Son los enunciados que conectan los términos teóricos con la experiencia observable cargando así de interpretación empírica los axiomas puramente teóricos. El lenguaje observacional (Lo) tiene que ser neutral, dado con independencia del lenguaje teórico (Lt) y único, porque así es la experiencia y porque sólo así se garantiza la verificabilidad genuina de las teorías. Además tiene que ser accesible, preciso, con una estructura lógica simple, extensional, etc., pues se conecta directamente con la realidad observable. Luego de algunas disputas internas (cf. Neurath, Russel y Carnap en Ayer, 1959) triunfó por sobre la tesis fenomenalista, la tesis fisicalista propuesta por Carnap, según la cual el lenguaje de observación o protocolar debería ser un lenguaje- objeto en el que se hablara de cosas materiales a las cuales se les adscribiera propiedades observables. Como las propiedades adscritas a las cosas son propiedades observables quedaba garantizada la intersubjetividad A su vez, Lt es relativo a cada teoría en el sentido de que puede diferir radicalmente de una a otra y su estructura lógica puede ser muy compleja. Pero las controversias fundamentales radican en cuál es el nivel de compromiso ontológico (si lo hay) que conlleva la aceptación de términos que refieren a un ámbito ajeno a la posibilidad de observación. Mares de tinta se han derramado acerca de esta cuestión, con distintos grados de sutileza en los análisis, (cf. Hempel, 1959 y 1966, Suppe, 1959), pero básicamente hay dos posiciones que, más allá de las diferencias, mantienen el compromiso básico con el empirismo, pues el lenguaje observacional se considera indiscutible y libre de problemas y la existencia de lo observado está fuera de toda duda. Por un lado la posición realista, que sostiene que los términos teóricos se refieren a entidades y propiedades inobservables, pero de existencia física. El carácter de inobservable está definido por la imposibilidad técnica (en muchos casos transitoria) o sensorial de la especie humana. En este caso lo observable es sólo una parte de la realidad, precisamente el conjunto de efectos y consecuencias de lo inobservable. Las leyes teóricas pretenden describir esos procesos inobservables y por eso son susceptibles de verdad o falsedad por su correspondencia con la realidad. Por otro lado, la posición instrumentalista, según la cual los términos teóricos son concebidos como abreviaturas de combinaciones complejas de términos observacionales o como convenciones que facilitan el manejo del lenguaje observacional. Desde este punto de vista no hay más realidad que la observable o, cuando menos, es la única relevante. Las leyes teóricas son instrumentos útiles para la predicción de fenómenos y para organizar la experiencia conectando unos sucesos con otros, pero no son ni verdaderas ni falsas en un sentido estricto. Son, en todo caso artificios de cálculo con relación a los enunciados observacionales. Se considera que las teorías pueden usarse para relacionar o sistematizar enunciados observacionales y para derivar conjuntos de enunciados de observación (predicciones) a partir de otros conjuntos (datos); pero se pretende no hacer mención ni cuestión alguna con relación a la verdad o referencia de esas teorías. Sea como fuere, tanto para los realistas como para los instrumentalistas, los dos tipos de lenguajes (Lo y Lt) con sus correspondientes vocabularios, permanecen escindidos tajantemente. Por ello se hace necesario establecer un puente que permita el pasaje deductivo, es decir conservando la verdad, de los enunciados teóricos a los observacionales. Esa función se realiza según las ‘reglas de correspondencia’, enunciados especiales que permiten interpretar la teoría en términos de observación. La naturaleza y el status de estas reglas fueron objeto de numerosas discusiones y modificaciones que llevaron a una creciente liberalización en la forma de entenderlas. Así, fueron consideradas, sucesivamente, definiciones, reglas de traducción, enunciados de reducción parcial, diccionarios y sistemas interpretativos. Igualmente pasaron de ser ‘externas’ a la teoría a estar integradas entre los postulados, y de analíticas a sintéticas (cf. Suppe, 1959). En cualquier caso, la interpretación resultante es lingüística, pues está constituida por el conjunto de enunciados observacionales que son consecuencia de la teoría, y es única en el sentido de que actúa como la ‘gran aplicación’ de la teoría a toda la experiencia. De modo tal que el conjunto de enunciados observacionales obtenido describiría cómo sería toda la experiencia si la teoría fuese verdadera. Desde un punto de vista lógico la teoría podrá ser considerada completamente verificada si todas sus consecuencias observacionales se corresponden con la experiencia. Esto implica que no es posible llevar a cabo la verificación completa de una teoría, ya que sus consecuencias observacionales son, a todos los efectos, infinitas (lo que se sigue de la propia estructura lógica de las leyes, que pretenden valer para todo lugar y tiempo), lo cual obliga a la utilización de una inferencia inductiva, pues de la verdad de casos particulares se infiere la de la teoría. Por ello se habla más bien de grado de confirmación, que se determina mediante la probabilidad15 inductiva y es progresivamente creciente a medida que aumenta el número de verificaciones. De la misma manera es posible decidir entre teorías alternativas mediante experimentos cruciales, que confirmaran una de ellas, desconfirmando, al mismo tiempo, la otra. Esto es posible porque las teorías son conmensurables en un doble sentido: 1. Como el lenguaje observacional es neutral y compartido por las distintas teorías, es posible compararlas, al menos a este nivel. Ciertamente algunas tendrán una base empírica más amplia que otras, pero basta que tengan alguna parte común para que la comparación sea posible. Incluso si sus bases empíricas son completamente diferentes, siempre será posible establecer conexiones entre ellas al observar que se refieren a aspectos distintos de la misma experiencia. 2. Para la C.H. las unidades mínimas de significado son los términos y, en un segundo nivel, los enunciados aislados. De este modo el significado de un término será independiente de la teoría en que aparece. Aunque en teorías sucesivas ese significado pueda ser precisado y afinado o se introduzcan términos nuevos que sustituyan a otros antiguos total o parcialmente, puede decirse que el significado de los términos se conserva esencialmente, y en los casos de sustitución es posible identificar los términos implicados (esta es la tesis de la invariancia de significado). Esto es lo que hace posible la comparación de diferentes teorías científicas en el nivel del lenguaje teórico. 2.2.4. la distinción entre contextos. En su Der logische Aufbau der Welt, Carnap (1928) presentaba un sistema y un método para la construcción cognitiva y ontológica del mundo. Consideraba tal sistema como una reconstrucción racional de los procesos de conocimiento y ‘conformación de la realidad’ que en la mayoría de los casos se llevan a cabo intuitivamente y entendía la reconstrucción en sentido fuerte y siguiendo ‘la forma racional de derivaciones lógicas’. El problema fundamental de la filosofía (que en este contexto quedaba reducida a cumplir un papel de auxiliar de las ciencias) consistiría en lograr esta reconstrucción racional con los conceptos de todos los campos científicos del conocimiento. Este modo de concebir a la filosofía implica otro recorte de suma importancia en el campo de estudio. Algunos años después otro conspicuo representante de la CH, Reichenbach, en el primer capítulo de Experience and prediction (Reichenbach, 1938) estableció dos distinciones que cobraron fama y aceptación rápidamente. La primera era la diferencia entre las relaciones internas y externas del conocimiento. Llamaba internas a las que se dan entre las afirmaciones de la teoría en su reconstrucción racional y entre éstas y la evidencia empírica; externas a las que van más allá de estos factores lógicos y empíricos y se relacionan con elementos relativos a los comportamientos de la comunidad científica. La ciencia estrictamente hablando, para estos pensadores, estaba constituida por los contenidos y relaciones internas, ya que la conciben sólo como producto, desentendiéndose 15 Carnap (1966), realiza un análisis minucioso de la probabilidad, distinguiendo entre probabilidad lógica o inductiva y probabilidad estadística. Atribuir a la ciencia carácter probabilístico ha sido objetado por muchos autores, entre ellos Popper (cf. 1935, 1963, 1970), señalando acertadamente que desde el punto de vista de la probabilidad matemática, las teorías científicas tienen probabilidad cero. de los problemas de la producción del saber. La otra distinción establecida por Reichenbach, complementaria de algún modo de la primera es la que se establece entre el contexto de justificación y el contexto de descubrimiento. Al primero corresponden los aspectos lógicos y empíricos de las teorías, mientras que al segundo quedan reservados los aspectos históricos, sociales y subjetivos que rodean a la actividad de los científicos. No interesa, para la justificación de las teorías, los avatares que provocaron su generación y, en todo caso, el abordaje de los mismos será tarea de la sociología, la historia o la psicología. La enorme influencia de estos planteos provenientes de la filosofía de la ciencia generaron no sólo una distinción conceptual, sino también una clara demarcación disciplinar. Así, esta verdadera ‘división del trabajo’, era asumida también por la sociología de la ciencia, que prestaba atención a los aspectos institucionales de la ciencia, desde las condiciones externas que favorecen su constitución y desarrollo como institución hasta su legitimación y la evaluación social de los descubrimientos científicos, pero sin pretender ninguna injerencia relevante en su contenido cognitivo. Un claro ejemplo es la sociología mertoniana, especialmente interesada en las normas y organización de la ciencia en tanto institución social, sus relaciones con otras instituciones y su integración o desintegración en la estructura social. R. Merton (1973) sostiene que el contenido de la ciencia, su justificación y validación, su desarrollo y cambios específicos, quedan fuera del campo de la sociología y obedecen a lo que llama ‘normas técnicas’. Los contenidos de la ciencia dependen sólo de su función -el aumento del conocimiento- y de sus métodos técnicos. En suma, los “imperativos institucionales derivan del objetivo y los métodos”, pero no al revés. En una línea de pensamiento diferente y que de algún modo puede considerarse antecedente de la sociología del conocimiento científico y de algunas corrientes de la sociología de la ciencia actual (cf. Prego, 1992; Lamo de Espinosa et al, 1994), está la sociología del conocimiento de K. Mannheim, que asumía para el ámbito de las ciencias sociales, la influencia determinante de los factores sociológicos e ideológicos sobre los contenidos cognitivos y su justificación, hasta el punto que la comprensión de éstos exige la explicitación y comprensión de aquéllos. Sin embargo, Mannheim consideraba que estos factores ‘externos’ no jugaban un papel determinante en las ciencias naturales. Faltaban aún varias décadas para que la sociología comenzara a reclamar la palabra sobre los contenidos cognitivos de la ciencia en general. La evaluación de los contenidos cognitivos de la ciencia aún era de pura incumbencia de la filosofía. Quizá, simplificando un tanto las cosas, la historia de la reflexión epistemológica en el siglo XX pueda leerse como un desbaratamiento paulatino y progresivo de la distinción tajante y excluyente entre contextos. Pero, sobre esta cuestión quisiera dejar sentado algún criterio. La epistemología tradicional no sólo sostiene que es posible pensar una ciencia descontextuada y a expensas de los agentes que la producen sino que sencillamente resta entidad a la pregunta misma. Por ello cabe preguntarse cuál es el sentido, desde el punto de vista de la filosofía, de indagar acerca del sujeto que produce ciencia. De hecho deben ser posibles otras respuestas para rescatar y dar entidad a tal pregunta. La historia de los estudios sobre la ciencia y de la epistemología en particular de los últimos treinta o cuarenta años podrían considerarse, justamente, una serie de intentos por otorgar pertinencia y legitimidad a esta pregunta. El criterio de pertinencia, creo, se ubica en la misma línea que la epistemología tradicional, aunque de hecho con una valoración y respuestas diferentes: la pregunta por el sujeto que hace ciencia sólo cobra sentido filosófico en la medida en que la respuesta que se le dé a la misma, resulte relevante epistémicamente. De hecho, la filosofía de la ciencia tradicional ha considerado la injerencia del sujeto como una interferencia en la producción del conocimiento; interferencia que, en el mejor de los casos podía y debía ser eliminada mediante diversos tipos de procedimientos metodológicos. De esta manera los comportamientos de esos sujetos, sean considerados individual o colectivamente, podían explicar tan solo los errores de la ciencia o el marco histórico general que acompañó su surgimiento. Por ello la revalorización del sujeto que produce ciencia, el análisis del contexto de descubrimiento en suma, tiene sentido en la medida en que pueda descubrirse que las prácticas en las cuales se produce el conocimiento científico resulten relevantes en cuanto al contenido y legitimación de ese producto. El punto resulta crucial a la hora de evaluar muchas de las reflexiones sobre la ciencia de las últimas décadas, como por ejemplo la retórica de la ciencia y algunos desarrollos de la antropología de la ciencia, que rescatan aspectos de las prácticas efectivas de los científicos pero no hacen mella sobre la distinción establecida por la CH porque no se vislumbra cómo esas prácticas puedan determinar los aspectos específicamente cognitivos. Como quiera que sea, resulta claro que si el objetivo es desdeñar la relevancia del contexto, una distinción como la discutida aquí resulta suficiente. Sin embargo, plantear la necesidad de discutir la vigencia de la dicotomía y rescatar la injerencia del contexto de descubrimiento en la justificación requiere de análisis mucho más finos, ya que queda claro que la mera y simple afirmación de la influencia del medio en la producción científica resulta trivial. F. Schuster (1999), en este sentido, realiza una distinción más sutil del contexto de descubrimiento en: • contextualización situacional: abarca la descripción de los sucesos y factores históricos, sociales y políticos, y aun los individuales e institucionales que tuvieron lugar en el tiempo y lugar de surgimiento de una teoría científica. Este marco más general y abarcativo puede influir en la investigación científica de diversos modos aunque constituye más un marco de referencia global. • contextualización relevante: “(...) se refiere a la incorporación de factores contextuales en las teorías producidas y de modo tal que constituyan aportes al conocimiento y no elementos contaminantes a ser eliminados (...) constituirá a nuestro entender, el lugar de discusión idóneo que nos permita plantear, en primer término, bajo qué condiciones puede darse la conexión entre producción y validación del conocimiento científico, mediante la incorporación de factores cognitivos (provenientes del campo social, histórico, económico, etc.) al contenido mismo de las teorías (o se vinculen con consecuencias metodológicas) y, en segundo término, establecer el carácter propio de esa pertenencia, cubriendo así el hiato entre producción y validación (...).” (Schuster, 1999, p. 27). • contextualización determinante: está relacionada con el concepto de causa y con distintas posiciones deterministas. Remite a las discusiones sobre determinismo y libertad y a la necesidad de establecer qué ha de considerarse condición suficiente para una nueva teoría científica. 3. LAS CRITICAS A LA C.H. Los autores incluidos en la CH han tenido el mérito de desarrollar un esfuerzo inédito y monumental por entender y analizar la ciencia moderna, atravesada en las últimas décadas del siglo XIX y primeras del XX por una serie de desarrollos inusitados a la vez que inesperados y sorprendentes. Por otro lado ha marcado el nacimiento de la filosofía de la ciencia como disciplina autónoma con inserción académica, una comunidad propia y con un conjunto de problemas, métodos y técnicas de resolución peculiares. Todo ello, más el hecho de haberse constituido en un punto de vista casi hegemónico durante décadas le otorgan una importancia fundamental y la convierte en marco de referencia obligado. Pero, al mismo tiempo, en esos logros y en su carácter ambicioso, probablemente se halle el germen de los problemas que conducirán a su crisis. Sin embargo, y como se ha señalado oportunamente, no es una línea homogénea, y no es raro encontrar que muchas de las tesis retomadas después como críticas a la CH ya se encontraban desarrolladas o esbozadas por los autores clásicos. Un tipo de dificultades surge de lo que puede denominarse el ensimismamiento de la C.H. (Sánchez Navarro, 1992). Una de las pretensiones básicas iniciales acerca de la eliminación de la metafísica a la par de la adopción de una posición justificacionista, no se condecían con el respeto de supuestos como la intersubjetividad, la objetividad o la racionalidad, los cuales eran considerados como ‘dados’ sin necesidad de justificación. A su vez, su autolimitación al análisis de las teorías científicas como producto, rechazando la relevancia del contexto de descubrimiento es decir del proceso, fue paulatinamente mostrándose insuficiente habida cuenta de la creciente evidencia acerca de que los criterios de aceptación o abandono de las teorías eran establecidos internamente por las propias comunidades científicas. De ese modo la CH se alejaba cada vez más de la práctica real de los científicos y de los problemas planteados de hecho en su actividad y se concentraba paulatinamente en el estudio y resolución de los problemas lógicos, muchos de los cuales ella misma generaba. Se agrega a esto que muchas de las teorías científicas vigentes no satisfacían los criterios canónicos que la CH requería para su aceptación. Así, con el correr del tiempo una serie de discusiones fueron socavando las tesis iniciales. La tendencia general de las nuevas líneas de trabajo se apoya en la necesidad de abordar también estudios diacrónicos de las teorías cientificas pero esto implica una nueva forma de considerar sincrónicamente a las teorías: • las teorías cientificas no son sólo sistemas de enunciados, sino conjuntos mucho más complejos con componentes formales y componentes empíricos que evolucionan en el tiempo y se encuentran asociadas a sistemas de valores fuertemente dependientes del contexto; lo cual conlleva un fuerte cuestionamiento a la distinción entre contextos de descubrimiento y de justificación. Las prácticas concretas de la comunidad científica adquieren relevancia epistémica • se impugna la distinción teórico / observacional en términos absolutos; ya será muy difícil defender la neutralidad y unicidad de la observación, y se reconoce la prioridad de la teoría (también bajo otras denominaciones algo más difusas como 'marco teórico', 'paradigma', e incluso 'concepción del mundo', etc.) por sobre la observación • reconocimiento de la infradeterminación de la teoría por los datos y de la indeterminación de la traducción, es decir cuando menos una inconmensurabilidad localizada entre conceptos pertenecientes a distintas teorías • • • • Múltiples son las contribuciones a este cambio general de óptica. Los trabajos de Popper sobre la inviabilidad del punto de vista empirista sobre la base de la carga teórica. Aunque Popper siguió defendiendo la objetividad de la ciencia, la noción de verdad como correspondencia y la existencia de experiencias cruciales, abrió, involuntariamente quizá, el camino para serios cuestionamientos a la decidibilidad empírica. Las críticas de I. Lakatos a la ‘racionalidad instantánea’ y a los experimentos cruciales serían un buen ejemplo de esta derivación sobre todo si se acepta, a despecho de Popper, la consideración que I. Lakatos hace de sí mismo como un popperiano consecuente. (cf. Lakatos, 1968; 1970) La concepción holista de la metodología de la contrastación (tesis Duhem-Quine) según la cual los enunciados científicos no se enfrentan a los tests empíricos en forma individual sino como un cuerpo colegiado. Los análisis de Quine sobre la indeterminación de la traducción y, sobre todo, la infradeterminación de la teoría por los datos, debilitaron la creencia en la intersubjetividad y la objetividad, además de mostrar la dificultad que la sola evidencia empírica comporta para la fundamentación de la ciencia. Otro elemento fundamental también aportado por Quine lo constituye su propuesta de ‘naturalizar’ la epistemología en oposición a la epistemología prescriptivista o normativista tradicional. El fuerte poder crítico de los reclamos contextualistas de autores como S. Toulmin (1961, 1970), N. R. Hanson (1958) tendientes a objetar la neutralidad de la experiencia en el supuesto de la dependencia teórica de la observación y que opusieron serios cuestionamientos a las condiciones de intersubjetividad (en el sentido de la CH), la decidibilidad empírica y la objetividad del conocimiento científico. En esta misma línea se destacan por su repercusión los trabajos de P. Feyerabend (1970, 1975) y, sobre todo los de Th. Kuhn (1962). 3.1 la racionalidad de la metodología científica: K. Popper Haciendo honor a la verdad, hay que señalar que las agrupaciones de los autores como ‘positivistas’, ‘neopositivistas’ o defensores de la CH no resulta nunca unívoca sino que todas esas clasificaciones delimitan zonas grises que se amplían o estrechan dependiendo de la exhaustividad del análisis o las connotaciones consideradas. En este sentido, Popper, tiene no pocas coincidencias con el empirismo lógico y la CH, aunque su relación con esas líneas de pensamiento haya sido siempre y principalmente polémica (cf. Muguerza, 1975; Suppe, 1974). Popper publica el núcleo central de su teoría en 1934, es decir, pocos años antes de la disolución del Círculo de Viena y la misma conlleva una diferencia importante con la CH: a Popper no le interesa el análisis lógico del lenguaje, ni mucho menos la construcción de un lenguaje especial para la ciencia, sino la elaboración de una teoría de la racionalidad y una epistemología objetivas en el convencimiento de que la ciencia es la forma más genuina de conocimiento, aunque no la única. La clave de su punto de vista es que cualquier conocimiento es (y debe ser) cuestionable y sólo puede considerarse completamente cierto lo que está mas allá de toda duda. De aquí se sigue que la crítica racional es fundamental, estableciéndose una asimetría entre la verdad y la falsedad. En efecto, mientras que nunca puede establecerse cognitivamente la verdad de un enunciado científico o de un supuesto conocimiento, sino sólo su aceptabilidad provisional o su credibilidad en virtud de que haya pasado con éxito pruebas duras y numerosas, pero admitiendo siempre la posibilidad de que fracase ante alguna nueva, es posible, sin embargo, determinar su falsedad en forma concluyente. Este proceder es denominado por Popper ‘racionalismo crítico’. Lo que pretende es determinar las características lógico-racionales de la ciencia como conocimiento objetivo. Por eso la justificación no se refiere tanto a las teorías como productos finales o a su estructura, sino más bien al comportamiento racional y al método científico de construcción, evaluación y cambio de teorías. Lo que hay que explicar según Popper es el desarrollo y progreso de la ciencia y no tanto la estructura de las teorías. Se trata entonces de una lógica de la investigación científica. Por la misma razón no necesita tanto postular un observador ideal, cuanto un científico ideal. Este interés en la reconstrucción racional de la actividad científica, no sólo de sus productos, amplía su concepción respecto a la de la C.H., pero manteniendo la separación entre contextos de descubrimiento y justificación. Popper busca, como la C.H., una formulación canónica, pero no de las teorías sino del método científico-racional El conocimiento científico se caracteriza por ser empíricamente contrastable, es decir, por estar sometido a la crítica de la experiencia, la más dura y objetiva de todas. Tal como Popper entiende el racionalismo crítico, esa contrastabilidad consiste esencialmente en la falsabilidad. La razón es que, dada la estructura lógica de las leyes (y de los enunciados estrictamente universales en general), éstas son mucho más informativas por lo que prohíben que por lo que afirman. Mientras no es posible comprobar si ocurre todo lo que afirman, es fácil saber si tiene lugar algo de lo que prohíben. Lo contrario ocurre con los enunciados estrictamente existenciales. Tal asimetría entre verificación y falsación permite que una sola refutación haga falsa una teoría mientras ningún número de corroboraciones la hace verdadera. Una característica básica del conocimiento científico es entonces su provisionalidad. La falsabilidad se convierte en el criterio de demarcación entre ciencia y no-ciencia (o pseudociencia); pero no se trata de un criterio semántico o de sentido como el propuesto por el Círculo de Viena, sino de un criterio de tipo metodológico. Al mismo tiempo no se establece una demarcación tajante entre ciencia y ruidos sin sentido, sino de grado, que simplemente permite diferenciar el conocimiento científico, es decir, el que puede en principio ser falsado por la experiencia, del resto. Las teorías se contrastan comparando sus consecuencias con la experiencia. Si se produce una contradicción y la teoría no pasa la prueba, entonces resulta falsada y debe ser abandonada. Pero no basta un caso aislado para que se produzca la falsación, es menester que sea repetible y repetido. Eso equivale a pedir que el caso falsador se subsuma en una hipótesis, llamada hipótesis falsadora. Así, la falsación se entiende también como el choque entre una teoría desarrollada y una hipótesis elemental, que es el germen de una nueva teoría. A su vez, si la teoría pasa la prueba con éxito resulta corroborada. Esta corroboración es mayor o menor en virtud de la dureza de la contrastación, del riesgo que comporte, etc. Por eso difiere de la verificación, pues la corroboración depende en gran medida de la falsabilidad: una corroboración es más valiosa e importante cuanto más improbable sea, es decir, cuanto más falsable sea la teoría. Esta falsabilidad puede medirse a partir de ciertas características estructurales de la teoría, como el grado de universalidad, la precisión y sencillez, la improbabilidad a la luz del conocimiento disponible, etc. Así se fija el grado de falsabilidad. A partir de él, y tomando en cuenta el número, calidad, probabilidad, etc. de las corroboraciones, se determina el grado de corroboración de la teoría en un momento dado. La combinación de ambos, grado de falsabilidad y grado de corroboración, determina la verosimilitud de una teoría, que permite jerarquizar y decidir entre teorías desde el punto de vista de su aceptabilidad. Esto supone que la contrastación y evaluación de las teorías se hace globalmente (aunque a través de los enunciados que se siguen de ellas). Supone, también, que verosimilitud y verdad son cosas distintas. Para Popper la verdad objetiva existe, pero actúa como un ideal regulador, no como algo cognitivamente determinable. Esto se debe al falibilismo básico que incorpora el racionalismo crítico. Podemos saber que nuestras teorías son menos falsas que sus predecesoras (porque aun no han sido falsadas), o que son más verosímiles, pero nunca podremos establecer su verdad objetiva. La unidad mínima de significado es, para Popper, la proposición, no los términos o los conceptos. Eso incide en la consideración de la distinción teórico/observacional. Cada teoría determina el conjunto de sus posibles falsadores como el conjunto de enunciados singulares que prohíbe o que contradicen sus consecuencias. Este conjunto constituye la base empírica relevante para la teoría y difiere entre teorías distintas. Por ello la teoría determina, en un cierto sentido, la experiencia. Igualmente puede decirse que no existe la observación indiscriminada, sino que toda observación es selectiva y está dirigida por supuestos, problemas que se quieren resolver, etc. En este sentido, nuevamente, la observación es dirigida por la teoría. Aunque esto no afecta a la neutralidad de la contrastación, sí arroja dudas sobre la neutralidad de la experiencia. Aunque en el próximo capítulo volveremos sobre Popper, por ahora interesa destacar algunas de las consecuencias metacientíficas de su punto de vista: • su criterio metodológico de falsabilidad implica la necesidad de atender al proceso de crecimiento y desarrollo de la ciencia, es decir un enfoque diacrónico de la filosofía de la ciencia. De cualquier modo Popper no extrae todas las consecuencias de este punto. • la apertura a pensar ya no una ruptura taxativa entre ciencia y afirmaciones sin sentido, sino una demarcación de grado entre ciencia y otros discursos con sentido pleno permite vislumbrar la posibilidad de que las hipótesis y teorías científicas provengan de los orígenes más dispares, incluso de afirmaciones metafísicas. 3.2 abriendo las barreras del contexto de descubrimiento: Toulmin, Kuhn, Hanson Varios autores, como Toulmin, Hanson y Kuhn, por citar a los más conspicuos, han contribuido a erosionar paulatinamente los presupuestos básicos de la CH desde el reclamo por la relevancia del contexto en la producción científica. Para Toulmin (1961,1970), la ciencia provee de sistemas de ideas acerca del mundo con pretensiones legítimas de realidad, sistemas que proporcionan técnicas explicativas – de modo que su función no es primordialmente la predicción -consistentes con los datos empíricos y que en un momento dado pueden ser considerados como absolutos y ‘del agrado de la mente’. Estas explicaciones deben dar cuenta no tanto de lo que se espera que ocurra en la naturaleza, sino, por el contrario de aquello que es inesperado según los ideales de orden natural que especifican cierto ‘curso natural de los acontecimientos. Las teorías científicas, compuestas por leyes, hipótesis e ideales de orden natural, tiene como criterio de legitimidad su utilidad para dar cuenta de las presuposiciones que la ciencia mantiene acerca del comportamiento fenoménico y que por ello no necesitan explicación, presunciones que constituyen un marco teórico o Weltanschauung que determina las preguntas que el científico se plantea, los supuestos, la base empírica y el significado del términos utilizados. Las críticas fundamentales de Hanson a la CH se basan en primer lugar en que ésta acomete la empresa epistemológica atendiendo únicamente a la ciencia como producto terminado desatendiendo los procesos racionales por los cuales se llega a la formulación de hipótesis y teorías por primera vez a título provisional. En su Patterns of Discovery (1958) señala que lo que un científico busca no es un sistema deductivo físicamente interpretado al modo de la CH sino “un patrón conceptual en términos del cual sus datos se ajustarán inteligiblemente a datos mejor conocidos”. En suma una teoría de mayor o menor complejidad que pueda dar cuenta de la mayor parte de la experiencia disponible. En segundo lugar, Hanson niega la existencia de un lenguaje intersubjetivo de observación que posea una interpretación semántica directa independiente de toda consideración de las diversas teorías que lo utilicen, es decir un lenguaje teóricamente neutral. Hanson niega esta posibilidad señalando la dependencia que toda observación tiene de los marcos teóricos y conceptuales aunque la forma en que esta dependencia se manifiesta sea diferente. Su tesis es que el significado de una palabra depende del contexto, pero estas apreciaciones sobre la carga teórica de la observación están dirigidas a establecer una reformulación disciplinar. En efecto, en oposición a la idea de la CH de restringir la tarea de la filosofía de la ciencia al contexto de justificación, Hanson cree que hay una lógica del descubrimiento en virtud de la cual se pueda concluir que ciertas hipótesis son razonables con relación a una determinada cantidad de conocimiento en un determinado contexto. De modo tal que las teorías físicas proporcionan modelos dentro de los cuales los datos resultan inteligibles, constituyendo una ‘Gestalt conceptual’. Una teoría no se ensambla a partir de fenómenos observados, sino que más bien es lo que hace posible observar que los fenómenos son de cierto tipo y que se relacionan con otros fenómenos. Las teorías colocan a los fenómenos dentro de sistemas y resultan ser una serie de conclusiones para las que es necesario señalar las premisas. El físico parte de las propiedades observadas de los fenómenos para llegar a una idea fundamental a partir de la cual es posible explicar esas propiedades de forma rutinaria. La obra de Kuhn, es, si no la más original, probablemente la más influyente de los nuevos estudios sobre la ciencia. Los puntos básicos de su propuesta, en la misma línea de autores como Toulmin y Hanson, a los que podría agregarse el Feyerabend de su etapa de ruptura con Popper, son los siguientes: 1. el desarrollo de la ciencia en la historia: la filosofía de la ciencia no puede limitarse al estudio de los productos finales, es decir de las teorías en su formulación lingüística, sino que ha de considerar toda la actividad científica, de modo tal que se alienta el abordaje descriptivo y ya no, exclusivamente prescriptivo. Una empresa que ha de abocarse a estudiar las teorías dentro del proceso de desarrollo científico, prestando especial atención a sus aspectos dinámicos y, sobre todo, rompiendo la distinción entre contextos. En el caso de Kuhn esta ruptura es obligada, pues los procesos de articulación, justificación y aplicación de las teorías dependen de los de descubrimiento. Así, la actividad científica hay que estudiarla como un todo y entender la ciencia como un complejo proceso de comunicación en el cual las prácticas concretas y efectivas de la comunidad científica adquieren una relevancia fundamental en tanto grupo estructurado, interconectado y fácilmente identificable de científicos que comparten un paradigma. De aquí que el estudio de la ciencia deba prestar especial atención a los aspectos pragmáticos e incluya elementos psicológicos, sociológicos e históricos. En tal concepción criterios como la racionalidad, la objetividad, etc., son relativos al paradigma y el desarrollo de la ciencia no puede ser acumulativo. Pero, además, se produce la inconmensurabilidad entre teorías, pues ni pueden sostenerse dos paradigmas al mismo tiempo, ni puede decidirse empíricamente entre ellos, ya que cada uno construye su propia experiencia, ni pueden compararse, pues cada uno determina el significado de sus términos. Esto no implica que no haya criterios de decisión, sino que tales criterios son pragmáticos, no lógicos. Por eso es tan importante en Kuhn la teoría de la ciencia descriptiva que incorpora la historia y la ciencia social. 2. unidad de análisis epistemológico: las teorías no son entidades aisladas, sino que están integradas en marcos conceptuales más amplios. Estos marcos son estructuras globales, de manera que el estudio y reconstrucción de las teorías no puede hacerse con independencia de ellos. Para Kuhn estas estructuras globales son los paradigmas, caracterizados como formas de ver el mundo. Una serie de críticas acerca de la ambigüedad y/o vaguedad de la noción de ‘paradigma’, (cf. Masterman, 1970, en Lakatos-Musgrave, 1970) lo llevó a precisar el concepto y a denominarlo ‘matriz disciplinar’. El paradigma (en la versión de 1969 ‘matriz disciplinar’) incluye supuestos compartidos, técnicas de identificación y resolución de problemas, valores y reglas de aplicación, etc., y elementos específicos como los modelos, las generalizaciones simbólicas y los ejemplares paradigmáticos. Así, no puede hablarse de las teorías como meros sistemas axiomatizados de enunciados, sino como estructuras conceptuales globales o, si se quiere conservar un enfoque lingüístico, como lenguajes (en el sentido de estructuras o redes semánticas). 3. relación observación/teoría: niega la neutralidad de la experiencia y afirma que la observación es dependiente de la teoría que goza de una prioridad conceptual y temporal. En el caso de Kuhn esta dependencia es triple. En primer lugar, la observación está dirigida por la teoría; personas con teorías diferentes observan cosas distintas, porque la observación tiene una carga teórica. En segundo lugar, los hechos son construidos por la teoría; son las teorías (o, más exactamente, los paradigmas/matrices disciplinares) quienes determinan qué es un hecho y personas con teorías distintas considerarán hechos distintos; esta es la base del constructivismo de Kuhn. Y, en tercer lugar, el significado de los términos depende de, y es relativo a, la teoría; este significado viene dado por las conexiones del término en el interior de la teoría, por ello, si un término aparece en teorías distintas, su significado puede cambiar. Todo esto implica, además del constructivismo, un relativismo que afecta no sólo a la experiencia, sino también a los criterios de validación, y una concepción holista, o globalista, de las teorías como un todo. Ningún componente de la empresa científica es absolutamente estable, se trate de supuestos metafísicos, formas de explicación, criterios de evaluación, técnicas y procedimientos experimentales, o enunciados de observación. De aquí que no se pueda disponer de ninguna plataforma privilegiada, de ningún ‘punto arquimediano’, para la evaluación de las propuestas científicas. Este rechazo de fundamentos últimos, que ya se han esbozado en parte se manifiesta en tres niveles: en el nivel de la experiencia, ya que Kuhn niega el supuesto de una base empírica independiente de toda perspectiva; en el nivel metodológico, ya que niega la existencia de supuestos canónicos de elección entre teorías, es decir procedimientos de evaluación de tipo algorítmico, basados en estándares universales de evaluación, que pudieran imponer a cada sujeto la misma elección cuando se comparan teorías rivales; en el nivel ontológico, el rechazo de Kuhn de la teoría de la verdad como correspondencia (Kuhn, 1962, 1990), cancela el supuesto de que la evaluación de leyes y teorías tiene como objetivo determinar su correspondencia con lo real. 4. la influencia: la obra de Kuhn generó una serie de debates y consecuencias, muchas de las cuales excedieron largamente las intenciones e ideas del autor, en diferentes ámbitos. Su influencia se sintió, de diferente manera e intensidad en la filosofía de la ciencia, pero también y con una fuerza inusitada en el ámbito de la sociología de la ciencia. Una de las consecuencias de la ERC es que al dejar en claro que la práctica cognoscitiva de la ciencia es una actividad cultural sujeta a la posibilidad del análisis sociológico, sugiere temas y problemas que anteriormente habían pasado inadvertidos y abre la puerta para un nuevo tipo de análisis sociológico del conocimiento científico. Más tarde, el propio Kuhn refuerza esta posibilidad al afirmar que frente a los estudios tradicionales sobre el método científico, que tratan de encontrar un conjunto de reglas que le permita a cualquier individuo que las siga producir conocimientos demostrables, él propone que el conocimiento científico es intrínsecamente un producto de grupo y que por tanto es imposible entender tanto su eficacia peculiar corno lo forma de su desarrollo sin hacer referencia a la naturaleza especial de los grupos que lo producen. De esta manera, al poner de relieve que las distintas formas del conocimiento natural no vienen dadas por un método universal o ahistórico socava cualquier categoría epistemológica privilegiada y permite que la sociología del conocimiento comience la tarea de revelar 'abrir la caja negra' de la producción de conocimiento La fortaleza e influencia de la CH en los estudios acerca de la ciencia había establecido una férrea división social del trabajo. Del contexto de justificación (aspectos internos) cuyo estudio se suponía como el único relevante y pertinente para explicar el hecho de que cada vez mayor número de proposiciones verdaderas se iba sumando al corpus de la ciencia, se ocupaba la filosofía; y del contexto de descubrimiento, es decir de los aspectos ‘externos’, sólo relevantes según este criterio para indicar el medio circundante o a lo sumo los prerrequisitos bajo los que operaba el contexto de justificación, debía ocuparse la sociología (o en todo caso la psicología). Filosofía de la ciencia y ciencias sociales asumían en esta división del trabajo cada una su papel en forma asimétrica. Estas últimas no tenían ninguna tarea epistémica, es decir acerca de la verdad de los enunciados; a lo sumo podían dar cuenta de los errores. En efecto, mientras la verdad dependía de la correcta aplicación de los criterios canónicos establecidos por al CH, el error sólo podía entenderse por razones psicológicas o sociales. La influencia de Kuhn ha sido muy importante para romper con estas distinciones tajantes y excluyentes y ha contribuido de algún modo, a veces ajeno a sus propios intereses teóricos y aun en contra de ellos, al desarrollo de las nuevas sociologías del conocimiento científico. El aporte de Kuhn también se hizo sentir en la historia de la ciencia, ya que contribuyó a romper con la tradición de la historiografía whig que se desarrollará luego. Este modo tradicional de hacer historia, apoyado en el supuesto de que se trata de un proceso lineal y acumulativo, se refleja en el caso particular de la historia de la ciencia asignando al historiador la tarea de: “(...) determinar por qué hombre y en qué momento fue descubierto o inventado cada hecho, ley o teoría científica contemporánea. Por otra parte, debe describir y explicar el conjunto de errores, mitos y supersticiones que impidieron una acumulación más rápida de los componentes del caudal científico moderno.” (Kuhn, 1962 [1992, p. 21]) Esto constituye lo que Kuhn denomina ‘historia de los manuales’. Y es en estos manuales, precisamente, donde se forman los futuros científicos. Allí, además de este criterio histórico (ahistórico), los futuros científicos, conocen el paradigma: no solamente las teorías propiamente dichas sino el tipo de experiencias, los enigmas a resolver y el tipo de estrategias de respuesta a estos enigmas. Se trata de una educación dogmática ya que es intraparadigmática: los científicos no son educados para romper con el paradigma sino para trabajar en él. Esta actitud dogmática es la que, para Kuhn, puede llevar, paradójicamente, a que en algún momento particularmente difícil de la disciplina, aparezca el científico revolucionario: sólo el que conoce perfectamente el paradigma puede conocer dónde están los problemas. El científico revolucionario surge, generalmente, entre los más jóvenes, que son los que tienen menos compromisos, ya sea intelectuales como de cualquier otro tipo (incluso económicos o políticos) dentro de la comunidad científica. El reconocimiento de Kuhn como uno de los iniciadores de algunas de las líneas que veremos a continuación obligan a una breve digresión. Uno de los méritos de Kuhn ha sido publicar el libro que hacía falta en el momento justo; probablemente así se explique que la ERC haya sido el único best seller de la literatura epistemológica. Pero, a los pensadores, que como Kuhn, tienen una enorme influencia suele ocurrirles que se los conoce más por esas líneas en las cuales han influido o que se han apropiado de su pensamiento, o mejor, parafraseándolo, por esa ‘epistemología de los manuales’. De hecho puede encontrarse una enorme cantidad de críticas a posiciones que Kuhn jamás defendió; algo similar ocurre cuando se pretende criticar al empirismo lógico y se arremete contra una suerte de monstruo que sólo existe en la epistemología de los manuales. La constante prédica del propio Kuhn tratando de despegarse de interpretaciones que consideraba inadecuadas es prueba de ello. Muchas veces, para no reconocer una interpretación sesgada se hacen lecturas esquizofrénicas y se sostiene que habría un primer y un segundo Kuhn. Es cierto que las líneas de pensamiento deudoras de cualquier autor no necesariamente deben ser meramente exégesis rigurosas de ese autor, pero las versiones fuertemente relativistas e irracionalistas que han creído ver en Kuhn a uno de sus padres fundadores chocan no sólo con el contenido de los textos del propio Kuhn, sino que no reconocen su filiación intelectual y académica: “En cuanto a sus relaciones con la filosofía de la ciencia del periodo clásico, Kuhn- que esperaba encontrar sus mejores aliados entre los popperianos- se dedica a mostrar (Kuhn 1970) cómo su pensamiento continúa el de Karl Popper de una manera que le es propia. El violento rechazo que experimentara le enseñó que, aunque tuvieran coincidencias, la comunidad popperiana y el propio Popper no le perdonarían los aspectos pragmáticos (psicológicos y sociológicos) de su propuesta. La situación es igualmente paradójica con respecto al positivismo o empirismo lógico, que se supone fue el adversario derrotado por su obra. Pocos advirtieron – o lo creyeron un error- que La Estructura de las Revoluciones Científicas fue editada como monografía en la primera parte introductoria de la Enciclopedia de la Ciencia Unificada, su más ambicioso proyecto. Sin embargo, por fuera de los estereotipos que la transformaron en el ‘hombre de paja’ que todos usan para denostarla, esta corriente de la filosofía de la ciencia presenta una amplia gama de facetas y orientaciones, tal como lo muestra la comparación de los trabajos de, por ejemplo Otto Neurath, Edgar Zilsel y Rudolf Carnap, y que justifican la recomendación entusiasta del libro de Kuhn que éste escribe en una nota de puño y letra al reverso de la carta oficial de aceptación que dirige a Charles Morris. El hecho de que la ‘Posdata’ escrita por Kuhn a La estructura de las revoluciones científicas en 1969 fuera lo último editado en la colección anteriormente mencionada constituía el cierre perfecto de una época, no porque Kuhn acabara para siempre con esa tendencia, sino porque con él encontrarían cauce inquietudes que se iniciaran en Viena a principios de siglo.” (Diez y Lorenzano, 2002, p. 23) 4. LOS ABORDAJES SOCIOLOGICOS Como ya señaláramos, los abordajes de la sociología de la ciencia tradicional – básicamente las líneas que surgen de Mannhein y Merton - se inician en el marco de una distinción disciplinar marcada, deudora a su vez de la distinción entre contextos de justificación y descubrimiento. La sociología mertoniana, heredera de la sociología del conocimiento fundada por Marx y Mannheim, y desarrollada principalmente en los EE.UU., centraba su atención en la estructura social de las comunidades científicas, analizando de qué forma las actividades de los científicos pueden entenderse como adecuación a las normas que las guían -normas que forman el ethos científico- y como actividades que se ven favorecidas por tipos concretos de ordenamiento social tales como las sociedades liberaldemocráticas. Por su parte, las nuevas sociologías del conocimiento científico, surgidas con posterioridad y desarrolladas fundamentalmente en Europa, no sólo consideran la ciencia como un producto del entorno social sino que, además, tratan de aplicar a las distintas actividades, procesos e instituciones científicas los mismos métodos de investigación que a otros grupos sociales. Aunque en general se coincide en que la ciencia es nuestro conocimiento más valido, fiable y poderoso, cuya progresiva complejidad y sofisticación ha hecho que sea manejado solo por colectivos de especialistas, el desacuerdo radica, sin embargo, en lo que se entiende por 'carácter social' de la ciencia. Para la sociología de la ciencia mertoniana la relación de los factores sociales con la ciencia era de un tipo distinto de la existente con otros conocimientos, razón por la cual la sociología de la ciencia no había de entrar en el estudio de los contenidos del conocimiento científico, tarea que en el contexto de influencia de la CH quedaba reservado como tarea exclusiva de lógica y de la filosofía. Con el correr de las décadas, sin embargo, los abordajes sociológicos fueron diluyendo la distinción entre contexto y comenzaron a reclamar la palabra en asuntos epistémicos y, al considerar a la ciencia como un campo de transacciones en las cuales los aspectos retóricos cumplían un papel esencial fueron abriendo un ámbito propicio para asignar un papel de relevancia a las metáforas. Aunque sostengo que no es esta la manera de reconsiderar el papel de las metáforas en la ciencia, no obstante, en las secciones que siguen se describirán brevemente algunos de estos desarrollos. 4.1 la sociología de la ciencia tradicional La sociología de la ciencia norteamericana, de la mano de su fundador Merton, admite que si bien las ideologías y utopías son influidas por los intereses de las clases y estratos sociales, las ciencias son autónomas respecto de las influencias directas de estos intereses y visiones parciales que son el resultado de las distintas posiciones que ocupan los individuos en la sociedad y del deseo de conservarlas o alterarlas. De cualquier modo, Merton no defiende a ultranza el carácter incontaminado de las ciencias naturales respecto a las sociedades en que surgen. En su tesis doctoral -Ciencia, Tecnología y Sociedad en el S. XVII- muestra de qué modo las estructuras sociales y, sobre todo, las necesidades económicas y militares y la ética calvinista jugaron un papel importante en el desarrollo de la ciencia. Por esto Merton propone dos objetivos particulares para la sociología de la ciencia: por un lado, estudiar: "(...) los diferentes modos de interdependencia de la ciencia y la estructura social, tratando la ciencia misma como una institución social diversamente relacionada con las otras instituciones de la época" [y, por otro lado, hacer un] "análisis funcional de esa interdependencia, con especial referencia a las cuestiones de integración y de mala integración". (Merton, 1973 [1977, p. 120]) Tal interdependencia y funcionalidad focaliza la atención del sociólogo de la ciencia en la tensión entre el código político o de lealtad al Estado y el código ético de la ciencia, lo que Merton llama el ethos de la ciencia: "(...) un complejo de tono emocional de reglas, prescripciones, costumbres, creencias, valores y supuestos previos que se supone que atan al científico. (...) Este ethos, como los códigos sociales en general, es apoyado por los sentimientos de aquellos a quienes se aplica". (Merton, 1973 [1977, p. 122]) Según Merton, las normas que rigen –o en todo caso deberían regir- en las comunidades de científicos pueden resumirse en: universalismo: las pretensiones de verdad se someten a criterios impersonales preestablecidos; comunitarismo: los logros de la ciencia son propiedad común: desinterés: los científicos no han de perseguir en sus investigaciones fines personales y; escepticismo institucionalizado u organizado: los resultados de la ciencia se consideran siempre revisables en función del desarrollo de la misma, cuya práctica culmina en la autonomía de la ciencia respecto a los ordenamientos sociales y políticos dentro de los que se desarrolla. La ciencia podrá progresar en un contexto socio-político que permita y favorezca el cumplimiento de estas normas, en caso contrario sufrirá un estancamiento. Pero los contenidos de la ciencia constituían una especie de caja negra para el análisis sociológico. Los resultados de los procesos de descubrimiento, considerando que la justificación y validación del conocimiento se fundaba en procedimientos objetivos e independientes de los factores sociales, psicológicos, etc. serán dejados de lado. Podían estudiarse tanto las relaciones internas entre los científicos como las repercusiones sociales y culturales de la ciencia, pero el conocimiento científico como tal era autónomo, suprasocial, dotado de características como objetividad, racionalidad, intersubjetividad, verdad, etc., independiente de influencias externas y desarrollándose progresivamente según reglas internas. Debe señalarse, no obstante, que a pesar de atender a los procesos sociales, sus análisis son estáticos en un sentido importante: al considerar tan sólo las redes de influencias entre científicos, su organización interna, la distribución de recompensas, etc., se desentiende de la evolución y el cambio científico porque consideraba que el desarrollo de la ciencia era objetivo y autónomo y, por tanto, ajeno al análisis sociológico. También, y a pesar de ocuparse del contexto de descubrimiento, se desentendía de los procesos de formación de creencias de los científicos, de modo que la ciencia era tomada como algo dado, dotado de un patrón único y resultante de la actividad de unos científicos ideales a modo de sujetos epistémicos abstractos. Su organización en comunidades científicas, los mecanismos específicos de aprendizaje, etc., no afectaban a la validez o aceptación del conocimiento científico resultante. 4.2. las sociologías del conocimiento científico. Las críticas que la CH fue sufriendo a lo largo del siglo, y que se hicieron más patentes a partir de los años ’60, al tiempo que representaron una disolución de las tesis más fuertes, permitieron un desarrollo de la sociología de la ciencia inscripto en el marco mayor de un reacomodo de las incumbencias disciplinares. A partir de los ’60 y ’70 comienzan a aparecer estudios que se proponen explícitamente como rivales de la sociología de la ciencia y que tienen como su punto fundamental el rechazo de la consideración del conocimiento científico como "caja negra" y reclaman su apertura al análisis sociológico. El desarrollo alcanzado por la sociología como disciplina académica en Europa, convertida ya en sociología 'del conocimiento científico', para resaltar el cambio de enfoque respecto a la sociología de la ciencia americana, tiene uno de sus puntos principales, aunque no exclusivos, en Gran Bretaña. Se desarrolló una enorme cantidad de investigaciones empíricas e históricas sobre la ciencia como sistema social, que abarcaban desde los análisis de instituciones científicas hasta los estudios internos sobre los sistemas de control de publicaciones y los mecanismos de información dentro de estas instituciones. Estos estudios se centraron en diversos aspectos referidos a la constitución de las comunidades científicas, tales como: • Intentos de caracterizar la estructura y organización de las comunidades. En general se trata de caracterizaciones abstractas porque se supone que toda la ciencia sigue el mismo patrón de organización (la mayor o menor cohesión de las comunidades concretas indicaría el grado de desarrollo del campo científico correspondiente) • búsqueda de mecanismos generales de identificación de comunidades científicas incluyendo su delimitación mas o menos precisa y la forma en que determinan las asunciones, creencias y decisiones de sus miembros • estudio de los procesos y condiciones sociales de la constitución de nuevos campos científicos, pues estos procesos se consideraban el arquetipo del desarrollo científico y, al mismo tiempo, eran más accesibles al análisis sociológico. Pero también, rompiendo con las delimitaciones tradicionales, • estudios fundamentalmente históricos intentando mostrar la validez de los estudios sociológicos del conocimiento científico señalando como éste depende de las comunidades científicas y del contexto cultural. • correlaciones concretas entre diferentes fases del desarrollo científico y las estructuras sociales asociadas con ellas. En medio de la enorme heterogeneidad de los estudios que se inician, pueden detectarse no obstante, ciertos principios generales. Según J. Sánchez Navarro (1988): 1. Principio de Naturalización: Se anula la distinción tajante y excluyente entre los contextos de descubrimiento y los de justificación y validación. Esta disolución se basa en la tesis que sostiene que el proceso de producción de conocimiento tiene relevancia 2. 3. 4. 5. epistémica. Una consecuencia de este principio opera en el sentido de debilitar el carácter meramente prescriptivo de la filosofía de la ciencia y plantear la necesidad de los análisis descriptivos. Principio de Relativismo: comienza a desconfiarse y negarse la existencia de criterios absolutos y fundacionales que garanticen la verdad o la racionalidad. Aunque los juicios y decisiones de los científicos se reclamen racionales y sus afirmaciones pretendan ser verdaderas, tanto la noción de verdad, como las de progreso y racionalidad son revisables y relativas a comunidades, épocas y contextos concretos. También las normas y valores que guían la actividad científica son cambiantes y relativos, pues son producto de procesos sociales dentro de la comunidad científica. Así, la producción, el desarrollo y el cambio del conocimiento científico no son procesos autónomos, ni objetivos, sino resultado de negociaciones y procesos de interacción social entre científicos. Lo que se entienda por ciencia, su validez y aceptabilidad, al igual que los métodos utilizados, son cuestiones relativas. Principio de Constructivismo: las representaciones científicas no provienen directamente de la realidad, ni son un reflejo literal de esta. No puede esperarse siquiera una interpretación idéntica de los mismos fragmentos de evidencia, pues la experiencia no es neutral sino dependiente y varía según el contexto, los aprendizajes, los esquemas compartidos y los procesos de comunicación en que se produzca. De ahí que el conocimiento y, en cierto modo, la realidad se consideren socialmente construido. Principio de Causación Social: La actividad científica no es llevada a cabo por sujetos epistémicos ideales, sino por comunidades concretas organizadas socialmente. En este sentido los científicos son criaturas humanas y sociales sujetas a los mismos tipo de explicación que cualquier otro grupo. Y el conocimiento que producen es en buena medida resultado y reflejo de la forma en que se organizan dentro de esas comunidades. Principio de Instrumentalidad: no habría mayor diferencia, salvo quizá su eficacia y efectividad entre el conocimiento científico y otros conocimientos. De ahí que posea una función instrumental y pragmática puesto que lo que se pretende con él es conseguir ciertos fines o satisfacer ciertos intereses; por esta razón, su producción y aceptación esta fuertemente condicionada por su capacidad para cumplir esa función. 4.2.1 el 'strong programme' de sociología del conocimiento. Indudablemente uno de los intentos más importantes de las nuevas líneas es el Strong Programme (en adelante SP), que fue desarrollado a mediados de los ’70 en la Science Studies Unit de Edimburgo, fundamentalmente por D. Bloor y B. Barnes. Su supuesto básico es que todo conocimiento está determinado socialmente, porque lo que se considera ciencia en un momento determinado está invariablemente conformado por la sociedad en que se genera; porque la actividad científica y el conocimiento resultante son productos del trabajo de los individuos en el seno de una comunidad científica, con su propia estructura, organización y relaciones internas; y porque la actividad científica, se encuentra profesionalizada, por lo cual los factores macrosociales externos influyen en la forma y el funcionamiento de la comunidad. La estrategia del SP apunta a mostrar empíricamente, mediante el análisis de los elementos que afectan a la producción y evaluación de conocimiento científico, que existen redes de expectativas e intereses que determinan las creencias que guían la observación y que afectan también a los resultados de la ciencia y a su evaluación. Esta estrategia impone dos líneas de trabajo principales: 1. La descripción de cómo (y si es posible por qué) en épocas distintas grupos sociales distintos seleccionan diferentes aspectos de la realidad como objeto de estudio y explicación científica. 2. La descripción de cómo se construyen socialmente la observación, los experimentos, la interpretación de los datos y las propias creencias científicas en la doble vertiente de construcción por parte de la comunidad y construcción por parte de la sociedad (o de los grupos sociales relevantes que influyen en la comunidad científica). Bloor: Los trabajos del SP se basan en cuatro principios programáticos formulados por “(...) la sociología del conocimiento científico debe observar los cuatro principios siguientes. De este modo se asumirán los mismos valores que se dan por supuestos en otras disciplinas científicas. Estos son: 1) Debe ser causal, es decir, ocuparse de las condiciones que dan lugar a las creencias o a los estados de conocimiento. Naturalmente, habrá otros tipos de causas además de las sociales que contribuyan a dar lugar a una creencia. 2) Debe ser imparcial con respecto a la verdad y falsedad, la racionalidad y la irracionalidad, el éxito o el fracaso. Ambos lados de estas dicotomías exigen explicación. 3) Debe ser simétrica en su estilo de explicación. Los mismos tipos de causas deben explicar, digamos, las creencias falsas y las verdaderas. 4) Debe ser reflexiva. En principio, sus patrones de explicación deberían ser aplicables a la sociología misma. Como el requisito de simetría, éste es una respuesta a la necesidad de buscar explicaciones generales. Se trata de un requerimiento obvio de principio, porque, de otro modo, la sociología sería una refutación viva de sus propias teorías. Estos cuatro principios, de causalidad, imparcialidad, simetría y reflexividad, definen lo que se llamará el programa fuerte en sociología del conocimiento. No son en absoluto nuevos, pero representan una amalgama de los rasgos más optimistas y cientificistas que se pueden encontrar en Durkheim, Mannheim y Zaniecki.” (Bloor, 1971 [1998, p. 38]) Los principios señalados por Bloor conducen a un relativismo metodológico en la medida en que tanto las creencias falsas como las verdaderas deberán explicarse causalmente por sus condicionantes sociales y los mismos tipos de causas explicarían tanto las creencias evaluadas favorablemente como las rechazadas dado que los propios criterios de evaluación son construidos socialmente. En este contexto, el éxito de una teoría depende en ultima instancia de la habilidad de sus partidarios para demostrar su superioridad en términos de los ideales, normas y mecanismos científicos aceptados por la comunidad y esta habilidad está relacionada con el control de los recursos simbólicos y económicos de esa comunidad. También la determinación de cientificidad de un determinado discurso resulta de las propias prácticas de la cultura o comunidad involucrada por lo cual la forma misma en que se distingue entre ciencia y no-ciencia es objeto de exploración sociológica para el SP. Sin embargo, esto no implica un convencionalismo absoluto. Aunque lo que se entienda por ciencia ha de relativizarse a los distintos grupos sociales y su caracterización se haga en términos de consenso social, el conocimiento científico tiene un fuerte componente instrumental y pragmático, pues es una respuesta al medio a través de la observación de regularidades y la formulación de leyes con una función de predicción, manipulación y control. La disparidad de necesidades e intereses vitales de las distintas sociedades humanas puede influir decisivamente en la aparición de desacuerdos o en la construcción del consenso, pero, de cualquier modo no hay que ubicar la posición de Bloor ni como un determinismo sociológico fuerte ni como un sociologismo extremo ya que se admite que pueden intervenir otro tipo de causas además de las estrictamente sociales, tales como las condiciones de operatividad y de coherencia interna, etc. Pero, en cualquier caso, estas otras causas son, cuando menos, dirigidas y estructuradas por las primeras, por lo que los procesos sociales básicos, mas o menos complejos, que están a la base de la producción y aceptación del conocimiento científico pueden y deben ser analizados sociológicamente. Las creencias, científicas o no, aceptadas o rechazadas, cognoscitivas o metodológicas, se consideran resultado de causas materiales (en el sentido de no espirituales). Estas causas son el resultado de otros procesos -que permanecen ocultos tras los procesos de construcción y evaluación de las creencias, las disputas o el consenso en la aceptación del conocimiento e incluso las descripciones que los propios científicos hacen de sus actuaciones- y que son los de articulación e interacción de intereses de diversos tipos. Estos intereses son básicamente de dos tipos: los instrumentales y los 'ideológicos'. Los intereses instrumentales se centran en la predicción, manipulación y control del medio y guían los distintos intereses cognoscitivos y epistémicos especializados tales como la búsqueda de leyes efectivas, la elaboración de conceptualizaciones poderosas, etc.; y también lo que proporciona a la ciencia sus características centrales: el empirismo, la búsqueda de regularidades y la producción de rendimientos tecnológicos. Incluso los criterios de evaluación y los requisitos esotéricos que las comunidades especializadas aplican a las creencias que producen, están determinados por ese interés primario. Los intereses ideológicos -o secundarios- son intereses sociales específicos y relativos a la organización social concreta en la que se genera el conocimiento. Se trata de intereses implícitos e, incluso los criterios y mecanismos por los que asignan valores a creencias y a estructuras cognoscitivas están ocultos o subyacentes. Se trata de intereses relevantes tanto en la producción o generación de creencias como así también, y principalmente, en la evaluación y aceptación de esas creencias, en la clausura de controversias y en la producción de consenso. Por eso son intereses encubiertos dirigidos a la racionalización y persuasión, es decir, a la determinación social e ideológica en sentido amplio. Es interesante explicitar un poco estos intereses que son, básicamente, de tres tipos: 1. Los intereses profesionales, que también se pueden entender como intereses personales o individuales, están relacionados con las habilidades y competencias específicas adquiridas por los científicos a través de los procesos internos de socialización en las comunidades científicas. Al integrarse en las comunidades mediante la educación y el aprendizaje, los científicos no solo aprenden cómo comportarse dentro de la comunidad, sino que adquieren también habilidades especializadas y asumen como garantizadas ciertas creencias y normas de acción y evaluación, ignorando otras o dejándolas en un segundo plano. De esta forma, surgen grupos de especialistas que reciben las inversiones sociales y comunitarias de reconocimiento y prestigio, las económicas, etc.; esos grupos pretenden explotar y hacer prevalecer sus competencias técnicas especializadas, mostrar su importancia y necesidad para la actividad científica y extender su campo de aplicación como una forma de ampliar el grupo y su influencia y conseguir mas inversiones. Estos intereses pueden dar lugar a controversias dentro de la comunidad acerca de la naturaleza de los fenómenos, la forma de interpretar la evidencia, la aceptabilidad de los supuestos, etc., dado que según como se entiendan estas cuestiones, las investigaciones correspondientes se asignarán a un grupo en virtud de sus competencias específicas. De este modo los intereses profesionales creados dentro de la comunidad conectan las disputas técnicas sobre la naturaleza e interpretación de los fenómenos, las líneas de investigación seguidas y los métodos empleados, con la adquisición de medios de investigación y con la credibilidad y reconocimiento del trabajo científico. En todos los casos habría envueltas estrategias para defender y apoyar intereses profesionales. 2. Los intereses comunitarios, por su parte, están relacionados con la identificación, cohesión y delimitación de las comunidades científicas y con su reconocimiento social dentro del contexto cultural general. Entre las especialidades científicas se dan relaciones jerárquicas de prestigio e influencia, que pueden cambiar a lo largo del tiempo y que dan lugar a conflictos o acuerdos interdisciplinares, por lo que los intereses comunitarios pueden entenderse, en cierto sentido, como generalizaciones de los intereses profesionales que operan dentro de las comunidades. En última instancia, los intereses comunitarios están conectados con la pretensión de las comunidades, en cuanto organizaciones sociales, de persistir, reproducirse y crecer dentro de un medio social más amplio y en competencia con otras organizaciones alternativas; y la manera de lograrlo es conseguir y aumentar el reconocimiento social, mejorar su posición en la escala jerárquica y obtener medios crecientes de financiación. En estos procesos influyen elementos externos que provienen tanto del contexto científico como del contexto cultural general, pues con frecuencia ciertos compromisos y supuestos de tipo metodológico o filosófico de una comunidad favorecen o chocan con los de otra o con supuestos culturales externos. Los intereses comunitarios juegan un papel importante en la generación de acuerdos o desacuerdos entre comunidades y entre éstas y otros grupos sociales. Algo semejante ocurre con la comunidad científica en general, que se presenta dentro de la sociedad como cohesionada y diferente de otras instituciones sociales y de sus productos culturales. De ahí que se hable de la ciencia en general como una actividad unitaria dotada de ciertas características propias y de métodos específicos de investigación, experimentación y selección de creencias, etc. En este sentido amplio, los intereses comunitarios articulan y conectan las comunidades científicas y sus intereses profesionales con otros grupos e instituciones y con los intereses sociales en general, para lo cual poseen sistemas autoregulativos que son mecanismos internos de control social (sistemas de árbitros, conjuntos típicos y básicos de fenómenos para validación experimental, reglas normalizadas sobre la presentación de resultados, etc.), que tienen un papel importante en la conclusión de disputas y en la obtención de consenso. Lo que se pretende es que la comunidad mantenga su organización especifica, produzca resultados al menos tan apreciados socialmente como los que había generado hasta ese momento, satisfaga sus compromisos con el sistema social y se diferencie de otras instituciones culturales con las que coexiste y compite en la búsqueda de prestigio e influencia. De esta forma los intereses comunitarios se presentan como intermediarios y son fundamentales a la hora de explicar los cambios revolucionarios en la ciencia. 3. Los intereses sociales generales, se presentan como el tipo más representativo de intereses 'ideológicos'. Funcionan como determinantes macrosociales en los procesos de generación y, sobre todo, aceptación de creencias científicas. Incluyen intereses económicos, ideológicos y políticos sea de la sociedad en general o de los grupos dominantes en ella y tienen una estrecha relación con la profesionalización de la ciencia y con su reconocimiento social. A través de ellos se introducen los factores sociales externos en el conocimiento científico y por eso se considera que el conocimiento reproduce, en mayor o menor grado, la estructura de la sociedad que lo produce. El recurso a estos intereses a la hora de explicar los juicios y decisiones de los científicos constituye la característica más distintiva del SP. Los intereses sociales actúan en un doble sentido: mediante la utilización en la ciencia de patrones, modelos y actitudes culturales externas que funcionan en el pensamiento social y político y mediante el uso social de la naturaleza. El primer caso ocurre cuando ciertas creencias científicas y explicaciones de los fenómenos se inspiran o son influidas por concepciones sociales, políticas, etc., sostenidas en la sociedad en general. El segundo, mucho más fuerte, consiste en el uso ideológico de la naturaleza -y del conocimiento científico que pretende explicarla- para el control y la persuasión social. Este uso social de la naturaleza no se limita simplemente a la utilización por la sociedad, o por grupos sociales específicos, de las concepciones de la naturaleza producidas por la ciencia, sino que se extiende a la evaluación de las creencias científicas en virtud de su capacidad para ser usadas como instrumentos que permitan satisfacer intereses sociales más amplios. Así, ciertas creencias científicas, leyes o sistemas de clasificación pueden ser evaluados favorablemente y mantenidos por su utilidad para el control, la manipulación y la persuasión social. Los tres tipos de intereses, profesionales, comunitarios y sociales generales, no son independientes, sino que actúan interconectados y estructurándose mutuamente, siendo el conjunto de estos intereses ideológicos codeterminante de los procesos de producción de conocimiento científico. Pero, además, la distinción entre intereses instrumentales en la predicción, manipulación y control de la naturaleza e intereses sociales ideológicos es simplemente metodológica. De hecho, ambos se dan conjuntamente y no es lícita su separación por dos razones. Primero, porque lo que se considere adecuado para la predicción, manipulación y control de la naturaleza puede diferir en contextos, épocas y grupos sociales distintos e incluso es posible que sistemas de creencias diferentes satisfagan igualmente el mismo interés primario; en este caso, los intereses ideológicos secundarios son quienes estructuran a los instrumentales y evalúan favorable o desfavorablemente la potencia instrumental de las clasificaciones científicas mediante el uso social de la naturaleza. Segundo, porque lo que se intenta predecir, manipular y controlar es el medio -tanto el natural, como el social y cultural-; de ahí que los intereses instrumentales estén inextricablemente unidos con los ideológicos y que, en cierto sentido, puedan considerarse los unos como parte de los otros. La forma en que se consideren conectados los intereses instrumentales y sociales e ideológicos, la potencia causal que se les asigne y el tipo de explicación que se exija para las creencias científicas ha dado como resultado distintos matices de los seguidores del SP. Así, por ejemplo, Barnes en trabajos anteriores a 1979, parte de una forma de naturalización más débil en la cual no cabe la posibilidad de construir teorías generales y leyes causales acerca de la conexión entre factores sociales y cognoscitivos, sino que más bien propone el análisis de casos concretos y específicos como una forma de estudiar empíricamente la intervención de los factores sociales en el conocimiento. El objetivo es desarrollar, en todo caso, una teoría de los intereses que permita el enlace entre la teoría del conocimiento y un programa general de investigación sociológica; la elaboración de teorías o leyes generales seria un paso posterior resultante de la investigación empírica. Para Barnes los intereses sociales son condiciones necesarias, pero no suficientes, para explicar la génesis y aceptación de las creencias científicas. Es cierto que los factores sociales estructuran y encauzan los intereses cognoscitivos instrumentales, pero no los determinan estrictamente pues siempre tiene que haber un contacto con la realidad. Dicho contacto con la realidad hace que los intereses instrumentales tengan una cierta autonomía y que sean los mismos en todos los casos, aunque condicionados por circunstancias y factores sociales. La influencia de los intereses sociales generales aunque permite explicar fenómenos sociales no llega a ser suficiente para dar cuenta de las acciones de los individuos o de sus procesos de invención de creencias. En estos casos, los intereses actúan como marco, pero ceden la prioridad explicativa a los intereses instrumentales y profesionales. Es la intervención combinada de ambos intereses lo que determina la racionalidad natural y la objetividad de las acciones de los individuos. Todo esto hace que la conexión entre factores sociales y cognoscitivos sea tan compleja que solo pueda estudiarse empíricamente caso por caso y sin presuposiciones teóricas de principio. Finalmente, entre las posiciones extremas de Bloor y Barnes, se ubica el 'modelo instrumental' de que habla S. Shapin (1982) y en el que también puede incluirse al Barnes posterior a 1979 y a McKenzie (1981). En este caso tampoco se busca establecer una teoría general, ni fijar leyes causales fuertes, pero se asumen algunos principios-guía para la investigación también centrados en casos concretos e históricos. Así, se considera que la producción y evaluación del conocimiento está guiada por fines e intereses que son tanto instrumentales como ideológicos, pero que no hay prioridad causal fuerte de unos sobre otros. Cuando las generalizaciones permiten hacer conjeturas se relacionan con los intereses de predicción y control; pero cuando se seleccionan dentro de un contexto algunas de las generalizaciones previas, entonces se relacionan con los intereses sociales. Al igual que antes, se afirma que ambos procesos interactúan y son inseparables porque quien produce el conocimiento científico es una comunidad entera y no un individuo, y lo que la comunidad acepte o considere razonable es una cuestión social. Así, los intereses sociales estructuran y guían los procesos de conocimiento, la racionalidad natural y la evaluación de las creencias, pero todo ello es relativo a un contexto y a una comunidad. Por eso, los intereses instrumentales son múltiples y pueden variar en distintos casos, lo que convierte a los intereses sociales en constitutivos del mundo. Al ser construido en comunidad, el conocimiento es guiado y evaluado por fines sostenidos colectivamente y de ahí que su principal característica sea la instrumentalidad, es decir, su capacidad para hacer cosas, que es lo que lo hace significativo. Los propósitos e intereses en juego pueden ir desde la legitimación o crítica de intereses sociales generales hasta la satisfacción de intereses técnicos y cognoscitivos, pasando por intereses macro y micro políticos, pero todos ellos se articulan en una red de consideraciones sociales. Por eso puede esperarse que en sociedades y grupos diferenciados, los conjuntos de intereses en contraste den lugar a propuestas de conocimiento diferentes: las creencias cambiarían con los cambios de intereses. De esta forma, la relación entre ambos elementos es muy estrecha, pero dado su carácter cambiante según contextos, comunidades y organizaciones sociales, no pueden establecerse leyes generales, sino que la naturaleza e intensidad de la relación, al igual que los tipos de intereses en interacción, deben fijarse en cada caso concreto. Los intereses son contingencias necesarias que siempre subyacen a las creencias pero cuán fuerte sea la relación y que intereses sean es cuestión de estudio empírico. De ahí la afirmación de Shapin: "La mera aserción de que el conocimiento científico 'tiene que ver' con el orden social o que 'no es autónomo' no es muy interesante. Debemos especificar ahora con precisión cómo tratar la cultura científica como un producto social. Necesitamos descubrir la naturaleza exacta de los lazos entre las descripciones de la realidad natural y las del orden social". (Shapin, 1982, p. 160) Así, los intereses sociales, e incluso los políticos, son fundamentales e influyen decisivamente en la naturaleza y evolución del conocimiento, pero han de ceñirse a análisis empíricos al ser el componente relativista más fuerte que el causal. 4.2.2 otras líneas de análisis El esfuerzo inicial del SP dio lugar, a partir de algunas críticas, a una serie de líneas de análisis nuevas que comenzaron a dar prioridad a los estudios descriptivos frente a los explicativos; a los análisis microsociológicos sobre los macrosociológicos y a pasar del estudio teórico de la construcción social de las creencias en abstracto al estudio empírico de las actividades científicas concretas y de los procesos específicos mediante los cuales se alcanza el consenso y se construyen los hechos. Sánchez Navarro señala a partir de esta objeción central una serie de puntos criticados al SP: “1. Este carácter programático, general y presuposicionista lo lleva a buscar explicaciones vagas y ad hoc de los procesos de construcción de las creencias científicas sin entrar en el análisis detallado de cómo se construyen socialmente de hecho las creencias, el consenso y los fenómenos. Su ambigüedad es mucho mayor porque al pretender una naturalización fuerte de la sociología del conocimiento científico da prioridad a los supuestos teóricos sesgando con ello los estudios empíricos. Esto se aprecia claramente porque sus estudios concretos son fundamentalmente históricos e interpretativos, en lugar de ser descriptivos sobre la actividad científica contemporánea. 2. En la misma línea sus propuestas son macrosociológicas o, al menos, da prioridad a los estudios macrosociológicos sobre los microsociológicos. En consecuencia, llega a conclusiones y afirmaciones generales difíciles de probar empíricamente. 3. Otro problema relacionado con la ad-hocidad de sus explicaciones es la ubicuidad de los intereses. Si se parte del supuesto de que toda actividad científica esta guiada por intereses sin mas precisiones ni pruebas, cualquier análisis concreto estará sesgado por esa suposición y la teoría resultara infalsable.” (Sánchez Navarro, 1988, p. 24) Así surgen los programas relativista, constructivista, los estudios de laboratorio, los estudios del discurso científico, la etnometodología. Los Programas relativista y constructivista surgen a partir de una objeción central al SP de Bloor: su intención de constituirse en una verdadera teoría social del conocimiento no es aceptada por ambos programas como un fundamento de sus estudios microsociológicos. El Programa Relativista (en adelante PR) es desarrollado por la Escuela de Bath, especialmente por H. M. Collins (1974, 1983) y T. Pinch (1981), a los que se han sumado autores como A. Pickering (1981,1984) o B. Harvey (1981, 1981a), entre otros. Aunque algunos autores lo consideran una versión blanda del SP, sin embargo Collins, que a veces lo llama “Programa Radical”, lo considera metodológicamente prioritario al SP. La razón descansa en que el PR asume sólo dos de los principios de SP -los de simetría e imparcialidad- y deja de lado los de causalidad y reflexividad. Por eso, se compromete fuertemente con el costado relativista y, sólo en segunda instancia, con el aspecto constructivista. Los estudios del PR se limitan a casos concretos y, en especial, de la actividad científica contemporánea centrándose principalmente en tres aspectos que considera metodológicamente más relevantes: los estudios de los métodos de experimentación y replicación científica y la forma en que sus resultados son determinados y construidos socialmente; las controversias y su resolución como fuentes de la aceptación del conocimiento; y las ciencias marginales que permiten que sean comparadas con las ciencias duras. Analizan descriptivamente las disputas y negociaciones de grupos pequeños y especializados de científicos que son representativos de la comunidad científica. Las características principales del programa constructivista son: 1. rechazan por igual los análisis macrosociológicos y los estudios microsociológicos de las negociaciones entre científicos, limitándose al análisis microsociológico de la conducta de los científicos trabajando en sus laboratorios. 2. Utilizan métodos etnográficos y antropológicos, lo que requiere la renuncia a cualquier idea preconcebida acerca de las actividades de los científicos. La técnica básica es incorporarse al laboratorio y observar las prácticas de los científicos como si se tratase de otra cultura (cf. Althabe y Schuster, 1999). 3. No distinguen entre factores cognoscitivos y sociales, ni entre influencias internas y externas, ni siquiera metodológicamente. Lo único relevante es que los científicos tienen éxito en la creación de una organización especifica y en la generación de información y esos son los procesos que deben ser descritos, para lo cual se presta especial atención al lenguaje y a la comunicación entre los científicos. A fin de cuentas el núcleo esencial del trabajo de laboratorio consiste en la codificación ordenada y selectiva de ítems de información dispersos y desorganizados. La argumentación es fundamental, en este caso, para la persuasión de los colegas y la negociación y aceptación intersubjetiva de los hechos social y lingüísticamente construidos. A partir de críticas, reformulaciones e interacciones entre las líneas esbozadas hasta aquí surgen otros puntos de vista, como por ejemplo los que adhieren al análisis del discurso científico como paso metodológico previo a cualquier desarrollo posterior. El argumento de los defensores de este punto de vista se basa en la insuficiencia de los estudios sociales de la ciencia anteriores en tanto comparten el objetivo de proporcionar explicaciones definitivas de las acciones y las creencias de los científicos. En efecto, dado que el conocimiento científico consiste en las creencias que los científicos sostienen, creencias avaladas por recursos considerados válidos por los mismos científicos -tales como pruebas experimentales, replicabilidad, etc.- y que las acciones de los científicos en sus entornos y situaciones son los datos de que dispone el sociólogo para estudiar la ciencia, todos los trabajos de historia y de sociología de la ciencia han intentado proporcionar "versiones definitivas de las acciones de los científicos y, en menor grado, de sus creencias", en el sentido de que "si el analista ha interpretado correctamente su evidencia, esta es la forma en que las cosas realmente suceden o realmente sucedieron". La tesis básica de los analistas del discurso es que no hay ninguna forma satisfactoria de establecer explicaciones definitivas de la acción y la creencia, por lo que la cuestión constitutiva que subyace a todas las formas de análisis debe sustituirse "por algo más apropiado a la naturaleza de la evidencia sociológica". El análisis del discurso se presenta entonces como alternativa al análisis de la acción social de los científicos. Se entiende por discurso a toda forma de verbalización, todos los tipos de habla y todos los tipos de documento escrito. Y, como todo lenguaje es relativo a un contexto o situación y una de las claves del éxito lingüístico es la capacidad para controlar las variedades del propio lenguaje que son apropiadas para usos diferentes, el discurso nunca puede tomarse simplemente como descriptivo de la acción social a la que ostensiblemente se refiere. El problema o defecto fundamental de todos los análisis de las creencias y las acciones de los científicos llevadas a cabo por sociólogos es que sus datos consisten mayormente en afirmaciones obtenidas en entrevistas con científicos o en sus descripciones escritas. Pero, dada la inmensa variabilidad de las descripciones que los participantes dan de sus acciones, de las de otros y de sus creencias, obligan al análisis de ese discurso en vez de tomarlo como un dato sobre la acción. El discurso de los participantes es considerado como un tema y no como un recurso. Otra línea que surge, no ya como específicamente orientada al estudio de la actividad científica sino como una apuesta sociológica más general es lo que se ha dado en llamar ‘etnometodología’. Así, estudios etnometodológicos del trabajo de los científicos forman parte de un programa de investigación etnometodológica más general. Para los etnometodólogos, la actividad científica es una actividad mundana o cotidiana más y comparte todas las características atribuidas por ellos a las prácticas situadas de la vida social. Dado que la etnometodología es una estrategia de investigación dedicada a descubrir y exponer los modos en que los actores sociales construyen el orden social en sus actividades cotidianas y mediante prácticas situadas, los objetivos de las investigaciones etnometodológicas sobre el trabajo de los científicos se centran en descubrir el problema del orden social en la praxis científica, en los pormenores de las actividades cotidianas de los científicos en su mundo, y tratan de hacer accesible a la investigación la actividad de los científicos como una actividad organizada naturalmente. Al igual que todos los estudios del programa etnometodológico, los del trabajo de los científicos tienen una preocupación definida por la producción local del razonamiento y con su observabilidad, lo que significa que el razonamiento se despliega en medio de órdenes de detalles especificables intersubjetivamente: el orden de las expresiones habladas por los diferentes participantes en una conversación, el orden composicional de los materiales manipulados en los laboratorios o el orden transitivo de los materiales escritos en las páginas de un texto. Los estudios etnometodológicos intentan elucidar estas estructuras en referencia a su uso como dominios mundanos de conciencia, como estados temporalizados de proyectos razonados y como cursos observables de movimiento corporal dirigido. Como sucede en otras actividades prácticas de la vida social, en los manuales de instrucciones, por ejemplo del trabajo en el laboratorio, no se proporcionan todos los conocimientos necesarios para llevar a cabo la tarea prescrita en ellos, sino que queda un algo más que es lo que posibilita al actor hacer frente a las contingencias y vicisitudes de su actividad cotidiana. Es ese algo más lo que queda sujeto a la investigación etnometodológica. En efecto, la actividad de los etnometodólogos consiste en describir minuciosamente cómo a pesar de la falta de indicaciones precisas los científicos llevan a cabo sus tareas y resuelven todos los problemas cotidianos imprevisibles en los manuales mediante las “discusiones vernacularmente organizadas” y las rutinas incorporadas a la investigación, mostrando una competencia no extraordinaria respecto a los hechos de la vida cotidiana. Así, en los últimos años los abordajes antropológicos han comenzado a producir una perspectiva naturalizada de la ciencia como fenómeno contemporáneo y a partir de los ’80 comienza a delinearse un movimiento, la denominada “antropología de lo próximo”, que apunta a analizar desde el punto de vista de la antropología algunas manifestaciones cotidianas del presente (cf. Althabe, 1999a). El antropólogo puede desarrollar su perspectiva específica a condición de respetar ciertas reglas por lo demás comunes al trabajo antropológico en general (cf. Althabe, 1999b, p. 61). Sin embargo, la especificidad del objeto de análisis (por ejemplo en la ‘etnografía de los laboratorios’) llama a reparar en elementos diferentes, esto es, el peso del status gnoseológico del producto de la comunidad estudiada, y las reglas epistémicas que lo legitiman: “Entre los objetivos que guían los desarrollos de estos estudios encontramos el de hacer comprender cómo es que la actividad científica es una actividad social, y mostrar, por ejemplo, “cómo un hecho duro (hard fact) puede ser sociológicamente deconstruido” (Isambert, F., 1985). En todo caso, mostrar que el hecho científico es construido no tiene nada nuevo, pero sí pretender que es ‘enteramente’ construido. Esto último es lo que postulan Latour y Woolgar (1979) cuando afirman que la referencia a una realidad preexistente no tiene otro objetivo que la retórica para reforzar la posición del científico. (...) queda así relativizado el peso que tradicionalmente se le atribuyó al contenido de las teorías –y en este sentido resulta ajena la distinción contexto de descubrimiento y contexto de justificación -, ya que no habría una instancia a la cual remitirse, tal como la base empírica para validar un contenido en detrimento de otro.” (Filippa y Hernández, 1999, p. 71) Efectivamente, los análisis que se basan en enfoques similares al planteado vienen a sumarse al giro que la reflexión acerca de la ciencia viene desarrollando con mayor o menor énfasis en las últimas décadas, pero asumiendo y reforzando un punto de vista relativista, en germen ya en las ideas de Kuhn. Este giro puede enunciarse como una disolución de la separación tradicional entre contexto de descubrimiento y un reconocimiento de la relevancia de las condiciones de producción en el contenido de la teoría (cf. Filippa y Hernández, 1999, p. 83). Tal disolución puede expresarse también como la renuncia a casi toda forma de realismo, objetividad, neutralidad. En los últimos años y como resultado de las líneas bosquejadas más arriba, más la reflexión sobre la tecnología y su rol en las sociedades actuales, ha comenzado a constituirse una campo interdisciplinar de reflexión sobre las relaciones entre ciencia, tecnología y sociedad (CTS en español, STS en inglés) conocidos también como "estudios sociales de la ciencia y la tecnología". Se trata de un extenso campo en el que convergen diversas perspectivas disciplinares: sociología e historia de la ciencia, sociología e historia de la tecnología, economía del cambio tecnológico, análisis de políticas científicas y de innovación tecnológica, filosofía o teoría del conocimiento, estudios ambientales. Desde todos ellos se pone el acento en la dimensión social de la ciencia y la tecnología sobre la base del rechazo de la imagen estándar de la ciencia y la crítica a la concepción de la tecnología como mera ciencia aplicada y neutral. Pero, además de la reflexión teórica sobre la ciencia y la tecnología promotora de una nueva visión contextualizada, los estudios CTS ha adquirido cierta influencia en al campo de la educación permitiendo la aparición en muchos países de programas interdisciplinares de enseñanza. También en el campo de la política los estudios CTS han defendido una activa participación pública en la gestión de la ciencia y la tecnología, a través de la creación de mecanismo institucionales que permitan la apertura de los procesos de toma de decisiones en cuestiones relativas a políticas científicotecnológicas. 5. RETÓRICA DE LA CIENCIA En París estudiarás retórica y leerás a los poetas: la retórica es el arte de decir bien lo que uno no está seguro de que sea verdad (...) (U. Eco, Baudolino) La relación entre literatura y ciencia ha sido relativamente rica y, principalmente, multifacética. En el contexto de la prevalencia de una distinción tajante entre ambos campos, hay no obstante importantes ámbitos de intersección como la ciencia ficción y la divulgación científica. Pero, hablar de retórica de la ciencia implica algo más que mera relación o intersección y debe indagarse en una compleja combinación de ideas y estudios que propiciaron su aparición. El derrotero seguido por los debates dentro de la historia, la sociología y la filosofía de las ciencias, mostrando entre otras cosas sus dificultades para dar cuenta de los problemas específicos de las ciencias sociales (el círculo hermenéutico, la acción social, la racionalidad, etc.) e incluso de su status científico, combinadas con la aparición de tendencias metodológicas débiles como la etnometodología y, sobre todo, la expansión de las propuestas postmodernas y el éxito alcanzado por los métodos de análisis utilizados en la crítica literaria, llevaron a plantearse la posibilidad de utilizar estos mismos métodos en el estudio del discurso científico. La retórica de la ciencia, pretende, básicamente aproximar retórica y ciencia rompiendo con la idea, en verdad una visión bastante estereotipada de la ciencia que no defiende casi ningún epistemólogo, según la cual la ciencia consiste en un diálogo entre un sujeto objetivo y la naturaleza siguiendo las normas estrictas del método científico. “La literatura ha escuchado durante demasiado tiempo el implacable discurso "firme y fijo" de la ciencia pegado a sus talones, forzándola a defensas cada vez más extravagantes de su presunta debilidad e insustancialidad. Pero, si la ciencia no es ya el simple lenguaje de la verdad, la literatura no necesita ser el lenguaje del capricho, la imaginación, la ironía, la agudeza o la autorreferencia exclusiva. Apuntar la problemática del lenguaje científico, observar que por ser científico no deja de ser lenguaje, es, sencillamente, situar el lenguaje científico dentro del lenguaje. La comparación de ciencia y literatura no tiene porque ser injusta en ningún sentido. La literatura no tiene ningún control exclusivo de la imaginación, la expresividad, la persuasividad o la creatividad; la ciencia no tiene ninguna patente sobre la verdad, la fiabilidad o la funcionalidad. El investigador literario no tiene por qué estar más aislado del mundo que el científico; las estanterías de la biblioteca no tienen más polvo que el banco del laboratorio. Tanto la ciencia como la literatura tienen que ver con la verdad del mundo. Y no son dos lenguajes —el lenguaje de la ciencia y el lenguaje de la poesía— sino uno, el lenguaje de la humanidad.” (Locke, 1992 [1997, p. 264]) En el mismo sentido se expresa V. De Coorebyter (1994), señalando en el prólogo a su libro que, según la imagen tradicional, la ciencia solo sostiene hechos, cifras, leyes, etc., lo que equivaldría a la erradicación de la retórica e incluso podría sugerir que el progreso científico está estrechamente conectado con la eliminación de residuos retóricos y el distanciamiento de los sujetos concretos que hacen la ciencia y sus situaciones específicas. Sobrevuela a la retórica de la ciencia la idea de que el método científico, al igual que la imagen misma de la ciencia estándar, no serían más que construcciones retóricas extremadamente eficaces y enormemente persuasivas, como demuestra que hayan sido identificadas tan frecuentemente con la objetividad y la racionalidad, pero que tienen poca relación con lo que las investigaciones históricas, sociológicas y filosóficas sobre la ciencia y el trabajo de los científicos han ido mostrando en los últimos años. La ciencia, en este sentido, ya no debería entenderse como un dialogo entre sujetos objetivos y la naturaleza, sino como un dialogo entre sujetos intencionales y comunidades, diálogo en el cual la evidencia misma es en mayor o menor medida construida y aceptada retóricamente, tesis que no alcanzaría solamente a las ciencias sociales, sino también a las ciencias naturales. De Coorebyter analiza distintas ramas de la ciencia de forma diferenciada bajo el supuesto de que en cada disciplina 'la retórica permanece irreductible en razón del objeto de investigación', como señala en la introducción, lo que parece indicar que los procedimientos y componentes retóricos varían según las especialidades científicas. De Coorebyter (1994) mantiene un compromiso fuerte, sosteniendo que la retórica es un componente fundamental e inevitable, casi constitutivo, de la ciencia y que es necesario estudiar y analizar esas características retóricas para reconstruir la racionalidad de la ciencia. En otras palabras, asumir esas características de la ciencia no implica relativismo, ni anarquismo metodológico, por el contrario es posible reconstruir la racionalidad interna que subyace a esos procesos retóricos. Por su parte, Bauer (1992) intenta mostrar que ciencia natural y ciencia social difieren significativamente en su forma de funcionar y en su grado de consenso y acaba manteniendo que las ciencias sociales no deben considerarse ciencias. Entre los defensores de la retórica de la ciencia hay distintos grados de compromiso y de exacerbación de los elementos retóricos en el discurso científico. En primer lugar aquellos que defienden la necesidad de construir una nueva imagen de la ciencia que asuma los resultados de la filosofía de la ciencia reciente y de los estudios sobre ciencia y tecnología, aceptando la importancia de los elementos retóricos de la ciencia, pero manteniendo su carácter especifico y diferenciado como la mejor forma de conocimiento de que disponemos. Autores como H. H. Bauer (1992) parten de la disparidad entre la imagen de la ciencia presentada por la literatura científica corriente y lo que se sabe acerca del trabajo de los científicos a la luz de los estudios CTS. En particular se muestra especialmente crítico con el supuesto clásico de la existencia de un método científico tal como se presenta en los libros de texto y en la divulgación y lo considera responsable de la mayor parte de las concepciones erróneas y malentendidos creados en torno a la ciencia, aparte del dogmatismo, la ignorancia científica y la deshumanización de la imagen tradicional de la ciencia. Sostiene que el conocimiento científico es básicamente conocimiento consensuado, aunque ello no implique que tales elementos sean arbitrarios. Una posición similar defiende Fuller (1993) aunque rechaza el relativismo que surge de los estudios CTS y los planteos radicales de retórica de la ciencia. Propone incorporarlos a su propuesta de una epistemología social que consistiría en un estudio multidisciplinar de la ciencia y que permitiría no solo describir y comprender, sino también evaluar y dirigir la ciencia socialmente. Pera (1991), por su parte, sostiene que la ciencia pertenece al dominio de la argumentación y no al de la demostración pero rechaza la interpretación radical de que todo sea reducible a retórica entendiendo por tal el intento de probar mediante análisis sociológicos, hermenéuticos o semióticos de textos que los hechos son solo palabras. Por el contrario, considera que el discurso científico consiste en la interacción de tres elementos: dos individuos (o un individuo y una comunidad) que debaten y la naturaleza que esta de fondo. Acepta que el avance de la ciencia se basa en el acuerdo de los interlocutores acerca de la respuesta de la naturaleza, pero mantiene que este acuerdo no es convencional ni arbitrario. El consenso no es simplemente conversacional, sino que esta constreñido hasta cierto punto por la naturaleza, sin que eso signifique que lo imponga. Es posible establecer criterios para distinguir argumentos ‘mejores’ y ‘peores’ que permitan establecer un ganador en el debate sobre la naturaleza. La ciencia mantiene su contenido cognitivo, aunque la única forma de comprender ese valor cognitivo y reconstruir su racionalidad mínima seria comprendiendo el discurso científico y reconstruyendo su estructura. Esto lo lleva a distinguir entre retórica como acto de persuadir y dialéctica como lógica de la argumentación persuasiva, aunque admite que ambas son inseparables. Una versión más radical es la que prácticamente identifica ciencia con retórica considerando que el discurso científico no presenta ninguna diferencia esencial con otros tipos de discurso. La evidencia misma sería un texto, porque cuando menos tiene que ser 'escrita' y 'leída' y, en ese sentido, es estrictamente retórica, como lo son los individuos que dialogan. Un exponente de este punto de vista es D. Locke (1997). En La ciencia como escritura sostiene que existe una tradición según la cual ciencia y literatura son opuestas y una contratradición, que él mismo defiende, que asegura que son afines. Ambas, tradición y contratradición, han sido defendidas desde la ciencia y la epistemología como así también desde la literatura. Según Locke, entre ciencia y literatura hay una similitud no reconocida por las versiones estándar de la filosofía de la ciencia y de la crítica literaria: “Sostengo que (...) todo texto científico debe ser leído, que es escritura, no una taquigrafía verbal privilegiada, portadora de una verdad científica pura y simple. (...) Si, entonces, el discurso científico es un dispositivo de persuasión, como la literatura lo es de la ficción, ¿no se da un parentesco entre los dos cuerpos de discurso?. Presumiblemente. Como dicen Latour y Woolgar en una nota final a Laboratory life, ‘nuestra discusión es un primer paso tentativo para esclarecer el vínculo entre ciencia y literatura’. Latour y Woolgar y los otros nuevos sociólogos se han unido un tanto, quizás precedidos, en su primer paso tentativo, por ciertos críticos literarios, muchos historiadores de la ciencia y algunos científicos mismos, todos los cuales hablan no tanto de las diferencias entre ciencia y literatura como de sus similitudes.” (Locke, 1993 [1997, p. 11] El trabajo de Locke posee algunos méritos innegables. En primer lugar por mostrar que aun en los artículos científicos provenientes de disciplinas como la química hay elementos retóricos. Cabe consignar que, en este sentido, la argumentación es bastante forzada para los trabajos actuales de química, pero resulta más interesante y más clara en otro tipo de textos como por ejemplo El origen de las especies16, también analizado. Cabe 16 El libro clásico de Darwin es considerado como una larga argumentación a saber: “El cuerpo del libro está dividido en tres grandes secciones, cada una de las cuales consiste en cuatro o cinco capítulos. En la primera de estas secciones, la confirmación, Darwin presenta el funcionamiento detallado de su argumentación en el sentido de que la selección natural actúa sobre pequeñas variantes individuales, por medio de la ‘lucha por la existencia’, para producir en última instancia nuevas especies. Después, en los siguientes capítulos, la refutación responde a varias objeciones a la teoría, en el sentido de que no podría dar cuenta de la producción de órganos de gran señalar dos cuestiones que atañen a la elección- no casual por cierto- del texto clásico de Darwin: en primer lugar su calidad de escritor y, en segundo lugar y más importante su carácter revolucionario que obliga a emplear más y mejores estrategias retóricas que las necesarias para los textos que surgen en periodos de ‘ciencia normal’. Además, Locke hace un esfuerzo por mostrar que las distintas tradiciones de teoría literaria –incluso las que prácticamente han sido abandonadas en la actualidad- pueden aplicarse al análisis de los textos científicos: “(...) 1) la teoría de la representación, que ve el texto literario esencialmente como una representación del mundo real; 2) teoría de la expresión, que observa esa obra como una expresión de los pensamientos y sentimientos de su autor; 3) teoría de la evocación, que la valora como evocadora de respuestas por parte de sus lectores; 4) teoría del objeto de arte, que juzga la obra como un objet d’art, interesante por sus propiedades puramente formales; 5) teoría del artefacto, que sitúa la obra entre los sistemas significantes que organizan, estructuran y constituyen de hecho el mundo; y 6) teoría de la instrumentalidad, que coloca la obra entre los sistemas significantes que organizan, estructuran y constituyen de hecho el mundo. (...) nada en el instrumental crítico literario tiene que quedar per se fuera de los límites del análisis de los textos científicos Desde luego, cada una de las seis teorías revelará algo importante en relación con la lectura de textos científicos: algo que los científicos necesitan conocer si la ciencia tiene que proceder con una conciencia completa de su metodología; algo que el mundo de la crítica literaria necesita conocer si tiene que comprender enteramente sus propias modalidades de lectura y su radio de aplicabilidad; algo que todos aquellos que habitan el mundo que la ciencia ha construido necesitan conocer si deben comprender ese mundo y cómo funciona. Si hay dos culturas, ambas se entrecruzan. Y si el mundo debe apreciar lo que la cultura científica está diciendo, y lo que está haciendo diciéndolo, debe emplear los métodos de la cultura literaria para descubrir cómo lo está diciendo, y cómo lo está haciendo.” (Locke, 1993 [1997, p. 42]) Con todo, el análisis de Locke, no resulta objetable por sostener que cualquier texto científico puede ser analizado desde la crítica literaria y la retórica, aunque muchos de ellossobre todo los artículos más actuales- sean de una gran pobreza literaria. Pero la tradición estándar a la que Locke hace referencia y que no reconocería ningún papel a los elementos retóricos en la ciencia en la medida en que considera a ésta como una expresión neutra y refleja de la realidad, constituida meramente por enunciados protocolares, no es más que una versión sumamente estereotipada de la CH que prácticamente ningún especialista defiende. La avalancha de críticas que esta tradición ha venido sufriendo y que puso de relieve la necesidad de atender a los elementos contextuales, incluso las problemáticas de la escritura científica y de la ausencia de neutralidad del lenguaje científico, así como también la dependencia del lenguaje observacional de los marcos teóricos, abre la legítima posibilidad de analizar los componentes retóricos de la ciencia pero, debe llamarse la atención sobre pretensiones epistemológicas desmedidas de tal hallazgo. Tiene razón Locke cuando señala que la literatura no tiene ningún privilegio de exclusividad sobre la creatividad, la imaginación o la persuasividad, ni como contraparte que la ciencia no lo tiene sobre su acceso a la verdad en un sentido absoluto y pleno; también tiene razón cuando complejidad, como el ojo, etcétera. Finalmente, en una digresión, Darwin aporta un nuevo apoyo para su teoría demostrando lo eficazmente que ésta da cuenta de la distribución de los seres en el tiempo (según revelara la geología) y en el espacio (como mostrara la geografía), así como de gran cantidad de hechos biológicos enigmáticos, como la existencia de órganos vestigiales. El argumento en la confirmación es en gran medida un argumento a partir de causas eficientes; en la digresión, a partir de consecuencias. El último capítulo se abre como una recapitulación del argumento entero y luego pasa a una peroración afectada donde Darwin considera algunas de las implicaciones de su teoría. Ésta culmina en el párrafo final que elabora la célebre metáfora darwiniana del ‘enmarañado ribazo’, un símbolo de las interrelaciones complejas que observa entre la comunidad de las criaturas vivas. La última frase, altamente recargada, que invoca tanto a Newton como al creador, proclama la ‘grandeza’ de su visión de la vida” (Locke, 1993, [1997, p. 124]). señala que no hay en el fondo dos lenguajes- el de la ciencia y el de la literatura- sino uno solo: el de la humanidad. Sigue siendo legítimo el análisis que pueda hacerse sobre las estrategias narrativas de los científicos, el carácter constitutivo de las metáforas científicas, la dimensión hermenéutica de la constitución de conceptos de la investigación científica. Ahora bien, debe quedar claro que 'descubrir' que el discurso científico no es un lenguaje neutro en el sentido que la epistemología estándar exigía que refleje un mundo real autosubistente, no necesariamente revaloriza la idea de que la ‘mente construye el mundo’ y, por otra parte, si se trata, entre otras cosas, de analizar de qué modo juega la imaginación en la ciencia, lo cual es absolutamente legítimo, analizar la retórica de la ciencia no dice nada sobre el problema –que subsiste- de la relación entre ese tipo particular de lenguaje que es el lenguaje científico y la realidad a que hace referencia. 6. LA IGUALDAD Y LA DIFERENCIA. La ciencia y los saberes Los estudios literarios tradicionales parecían haber desarrollado cierto gozo por la limitación de las metáforas al uso estético, probablemente porque la limitación comportaba no sólo una distinción conceptual sino que también recortaba un ámbito de incumbencias propio y excluyente. Por el lado de la epistemología estándar pretendían haber hecho justicia: las metáforas simplemente no eran tomadas en cuenta. Hasta allí todos contentos: los epistemólogos expulsando las molestas expresiones figuradas o sesgadas y buscando la depuración extrema del lenguaje; el resto de los mortales -incluyendo los que defendían versiones irracionalistas de la ciencia- gozando de las sobras a las que, sin embargo y en muchos casos, pretendían considerar como las expresiones más elevadas de la humanidad. En las últimas décadas el panorama ha ido cambiando. Por un lado los estudios sobre la metáfora han desbordado el ámbito acotado de las reflexiones de retóricos y filósofos en siglos pasados, superando esos límites disciplinares para convertirse en objeto de reflexión de áreas de la psicología, la sociología, la antropología, la teoría de la ciencia e incluso la inteligencia artificial. Pero, además, se ha ido configurando un clima propicio para que la reflexión sobre el problema de la relación entre conocimiento y metáforas se intensifique en el marco de los nuevos estudios sobre la ciencia: la crisis de la hegemonía teórica de la CH fue revelando poco a poco la insuficiencia de considerar como única tarea relevante de la epistemología la reconstrucción racional de las teorías y, al mismo tiempo, la necesidad de atender a la relevancia epistémica del proceso de desarrollo y progreso de la ciencia. El deterioro de las tesis fuertes de la CH, produce un giro en la reflexión sobre la ciencia que comienza a tener en cuenta al sujeto que la produce, reconociendo que en las prácticas de la comunidad científica, es decir en el proceso mismo (psico-socio-histórico), acontece la legitimación, validación y aceptación del conocimiento producido. Esta necesidad creciente de atender ya no tanto a los aspectos sincrónicos – es decir de reconstrucción racional de las teorías-, sino también diacrónicos de la práctica científica, posibilitó una suerte de reacomodamiento de incumbencias disciplinares, básicamente en las líneas que teorizaban sobre la ciencia dentro de la sociología, la historia y la antropología. Los llamados estudios sobre la ciencia de la actualidad, variados en filiación y puntos de vista, surgen de esta encrucijada de perspectivas disciplinares y son el resultado de largos debates que se precipitaron en las últimas décadas que pueden resumirse como sigue: ha habido un gigantesco esfuerzo de la CH por desarrollar criterios para esclarecer las diferencias y especificidades de la ciencia, criterios cuyo fracaso parcial se explica, probablemente, por su misma rigidez y exacerbación, resultando así impotentes para explicar la relación de la ciencia con otras prácticas humanas; como contraparte, los desarrollos posteriores de la misma epistemología, la historia y la sociología de las ciencias, revelando elementos concluyentes para exacerbar el papel de tales insuficiencias, contribuyeron a disolver la especificidad y a mostrar en qué se parece la ciencia a otros tipos de prácticas culturales. Unos fueron impotentes para entender las prácticas de los científicos en lo que tienen de parecido con otras prácticas, otros lo son para dar cuenta de las diferencias y especificidades. En este sentido, y aunque lo razonable apunte a la necesidad de una teoría de la ciencia de perfil interdisciplinario, ha surgido una variada gama de posiciones relativistas, irracionalistas, historicistas, retoricistas, o posmodernistas, que apoyadas en el reconocimiento de que ya no es posible defender posiciones fuertes como la CH y del relevante papel de los elementos contextuales no sólo en el ‘descubrimiento’, sino también en la validación del conocimiento científico, han salido a impugnar la especificidad cognoscitiva de la ciencia sosteniendo que ella es un saber entre saberes sujeto a los mismos criterios de producción y legitimación que otros. Esta igualación hacia abajo se ve apoyada por igual en el debilitamiento de las tesis fuertes de la versión estándar –los requisitos de objetividad, neutralidad, intersubjetividad, distinción observación/teoría, etc.-; en la detección de fuertes juegos de poder –político, ideológico, académico, etc.- en la construcción de las afirmaciones de la ciencia; y en el señalamiento de la habitual invasión de la ciencia por recursos retóricos, tales como las metáforas, que son tomadas erróneamente como dato inequívoco de que no hay nada demasiado especial en la ciencia. En este contexto, la tarea a emprender debería ser recuperar la diferencia en la semejanza, para proporcionar una teoría de la ciencia que pueda dar cuenta del plus cognitivo que tiene la ciencia (el producto terminado) al tiempo que responder a la agenda de problemas sociológicos, históricos y filosóficos genuinos que conlleva. No hay nada de malo en la estrategia tradicional de la filosofía de la ciencia de reconstrucción racional de teorías si se tiene en claro que la misma no puede hacerse al modo de la versión estándar de la CH, sino tomando en cuenta también los aspectos diacrónicos. En todo caso habrá que considerar categorías de análisis más amplias y abarcativas. La forma propuesta aquí, no la única por cierto, consiste en partir de la reconsideración de las cualidades cognitivas de las metáforas más allá de los análisis meramente fenomenológicos provenientes de la retórica y la teoría literaria. Para finalizar y aunque el panorama expuesto en este capítulo es sumamente exuberante y atravesado tanto por diferencias sutiles como también gruesas entre los diferentes puntos de vista, vale la pena hacer algunos señalamientos que puedan aplicarse a las versiones constructivistas y más fuertemente relativistas: 1. la disolución de la separación entre contextos no implica solucionar el problema que tal distinción vino a querer, fallida y exacerbadamente en la CH, solucionar. Asistir al desmoronamiento de las tesis fuertes de la CH no implica la resolución de la agenda epistemológica y filosófica en general que ella ha generado y que le ha sobrevivido. En efecto, el debilitamiento- justificado por cierto- de las perspectivas reconstruccionistas y prescriptivas iniciales de la CH, jugó muchas veces a favor de la disolución de la especificidad del discurso científico, ubicándolo como un saber entre saberes, o en un entramado de redes de poder-saber y, en las versiones más extremas, reduciéndolo a estrategias retóricas, pero no ha conseguido suplantar las versiones justificacionistas o fundacionalistas por versiones más debilitadas e interdisciplinarias que puedan dar cuenta de la especificidad epistémica de la ciencia. Si las primeras versiones de la CH resultaron demasiado estrechas porque no podían dar cuenta de la relación entre la ciencia como producto y la ciencia como proceso, por el contrario, disolver la distinción entre contextos y renunciar a cualquier forma –aunque sea debilitada- de demarcación adolece por ser un punto de vista demasiado amplio porque deja sin resolver genuinos problemas filosóficos involucrados en la práctica científica. 2. aunque pueda discutirse la asimilación del funcionamiento de las comunidades científicas a otros grupos dispares, el fenómeno de la ciencia parece más interesante por lo que tiene de específico y diferente que por lo que tienen de similar. En los últimos tiempos suele enarbolarse como consigna irreverente o distintiva la afirmación de que la ciencia es un producto social17 y como consecuencia se sostiene que el objeto a investigar por los estudios sobre la ciencia es la práctica social. Y no quedan dudas de que la ciencia es una práctica social, pero no sólo resulta cuando menos equívoco el 17 “Todo es social” es el lema de Latour y Woolgar (1979) concepto de ‘práctica social’ (cf. Ibarra y Mormann, 1997) sino que tanto desvelar los vínculos interpersonales entre los científicos como establecer correlaciones positivas entre teorías concretas y el contexto de producción no contribuye a solucionar problemas básicos de la filosofía de la ciencia, tal como la forma en que las teorías se ajustan de algún modo a un conjunto de experiencia disponible mejor que otras, es decir de su relación con el mundo y la elección entre teorías. 3. las versiones sociológicas fuertemente relativistas, entre ellas la etnografía de laboratorios, constituyen perspectivas importantes, legítimas y reveladoras, pero su status epistémico se enfrenta a una encrucijada: si sólo puede dar cuenta, con mayor o menor profundidad y sutileza, del entramado de relaciones al interior del laboratorio/comunidad de científicos, será un punto de vista más del análisis institucional; si, por el contrario, pretende llegar al fondo del análisis de la ciencia no puede evitar o renunciar a la agenda epistemológica, sino que debe sobrellevar la carga de la prueba e intentar responder mejor algunos de sus temas. El “análisis de las prácticas”, caballito de batalla de las perspectivas constructivistas y relativistas, resulta, además de una afirmación equívoca, una perspectiva, una perspectiva estrictamente pragmática insuficiente para dar cuenta de los aspectos más puramente semánticos de las teorías. Si bien puede reconocerse que es legítimo metodológicamente para el análisis sociológico/antropológico considerar a la actividad científica bajo las mismas pautas que otras actividades de grupo y, en ese sentido no hay ninguna razón para otorgarle un estatus privilegiado, no parece razonable equipararla sin más a cualquier otra actividad social. Y no sólo por su creciente importancia en el mundo actual a través de la tecnología, sino por el producto que obtienen. 4. parece haber una tendencia en las corrientes sociológicas hacia los análisis cada vez más circunscriptos, cada vez más microsociológicos. Es decir, una tendencia a pasar de los ambiciosos intentos de ofrecer explicaciones causales para las creencias científicas o formular leyes copiando a las de las ciencias naturales, a limitarse a dar meras descripciones cada vez más microscópicas de los comportamientos y negociaciones de grupos. Así no sólo se pierde de vista el análisis del producto de esos grupos, sino además, que hay en la ciencia natural una suerte de estructura global que marca la consistencia –con periodos de tensión claro está- y la interrelación entre las teorías. 5. Se comprende que en un campo en el cual se otorga creciente relevancia a las negociaciones a través de ejercicios retóricos (y de otros tipos) y donde operarían sustratos ocultos y misteriosos bajo la forma de conocimiento tácito, tradiciones de diversas clases, etc., pueda reconsiderarse positivamente el papel que cumplirían las metáforas. Pero se trata de una revalorización de la metáfora considerada siempre como un recurso retórico y estilístico, es decir que la estrategia consiste en atacar las tesis sobre la pureza y transparencia del lenguaje tradicionales con la tesis contraria de la opacidad y carácter desviado del lenguaje, al tiempo que se le otorga a la metáfora una serie de propiedades misteriosas e insustituibles de comprensión y captación. Este giro puede caracterizarse como una suerte de literaturalización de la ciencia o una redución a los aspectos retóricos de su comunicación. Si bien la línea de la retórica de la ciencia parece el camino más directo para resolver la relación entre metáfora y ciencia, se considerará tal tentación como un punto de vista demasiado parcial y reduccionista si no directamente equivocado; y la equivocación no procede de pretender utilizar las herramientas propias del análisis literario para analizar el discurso científico lo cual resulta perfectamente legítimo, sino de pretender que ese recurso resulta idóneo porque no hay diferencia apreciable entre ambos discursos como no sea que el científico es más pobre estéticamente. La metáfora, en esta línea, es vista principalmente desde el lado de la literatura y no desde el de la ciencia y mucho menos como uno de los mecanismos constitutivos del conocimiento. CAPITULO 3 EPISTEMOLOGÍA Y EVOLUCIÓN La metáfora en marcha Mucho más que una simple construcción gramatical o figura de dicción. La metáfora es una forma de saber, una de las más antiguas, de más hondo arraigo e, incluso indispensable, en la historia del conocimiento reflexivo humano. (Nisbet, Cambio social e historia) Si ha de atribuirse a las metáforas un papel fundamental en la construcción y validación resulta ineludible hacer referencia a una serie de preguntas: ¿es posible considerar la generación de metáforas como uno de los mecanismos básicos para proveer conocimiento sobre el mundo y aun de la producción misma del lenguaje?; o incluso ¿por qué hacemos metáforas?; ¿puede considerarse la generación de analogías o detección/construcción de semejanzas, de las cuales las metáforas epistémicas serían un subconjunto, como una regla epigenética?. Se trata de problemas que atañen al funcionamiento de los mecanismos cognitivos y, aunque hay algunos intentos de responder a este tipo de preguntas, desde las ciencias cognitivas y desde las gnoseologías evolucionistas entre otras, el estado actual de la cuestión no parece permitir conclusiones consolidadas. Sin embargo, aun puede avanzarse bastante sobre otro grupo de problemas que propios de la historia y la filosofía de la ciencia que pueden abordarse de manera independiente a las cuestiones señaladas más arriba. En este sentido, el objetivo principal de este capítulo es delinear una epistemología evolucionista que considere a la noción de 'metáfora epistémica' como la unidad de selección. Si la propuesta resulta adecuada se podrá contar con un instrumento idóneo para abordar la historia de la ciencia desde un punto de vista evolucionista y con categorías para el análisis filosófico de la ciencia. Tales instrumentos y categorías permitirían un abordaje exitoso, si se permite la expresión, fenomenológico de la ciencia y su desarrollo diacrónico sin necesidad de pensar que los mecanismos de generación de analogías y metáforas constituyan partes consustanciales del aparato cognoscitivo. 1. LA NATURALIZACION DE LA EPISTEMOLOGÍA Si bien puede asistirse en las últimas décadas al florecimiento parcial de las epistemologías y gnoseologías orientadas evolutivamente, la relación más fuerte entre una disciplina científica particular y la epistemología, históricamente se ha dado con la física antes que con la biología. Ya desde el siglo XVII, pero en especial desde Kant en adelante, toda reflexión epistemológica lleva la impronta de un modelo de cientificidad basado en la física moderna. De hecho las ciencias sociales del siglo XIX consolidan su papel en Occidente a partir de la invocación de la paternidad de la física; la filosofía de la ciencia de fines del siglo XIX y principios del siglo XX encuentra una de sus raíces más profundas en las crisis de la física y la matemática; basta dar una recorrida por la literatura epistemológica estándar para notar que intenta apoyarse en el uso estratégico de ejemplos tomados fundamentalmente de la física. Parece sencillo encontrar post hoc, una serie de buenas razones de distinto orden para dar cuenta de esa supremacía: sobre todo el papel fundamental que le cupo en la conformación y desarrollo de la Revolución Científica, a partir de su íntima relación con la matemática, la posibilidad de conformarse como un sistema deductivo, sus éxitos asociados con la astronomía y quizá principalmente su versatilidad para constituirse según un modelo mecanicista del universo. Los éxitos y desarrollos en los siglos siguientes reforzaron esta posición inicial. Como quiera que sea la instalación en un lugar de privilegio epistémico así como la pérdida del mismo no constituyen una respuesta a condiciones de mérito o demérito meramente internas de la disciplina, sino que se trata, más bien de una cuestión epistemológica. De hecho la física ha producido en el siglo XX la física cuántica y la física relativista, pero estos desarrollos inéditos van de la mano de un paulatino abandono de su lugar de modelo de cientificidad. La disolución de los postulados fuertes de la CH fue mostrando la imposibilidad de aplicar criterios de cientificidad canónicos provenientes de la física, ya sea porque no se aplicaban a, eran irrelevantes para, no eran verdades de o no tenían equivalentes en, otras áreas de conocimiento y quizá, algunos tampoco pudieran cumplirse en la misma física. En el contexto de la institucionalización de la filosofía de la ciencia hacia comienzos del siglo XX, la física funcionó bien mientras lo que se buscaba era un modelo fuertemente prescriptivista, sincrónico y formal de la cientificidad, pero cuando fue necesario explicar el desarrollo diacrónico de la ciencia en un proceso irreversible y que se da no ya en sistemas cerrados - los sistemas de enunciados- sino en sistemas interrelacionados con el medio - las comunidades científicas, los sujetos concretos que hacen ciencia, etc.- se hizo necesario un modelo de cientificidad dinámico diferente. Hay que agregar a ello la profundización del proceso de alejamiento de la física de la experiencia cotidiana hasta limites insospechados e inabordables en términos de escalas y percepciones humanas para ser utilizada como modelo de una actividad como la producción de conocimiento. Ya no sirve como modelo de la misma envergadura además de ponerse en cuestión aspectos que en los modelos mecanicistas que funcionaron hasta mediados del siglo XIX eran signos de una capacidad superior: predicción, matematización, exactitud, reversibilidad y control. Sin duda, también resultaron fundamentales los éxitos de la biología evolucionista, constituida ya en el siglo XX en teoría sintética de la evolución más los espectaculares desarrollos de la genética y la biología molecular. Una cuestión no menor es que, en este contexto fue haciéndose cada vez más patente el carácter peculiar de la biología, como campo de conocimiento cuyas incumbencias se ubican en un área de intersección entre las llamadas ciencias naturales en el sentido más estricto (por ejemplo la biología molecular), y las ciencias sociales en tanto búsqueda de fundamentos biológicos –muchas veces con un optimismo desmedido en cuanto a su resultado- para las conductas y organizaciones sociales. Esta doble pertenencia de los saberes biológicos se manifiesta en las conexiones directas o indirectas (reales, imaginarias, ideológicas o potenciales) que los trabajos en muchas áreas de la biología establecen con las condiciones sociales de producción, legitimación, reproducción y circulación del conocimiento y con las prácticas y puesta en marcha de tecnologías sociales. El panorama en el cual la biología suplanta epistemológicamente a la física se completa con un giro probablemente decisivo: la propuesta de naturalización de la epistemología, que conduce de un modo natural a ámbitos científicos como la psicología, las ciencias cognitivas, la neurofisiología y la biología evolucionista. Una consecuencia radical de la tesis del fracaso de las posiciones fundacionalistas clásicas, es la propuesta de Quine acerca de la naturalización de la epistemología, considerando, en oposición a la epistemología prescriptivista o normativista tradicional, el conocimiento humano puede ser estudiado como cualquier otro fenómeno natural y, por lo tanto, la ciencia misma debería ser el instrumento adecuado para su abordaje: “Pero ¿por qué toda esta reconstrucción [se refiere a las ‘reconstrucciones racionales’] creadora, por qué todas estas pretensiones?. Toda la evidencia que haya podido servir, en última instancia, a cualquiera para alcanzar su imagen del mundo, es la estimulación de los receptores sensoriales. ¿Por qué no ver simplemente cómo se desarrolla en realidad esta reconstrucción? ¿Por qué no apelar a la psicología?. Una tal entrega de la carga epistemológica a la psicología es un paso que en anteriores tiempos no estaba permitido por su condición de razonamiento circular. Si el objetivo del epistemólogo es validar los fundamentos de la ciencia empírica, el uso de la psicología o de otra ciencia empírica en esa validación traiciona su propósito. Sin embargo, estos escrúpulos contra la circularidad tienen escasa importancia una vez que hemos dejado de soñar en deducir la ciencia a partir de observaciones. Si lo que perseguimos es, sencillamente entender el nexo entre la observación y la ciencia, será aconsejable que hagamos uso de cualquier información disponible, incluyendo la proporcionada por estas mismas ciencias cuyo nexo con la observación estamos tratando de entender.” (Quine, 1969, [1986,p. 101]) No habría, según Quine, una filosofía anterior para explicar la ciencia, lo cual implica una modificación sustancial en cuanto a los ámbitos de incumbencia: “(...) yo veo a la filosofía no como una propedéutica a priori o labor fundamental para la ciencia, sino como un continuo con la ciencia. Veo a la filosofía y a la ciencia como tripulantes de un mismo barco- un barco que, para retornar, según suelo hacerlo a la imagen de Neurath, sólo podemos reconstruir en el mar y estando a flote en él. No hay posición de ventaja superior, no hay filosofía primera. Todos los hallazgos científicos, todas las conjeturas científicas que son plausibles al presente, son, desde mi punto de vista, tan bienvenidas para su utilización dentro de la filosofía como fuera de ella”. (Quine, 1969, [1986, p. 162]) La epistemología naturalizada rechaza supuestos tales como la existencia de fundamentos últimos para nuestras creencias acerca del mundo y rechaza también la búsqueda de criterios absolutos de conocimiento o de justificación, que puedan ser especificados y validados a priori. Este planteo representa, obviamente, un giro importante con relación al modo prescriptivo de concebir la epistemología, ya que ésta no podría ubicarse en tanto naturalizada, más allá de los marcos conceptuales con relación a los cuales se construye la ciencia, sino que se encuentra dentro de ellos. La tesis es que el programa fundacionalista, de raigambre cartesiana pero con múltiples versiones, ha fracasado (Cf. Jaegwon Kim, 1994, Kornblith, 1994), y no por ser un proceso incompleto o inacabado, sino que la objeción en este punto es radical: el punto de vista fundacionalista ha fracasado porque se ha planteado preguntas imposibles de responder. La propuesta de Quine apunta al reemplazo (Kornblith, 1994) de la epistemología fundacionalista por la ciencia (psicología) empírica18, aunque de hecho la propuesta de Quine excede por su propia índole el estricto marco de la psicología empírica como parte de la ciencia natural. En efecto, la epistemología naturalizada permite desarrollar una agenda mucho más amplia en la cual pueden tener cabida todos los planteos que consideren a la ciencia como objeto de estudio empírico abordable desde diversas disciplinas y que vayan más allá de los análisis logicistas; que considere que el conocimiento científico es producido, aceptado y justificado por seres humanos reales en interacción con un medio natural, social y cultural. La puerta para que los aspectos estrictamente cognitivos y de validación inherentes a la actividad científica sean abordados por la ciencia misma había quedado abierta. El planteo quineano, entonces, es naturalmente ampliable a los abordajes epistemológicos desde la biología, la historia o la sociología. Así, las llamadas epistemologías evolucionistas, deben incluirse dentro del espectro más amplio de las epistemologías naturalizadas19. El desarrollo y refinamiento posterior de las sugerencias iniciales de Quine condujeron a la combinación con una propuesta más general, que apunta a considerar que los seres humanos, incluso sus facultades cognitivas, son entidades naturales que interactúan con otras entidades 18 Sobre las consecuencias escépticas de la propuesta de Quine cf. Stroud, 1984. J. Sánchez Navarro (1994) sostiene que la diferencia entre todas estas formas de hacer epistemología se puede centrar en tres puntos: “a) la disciplina científica a que se conceda más importancia, aun asumiendo también las otras (psicología, biología, etc.); b) la relación que mantienen con la epistemología clásica: sustitución, complementariedad o dependencia y c) el status que conceden al sujeto del conocimiento: individual, social o sin sujeto cognoscente”. 19 naturales y que los resultados de las investigaciones científicas naturales de los seres humanos son relevantes y pertinentes para la empresa epistemológica. (Shimony, 1987a, van Fraassen, 1987). La vinculación especial entre evolución biológica y conocimiento ha dado lugar a distintas líneas de trabajo, constituyendo una campo lo suficientemente heterogéneo como para conspirar contra cualquier intención de establecer una taxonomía que pueda agrupar a todas las versiones y que al mismo tiempo respete sus especificidades. No obstante, una clasificación o división que puede ser útil para delimitar problemas es la que establece M. Bradie (1994), al diferenciar entre dos programas bien definidos: el EEM y el EET20. Mientras que el primero está abocado a dar cuenta de las características de los mecanismos cognitivos en animales y humanos mediante una extensión directa de la teoría biológica de la evolución al aparato cognitivo (cerebro, aparato perceptual, aparato motor, etc.), el segundo intenta explicar la evolución de las ideas y teorías científicas según el modelo de la evolución biológica. La distinción de Bradie es útil porque marca con claridad los diferentes tipos de problemas que pueden abordarse desde consideraciones evolutivas: los aspectos del desarrollo ontogenético, filogenético e histórico del conocimiento; pero su utilidad se limita si se pretende ubicar a los autores o las propuestas concretas que ellos hacen, ya sea porque algunos abordan ambos programas como así también porque algunos reconocen la relevancia de alguno de ellos pero le quitan todo sustento al otro. De hecho, muchos de los defensores de EEM niegan entidad a EET o bien adoptan un criterio reduccionista o, en los casos más prudentes consideran que los problemas de EET son externos y ajenos a EEM. Asimismo, buena parte de los defensores de EET pretenden encontrar fundamento y continuidad en alguna versión de EEM. Aquí se adoptará una clasificación algo diferente, denominando ‘gnoseología evolutiva’ (GE) lo que, grosso modo, Bradie llama programa EEM y ‘epistemología evolucionista’ (EE) a un conjunto algo más complejo y heterogéneo que incluye puntos de vista de autores que o bien defienden ambos programas simultáneamente o se encuentran clara y exclusivamente en el EET de Bradie. Una breve digresión con relación a los términos utilizados será conveniente: en adelante se usará ‘evolutivo/a’ cuando se trata de calificar, o hacer referencia a los procesos naturales en sí mismos, vale decir coincidiendo con un lenguaje científico o de nivel 1. En cambio se reservará ‘evolucionista’ y más propiamente ‘epistemología evolucionista’ (EE) como concepto epistemológico, es decir de nivel 2, para designar las teorías epistemológicas o puntos de vista, que hagan referencia o utilicen modelos de la biología evolutiva para la descripción de los procesos del desarrollo de la actividad científica21. 4. LA EPISTEMOLOGIA EVOLUCIONISTA La EE considera el desarrollo a través de la historia del contenido del pensamiento humano y no meramente de la función y capacidades humanas en la evolución biológica. Este desarrollo se concibe como un decurso que se puede describir y comprender según el modelo de la evolución biológica. La idea de explicar los desarrollos históricos y sociales a partir de modelos biológicos es bastante antigua, pudiendo rastrearse antecedentes hasta el 20 Ruiz y Ayala (1998) agregan un tercer grupo (EEP) a los propuestos por Bradie. Este tercer programa se basa en la indagación de los procesos mentales, es decir que toma en cuenta los métodos de pensamiento y sostienen que ellos son el resultado de la selección natural. M. Ruse (1986) defiende la tesis de que hay diferencias en cuanto a procesos mentales, y de que tales diferencias provocan a su vez que los individuos tengan mayor o menor adecuación, de modo que los procesos mentales influirían en la selección natural como otras características de los organismos. 21 El término ‘evolutivo/a’ en el contexto de la epistemología aparece muy ligado a la psicología genética de J. Piaget. Por otra parte no parece necesario recurrir al neologismo ‘evolucionario/a’, a pesar de que resulta bastante común que en el inglés se utilice “evolutionary” (o en el alemán “evolutionär”) y tal término sirva para jugar con la oposición con ‘revolucionario’. siglo XIX –H. Spencer o T. H. Huxley22- pero aquí se tratará tan sólo de los intentos que se han dado en las últimas tres o cuatro décadas, analizando planteos diferentes agrupables bajo el rótulo de EE. Básicamente una EE construye una metáfora epistémica de la teoría de la evolución biológica y, en ese sentido debe contener cuando menos tres elementos básicos: en primer lugar un mecanismo que permita introducir la variación y la novedad; en segundo lugar dispositivos de selección entre las variantes disponibles; y en tercer lugar formas o mecanismos de transmisión de las variantes seleccionadas. En las secciones siguientes se analizarán algunas de las versiones más significativas en EE, señalando algunos de sus problemas con el objetivo de ir delineando una propuesta superadora. 4.1. S. Toulmin. La evolución conceptual en la historia La metáfora evolucionista construida por Toulmin intenta dar cuenta básicamente de una historia de las ciencias considerada relevante epistemológicamente, aunque no renuncia a la búsqueda de criterios de racionalidad generales. La tesis básica de Toulmin es que las disciplinas científicas son como las poblaciones biológicas en evolución, es decir como especies. En este sentido, una disciplina científica, no debe ser considerada como los contenidos de un libro de texto en una fecha determinada, sino como una materia en desarrollo a través del tiempo y se caracteriza “tanto por su proceso de crecimiento como por el contenido de cualquiera de sus secciones históricas”. La identidad a través del cambio de una disciplina científica es análoga a la identidad a través del cambio de una especie biológica. A partir del modelo evolucionista sostiene que el desarrollo conceptual dentro de una disciplina científica consiste en la selección natural que opera sobre un conjunto de variantes conceptuales. Se preocupa por señalar que no se trata de una simple forma de hablar, o metáfora o analogía, sino que efectivamente el pensamiento científico se desarrolla siguiendo un patrón evolutivo. La reconstrucción racional del desarrollo científico en su conjunto resulta una suerte de ecología intelectual, de modo tal que la filosofía de la ciencia es a la historia de la ciencia lo que ecología es -en la biología evolucionista- a la filogénesis (ver tabla 2). El contenido de una disciplina, de acuerdo con Toulmin, se adapta a dos circunstancias ambientales diferentes: los problemas intelectuales que enfrenta la disciplina y las situaciones sociales de quienes la practican. Las nuevas ideas surgen a medida que los científicos intentan resolver racionalmente las dificultades conceptuales con las cuales se enfrente su disciplina, aunque con mucha frecuencia esas nuevas ideas se verán influenciadas por las demandas institucionales y por los intereses sociales en pugna. Es por ello que explicar el surgimiento de ideas innovadoras para Toulmin implica considerar tanto las razones como las causas. Sin embargo, una vez que se instalan esas variaciones, es necesario poner atención a los procesos causales a través de los cuales se seleccionan y preservan las variaciones. La historia efectiva de la ciencia, entonces, debe dar cuenta tanto de los procesos de selección de las ideas y conceptos de acuerdo a las normas intelectuales de la comunidad de científicos, como así también del proceso de selección de acuerdo con las demandas sociales, procesos ambos que pueden funcionar tanto de manera complementaria como antagónica en momentos diversos. 22 Podría considerarse un epistemólogo evolucionista en general a Spencer (cf. Ruse, 1986) aunque un antecedente en los mismos términos considerados aquí puede encontrarse en el pensamiento de Huxley (1893): “La esencia del espíritu científico es el criticismo. Éste nos dice que siempre que una doctrina nos pida nuestro asentimiento debemos replicar: lo tendrás si puedes hacerlo inevitable. La lucha por la existencia tiene lugar tanto en el mundo intelectual como en el físico. Una teoría es una especie de pensamiento, y su derecho a existir es coextensivo con su poder de resistir la extinción por sus rivales” (citado en Ruse, 1986 [1987,p. 56]) TABLA 123: EVOLUCION DE LAS ESPECIES Y EVOLUCION DE CONCEPTOS Pregunta Respuesta Evolución de las especies Filogénesis Ecología ¿de qué ¿Qué secuencia de sucesión de respuestas a presiones precursores del entorno hizo que la desciende especie adquiriese su esta forma actual? especie? Un árbol Aplicación de la teoría genealógico de la selección natural Cambio conceptual Historia de la ciencia Filosofía de la ciencia ¿De qué sucesión de ¿Qué secuencia de conceptos precursores respuestas a presiones desciende este conjunto disciplinares hizo que de conceptos? surgiese este conjunto de conceptos? Historia de una disciplina científica Una reconstrucción racional del desarrollo científico Tanto las innovaciones como así también las reglas de selección son productos históricos y de allí la relevancia epistemológica de la historia de las ciencias. Cualquier tentativa de descubrir o formular normas de evaluación inviolables y ahistóricas está destinada al fracaso. Esas normas o procedimientos también están sujetos a la evolución histórica. En el modelo de Toulmin las teorías adaptadas son las que sobreviven, pero esta adaptación –como no podía ser de otra manera- siempre es relativa al contexto. Además, la adaptación actual a las presiones ecológicas tiene éxito sólo si se consigue un equilibrio entre la adaptación a las condiciones presentes y la conservación de la capacidad de responder creativamente a futuros cambios de esas condiciones. Tomarse en serio la metáfora evolucionista implica enfatizar las 'consideraciones ecológicas' en el desarrollo conceptual. De hecho un sistema conceptual puede seguir teniendo éxito por su flexibilidad frente a condiciones intelectuales cambiantes o bien, si es poco flexible puede ser exitoso en una entorno ecológico invariable. Dado que el éxito es tanto una cuestión de adaptabilidad futura como presente, la única norma independiente del contexto es la referida al equilibrio entre adaptación presente y futura. Analicemos ahora con algo más de detalle el paralelo entre evolución orgánica y evolución conceptual queestableceToulmin según cuatro tesis principales: 1. uno de los principales problemas de la biología es explicar el origen y la evolución de las especies. Debe explicar las razones por las cuales se encuentran tantas especies definidas y separadas dentro de poblaciones de seres vivos en continua variación, y también cómo las especies existentes en una época, en lugar de perder su carácter distintivo inicial, pueden transformarse en otras formas igualmente distintas o dividirse en poblaciones sucesoras separadas, todas las cuales tienen el carácter distintivo de especies diferentes (Cf. Toulmin, 1970 [1977,p. 146]). El paralelo epistemológico de esta tesis aparece en la necesidad de explicar la coherencia y la continuidad por las que se identifican las disciplinas como distintas (el equivalente a la existencia de especies definidas) y los cambios a largo plazo por los que dichas disciplinas se transforman o son superadas (el equivalente de la aparición de nuevas especies). 2. La respuesta darwiniana se basa fundamentalmente24 en la selección natural: "un proceso dual de variación y perpetuación selectiva". El equivalente epistemológico para este aspecto está dado por la proliferación de novedades intelectuales que surgen en toda disciplina o área de estudio vigente y la selección según la cual sólo unas pocas de esas novedades conquistan un lugar firme en la disciplina y son transmitidas a las generaciones siguientes. 3. Con todo, el mecanismo de la selección natural resulta condición necesaria pero no suficiente para inaugurar una línea de especiación. Es necesario además que haya suficiente ‘presión selectiva’. Del mismo modo ocurre, según Toulmin, en la evolución conceptual. Sólo puede darse si hay producción constante de variaciones sobre las que se ejerza una presión de selección más o menos fuerte. Así, en un proceso cuasi popperiano: 23 Los dos cuadros de esta sección fueron extraidos de Losee, 1987. Es necesario señalar que Darwin contemplaba otros procesos como el de la "selección sexual", además de la selección natural. En este sentido Toulmin muestra un Darwin hiperseleccionista. 24 “(...) deben existir ‘foros de competencia’ dentro de los cuales las novedades intelectuales puedan sobrevivir durante un tiempo suficiente para mostrar sus méritos o defectos, pero en el cual también son criticadas y escudriñadas con suficiente severidad como para mantener la coherencia de la disciplina.” (Toulmin, 1970 [1977,p. 148]) 4. La última tesis de Toulmin se refiere, en la biología, a que las variantes se perpetúan, o cuando menos sobreviven un tiempo relativamente prolongado si están suficientemente adaptadas: “(...) la palabra ‘adaptación’ simplemente se refiere a la efectividad con la que diferentes variantes hacen frente a las ‘exigencias ecológicas’ del ambiente particular (...) La competencia y las exigencias ecológicas son nociones correlativas; cuando los individuos ‘compiten’, está implícita alguna medida comparativa del ‘éxito’ por la que el ‘ganador’ logra más éxito que el ‘perdedor’. En la competencia darwiniana esta medida es la prueba de la reproducción: las formas ‘exitosas’ tienen más representantes en las generaciones posteriores. En correspondencia con esto, las exigencias ecológicas de un medio determinan los requisitos locales para el ‘éxito’ evolutivo: el término ‘exigencias’ concentra la atención en aquellos factores que dentro de este ‘nicho’ influyen en las oportunidades de cualquier variante nueva de contribuir a la progenie de generaciones posteriores." (Toulmin, 1970 [1977,p. 149]) El paralelo en el campo de la evolución conceptual se da, según Toulmin a través de una ‘ecología intelectual’: el proceso de selección disciplinaria elige y acepta aquellas de las novedades en competencia que mejor satisfacen las exigencias del medio intelectual local. Estas exigencias comprenden los problemas inmediatos que cada variante conceptual está destinada a abordar y también los otros conceptos ya consolidados con los que debe coexistir. Así, entre los elementos que intervienen en la evolución orgánica y la evolución conceptual podría establecerse el siguiente paralelo: TABLA 2: LA METÁFORA EVOLUCIONISTA DE TOULMIN Unidad de estudio: Consta de: Unidades de variación: Unidades de modificación efectiva: Mecanismo de selección Evolución orgánica Especie Organismos individuales Formas mutantes dentro de la población en t1 Las variantes de t1 dominantes en la población en t2 Presión reproductiva diferencial Cambio conceptual Disciplina científica Conceptos, métodos, objetivos Variantes conceptuales dentro de la disciplina en t1 Las variantes de t1 dominantes dentro de la disciplina en t2 Necesidad de una comprensión más profunda Una muestra de que la epistemología evolucionista dista mucho de ser una campo homogéneo, es la crítica que Toulmin le hace a Kuhn con respecto a su visión de la historia de la ciencia como una sucesión de ‘ciencia normal’ y ‘ciencia revolucionaria’. La polémica puede resumirse como la oposición entre revolución y evolución, o, dicho de otro modo, entre una concepción de la historia como una sucesión de pequeños cambios acumulados y otra como una historia de cambios cualitativos radicales. Para Toulmin, tanto en el desarrollo de la ciencia como en el de la política –a propósito de la analogía kuhneana sobre las revoluciones en ambos ámbitos- la diferencia entre cambio normal y cambio revolucionario es sólo de grado. Los cambios extendidos y profundos, tanto en la ciencia como en otras áreas no son el resultado, según Toulmin, de ‘saltos’ repentinos, sino de la acumulación de pequeñas modificaciones, cada una de las cuales ha sido selectivamente perpetuada en alguna situación problemática local e inmediata. Haciendo referencia al cambio que Kuhn habría introducido en su posición a partir de sus tesis más fuertes (Kuhn, 1962) Toulmin (1975) realiza un paralelo con un episodio de la historia de la geología: las disputas entre las dos corrientes paleontológicas más influyentes del siglo XIX en Francia, el ‘catastrofismo’ (defendido por Cuvier en Francia y luego por Louis Agassiz en Inglaterra) y el uniformitarismo (de J. Hutton y Ch. Lyell). “(...) la teoría de las catástrofes subrayaba las profundas discontinuidades que se encontraban en la geología y la paleontología. Partiendo de una observación real y general de las discontinuidades geológicas, llegó a insistir en que estas discontinuidades mostraban claramente la existencia de procesos ‘supranaturales’, es decir, cambios demasiado repentinos y violentos para ser explicados en términos de procesos físicos y químicos. Los uniformitaristas por su parte atribuían los cambios geológicos y paleontológicos a agentes de acción gradual constante que han sido exactamente los mismos en cada fase de la historia de la Tierra.” (Toulmin, 1975, p.160) Pero la resolución de esta disputa entre teorías no tuvo lugar por un cambio revolucionario o brusco en el cual una es desechada sin más y la otra triunfa de manera total y absoluta, sino cuando los geólogos y paleontólogos uniformistas reconocieron que algunos cambios de los cambios en el pasado del planeta habían ocurrido más drásticamente de lo que hasta entonces suponían –las ideas uniformitaristas se hicieron más catastrofistas-, y paralelamente las ideas catastrofistas evolucionaron en sentido opuesto, cuando Agassiz encontró que sus estudios lo obligaban a multiplicar el número y reducir la dimensión de las catástrofes que había de invocar para explicar los sucesos geológicos. Kuhn, sostiene Toulmin se separó de su posición original en la misma dirección en que Agassiz se separa de la teoría original de Cuvier. Vale la pena un breve digresión en este punto. Uno de los problemas clave de la historiografía de la ciencia está constituido por la indagación con respecto a la secuencia y patrones de desarrollo de la ciencia a través del tiempo. Varias respuestas se han dado, comenzando con los modelos estáticos o ahistóricos que piensan la historia del conocimiento humano como revelación. Las versiones más antiguas proceden de los relatos míticos, en general asociados con la idea de un pasado glorioso, pero también algunas versiones premodernas de la historia del conocimiento se hallan impregnadas de este punto de vista. Aunque este modelo en sus formas clásicas tiene muy poca importancia para la actual historia de las ciencias, pueden encontrarse sin embargo reminiscencias del mismo en aquellas historias que consideran el progreso de la ciencia como producto de la actividad de genios aislados que a través de iluminaciones súbitas realizan meramente una tarea de descubrimiento de una realidad que está allí totalmente independiente de los sujetos que conocen y que sólo espera pasivamente ser explicada. A partir de la modernidad los modelos de análisis comienzan a ser de desarrollo como por ejemplo el modelo acumulativo o de crecimiento, según el cual, hay una acumulación incesante de conocimiento. De hecho el planteo de Diderot y el plan de la Enciclopedia responden a este modelo de crecimiento, al igual que las ideas de A. Comte y W. Whewell. Una alternativa la constituye el modelo revolucionario que tiende a considerar los cambios en la ciencia como discontinuidades o rupturas, a veces cambios profundos y abarcativos, más que como acumulación. Evidentemente el alcance, magnitud, cantidad y periodicidad de las revoluciones difiere entre los autores. A. Koyre, resulta un claro ejemplo al entender la llamada ‘revolución científica’ del siglo XVII, como la revolución cultural más profunda desde la Grecia clásica, y cuya esencia consiste en la aplicación de las matemáticas al estudio de la naturaleza, tal como ejemplifican los trabajos de Galileo. No obstante, es el Kuhn de La Estructura de las Revoluciones Científicas quien propone una versión epistemológica de las revoluciones científicas en una versión mixta del modelo, según el cual la ciencia se desarrollaría a través de periodos de relativa estabilidad y crecimiento acumulativo, la ciencia normal, y periodos de cambio radical en los cuales hay sustitución lisa y llana de un paradigma por otro no sólo incompatible sino también inconmensurable, es decir las crisis seguidas de las revoluciones científicas. Finalmente aparecen las versiones evolucionistas. Para el caso particular deToulmin es necesario señalar que la metáfora que él establece se basa en una versión estrictamente gradualista y seleccionista25 de la teoría de la evolución con su paralelo en la evolución conceptual. De hecho no es la única versión de la biología evolucionista pero, además: • La historia de la ciencia se parece más a una combinación de cambios de detalle con cambios más profundos y radicales sin seguir patrones de secuencias más o menos fijos y la polémica revolución/evolución parece ociosa. • Pero también resulta ociosa la polémica al interior de la EE, ya que este modelo funciona tanto para los cambios revolucionarios como para los cambios considerados de detalle o acumulativos. 4.2. K. Popper. Una filosofía evolucionista Popper ha mantenido un vínculo estrecho y peculiar con la Teoría de la Evolución (Cf. Popper, 1974). Si bien la utiliza profusamente, en principio mantuvo una actitud muy crítica calificándola de “programa metafísico de investigación” y llamando la atención acerca de que “la afirmación de que sobreviven los más aptos es circular o simplemente una tautología, por lo que carecería de apoyatura empírica”. Sin embargo, a partir de sus obras de fines de los años ’60, modificó su actitud y, al tiempo que intentó encontrar una versión ‘no tautológica’ de la Teoría de la Evolución, comenzó a utilizar lo que llamó un ‘enfoque evolucionista’ pero que no es ni más ni menos que una verdadera filosofía evolucionista. Esta suerte de giro biológico en el pensamiento de Popper constituye, a mi juicio, más que un cambio, un intento de unificación de sus tesis del '34. En este mismo sentido se expresa Bartley: "Se podría presentar el pensamiento popperiano anterior a 1960 como un incremento de temas: sus nuevos fundamentos para la lógica y su obra sobre el indeterminismo en física, sus contribuciones a la teoría de la probabilidad, todo ello podría presentarse como elaboraciones de su temprana obra sobre inducción y demarcación. Su nueva obra en filosofía de la biología, sin embargo, más que agregar temas, unifica todo el conjunto. La manera en que la biología integra su pensamiento se puede ver en su nueva formulación del problema central de la epistemología: “La tarea central de la teoría del conocimiento es comprender a éste como una continuación del conocimiento animal; y comprender también sus discontinuidades -si las hay- con el conocimiento animal.” (Bartley, 1982, p. 255) El nuevo punto de vista viene entonces a arrojar una luz nueva sobre los mismos problemas y a intentar evitar algunas de las objeciones que había recibido acerca de los mecanismos de incremento de conocimiento. Al mismo tiempo representa un enfoque abarcador y amplio, con el cual aborda diferentes niveles de análisis: 1. en el ámbito propiamente epistemológico, le sirve para explicar el desarrollo y el progreso de la ciencia; 2. en el campo más amplio de la teoría del conocimiento, para criticar al empirismo y proponer su propia teoría, según la cual el conocimiento en general, es parte del proceso adaptativo de los humanos; 3. la evolución biológica, de acuerdo con la biología evolucionista, aunque proponiendo algunas modificaciones a la teoría de la evolución habida cuenta de algunos desajustes observados en la analogía utilizada; y 4. a través del concepto de ‘evolución emergente’, construye una verdadera ontología que da sustento a los otros niveles de análisis: la teoría de los ‘tres mundos’. 25 Según Ayala (1998) esta es una toma de posición innecesaria por parte de Toulmin. 4.2.1. la teoría de los tres mundos La postulación por parte de Popper de una ‘epistemología sin sujeto cognoscente’ (tal es el título de una ponencia presentada al ‘Tercer Congreso Internacional de Lógica’ del año 1967 y publicada luego en Conocimiento Objetivo -Popper, 1972) es el resultado de su teoría de los tres mundos26, una verdadera ontología que contempla: “(...) primero, el mundo de los objetos físicos o de los estados físicos; en segundo lugar, el mundo de los estados de conciencia o de los estados mentales, o quizás, de las disposiciones comportamentales a la acción; y en tercer lugar, el mundo de los contenidos de pensamiento objetivo, especialmente, de los pensamientos científicos y poéticos y de las obras de arte.” (Popper, 1970 [1988, p. 106]) Estos estadios representan, además de la estructura misma de la realidad, el orden de aparición de los mismos en el devenir temporal a través de los distintos ‘estadios de la evolución cósmica’. El mecanismo que rige la aparición de estas etapas es la ‘evolución emergente’, que conlleva como elemento esencial la ‘aparición de novedades’ y algún mecanismo de restricción a tales novedades. Resulta intersante y necesario hacer aquí una breve digresión. ‘Emergentismo’ se ha denominado a las doctrinas de autores como por ejemplo S. Alexander, Ll. Morgan, W. Wheeler, H. Bergson y otros. Estas doctrinas están conectadas a la pretensión de explicar la variedad, diversidad y novedad de los fenómenos sin recurrir a modelos de explicación mecanicistas, vitalistas o reduccionistas. Afirman, en general, que cada nivel del ser (esto es materia, vida y conciencia) presenta respecto del anterior alguna cualidad irreductible, es decir elementos que no son continuos con lo que fue antes. La posición de Popper parece implicar una especie de aceptación-rechazo de la reducción, que depende de su idea de ‘emergencia’. Cuando menos analíticamente, habría que distinguir un concepto sustancialista u ontológico de emergencia de otro meramente cognitivo o metodológico. Según el primer punto de vista, las múltiples y diferentes estructuras que ocurren en el universo entero (incluido el mundo de lo orgánico) constituyen una larga cadena de ‘niveles’ en la cual cada uno presupone al anterior. Estos niveles son mutuamente irreductibles, dado que presentan rasgos cualitativamente nuevos, inesperados sobre la base de los niveles más bajos. Aquí, la emergencia aparece como una característica intrínseca de los nuevos hechos y eventos. Éstos no constituyen una mera suma de elementos preexistentes, sino que son únicos e irrepetibles, de modo que no pueden ser explicados sobre la base de los hechos ya conocidos. Las críticas más fuertes a este punto de vista, y que separan polarmente ambas formas de reduccionismo, provienen, básicamente, de posiciones como las de la CH en general y del empirismo lógico en particular, que defienden la posibilidad de un ‘reduccionismo’ fuerte. Hempel, entre otros, insiste en la necesidad de eliminar la “errónea idea de que ciertos fenómenos tienen una misteriosa cualidad de inexplicabilidad absoluta” (Hempel, 1953, p. 335). La emergencia, sostiene, no es una propiedad de los objetos, estados, procesos y entidades, sino una propiedad de los conceptos y leyes de la ciencia, por lo cual dependen del status de las teorías y el lenguaje científico. No hay referente ontológico objetivo para la emergencia, sino que ella depende del poder explicativo y predictivo de las teorías en el campo específico de cierta ciencia. Sólo indica el alcance de nuestro conocimiento. Según este modo de ver las cosas, sólo se puede hablar metodológicamente de emergencia relativa, en el sentido de que cierta propiedad que parece emergente en términos de alguna teoría puede no ser emergente con respecto a contextos teóricos diferentes. Ellos admiten la emergencia de las leyes y teorías en el lenguaje de la ciencia, es decir la presencia de nuevos e impredecibles conceptos y leyes en el conocimiento científico, sólo en la medida en que ellos no sean considerados intrínsecamente nuevos, sino vistos como no reducibles a los sistemas estándar de leyes y 26 Popper utilizó en un principio la denominación ‘tercer mundo’ y luego la cambió por una expresión con menos connotaciones políticas y económicas: ‘mundo3. teorías. Popper critica esta teoría de la emergencia metodológica basada sobre el supuesto de un reduccionismo ontológico, sosteniendo la idea de “un progreso sin reducción”. Como quiera que sea, la posición de Popper en este respecto resulta peculiar. Explícitamente señala su rechazo al emergentismo ontológico, y resulta antes bien un intento crítico de ofrecer un enfoque racional de la evolución emergente que evite lo pernicioso del reduccionismo, dado que el mismo es, para Popper, un sinónimo de inductivismo y determinismo. (Cf., entre otros, “Sobre Nubes y relojes” en Popper 1970 [1988]; 1977, cap.1; 1974, # 37 a 39 ). “Cuando utilizo la idea confesadamente vaga de ‘evolución creadora’ o ‘evolución emergente’, pienso al menos en dos tipos distintos de hechos. En primer lugar, está el hecho de que en un universo en el que en un momento no existiesen otros elementos (según nuestras teorías actuales) más que, digamos, el hidrógeno y el helio, ningún teórico que conociese las leyes que entonces operaban y se ejemplificaban en este universo podría haber predicho todas las propiedades de los elementos más pesados que aún no habían surgido, ni podría haber predicho su emergencia, por no hablar de todas las propiedades incluso de las más simples moléculas compuestas, como el agua. En segundo lugar, parece haber como mínimo las siguientes etapas en la evolución del universo, algunas de las cuales producen cosas con propiedades que son completamente impredictibles o emergentes: 1) La emergencia de los elementos más pesados (incluyendo los isótopos) y la emergencia de cristales y líquidos. 2) La emergencia de la vida. 3) La emergencia de la sensibilidad. 4) La emergencia (junto con el lenguaje humano) de la conciencia del yo y de la muerte (o incluso del córtex cerebral humano). 5) La emergencia del lenguaje y de las teorías acerca del yo y de la muerte. 6) La emergencia de productos de la mente humana como los mitos explicativos, las teorías científicas o las obras de arte. Podría resultar útil (...) disponer algunos de estos estadios de la evolución cósmica en la siguiente tabla: Mundo 3 (los productos de la mente (6) Obras de arte y de ciencia (incluyendo la humana tecnología) (5) Lenguaje humano. Teorías acerca del yo y de la muerte Mundo 2 (el mundo de las experiencias (4) Conciencia del yo y de la muerte subjetivas) (5) Sensibilidad (conciencia animal) Mundo 1 (el mundo de los objetos (2) Organismos vivos físicos) (1) Los elementos más pesados; líquidos y cristales (0) Hidrógeno y helio (Popper, 1977 [1993, p. 18]). Los distintos niveles, desde el más elemental del hidrógeno y el helio (nivel 0) hasta el último de las obras de arte y de la ciencia (nivel 6) constituyen, cada uno, una novedad respecto del nivel anterior. Este modelo de ‘evolución cósmica’ sirve de fundamento, en la óptica popperiana, para la explicación del desarrollo científico, no solamente porque los productos científicos constituyen parte de uno de sus niveles, sino porque en ambos sistemas (en el cósmico general y en el de las ‘conjeturas y refutaciones’ propias de la ciencia) existe un isomorfismo fundamental: ambos funcionan sobre la base de la ‘novedad’ (de carácter emergente) y restricciones a la novedad. Popper está interesado en desarrollar principalmente la idea del mundo3, en el cual se encuentra principalmente el conocimiento científico, de modo tal que reconoce una diferencia fundamental entre el conocimiento o pensamiento en sentido subjetivo (perteneciente el mundo) 2 y el conocimiento o pensamiento en sentido objetivo, es decir los 'problemas, teorías y argumentos en cuanto tales". Se trata de un mundo 'en gran medida autónomo' a pesar de ser, en el fondo, un producto derivado del mundo 2. “Una gran parte del tercer mundo objetivo de teorías, libros y argumentos actuales o posibles, surgen como subproducto involuntario de los libros y argumentos realmente producidos. También podemos decir que es un subproducto del lenguaje humano. El propio lenguaje es, como el nido de un pájaro, un subproducto involuntario de acciones orientadas a otros fines (...) De este modo puede surgir todo un nuevo universo de posibilidades o potencialidades- un mundo en gran medida autónomo. (...) La idea de autonomía es fundamental para mi teoría del tercer mundo: aunque sea un producto humano, una creación del hombre, a su vez crea, como otros productos animales, su propio campo de autonomía” (Popper, 1970, [1988, p. 115/6]) “(...) sugiero la posibilidad de aceptar la realidad o (como también puede decirse) la autonomía del tercer mundo y, a la vez, admitir que éste se constituye como producto de la actividad humana. Incluso se puede admitir que el tercer mundo es un producto humano a la vez que sobrehumano en un sentido muy claro. Trasciende a su productor.” (Popper, 1970 [1988, p.152]) Este mundo3 resulta objetivo cuando menos en dos sentidos relacionados pero diferentes: por un lado, en un sentido casi ‘antropológico’, la objetividad del tercer mundo consiste, para Popper, en la concreción de los contenidos de la mente humana, sea en forma de obras de arte, edificios, teorías científicas o sistemas políticos; pero, por otro lado y en un sentido epistemológico, la objetividad derivada del realismo epistemológico y correlativamente, la convicción de que es posible construir un conocimiento al margen de las determinaciones individuales y sociales. Este último aspecto recibirá una solución peculiar: una suerte de objetividad institucional apoyada en la mecánica de las conjeturas y refutaciones. Así, la objetividad lejos de ser un producto de la imparcialidad del científico individual, es le resultado del carácter social o público del método científico; por ello, la imparcialidad del científico individual, es, en todo caso, no la fuente sino el resultado de esta objetividad social e institucionalmente organizada de la ciencia. El conocimiento se desarrolla mediante la interacción entre nosotros y el tercer mundo, existiendo una estrecha analogía entre el crecimiento del conocimiento y el crecimiento biológico; es decir, la evolución de animales y plantas. (Cf. Popper, 1970 [1988,p. 107 y sig.]) 4.2.2 la teoría popperiana de la evolución Todos los epistemólogos evolucionistas intentan establecer ciertas analogías de mayor o menor compromiso ontológico y mayor o menor meticulosidad entre la teoría de la evolución darwiniana y la evolución conceptual, el desarrollo de las teorías o el conocimiento en general. No se trata de un mero recurso expositivo o didáctico, sino que ambos tipos de procesos son explicados por la misma teoría porque tanto la evolución biológica como la del conocimiento, son procesos adaptativos. El conocimiento es adaptación y, en este sentido Popper expresa una continuidad entre GE y EE, pero con un giro peculiar: el modelo ‘original’ es su concepción del conocimiento, sobre cuya base, pretende reconstruir o retocar la misma teoría de la evolución27 aun en aspectos que establecen fuertes tensiones cuando no directamente incompatibilidad con la teoría biológica aceptada y reconocida por la comunidad científica. Como ya seseñalara más arriba, a la desconfianza inicial acerca de la teoría de la evolución, el Popper de los ’60 imprimió un giro de su pensamiento que lo llevó a encarar una estrategia doble dirigida a un mismo fin: por un lado intentó presentar una teoría de la evolución no tautológica y por otro introducir un elemento teleológico fuerte en la misma. El modelo no teleológico de evolución representa, para los intereses de Popper, un problema que puede ser enunciado como sigue: el carácter profundamente revolucionario del aporte darwiniano se patentizó en la expulsión de la teleología de la naturaleza; pero, si se lo utiliza como modelo, surge entonces la dificultad de pretender explicar un proceso que, en principio 27 A este respecto, Ruiz y Ayala (1998, p. 112) señalan, a mi juicio y por lo menos en cuanto a Popper se refiere, equivocadamente, que "tanto Popper como Campbell toman el modelo biológico de evolución y lo llevan a la evolución de las ideas, sino que hacen un círculo completo, regresan de la evolución conceptual a la evolución biológica y hacen propuestas de modificación de la teoría evolutiva a partir de lo encontrado en la evolución conceptual". aparece como teleológico (el de la ciencia), mediante un modelo no teleológico28 (el de la Teoría de la Evolución). La estrategia argumental de Popper se dirige a plantear una teoría de la evolución teleológica sabiendo que “puede ser muy objetable para la mayoría de los biólogos que crean que las explicaciones teleológicas en biología son tan rechazables, o casi, como las teológicas” (Popper, 1970, [1988,p. 246]): “Así, la actividad, las preferencias, la habilidad y las idiosincrasias del animal individual pueden influir indirectamente sobre las presiones selectivas a las que está expuesto y con ello influir sobre el resultado de la selección natural (...) Los cambios evolutivos que comienzan con nuevos patrones de comportamiento (...) no sólo hacen más comprensibles muchas adaptaciones, sino que revisten los objetivos y propósitos subjetivos del animal de un significado evolutivo.” (Popper, 1977 [1993,p. 14]). “El problema a resolver es el viejo problema de la ortogénesis versus mutación accidental e independiente –el problema de Samuel Butler de la casualidad o la astucia. Surge de la dificultad de comprender de qué modo puede resultar de la cooperación puramente accidental de las mutaciones independientes un órgano complicado como el ojo. Brevemente, mi solución al problema consiste en la hipótesis según la cual en muchos, si no en todos, los organismos cuya evolución plantea este problema- tal vez haya que incluir algunos organismos de una escala muy baja- podemos distinguir más o menos tajantemente, al menos, dos partes distintas: grosso modo, una parte que controla la conducta, como el sistema nervioso central, y una parte ejecutiva, como los órganos de los sentidos y las piernas, junto con sus estructuras sustentadoras.” (Popper, 1970 [1988,p. 250]) En el mismo sentido Popper propone introducir la idea de ‘monstruo comportamental’ en contraposición con la de monstruos anatómicos, es decir individuos dotados de diferencias de índole estructural sumamente significativas respecto de sus progenitores o de la media de su especie. Las características ‘monstruosas’ en este último sentido generalmente son letales para el organismo. En cambio el monstruo comportamental, según Popper, tendría diferencias significativas respecto de la media de su especie pero su comportamiento no necesariamente lo llevaría a la muerte. La conducta novedosa podría así tener significado evolutivo, en la medida en que, por ejemplo: “(... ) el interés por ver puede fijarse con éxito genéticamente, convirtiéndose en el elemento rector de la evolución ortogenética del ojo; hasta las menores mejoras en su anatomía pueden ser valiosas selectivamente si la estructura propositiva y la de destreza las utilizan suficientemente.” (Popper, 1970 [1988, p.258]) Interesa aquí, más allá de las objeciones que desde el punto de vista de la biología pueden hacerse (Cf. Ruiz y Ayala, 1998, p. 112), remarcar la intención de Popper de dar una versión teleológica de la teoría de la evolución otorgando un papel fundamental a las intenciones de los organismos. Los esfuerzos de Popper en esta línea, pueden explicarse principalmente por dos factores: por un lado, y en un doble juego de legitimaciones teóricas, porque el modelo original es el epistemológico de las conjeturas y refutaciones que después es extrapolado a las otras instancias, inclusive la de la biología; y por otro lado, por la explicación dualista popperiana respecto del problema mente-cuerpo. 4.2.3 conjeturas y refutaciones (el desarrollo de la ciencia) Según Popper, la obtención de conocimiento procede según el mecanismo de ‘ensayo y error’ o lo que es lo mismo ‘conjeturas y refutaciones’, el "procedimiento más 28 Es una cuestión aun debatida la direccionalidad de la evolución y también la idea de progreso aplicada a lo biológico, aunque en líneas generales debe reconocerse la ruptura que el darwinismo marca con respecto a los modelos teleológicos de la naturaleza en su conjunto como así también con planteos como el lamarckiano. racional" (Cf. Popper, 1970). Pero este mecanismo de conjeturas y refutaciones no es privativo del modo particular que los humanos de los últimos tres o cuatro siglos tenemos de explicar el mundo, sino que resulta un caso particular – mediado por “el descubrimiento griego del método crítico”- de un mecanismo que se encuentra en la naturaleza misma de lo viviente: “El método del ensayo y error, por supuesto, no es simplemente idéntico al enfoque científico o crítico, al método de la conjetura y la refutación. El método del ensayo y error no sólo es aplicado por Einstein, sino también, de manera más dogmática, por la ameba. La diferencia reside, no tanto en los ensayos como en la actitud crítica y constructiva hacia los errores; errores que el científico trata, consciente y cautelosamente de descubrir para refutar su teoría con argumentos minuciosos, basados en los más severos tests experimentales que sus teorías y su ingenio le permitan planear. Puede describirse la actitud crítica como el intento consciente por hacer que nuestras teorías, nuestras conjeturas, se sometan en lugar nuestro a la lucha por la supervivencia del más apto. Nos da la posibilidad de sobrevivir a la eliminación de una hipótesis inadecuada en circunstancias en las que una actitud dogmática eliminaría la hipótesis mediante nuestra propia eliminación.” (Popper, 1963 [1989,p. 79]). Para Popper todos los aspectos biológicos en general y de la vida humana en particular pueden ser vistos como procesos de adaptación, que se dan no solamente en el nivel genético, sino también en el conductual y en el del conocimiento científico29, a través de un proceso de instrucción y selección: “Podemos distinguir entre tres grados de adaptación: la adaptación genética, el aprendizaje conductista adaptativo, y el descubrimiento científico, que es un caso especial de aprendizaje conductista adaptativo. (...) (Pero hay una) similitud fundamental de los tres niveles (...) el mecanismo de adaptación es en lo fundamental el mismo (...) La adaptación comienza a partir de una estructura heredada que es básica para los tres niveles: la estructura genética del organismo. A ella corresponde, al nivel conductista, el repertorio innato de los tipos de comportamiento de que dispone el organismo, y al nivel científico, las conjeturas o teorías científicas dominantes. Estas estructuras son siempre transmitidas por instrucción en los tres niveles, por medio de la duplicación de la instrucción genética codificada a los niveles genético y conductual, y por tradición social e imitación a los niveles conductual y científico. En los tres niveles, la instrucción procede de dentro de la estructura. Si ocurren mutaciones, variaciones o errores, éstos son instrucciones nuevas, que también surgen de dentro de la estructura, y no de fuera del medio (...) La siguiente es la etapa de selección entre las mutaciones y variaciones disponibles: las de los nuevos juicios tentativos que están mal adaptados quedan eliminadas. Esta es la etapa de eliminación del error.(...) La eliminación del error, o de las instrucciones de prueba mal adaptadas, también se llama selección natural: es una especie de ‘realimentación negativa’, y opera en los tres niveles”. (...) Resumiré ahora mi tesis. A los tres niveles que estoy considerando, genético, conductual y científico, estamos operando con estructuras heredadas que nos han sido legadas por instrucción; sea mediante el código genético, sea por tradición. A los tres niveles, surgen nuevas estructuras y nuevas instrucciones mediante cambios de prueba de dentro de la estructura: por pruebas tentativas que están sujetas a la natural selección o eliminación del error.” (resaltado mío) (Popper [1985, p. 156 y ss.]) En suma, es posible señalar que hay unidad, orden y continuidad en las relaciones entre los tres niveles. Hay unidad porque los tres niveles operan de modo similar, es decir mediante instrucción y selección; hay, además, un orden en cuanto a su emergencia temporal, tanto desde un punto de vista filogenético como ontogenético -el orden filogenético implica por su parte dos órdenes distintos, a saber: uno del cual da cuenta la teoría de los tres mundos que ya fue tratado y el otro representado por la evolución conceptual a través de la historia que se abordará luego; por su parte, el orden desde el punto de vista ontogenético supone el planteo 29 Un planteo similar puede encontrarse en Campbell, 1999 y en Oeser, 1984. de una teoría del conocimiento); y por último, hay continuidad entre los niveles, ya que cada uno presupone al anterior. Algunas observaciones pueden hacerse según lo dicho: • se invierte el camino más habitual de la epistemología evolucionista, ya que Popper echa mano de su concepción gnoseológica o epistemológica para proponer un modelo de evolución biológica. • ¿es posible pensar la muerte de un individuo y aún de una especie como un error?. Perder en la lucha por la supervivencia parece ser sólo eso: perder (y morir). Pero un error es cometido por un sujeto determinado que no ha obedecido alguna de las reglas establecidas por la lógica o el lenguaje, o bien de las relaciones entre algunas de esas y la experiencia. • mientras la evolución biológica es no direccional y contingente, el desarrollo de la ciencia y la aparición de novedades en la actividad científica no parece ser aleatoria prácticamente en ningún caso. Los intentos de imprimirle un sesgo teleológico a la teoría de la evolución apuntan a diluir esta objeción fuerte. 4.2.4 teoría del conocimiento (desde un punto de vista evolucionista) Popper representa claramente una suerte de continuidad entre lo que aquí se ha denominado GE y EE. Su concepción de los organismos como solucionadores de problemas y la unidad del mecanismo de ensayo y error para todo lo viviente así lo muestran: “De la ameba a Einstein, el desarrollo del conocimiento es siempre el mismo: intentamos resolver nuestros problemas, así como obtener, mediante un proceso de eliminación, algo que se aproxime a la adecuación en nuestras soluciones provisionales.” (Popper, 1970 [1988, p. 241]) Es conocido el antiempirismo hiperbólico y militante de Popper y el ‘enfoque evolucionista’ le permite proponer una teoría del conocimiento que se construye en oposición a la teoría del conocimiento del sentido común –el empirismo en general-, pero sobre todo al empirismo del Círculo de Viena y sus variantes subjetivistas, como así también al idealismo. Niega que nuestro conocimiento se obtenga mediante información recibida a través de los sentidos y que tal información sea fundamento del conocimiento. Así, señala que “tal vez el error central sea suponer que nuestra misión es lo que Dewey ha denominado la búsqueda de la certeza” (Popper, 1970 [1988,p. 67]) sobre la base de la percepción. Y respecto de la posibilidad de que la percepción sea el origen del conocimiento: “En otras palabras nuestro conocimiento subjetivo de la realidad se compone de disposiciones innatas que van madurando”. Creer que nuestro conocimiento comienza y se funda en lo dado sólo es una ilusión basada en “nuestra increíble eficacia como sistemas biológicos (...) Casi todos nosotros somos eficaces observando y percibiendo. Pero este problema hay que explicarlo recurriendo a teorías biológicas y no se puede tomar como base para ningún tipo de dogmatismo sobre el conocimiento directo, inmediato o intuitivo.” (Popper, 1970 [1988, p. 68]8) Desde el punto de vista evolucionista, la crítica al empirismo, está dirigida fundamentalmente a mostrar que la teoría de la tábula rasa es pre-darwinista, y estableciendo un paralelo entre el darwinismo como enfoque crítico (que opera mediante “instrucción desde adentro” de la estructura) y por el otro el enfoque de tipo lamarckiano asimilándolo al inductivismo en tanto opera con “instrucción desde fuera”30 (desde el ambiente): 30 Nótese que se trata aquí de una interpretación algo parcializada de la teoría lamarckiana, según la cual, si bien es cierto que los individuos responden a necesidades provocadas por el ambiente, la evolución se basa en todo caso en un impulso vital –interior- de los individuos a adaptarse. Es precisamente a este aspecto teleológico del lamarckismo que se opone Darwin. “Afirmo que todo animal ha nacido con expectativas o anticipaciones que pueden tomarse como hipótesis; una especie de conocimiento hipotético. Afirmo, además, que en este sentido poseemos determinado grado de conocimiento innato del cual partir, aunque sea poco fiable. Este conocimiento innato, estas expectativas innatas crearán nuestros primeros problemas, si se ven defraudadas. Podemos decir, por tanto, que el ulterior desarrollo del conocimiento consistirá en corregir y modificar el conocimiento previo.” (Popper, 1970 [1988, p. 238]) Y aun más: “(...) no existe nada que pueda llamarse ‘instrucción desde fuera’ de la estructura, o recepción pasiva de una afluencia de información que se imprima en nuestros órganos sensorios. Todas las observaciones están impregnadas de teoría: no existe una información pura, libre de teorías, desinteresada. La objetividad descansa en la crítica, en la discusión crítica y en el examen crítico de los experimentos (...) el 99,9 % del conocimiento de un organismo es heredado o innato y sólo una décima parte consiste en modificaciones de dicho conocimiento innato. Sugiero también que es innata la plasticidad precisa para estas modificaciones. De aquí se sigue el teorema fundamental: Todo conocimiento adquirido, todo aprendizaje, consta de modificaciones (posiblemente de rechazos) de cierto tipo de conocimiento o disposición que ya se poseía previamente y, en última instancia, consta de disposiciones innatas(...). Todos los órganos sensoriales incorporan genéticamente teorías anticipatorias (...) todos nuestros sentidos están de este modo impregnados de teoría.” (resaltado mío) (Popper, 1970 [1988, p. 65 y ss.]) 4.3. T. Kuhn. De la ausencia de teleología a la especiación Dar cuenta de la inclinación evolucionista de Kuhn conlleva dos problemas insalvables: la primera referencia, de 1962 (en las últimas páginas de La estructura de las revoluciones científicas), es tan solo didáctica o ilustrativa, lo cual torna irrelevante una análisis más o menos riguroso; y la segunda, de 1990 (en “The Road since Structure”), es tan solo un esbozo a propósito del anuncio de un libro que nunca se publicó. De cualquier modo ambas referencias son inequívocas y permiten un abordaje diferenciado con respecto a otros autores. 4.3.1. teleología y verdad En La estructura de las revoluciones científicas (Kuhn, 1962) hay una referencia a la teoría darwiniana de la evolución a propósito de un sugestivo comentario: casi ha concluido el libro y todavía no se ha hablado en él de la noción de ‘verdad’. Según la visión tradicional del progreso científico a través de la historia, la verdad es la meta última, sea que se confíe en alcanzarla, sea que se la postule como una suerte de idea regulativa, operante aunque sea inalcanzable. Kuhn se pregunta si es indispensable que exista la verdad como meta y si no es más factible explicar la ciencia y sus éxitos en términos de evolución a partir del estado de conocimientos de una comunidad en un momento determinado. Señala que si se pudiera sustituir la-evolución-hacia-lo-que-deseamos- conocer por la evolución-a-partir-de-lo-queconocemos, “muchos problemas difíciles desaparecerán en el proceso” (Kuhn, 1962 [1992, p. 263]). La analogía que Kuhn establece con la teoría de la evolución, transita por el carril en donde ésta fue realmente más revolucionaria y resistida, hecho que por otra parte expresa su verdadera significación histórica: la idea de que la evolución no estaba dirigida hacia ningún fin predeterminado. En este marco Kuhn establece una extensión de la metáfora: “El proceso descrito como la resolución de las revoluciones en la sección XII constituye, dentro de la comunidad científica, la selección, a través de la pugna, del mejor camino para la práctica de la ciencia futura. El resultado neto de una secuencia de tales selecciones revolucionarias, separado por períodos de investigación normal, es el conjunto de documentos maravillosamente adaptado, que denominamos conocimiento científico moderno. Las etapas sucesivas en ese proceso de desarrollo se caracterizan por un aumento en la articulación y la especialización. Y todo el proceso pudo tener lugar, como suponemos actualmente que ocurrió la evolución biológica, sin el beneficio de una meta preestablecida, de una verdad científica fija y permanente, de la que cada etapa del desarrollo de los conocimientos científicos fuera un mejor ejemplo.” (Kuhn, 1962 [1992, p. 265]). La visión tradicional de la ciencia, con su utópica vocación de verdad, conlleva, siguiendo esta metáfora, un elemento teleológico en su seno que la haría compatible, al menos en este aspecto, con el creacionismo y, también, con el lamarckismo. En este aspecto particular nótese que la metáfora construida por Kuhn resulta más adecuada que la propuesta por Popper, aunque deberían tenerse en cuenta cuando menos dos cuestiones. En primer lugar puede señalarse que la aparición de mutaciones en el mundo biológico es en principio aleatoria con relación al medio ambiente y, de entre una enorme cantidad de mutaciones generalmente perjudiciales o irrelevantes, muy excepcionalmente aparece alguna cuyo carácter ventajoso pueda, eventualmente, inaugurar alguna línea de especiación. Las teorías científicas, en cambio, no son ni aleatorias ni, fundamentalmente, abundantes. Muy por el contrario, la historia nos muestra que, en verdad, parecen ser un bien escaso, y más aún, dentro del contexto del pensamiento de Kuhn donde la ciencia se desarrolla mediante paradigmas hegemónicos y eventual y transitoriamente con un paradigma en retirada y otro que se consolida. Más bien parece haber una suerte de preselección en el sentido propuesto por Toulmin. En segundo lugar, la competencia entre individuos por la supervivencia implica que hay un factor externo (el ambiente) que hace las veces de ‘árbitro’ o ‘prueba’. Este factor externo, que sufre variaciones, actúa en la selección, de modo implacable y neutral, metafóricamente hablando. Pero, ¿qué pasa en las ciencias?, ¿cuál sería este factor ‘externo’ que actuaría como árbitro para la elección entre teorías?, ¿se podría decir, desde Kuhn, que es el control empírico?. Si así fuera, la noción de “paradigma”, perdería su sentido fuerte como determinante de una visión del mundo y aún la inconmensurabilidad se diluiría ante una instancia decisoria extraparadigmática. Para Kuhn, “el mejor criterio de decisión es el del grupo científico” (Kuhn, 1969, p. 262), y entonces, el isomorfismo entre desarrollo científico y evolución biológica se vería seriamente debilitado. Cabe consignar que esta objeción tiene sentido en el marco de La Estructura, obra en la cual Kuhn defiende una noción muy fuerte de ‘inconmensurabilidad’. En las reformulaciones posteriores de esta noción, la objeción pierde peso. 4.3.2. especialización (especiación) y aislamiento En “The road since structure” (1990), y en el contexto de anunciar un libro que por ese entonces se encontraba en preparación pero nunca apareció, Kuhn retoma la metáfora biológica, cambiando tanto el compromiso con este nuevo punto de vista que reconoce como un ‘kantismo postdarwiniano’, como así también para precisar algunos aspectos claves como la inconmensurabilidad, ya desarrollados en La Estructura... e ilustrar otros aspectos de la ciencia. Señala básicamente dos paralelos entre la evolución biológica y la evolución del conocimiento. En primer lugar las revoluciones producen nuevas divisiones en los distintos campos de investigación del mismo modo que los episodios de especiación en la evolución biológica. Kuhn encuentra que el paralelo ya no son las mutaciones, como había creído antes, sino el procesos de especiación. El isomorfismo ya no se establece por la aparición de teorías (o paradigmas) que compiten entre sí, sino en el hecho de que en ambos procesos se producen división y especialización (especiación). Inclusive el problema que se presenta habitualmente a la biología, esto es la dificultad para identificar un episodio de especiación hasta algún tiempo después de que ha ocurrido, y la imposibilidad, aún entonces, de fechar el momento en que ocurrió, constituyen episodios similares a los que presentan los cambios revolucionarios y la individuación de nuevas especialidades científicas. El desarrollo de la actividad científica, daría como resultado la aparición de nuevas especialidades derivadas de troncos comunes, y, aunque también es posible que se den reunificaciones como la biología molecular, se trata de excepciones, siendo lo contrario la regla. El árbol de la evolución de las teorías y disciplinas sería similar al árbol de la vida propuesto por Darwin31. El segundo aspecto en el cual se puede establecer un paralelo “(...) se refiere a la unidad que sobreviene a la especiación”. Así como en la biología se trata de poblaciones reproductivamente aisladas, en la ciencia se habla de comunidades de especialistas intercomunicados entre sí, pero manteniendo su aislamiento como grupo respecto de profesionales de otras especialidades. La analogía en este sentido permite establecer una correlación entre los pares “individuo- especie” por un lado y “científico - comunidad científica” por otro. En las especies biológicas los organismos individuales son los que perpetúan las especies, las unidades cuyas prácticas permiten que la evolución ocurra. Pero para entender el éxito del proceso uno debe ver la unidad evolutiva como la distribución e intercambio del capital genético en el interior de la población. Del mismo modo, la evolución cognoscitiva opera con el intercambio, a través del discurso, de informes en el interior de una comunidad. Si bien las unidades que cambian estos discursos son científicos individuales, la comprensión del avance del conocimiento, del éxito de sus prácticas, depende de concebirlos como átomos constitutivos de un todo mayor, la comunidad de profesionales de alguna especialidad científica. El marco en el que se desarrollan estas prácticas está compuesto por el lexicon: una estructura abstracta de la cual "participan" los miembros con sus lenguajes individuales no idénticos. La función del lexicon será la de realizar taxonomías sólo comprensibles plenamente desde el interior de la comunidad que la usa, verdaderas “condiciones de posibilidad” de la experiencia. Es en este sentido que califica su posición como “una suerte de kantismo post darwiniano” 32 donde el lexicon actúa del mismo modo que las ‘categorías’: “Como Las categorías kantianas, el léxico proporciona precondiciones para la experiencia posible. Pero las categorías léxicas, a diferencia de sus antepasados kantianos, pueden y de hecho cambian, tanto con el paso del tiempo como en el pasaje de una comunidad a otra. (...) Subyacente a todos estos procesos de diferenciación y cambio debe haber, desde luego, algo permanente, fijo y estable. Pero como la Dig an sich kantiana, ello es inefable, indescriptible, indiscutible. Localizada fuera del tiempo y del espacio, esta fuente kantiana de estabilidad es la totalidad desde la cual se han producido tanto las criaturas como los nichos, tanto los mundos ‘externos’ como los ‘internos’.” (Kuhn, 1990, p. 11) Es importante señalar que, aunque no sea más que un esbozo, este artículo de Kuhn marca, a través de la metáfora evolutiva, cierta precisión en su pensamiento. La noción de 31 Nótese la diferencia con la metáfora popperiana: “Ahora bien, si comparamos ahora estos árboles evolucionistas en desarrollo con la estructura de nuestro conocimiento en desarrollo, nos encontramos con que el árbol del conocimiento humano en crecimiento posee una estructura manifiestamente distinta. Está claro que el desarrollo del conocimiento aplicado es muy similar al desarrollo de herramientas y otros instrumentos: siempre constituyen aplicaciones cada vez más diversas y especializadas. Mas el conocimiento puro (o investigación fundamental como se la llama a veces) se desarrolla de un modo muy distinto. Se desarrolla casi en sentido opuesto a esta especialización y diferenciación progresiva. Como señaló H. Spencer, está dominado en gran medida por la tendencia hacia una integración creciente, hacia teorías unificadas. (...) Cuando hablábamos del árbol de la evolución, suponíamos, como es obvio, que la dirección del tiempo, señalaba hacia arriba – la dirección en que crece el árbol-. Suponiendo la misma dirección del tiempo, habremos de representar el árbol del conocimiento como surgiendo de incontables raíces que crecen en el aire, más bien que bajo tierra, y que, finalmente tienden a unirse en un tronco común. En otras palabras, la estructura evolucionista del desarrollo del conocimiento puro es casi la opuesta a la del árbol de la evolución de los organismos vivos, los instrumentos humanos o el conocimiento aplicado”. (Popper, 1970 [1988,p. 241]). 32 Es importante señalar que las taxonomías no son conceptos puros (a priori), sino aprendidos (a posteriori) en el proceso de resolver ejemplares; y que los científicos son sujetos evolutivos y no trascendentales. Para una crítica a la autoevaluación de Kuhn respecto de su kantianismo postdarwiniano ver Gómez, 1993. ‘inconmensurabilidad’ como intraducibilidad localizada, es decir reducida a una dimensión exclusivamente lingüística, ya no determina el campo perceptivo de modo estricto (como parecía ocurrir en La Estructura) y, a pesar de que las diferentes taxonomías determinan mundos diferentes, la posibilidad de que pueda haber científicos bilingües deja abierta la brecha para que estos mundos no sean excluyentes. Ya sea que se piense que hay en esto un cambio de posición o una aclaración de malentendidos, se puede observar un esfuerzo de Kuhn por desembarazarse de posiciones de tipo idealista (aquellas que dicen que el mundo es una construcción de la mente), y, aunque Kuhn se declare kantiano en algún sentido, el hecho de que sus ‘condiciones de posibilidad’ sean cambiantes diacrónica y sincrónicamente refuerza un enfoque pragmatista en la elección de teorías. La idea de revolución científica parece haber perdido sus connotaciones de ruptura brusca y excepcional para conformar el inicio de procesos de especialización creciente, donde la metáfora evolutiva muestra una versión más continuista y cotidiana del cambio científico entre dos períodos de ciencia normal. Otro aspecto que no por quedar meramente enunciado deja de ser importante, es, a pesar de que Kuhn se ocupa de ese tipo de conocimiento particular que es la ciencia, el que marca una suerte de continuidad entre GE y EE: (...) las clases de conocimiento de que trato vienen en formas simbólicas verbales o conexas con éstas. Pero puede aclarar lo que tengo en mente sugerir que podría hablar, más apropiadamente, de conceptos que de palabras. Lo que vengo denominando ‘taxonomía léxica’, mejor podría llamarse esquema conceptual, donde la noción misma de esquema conceptual no es la de un conjunto de creencias, sino la de un modo operativo particular que constituye un prerrequisito para tener creencias; modo que a la vez provee y limita el conjunto de creencias que es posible concebir. Considero que algunos de tales módulos taxonómicos son prelingüísticos y que los animales los poseen. Presumiblemente evolucionaron originalmente para el sistema sensorial y, más obviamente para el sistema visual. En el libro expondré las razones para suponer que se desarrollaron a partir de un mecanismo aun más fundamental que capacita a los organismos vivientes individuales para identificar otras sustancias escudriñando sus trayectorias espacio temporales.” (Kuhn, 1990, p. 11) 4.3.3 un papel para las metáforas en la ciencia El papel de las metáforas en la ciencia ha sido destacadao por Kuhn en varias oportunidades. Ya a partir de La Estructura (1962, Cf. Cap. 5), subrayaba el papel de la ‘percepción de similitudes’ o parecidos de familia, en la iniciación del científico bajo un paradigma. Aunque la percepción de similitudes parece estar estrechamente ligada, en principio, a la ciencia normal exclusivamente, en la Posdata (1969) y en escritos posteriores, también tenían un papel fundamental en las revoluciones científicas y se encuentra atravesada por la noción de inconmensurabilidad: "Un aspecto central de cualquier revolución es, entonces, aquello que cambia la similaridad de las relaciones. Objetos que anteriormente estuvieron agrupados en el mismo conjunto son después agrupados en otros diferentes, y viceversa." (Kuhn, 1962, Posdata) En su "Metaphor on science" (1979), adhiere a la ‘teoría causal de la referencia’33 y otorga un papel central a las metáforas tanto para lo que la literatura estándar llama términos teóricos como así también para los llamados términos de observación. Asimismo, 33 La teoría causal de la referencia de R. Boyd explica que los términos de clase natural refieren a la estructura esencial (no nominal)de esas clases, de cómo el término ‘agua’, por ejemplo refiere de manera no contextual a la sustancia definida como H2O y, en este sentido la metáfora es considerada como un “modo no definicional de fijación de la referencia que se adecua a especialmente bien a la introducción de términos que se refieren a clases cuyas esencias reales consisten en propiedades relacionales complejas, más que a propiedades internas constituyentes” (citado en de Bustos, 2000, p. 148). Cf. Kuhn, 2002, p. 235. la metáfora cumpliría un papel central tanto en la introducción de un nuevo término en el vocabulario de la ciencia como así también en la introducción de las nuevas generaciones de científicos en los conocimientos ya establecidos. La metáfora constituye también un medio que posibilita que una comunidad de hablantes (comunidad científica para el caso) se refiera en forma regular y coordinada a un determinado fenómeno o sustancia. Considera a la metáfora como una versión de nivel más alto del proceso por el cual la ostensión interviene en el establecimiento de la referencia de los términos de clase natural. Los procesos de ‘bautismo’ (dubbing) de familias naturales serían metafóricos en un nivel elemental, por cuanto en ellos se da una yuxtaposición o interacción. Sobre la base de estos procesos nuestro lenguaje se liga al mundo. Una vez que la interacción entre ejemplares ha puesto de relieve ciertos rasgos y ha fijado ostensivamente la referencia de un término de familia natural, el mundo queda para nosotros recortado de una manera determinada, que consideramos natural. La metáfora sugiere un cambio de las categorizaciones que nos resultan naturales por el uso y el cambio de teorías, para Kuhn, siempre va acompañado de cambio en algunas de las metáforas relevantes y en las partes correspondientes de la red de similaridades a través de las cuales los términos se adhieren al mundo. Pero estas alteraciones no son puramente formales o puramente lingüísticas sino más bien “sustantivas o cognitivas” (1979, p. 416), puesto que se producen como una respuesta a presiones generadas por la observación o experimento y dan como resultado modos más efectivos de tratar con algunos aspectos de los fenómenos naturales. En “¿Qué son las revoluciones científicas?” sostiene Kuhn: “(...) Pasemos ahora a la última de las tres características compartidas por mis tres ejemplos [de revoluciones científicas]. Es la que más me ha costado ver de las tres, pero ahora parece la más obvia y probablemente la que tiene más consecuencias. Asimismo, es la que más valdría la pena explorar con profundidad. Todos mis ejemplos implican un cambio esencial de modelo, metáfora o analogía: un cambio en la noción de qué es semejante a qué, y qué es diferente.” (Kuhn, 1981 [1994, p. 89]) En el artículo de 1990, en el marco de su giro hacia un ‘kantianismo postdarwiniano’, Kuhn expresa una concepción del significado y la relación lenguaje/ mundo, de resonancias wittgensteinianas además de kantianas. Los significados de los términos de ‘familias naturales’ no constituyen listas de propiedades compartidas únicamente por los miembros de dicha familia, sino antes bien un conjunto abierto de ‘parecidos de familia’, o similitudes percibidas entre algunos aspectos de los complejos implicativos asociados a los dominios puestos en interacción. El significado surge de la yuxtaposición ostensiva de situaciones ejemplares en situaciones de entrenamiento, en que el mostrar y nombrar el objeto va acompañado generalmente de ciertas acciones con el objeto. A partir del bautismo de ejemplares prototípicos, se produce una extensión metafórica de la referencia a otros objetos del mundo que presentan "parecidos de familia" con los prototipos. Este tipo de proceso de aprendizaje se extiende también al aprendizaje del lenguaje y categorías científicas. Con posterioridad, el uso naturaliza las similitudes y diferencias, al punto de hacer que supongamos un “pegamento metafísico” entre el lenguaje y el mundo, y hacernos olvidar que nuestras categorías surgieron -en parte- de la interacción entre ciertos ejemplares, y que otras interacciones habrían hecho surgir otras similitudes. Pero los significados no son fijos, no están adheridos a las cosas desde una eternidad sin tiempo, no están dados de una vez y para siempre a partir de un ‘bautismo’ originario; sino que en ocasiones, en virtud de un proceso de renombramiento (redubbing) pueden ligarse al mundo de otra manera. Los procesos revolucionarios, como las metáforas novedosas, transgreden los usos corrientes, generando un léxico localmente diferente y este nuevo léxico abre nuevas posibilidades que no podrían haberse estipulado por el uso del léxico anterior (Kuhn, 1990) Las metáforas pueden conducirnos a una recategorización del mundo al crear similitudes de un nuevo tipo y hacer surgir nuevos significados. Permiten así dar cuenta de ese elemento dinámico o histórico que estaba ausente en Kant: Kuhn ofrece una ‘visión evolutiva (developmental) del significado’, que hace lugar a esos cambios. Allí reside el valor cognitivo de la metáfora: nos recuerda que el mundo podría haber sido recortado de otra manera y de hecho históricamente lo ha sido, según nos muestran algunos historiadores de la ciencia. Y, en la medida en que viola el principio de no-solapamiento, la metáfora puede también abrir nuevos mundos, mundos recortados de otra manera, promoviendo el desarrollo de la ciencia. Si la naturaleza tiene 'articulaciones' que los términos de familias naturales tratan de localizar, entonces la metáfora nos recuerda que otro lenguaje podría haber localizado articulaciones diferentes, haber recortado el mundo de otra manera (Kuhn, 1979). 4.4. D. Hull. El mecanismo universal de selección Según el propio D. Hull dos elementos distinguen a su propuesta evolucionista. Por un lado considera que es posible construir una buena analogía entre la evolución biológica y la evolución de las ideas o teorías porque ambos procesos pueden ser explicados con una misma teoría y, por otro lado, su propuesta se centra en proponer dicho mecanismo general, diferenciándose de autores como Popper, Toulmin o Campbell entre otras cosas por ocuparse no sólo de la supervivencia de las teorías, sino también por su reproducción. Con respecto al primer aspecto señala: “La mayoría de los autores que en el pasado han estudiado la evolución cultural en general, y el cambio científico en particular, como procesos selectivos han tomado la selección natural basada en los genes como modelo y lo han aplicado de manera análoga al cambio conceptual. Sin embargo una estrategia más apropiada consiste en presentar un análisis general de los procesos selectivos que sea aplicable por igual a todos los tipos de procesos selectivos. Después de todo, la reacción del sistema inmune a los antígenos es un ejemplo de un proceso selectivo que difiere de una manera tan radical de la selección natural basada en los genes como el cambio conceptual en la ciencia. Cualquier análisis de los procesos selectivos debe aplicarse a ella así como a la selección natural. La generalidad de ese análisis debe ser la suficiente como para que no esté predispuesto a favor de ningún tipo particular de proceso selectivo, pero no tanta como para que todo y cualquier proceso natural resulte ser un ejemplo de selección. La evolución biológica, la reacción del sistema inmune a los antígenos y el aprendizaje cultural deben caer entre tales ejemplos, pero no así unas bolas de plomo que ruedan sobre planos inclinados ni los planetas que giran alrededor del sol.” (Hull, 1997, p. 106) El otro elemento, decíamos, consiste en poner el acento sobre la reproducción de las teorías más que en las condiciones de adecuación de las mismas. Ello le da a la propuesta de Hull un sesgo más cercano a la sociología de la ciencia que a la epistemología. Si bien para Hull uno de los objetivos de la ciencia es arribar a la verdad, no se trata tan sólo de ello, sino fundamentalmente del reconocimiento explícito de los pares. El sistema de premios y castigos en la ciencia, y en esto se ubica en la línea de la sociología mertoniana, posibilita el logro de sus objetivos. “La característica más sorprendente de la ciencia es lo bien que lleva a cabo sus objetivos explícitos, mucho mejor que cualquier otra institución social. En general, los científicos realmente hacen lo que dicen que hacen. Todas las instituciones sociales se rigen por normas, pero aun cuando estas normas sociales se traducen de su formulación hipócrita usual para que concuerden mejor con las normas que realmente funcionan, las infracciones individuales son comunes. Por el contrario, en la ciencia son bastante raras.” (Hull, 1997, p. 107) Los científicos se adhieren a las normas de la ciencia tan bien, porque frecuentemente es en su mejor interés hacerlo. Tal como funciona la ciencia, en general lo que es bueno para el científico es realmente bueno para el grupo. Según el propio Hull, su aporte original consiste no tanto en el modelo biológico de explicación, sino en que introduce para explicar el comportamiento de los científicos los conceptos de ‘adecuación inclusiva conceptual’ y la ‘estructura démica34 de la ciencia’. Así como los organismos desarrollan estrategias para lograr la replicación de sus propios genes, o a la duplicación de estos genes en familiares cercanos y que se transmitan a generaciones posteriores, los científicos se comportan de una manera calculada para lograr que las ideas que se proponen sean aceptadas como suyas por otros investigadores, sobre todo por los que trabajan en áreas afines. El enfoque de Hull no se refiere ya a la comunidad científica en general -un complejo algo difuso y vago- sino a que los científicos también tienden a organizarse en grupos de investigación bastante estrechos, y relativamente efímeros, para desarrollar y propagar un conjunto particular de puntos de vista y apuesta a que el cambio conceptual en la ciencia debería ser más rápido en relación directa con la división en grupos de investigación rivales. Antes que ser un obstáculo, este faccionalismo que los científicos frecuentemente deploran propicia el progreso de la ciencia. Como puede verse, aparecen, en la posición de Hull, claras resonancias sociobiológicas. La ciencia sería entonces, un asunto “tanto competitivo como cooperativo”. En la medida en que la ciencia es una actividad eminentemente social, no puede operar sólo la adecuación inclusiva conceptual sin más, sino que debe tomarse en cuenta los distintos tipos y niveles de alianzas. Los individuos pueden aprender del mundo en el que viven mediante un contacto directo, pero si la ciencia ha de ser acumulativa, es necesaria la transmisión social. Incluso el tipo de objetividad que da a la ciencia su carácter peculiar es una propiedad de los grupos sociales, no de los investigadores aislados. Pero en este proceso de cooperación/competencia aún resta explicar cómo se produce la selección de unidades conceptuales. La argumentación de Hull recoge la disputa biológica acerca de las unidades de selección (genes, organismo, poblaciones, etc.) y en concordancia con su propuesta de hallar un mecanismo general de selección: “Debido a que algunas entidades tradicionales como los genes, los organismos y las especies no cumplen consistentemente con los mismos papeles en la evolución biológica, por no hablar del sistema inmune y del cambio conceptual, se requieren unidades más generales, unidades que se definan en términos que sean lo suficientemente generales para que puedan aplicarse a todo tipo de procesos selectivos. Mi idea sobre estas unidades y su definición es la siguiente: replicador: es la entidad que transmite su estructura en gran parte intacta a través de replicaciones sucesivas. Interactor: entidad que interactúa como un todo cohesionado con su ambiente, de manera tal que la interacción causa que la replicación sea diferencial. Con la ayuda de estos dos términos técnicos, la selección puede caracterizarse sucintamente como sigue: Selección: es el proceso en el que la extinción y la proliferación diferencial de los interactores causa la perpetuación diferencial de los replicadores pertinentes. Los replicadores y los interactores son las entidades que funcionan en los procesos selectivos. También se necesita un término general para las entidades que se producen como resultado de por lo menos la replicación y, posiblemente, de la interacción: Linaje: entidad que persiste indefinidamente a través del tiempo en el mismo estado o en un estado alterado como resultado de la replicación.” (Hull, 1997, p. 118) Hull desarrolla un esfuerzo por lograr un paralelo con la evolución biológica, sobre todo con respecto a la versión neodarwinista de S. Wright, y para diluir las diferencias con el 34 El término ‘demo’ aplicado a la biología se refiere a los casos en que una especie está subdividida en muchas pequeñas poblaciones o razas locales. En esos casos, los individuos que pertenecen a cada demo tienen mayor probabilidad de reproducirse con otro miembro de su propio demo que con miembros de otro. Este término fue introducido por S. Wright. objetivo ya explicitado de establecer un mecanismo más general que sirva para todo proceso de selección pasa revista a las posibles objeciones a la analogía entre evolución biológica y conceptual: 1. la evolución conceptual ocurre mucho más rápido que la biológica. Sostiene Hull que: "(...) si nos remitimos al tiempo físico, la evolución conceptual ocurre a una velocidad intermedia. Los virus evolucionan mucho más rápidamente que los sistemas conceptuales aun en las áreas más activas de la investigación, mientras que los organismo multicelulares evolucionan más despacio. Sin embargo, el tiempo físico sólo es pertinente para la interacción. En lo que se refiere a la replicación, la métrica que cuenta es el tiempo generacional. Con respecto a las generaciones, por definición la evolución conceptual ocurre a la misma velocidad que la evolución biológica." (Hull, 1997, p. 129) 2. algunos sostienen que no es posible una comparación entre los dos tipos de evolución porque mientras los genes son 'particulados'35, las unidades de la replicación conceptual son altamente variables y están lejos de ser discretas. Hull sostiene que en realidad ni los replicadores biológicos ni los conceptuales son 'particulados', dado que en ambos casos el: “(...) tamaño relativo de las entidades que funcionan ya sea como replicadores o como interactores es muy variable y sus límites algunas veces son bastante difusos. Si las entidades que funcionan en los procesos de selección deben ser todas del mismo tamaño, de formas distinguibles o ambos, entonces la selección no puede ocurrir en contextos biológicos más que lo que ocurre en contextos conceptuales.” (Hull, 1997, p. 129) 3. otra objeción se refiere a que la evolución biológica siempre es biparental mientras que la evolución conceptual suele ser multiparental: “Una vez más esta objeción se basa en un simple error fáctico. Para un gran número de organismos, la herencia es biparental; pero para la mayoría no lo es. En la evolución conceptual, los agentes racionales a veces combinan ideas provenientes de sólo dos fuentes; a veces de muchas.” (Hull, 1997, p. 129) 4. que el intercambio de linajes es más común en la evolución conceptual que en la biológica: “Independientemente de lo que el sentido común cree, el intercambio genético entre grupos que se consideran especies diferentes sí ocurre y las cantidades de intercambio genético necesarias para neutralizar cualesquiera diferencias genéticas entre dos linajes muy separados resulta ser bastante pequeña. En resumen, en la evolución biológica, el préstamo de cruce de linajes extensivo no puede ocurrir porque los linajes se generan producidos precisamente mediante este proceso. Cuando se distinguen los linajes conceptuales y sociales en la ciencia, el préstamo de cruce de linajes extensivo se vuelve posible, es decir, los científicos que pertenecen a grupos diferentes socialmente definidos pueden hacer uso del trabajo del otro y a veces de hecho lo hacen. En tales situaciones, los grupos siguen siendo socialmente distintos, mientras que sus correlatos conceptuales se mezclan. Sin embargo, en la ciencia este préstamo de cruce de linajes no parece ser tan extensivo como sería de esperarse dadas las referencias a vanas "síntesis". Rara vez los linajes conceptuales se funden sin que las comunidades científicas que los produjeron también se fundan. Ambos tipos de mezclas tienen lugar en la ciencia. También ocurren en biología, especialmente entre las plantas. Hasta ahora nadie ha producido los dates necesarios para ver en qué contexto el préstamo de cruce de linajes está más extendido.” (Hull, 1997, p. 130) 35 Ayala (1998) los llama 'atomísticos'. 5. que la evolución sociocultural es lamarckiana – las variaciones son dirigidas, los científicos modifican sus teorías para mejorarlas – y en ese sentido se puede hablar de progreso, mientras que la evolución biológica es darwiniana, o más bien weissmaniana – las variaciones surgen al azar- y obviamente no encaja la noción de progreso. Es interesante la argumentacion de Hull en este punto: “La diferencia más comúnmente citada entre la evolución biológica y la conceptual es que la evolución biológica es darwiniana mientras que la evolución conceptual es, en gran parte, lamarckiana. Ningún organismo es capaz de transmitir ninguno de los caracteres fenotípicos ordinarios que adquirió durante el curso de su existencia a su progenie, pero algunos organismos pueden transmitir lo que han aprendido del medio ambiente mediante el aprendizaje social. Estas observaciones se han repetido muchas veces, sin embargo, nadie ha podido explicar detalladamente lo que significan. Nadie sostiene que la evolución conceptual en la ciencia sea literalmente lamarckiana, como si los axiomas básicos de la teoría cuántica fueran a encontrar de alguna manera su camino hasta nuestra estructura genética. Si se considera que las entidades conceptuales son características fenotípicas, entonces la evolución conceptual no es literalmente lamarckiana porque los cambios en estos caracteres dejan intactos los genes. Las ideas se transmiten, no se heredan. Si la transmisión simple es suficiente para la herencia lamarckiana, entonces una pulga que pare a sus crías se puede considerar herencia lamarckiana. Si se toma metafóricamente, la evolución conceptual tampoco es lamarckiana porque se sostiene que las ideas (o memes) son análogos de los genes, no de los caracteres. Si algo puede decirse es que la evolución conceptual es un ejemplo de la herencia de memes adquiridos, no de los caracteres. Aprendemos a partir de la experiencia y transmitimos socialmente este conocimiento, pero no puedo entender por qué estos procesos debieran ser considerados "lamarckianos", ya sea en sentido literal o metafórico. En la interpretación literal, las ideas se consideran caracteres adquiridos, pero la transmisión no es genética. En el uso metafórico, las ideas se consideran análogos de los genes, no de los caracteres. Aunque la distinción entre genotipo y fenotipo puede hacerse en el contexto del cambio conceptual, el efecto neto es que los análogos de los fenotipos no son heredados. En ausencia de algo semejante a la herencia de caracteres adquiridos, pienso que caracterizar el cambio conceptual como "lamarckiano" no Ileva más que a la confusión. Hasta donde puedo ver, el único sentido en que la evolución conceptual es lamarckiana es en el sentido más caricaturizado de este término del que tanto se ha abusado, es decir, en que es intencional. Así como las jirafas incrementaron la longitud de sus cuellos al esforzarse por alcanzar las hojas de las copas de los árboles, los científicos resuelven problemas al tratar de resolverlos. La ciencia es intencional, de hecho es tan intencional como cualquier otra actividad humana. Aprendemos del mundo natural al tratar de interactuar con él. Para algunos, la brecha que separa los actos intencionales del resto de la naturaleza es tan ancha y profunda que hace imposibles las comparaciones. Yo no comparto esta convicción, pero no tengo argumentos de principio capaces de convencer a quienes desean aislar el comportamiento de los agentes intencionales respecto del tipo de principios que se aplican al resto del mundo natural. (...) Tampoco creo que el papel de la intencionalidad en los contextos científicos se encuentre realmente en la raíz de lo que molesta a los críticos de cualquier intento por proveer un análisis único de la "selección" que se aplique igualmente a la evolución biológica y a la conceptual. Los científicos se afanan en resolver problemas; generan ideas novedosas y seleccionan entre ellas. En estos momentos, las mutaciones genéticas ocurren al "azar". Sin embargo, en un futuro muy próximo, los biólogos serán capaces de generar cualquier mutación genética que consideren adecuada. Cuando esto ocurra, la intencionalidad desempeñara el mismo papel en el cambio biológico y en el conceptual. Pero dudo que aun en ese caso los críticos se convenzan instantáneamente. Si mi conjetura es correcta, entonces el papel de la intencionalidad en la generación de novedad no debe haber sido una objeción tan importante en un principio.” (Hull, 1997, p. 131) 4.5. R. Richards. Un modelo historiográfico evolucionista R. Richards desarrolla un modelo de selección natural para la historiografía de la ciencia, en la consideración de que se trata del más idóneo para tal fin a despecho de otros, tales como los modelos 'estático', 'de crecimiento', 'revolucionario', 'guestáltico' o sociopsicológico'36. A su vez el modelo de SN propuesto es presentado como superador de otras propuestas evolucionistas como las de Popper y Toulmin y de los programas de investigación científica de Lakatos. Richards se monta en la estrategia habitual en la EE consistente en tratar de identificar la 'unidad de selección' en la historia de la ciencia y adoptar luego, en función de ella, un criterio de producción y selección de ideas. Criticando la noción de 'disciplina intelectual' propuesta por Toulmin como unidad de selección: "Las disciplinas intelectuales están, después de todo, compuestas de las teorías heterogéneas, los métodos y las técnicas, mientras que una especie es una población de individuos que se cruzan entre sí y que tienen una similitud genética y fenotípica. Las disciplinas, además, están organizadas formalmente en subdisciplinas y en especialidades que se traslapan y compiten entre sí, y que a su vez están entrelazadas por redes invisibles de comunicación. Las disciplinas se parecen más a los nichos ecológicos en evolución, constituidos por especies parásitas, simbióticas y en competencia. Creo yo que la analogía correcta es entre especie y sistema conceptual, que puede ser un sistema de conceptos teóricos, prescripciones metodológicas o fines generales. El acervo genético que constituye tal especie, por así decirlo, es el conjunto de ideas individuales que están unidas en genotipos o individuos genómicos por medio de la compatibilidad lógica y de implicación y de nexos de pertinencia empírica. Estos principios conectores pueden ser por supuesto, funciones de ideas regulatorias de un orden más alto. Los genotipos varían debido a sus componentes, los genes, y las relaciones específicas de ligamiento que los organizan; estos genotipos despliegan diferentes fenotipos, dependiendo de las ligeras diferencias de sus componentes, y de las relaciones entre componentes, y dependiendo de su reacción entre ambientes modificados. Análogamente, la representación cognoscitiva de una teoría científica- su expresión fenotípica en términos del modelo aquí propuesto- variará de un científico a otro en razón de las ideas ligeramente diferentes que la constituyan, sus relaciones y el cambiante ambiente intelectual y social que la apoye. (...) al igual que las fronteras entre especies, las fronteras que separan las teorías pueden ser indefinidas y cambiantes." (Richards, 1997, p. 169) El segundo paso se funda en establecer algunas modificaciones o precisiones a la propuesta de Campbell del mecanismo de 'variación ciega y retención selectiva'. El mecanismo propuesto por Campbell supone que la ciencia genera ciegamente soluciones posibles a los problemas intelectuales, seleccionando los ensayos mejor adaptados y reproduciendo consecuentemente el conocimiento adquirido en las ocasiones apropiadas. La producción de variaciones de pensamiento es análoga en este esquema a las mutaciones casuales y a las recombinaciones de la evolución orgánica. Richards propone una serie de postulados adicionales que vendrían a completar el modelo de Campbell: 1. la generación y selección de ideas científicas, deben entenderse como el resultado de un mecanismo de retroalimentación a través del cual hay una suerte de límite a una infinidad de ideas que no tienen prácticamente ninguna chance de ser aceptada. Así como las mutaciones y recombinaciones de genes no ocurren de una manera totalmente casual: "Las restricciones para la producción de ideas están determinadas por los caprichos de la educación y las conexiones intelectuales, el medio social, las disposiciones psicológicas, la teoría previamente establecida y las ideas recientemente seleccionadas. 36 Cf. Richards, 1997, p. 148 y ss. Cabe consignar el carácter no excluyente de los distintos tipos de modelos analizados y propuestos. Este postulado sugiere, por lo tanto, si bien las ideas pueden aparecer como por arte de magia, su generación no está libre de reglas, sino que puede ser comprendida por el historiador." (Richards, 1997, p. 171) Se trata en suma de ajustar la enorme cantidad de variaciones que se dan en el mundo orgánico de manera desacoplada del medio ambiente y de las prácticamente infinitas estrategias de supervivencia que se dan en la naturaleza, con el reducidísimo número de candidatos a buenas teorías que se da en la investigación científica. 2. El pensamiento científico está dirigido a la solución de problemas que plantea el medio ambiente intelectual cambiante. 3. Las ideas y, en última instancia las teorías se generan originalmente y se seleccionan dentro del dominio conceptual del científico individual y recién en una etapa posterior es sometida al debate, control y escrutinio intersubjetivo. Según Richards, entonces, si el historiador no atiende a los procesos de la generación y evaluación de ideas en el nivel individual, entonces parecerá como si las ideas científicas hubieran llegado misteriosamente preadaptadas a su ambiente público. 4. Finalmente: "Se debe suponer que los componentes de la selección actúan de acuerdo a ciertos criterios esenciales: consistencia lógica, coherencia semántica, normas de verificabilidad y falsabilidad, y pertinencia observacional (...) Sin tales normas no estaríamos tratando con la selección de ideas científicas (...) El conjunto completo de los criterios de selección define lo que en un periodo histórico dado constituye la norma de aceptabilidad científica." (Richards 1997, p. 172) Según Richards, su modelo de selección natural (MSN) historiográfico “convierte en norma lo que los historiadores sensibles hacen instintivamente” y, según su criterio supera al modelo de los Programas de Investigación Científica (PIC) propuestos por Lakatos. Es necesario señalar, no tanto en defensa de la propuesta de Lakatos sino más bien contra al análisis de Richards, que, en verdad, compite contra una versión algo estereotipada, esclerosada y rígida de los PIC. En efecto, aunque puede darse una versión de los mismos que ponga el acento sobre el carácter de ‘reconstrucción racional’ de la historia de la ciencia, también puede, en una versión algo más condescendiente con la historia empírica, poner el acento en esos elementos contextuales que Lakatos sugiere irónicamente ubicar en ‘una nota al pie’. Como quiera que sea, Richards considera que el MSN tiene una serie de ventajas con respecto a los PIC: • la relación entre un sistema conceptual y su medio ambiente es de reciprocidad, más que de alteración unilateral, es decir, que la introducción de ideas fundamentales altera los principios más remotos de un sistema en desarrollo y los cambios en estos últimos afectan a su vez, los principios centrales. • El MSN considera un programa como progresivo porque continua resolviendo problemas de su medio ambiente y no solo, según la interpretación que hace Richards de los PIC, cuando continúa haciendo nuevas predicciones que se confirman empíricamente • el MSN reconoce que los sistemas conceptuales en pugna, pueden ocupar espacios problemáticos parcialmente coincidentes pero no necesariamente idénticos, a diferencia de los PIC- siempre en la versión de Richards- cuyo trasfondo ontológico y explicativo es el mismo, en cuyo caso que un PIC adelante a otro refiere a 'algunas predicciones más'. • Según Richards el concepto de PIC no permite dar cuenta de procesos históricos en los cuales los sistemas conceptuales pueden desarrollarse en diferentes sistemas, o desprenderse de un sistema matriz, o mezclarse con parientes cercanos para formar un híbrido o existir como parte del ambiente intelectual de otros sistemas. Considera que el PIC es un modelo esencialista que oscurece estas relaciones posibles. • Richards considera que los PIC tienen como objetivo ofrecer una norma de evaluación, mientras que el MSN funcionaría tanto para evaluar como para guiar la reconstrucción histórica del medio ambiente del descubrimiento, considerando la evaluación de los sistemas conceptuales desde tres perspectivas: “los problemas del científico individual; los problemas de la comunidad científica; y los problemas de las comunidades subsiguientes”. Los méritos historiográficos del MSN según Richards consisten en su carácter flexible- similar a “su contrapartida biológica”- para servir como modelo de un orden más alto para teorías más especializadas, del mismo modo en que la teoría darwiniana subsume teorías particulares; conserva la distinción entre contextos de descubrimiento y de justificación –generación y selección en la biología-; propicia el examen de los ambientes intelectuales en los cuales las ideas han sido generadas y seleccionadas- al modo de los nichos ecológicos con sus interrelaciones; el MSN desconoce la existencia de normas ahistóricas y, por el contrario considera que las ideas y teorías, pero también las normas mismas evolucionan; “hace inteligible el carácter no progresivo de algunos sistemas conceptuales de la historia de la ciencia”; por último permite alcanzar una perspectiva tanto diacrónica como sincrónica del objeto de estudios. 4.6 acerca de la metáfora evolucionista Para cerrar esta sección en la cual se han mostrado algunas de las versiones de EE, es necesario hacer algunos señalamientos con relación a la metáfora evolucionista utilizada en particular pero que puede ser extendido al uso de metáforas en general. El mecanismo para construir una EE consiste en tratar de encontrar análogos para los tres elementos básicos ya señalados por Campbell: a) los mecanismos para introducir la variación; (b) los procesos consistentes de selección; y (c) los mecanismos para preservar y/o propagar las variaciones seleccionadas. Los debates que se han dado acerca de uno de los tópicos de las EE – las cuestiones acerca del ajuste/desajuste, alcance y construcción de la analogía biológica- pueden considerarse incluso como formas típicas que adquieren las discusiones acerca de la relación entre ciencia y metáforas. Como la formulación de una EE se basa en, y depende de, cierta semejanza mínima (si es más que esto mejor) entre la Teoría de la Evolución biológica y la obtención y desarrollo del conocimiento, los argumentos de los críticos apuntan a demoler esa analogía. Se establecen habitualmente dos estrategias típicas: por un lado los debates entre los epistemólogos evolucionistas tendientes a desarrollar una analogía más ajustada; y por otro lado los debates externos entre los críticos de la EE, quienes insisten en mostrar los devastadores desajustes con la teoría biológica (Cf. entre otros, Thagard, P., 1997 y Bradie, 1994, 1997), mientras que los defensores intentan o bien poner el acento sólo en las similitudes o bien sencillamente ignorar tales desajustes. Se trata en principio de establecer de la manera más ajustada posible un análogo cognoscitivo para los principales conceptos de la Teoría de la Evolución. Pero surgen apreciables diferencias entre los autores a la hora de darle contenido a los tres requerimientos básicos de Campbell, sobre todo al equivalente epistemológico de lo que en biología serían las ‘unidades de selección’. Los elementos que varían pueden ser, por ejemplo las teorías científicas, (Popper, 1970, 1985); los ‘memes’ (Dawkins, 1976), las distintas versiones teóricas (Hull, 1997), las conjeturas libres (Toulmin, 1961,1970), etc.37. Ahora bien, puede hallarse que estas estrategias argumentales son interesantes e incluso ingeniosas, pero, a mi juicio atacan el problema equivocado y tienden a tornarse irrelevantes, cuando menos por dos cuestiones fundamentales. Una objeción importante resulta del hecho de que la Teoría de la Evolución está lejos de ser un modelo explicativo sobre el que haya un consenso cerrado en la comunidad científica. Aún se suscitan en su seno controversias importantes alrededor de cuestiones centrales, como por ejemplo, los 37 Cf. el cuadro comparativo que hace Bradie (1997, p. 264) entre las distintas versiones de la EE teniendo en cuenta los tres elementos fundamentales que deben poseer. mecanismos y la secuencia de la evolución (gradual o ‘a los saltos’), sobre el ‘sujeto’ de la evolución (genes, individuos, especies, etc.), sobre la existencia o no de direccionalidad en la evolución, etc. (Cf. Sober, 1994, Wagensberg, J. Y Agustí, J., 1998 y Ruse, M., 1973). De modo que cualquier esfuerzo por señalar los desajustes choca contra la imprecisión que surge del hecho de no haber un original contra el cual contrastar. Por otro lado, y esto es lo que me interesa rescatar aquí, si la EE apunta a explicar el desarrollo de la ciencia, no tiene mayor relevancia denunciar los desajustes con el modelo biológico original. En el peor de los casos el hecho de encontrar un desajuste fundamental con la teoría biológica tan sólo mostraría que las EE no son evolucionistas en el mismo sentido en que lo es aquélla. La plausibilidad y bondades de la EE deberán ser contrastadas, en todo caso, en la historia o en las prácticas científicas como son contrastadas a través de la historia las metáforas disponibles. En este sentido las EE pueden resultar un caso testigo del uso de ME. 5. LA PRODUCCIÓN DE METÁFORAS COMO MECANISMO COGNOSCITIVO BÁSICO 5.1 metáforas en la adquisición del lenguaje y el conocimiento del mundo Las distintas versiones de las EE pueden aportar elementos útiles para la reconstrucción historiográfico-epistemológica de la ciencia, haciendo cumplir la reconocida fórmula en la que Lakatos parafrasea a Kant: “la filosofía de la ciencia sin la historia de la ciencia es vacía; la historia de la ciencia sin la filosofía de la ciencia es ciega”; y para los objetivos mínimos de este trabajo sería suficiente con desarrollar una EE que tome a las metáforas epistémicas como unidades de selección. Sin embargo, y aunque esto no sea necesario para mostrar que la historia de la ciencia resulta de la evolución de ME, aún puede especularse con la idea según la cual las metáforas serían emergentes de mecanismos profundos de produccion de conocimiento. En los últimos años el análisis del lenguaje ‘figurado’, sobre todo de las metáforas ha dejado de ser prerrogativa de la retórica y comenzó a interesar a otras disciplinas, desde la lingüística a las ciencias cognitivas y a la pedagogía, de la mano de la reivindicación de su papel en el pensamiento y en el aprendizaje. Se destacan entre ellos los trabajos de G. Lakoff y M. Johnson, si no los primeros, pioneros en muchos sentidos, y han provocado una importante cadena de estudios sobre el papel de las metáforas en la constitución misma del lenguaje y el pensamiento. No menos importantes, aunque más específicas, son las consideraciones de Th. Kuhn sobre el papel de las metáforas en el desarrollo y constitución de los conceptos científicos (cf. supra). Lakoff y Johnson no consideran a la metáfora una astucia lingüística usada exclusivamente para embellecer, un giro especial o un uso extraño del lenguaje, sino un modo fundamental de aprender y estructurar sistemas conceptuales, una herramienta básica de cognición, a la vez que una parte central de nuestro lenguaje cotidiano. Su posición puede resumirse como sigue: • A diferencia de la consideración clásica de la metáfora como parte de una función extraordinaria o periférica del lenguaje, ellos la consideran antes bien como un mecanismo rector de "nuestro funcionamiento cotidiano, hasta los detalles más mundanos". • La metáfora está muy lejos de ser meramente una cuestión de palabras. Se trata más bien de que nuestro sistema conceptual ordinario, en términos del cual pensamos y actuamos, es fundamentalmente de naturaleza metafórica. De modo que pensar metafóricamente significa, en sentido estricto, realizar movimientos conceptuales (mappings) desde un determinado dominio de origen a uno de destino, como ‘por ejemplo cuando se considera una discusión en términos de una guerra. El resultado de dichas proyecciones metafóricas, las expresiones concretas, son concebidas como manifestaciones de superficie de los mapeos entre distintos dominios. • "La esencia de la metáfora es comprender y experimentar una clase de cosas en términos de otra" (...). Los conceptos que rigen nuestro pensamiento no son simplemente asunto del intelecto (...) Nuestros conceptos estructuran lo que percibimos, cómo nos movemos en el mundo, la manera en que nos relacionamos con otras personas. Así que nuestro sistema conceptual desempeña un papel central en la definición de nuestras realidades cotidianas. Si estamos en lo cierto al sugerir que nuestro sistema conceptual es en gran medida metafórico, la manera en que pensamos, lo que experimentamos y lo que hacemos cada día también es en gran medida cosa de metáforas". (Lakoff y Johnson, 1980 [1998, p. 39]) • Lakoff y Johnson refuerzan la apuesta al negar que la metáfora sea una propiedad de enunciados individuales, sino que se trata de un sistema subyacente. Aunque aquí propiciamos la sospecha de que efectivamente haya mecanismos cognoscitivos básicos que operan metafóricamente debe llamarse a prudencia en tal sentido. Si bien Lakoff y Johnson detectan una aplicación sistemática y extendida de las metáforas, y ese ha sido uno de sus principales logros, aun podría sostenerse que esta pretendida "sistematicidad" podría ser, en realidad, el resultado de una cierta convención -de carácter no consciente y automático-, y no el producto superficial de ciertas estructuras subyacentes. Parece perfectamente posible explicar cómo nuestra cultura conceptualiza el tiempo en términos de espacio sin la necesidad de apelar a la idea de un componente mental subyacente tal como una metáfora generativa. De cualquier manera aquí resulta suficiente manifestar la compatibilidad entre metáforas en uso y mecanismos filogenéticamente constituidos. • Una tesis bastante corriente entre los autores que rescatan la esencia metafórica del lenguaje sostiene que el sistema conceptual normal tiende a conceptualizar la experiencia no-física en términos de la experiencia física. De hecho, es bastante corriente en la divulgación y la enseñanza de la ciencia la utilización de modelos físicos o imágenes visuales familiares para suplantar conceptualizaciones abstractas, complejas o teóricas. • En la vida cotidiana el hablante percibe como 'expresión literal' lo que es la forma humana de experimentar la situación metafóricamente estructurada. • "La metáfora en virtud de dar una estructura coherente a una esfera de nuestra experiencia, crea similaridades de un nuevo tipo" y si bien las experiencias multiculturales pueden introducir un elemento de inconmensurabilidad, la comprensión es posible a través de cierta negociación del significado y además es posible "un proceso infinito de ver la vida a través de nuevas metáforas" Indudablemente, la tesis de que la mayor parte de nuestro sistema conceptual es de naturaleza metafórica involucra algo más que un cierto descubrimiento en la esfera de la lingüística: se trata de una afirmación que desafía la imagen tradicional según la cual la metáfora es un componente desviado, ornamental, y periférico del pensamiento humano. Al abrir el campo teórico de la "metáfora conceptual", al indagar el lenguaje cotidiano de los hablantes y la forma en que las metáforas determinan su visión del mundo, Lakoff y Johnson pretenden haber operado un giro fundamental sobre la noción clásica de metáfora, ubicando el proceder metafórico como condición de posibilidad del conocimiento. La cuestión, entonces, se torna importante para la filosofía del lenguaje, la teoría del conocimiento, y también para consideraciones empíricas sobre el aprendizaje. La metáfora -en tanto que operación cognitiva fundamental- se encuentra estrechamente relacionada con el modo en que los humanos categorizan el mundo. Las palabras que se utilizan reflejan distinciones conceptuales hechas por una cultura particular. Sin embargo, nuestro mundo conceptual no está limitado a las categorías provistas por nuestra cultura: las habilidades cognitivas nos permiten extender los significados "literales" de las categorías y usarlos en nuevos sentidos transferidos. Ésta es, precisamente, la manera en que operan los mapeos entre distintos dominios de la experiencia. En un trabajo posterior, Lakoff y Johnson (1999), apoyándose en los resultados de la Ciencia Cognitiva que llaman de segunda generación y en las teorías neurales del lenguaje, sostienen que no hay una razón descarnada, trascendente, consciente por completo. En consecuencia, la filosofía no es el resultado de una razón pura que reflexiona sobre sí misma. Desde la metafísica presocrática hasta la teoría de la acción racional, pasando por Platón, Aristóteles, Descartes, Kant, la Filosofía Analítica o la lingüística de Chomsky, se usan los mismos recursos cognitivos que cualquier persona, operan con las mismas metáforas y metonimias generales que definen las diversas teorías populares sobre los conceptos filosóficos y participan de las tradiciones de las culturas a las que pertenecieron. Las principales consecuencias de la ciencia cognitiva de segunda generación hacen necesario, según Lakoff y Johnson producir una filosofía empíricamente responsable, enfoque que obligaría a reconsiderar los principales conceptos filosóficos: • La razón surge de la naturaleza de nuestro cerebro, del cuerpo y de la experiencia corporal. • Los mismos mecanismos neurales y cognitivos que nos permiten percibir y movernos también crean nuestro sistema conceptual y nuestros métodos racionales. • La razón, pues, no es un rasgo trascendental del universo o de una mente descarnada, sino una producto evolutivo, en el sentido de que la razón abstracta se construye sobre, y hace uso de, las formas de la percepción y de la inferencia motora que están presentes también en los animales inferiores. Así, la razón no es una esencia que nos separa del resto de los seres vivos, sino, al contrario, nos sitúa en un continuum con ellos. • La razón no es universal en el sentido trascendente, no es parte de la estructura del universo. Es universal, a lo sumo, en tanto que es una capacidad que compartan todos los seres humanos, quienes tienen, por lo tanto, afinidades fundamentales entre sí. • La razón no es completamente consciente, sino principalmente inconsciente, aunque no en el sentido freudiano, sino porque opera detrás del nivel consciente, inaccesible a él y tan rápido que no podemos contemplarlo de un modo directo. Lakoff y Johnson ponen en escena el concepto de inconciencia cognitiva.. • La razón no es literal, sino metafórica e imaginativa. • La razón no es desapasionada sino enlazada emocionalmente. Por otra parte, continúan mostrando los sistemas metafóricos que dan contenido a los grandes conceptos filosóficos, analizando los conceptos de tiempo, eventos y causas, la mente, el yo y la moralidad. El objetivo es, una vez desentrañados, ver el sistema metafórico que permite a los grandes filósofos reunir en un cuerpo organizado e imaginativo toda una teoría filosófica. Esta exposición que abarca toda la tercera parte del libro es lo que los autores denominan la Ciencia Cognitiva de la filosofía. “Los filósofos no son simplemente trabajadores lógicos que reúnen lo que forma el esqueleto de sus culturas. Al contrario, son los poetas del pensamiento sistemático. La mejor filosofía es creativa y sintética. Ayuda a reunir nuestro mundo de un modo que tenga sentido para nosotros y nos ayuda a tratar con los problemas que conforman nuestra vida. Cuando los filósofos hacen esto bien están usando nuestros recursos conceptuales cotidianos de manera extraordinaria. Ven modos de poner ideas juntas para revelar nuevas conexiones sistemáticas entre diferentes aspectos de nuestra experiencia. A veces, nos dan los medios para cuestionar incluso los conceptos enraizados más profundamente. Nos muestran formas de extender nuestras metáforas y otras estructuras imaginativas para abordar nuevos problemas y situaciones emergentes.” (Lakoff y Johnson, 1999, p. 542) Otros autores han avanzado en la línea iniciada por Lakoff y Johnson, como es el caso de M. Danesi (1990, 1993, 1998, 2000), quien desarrolla un modelo de construcción de los conceptos abstractos en los humanos, considerando que las investigaciones sobre la metáfora llevan hoy a concluir que hay una continuidad etiológica entre los dos dominios del pensamiento correspondientes a lo concreto y lo abstracto, y que, antes que una organización jerárquica de los conceptos hay una interconexión noética entre los diversos conceptos que produce nuestra mente. Parece existir, según Danesi (2000, p. 195), un vínculo metafórico entre pensamiento concreto y pensamiento abstracto con el principio de continuidad (en contraposición a la noción clásica de autonomía de los conceptos), y designa el hecho de que los conceptos están correlacionados entre sí de manera interconectiva con el principio de interconexión (también éste en contraposición a la noción clásica de la organización jerárquica de los conceptos). Como corolario al principio de la continuidad propone, además, el principio de la estratificación, según el cual los conceptos abstractos producidos metafóricamente y a continuación introducidos en un lenguaje llegan a ser, en un segundo momento de reflexión abstractiva, ellos mismos eventuales fuentes (o estratos) para la formación de ulteriores conceptos. 5.2 la gnoseologia evolucionista No resulta fácil justificar el salto conceptual que va de constatar la profusión de metáforas en las conductas lingüísticas de los humanos a afirmar que ello obedece a la existencia de mecanismos básicos profundos del sistema cognitivo humano, aunque sí debe admitirse que se trata de afirmaciones compatibles. Pero yendo un poco más lejos en la especulación puede suponerse que el desarrollo filogenético peculiar de la especie humana ha determinado la configuración del sistema cognitivo -de ello habla la GE- y que la producción de metáforas resulta un emergente de la evolución. La GE pretende haber corregido a Kant y haber realizado una verdadera 'revolución copernicana', jugando con el argumento según el cual Kant habría realizado, en verdad, una suerte de 'revolución ptolemaica' (Vollmer, 1987) al ubicar al sujeto en el centro de la relación cognoscitiva. Vollmer (1975) señalaba que la teoría evolutiva del conocimiento desplazaría al hombre de su posición central y lo convertiría en observador del acontecer cósmico. Se atribuye entonces al mundo de los objetos reales la función de determinante fundamental de las condiciones de posibilidad del sujeto epistémico, de modo tal que el sujeto cognoscitivo que luego instrumentalizan las teorías del conocimiento resulta subsidiario de aquél. La GE se apoya en la idea según la cual las actividades cognitivas son un producto de la evolución y de la selección y que, también, la evolución misma es un proceso cognitivo y de conocimiento. Las premisas básicas para la GE en su versión actual habían sido establecidas por Lorenz en un trabajo de 1941 (Lorenz, 1984): 1. Los seres vivientes están dotados de determinadas estructuras o disposiciones innatas que les permiten establecer relaciones cognitivas con el mundo. 2. Estas estructuras innatas son fruto de la evolución, es decir el resultado de la aplicación de la selección natural, por lo cual, además de la experiencia individual, existe también esa experiencia filogenética que constituye para el individuo un saber innato o una capacidad innata de percepción y de reacción. 3. También se acepta como existente una concordancia, parcial, entre las estructuras objetivas y las subjetivas. Las formas del juicio e incluso las categorías con las cuales se hacen taxonomías del mundo se “ajustan a lo realmente existente del mismo modo que nuestro pie se ajusta al suelo; o la aleta de un pez al agua” (Lorenz, 1984, p. 92). Al igual que en la adaptación biológica, el ajuste entre el mundo real y las estructuras cognoscitivas no es ‘ideal’, pero ‘tampoco puede ser demasiado malo’. El ajuste ha de ser al menos tan bueno como para que puedan ser satisfechas las necesidades existenciales de un organismo, en general, y del hombre, en particular. Ha de ser adecuado a la supervivencia (Vollmer, 1984): “Nuestro aparato cognoscitivo es un resultado de la evolución. Las estructuras cognoscitivas subjetivas se encuentran adaptadas al mundo porque se ha desarrollado, en el curso de la evolución, como adaptación a ese mundo. Y esas estructuras reproducen (parcialmente) las estructuras reales, porque sólo una reproducción semejante pudo haber hecho posible la supervivencia.” (Vollmer, 1984, p. 30) 4. hay continuidad entre conocimiento animal y conocimiento humano, sobre la convicción de que: “Todos los fenómenos psíquicos del mundo subhumano, así como las habilidades mentales, propias de los sistemas humanos (autoconciencia), se basan en estructuras y funciones biológicas, la evolución biológica ha sido la precondición para la evolución psicológica, mental o intelectual.” (Wuketits, 1984a, p. 8). Todas las capacidades cognitivas humanas, incluso lo que suele denominarse “mente” son productos de la evolución biológica. La emergencia de los fenómenos psíquicos y de las habilidades mentales constituye uno de los mayores eventos de la evolución, pues ha dado lugar a nuevos patrones de complejidad y de orden, tales como el arte, el lenguaje, la ciencia y hasta los sistemas éticos. El saber o el conocimiento en un sentido amplio, para la GE (Vollmer, 1984) es un ‘hecho empírico’, tanto como la existencia del hombre y del mundo. En todo caso lo que habría que explicar es cómo es posible ese conocimiento y cuáles son sus características. El ajuste de las estructuras cognoscitivas se considera resultado de un proceso de adaptación regido por la mutación y la selección, para el cual se ha conformado un órgano, de modo tal que la GE debería poder responder (Lorenz, 1984) sobre el papel que tiene en la conservación de la especie, la secuencia y los pasos del desarrollo filogenético -el amplio espectro de rasgos genéticamente determinados, es decir, las diferencias cognoscitivas entre los individuos, los grupos y las especies-, y las causas naturales de su manifestación fenomenológica38. Uno de los tópicos para toda GE, entonces, es la necesidad de identificar las estructuras que posibilitan y delimitan el conocimiento, estructuras a priori, en suma. Desde hace ya más de dos siglos, cuando se habla de estructuras a priori del conocimiento no es posible eludir la invocación de Kant y, de hecho los epistemólogos evolucionistas se reconocen deudores del filósofo alemán. Sin embargo, a poco que se indague en esas estructuras a priori cuyo papel en la conformación del conocimiento es un postulado para cualquier GE, no se puede menos que notar sustanciales diferencias. La filosofía había desarrollado, ya desde la antigüedad, consideraciones sobre la existencia de verdades constituidas con independencia y aún a espaldas de la experiencia sensorial corriente pero que, en medida variable, regulaban el conocimiento del mundo: las ideas de Platón, la lógica de Aristóteles, en alguna medida negativa los idola de Bacon. Otros planteos prekantianos, pero modernos al fin, en general consideraban que las verdades válidas a priori eran innatas: los primeros principios de Descartes, las verdades necesarias y algunos principios prácticos de Leibniz, por ejemplo. En el empirismo de la tabula rasa, obviamente no se reconoce la existencia de contenidos a priori, pero- y esto interesa a la GE- los sentidos operan en un rango limitado de posibilidades que delimita y conforma toda experiencia posible. Sin duda, el planteo kantiano, acerca de de la existencia de estructuras a priori que hacen posible el conocimiento es el más eminentemente reconocible e importante. Una de las consecuencias del mismo es la disociación de los conceptos de ‘a priori’ e ‘innato’, contra el racionalismo (que apuesta a meras formas a priori) y contra el empirismo (que muestra que no se puede reconstruir genéticamente la razón a partir de la mera observación). La razón, por el contrario, para Kant tiene un carácter regulador y constitutivo de la experiencia misma. Puede decirse que el planteo kantiano, al sustraer toda consideración temporal y por tanto genética de la razón y ubicar las estructuras a priori en el ámbito de la formalidad, elimina la superposición entre el carácter innato y el carácter a priori de algunas verdades. En este, y en otros sentidos, el planteo trascendental kantiano supera tanto al racionalismo como al empirismo. Básicamente, Kant sostiene que: • todo nuestro conocimiento comienza con la experiencia, pero no todo conocimiento surge de la experiencia. Hay un tipo de conocimiento llamado a priori que es independiente de la experiencia, de todas las impresiones de los sentidos, pero 38 Sobre estas premisas se basa la idea de Lorenz de la etología comparada. independientes en un sentido absoluto, es decir que no incluye las reglas generales del tipo 'todo cambio tiene su causa', que es a priori pero no puro porque 'cambio' deriva de la experiencia • estas estructuras a priori son las intuiciones puras propias de la sensibilidad, categorías del entendimiento y analogías de la experiencia39 • los conocimientos a priori tienen necesidad y validez universales Una consideración básica es que el planteo kantiano no es una hipótesis realista, psicológica o biológica sobre el origen, naturaleza y estructura del sistema cognoscitivo de los humanos, sino que establece las condiciones formales de posibilidad de la experiencia y el conocimiento. Sin embargo, las GE reconociéndose en su filiación kantiana toman como desafío primordial resolver el problema lanzado por Lorenz en 1941: entender a Kant de un modo naturalista, la ‘biologización de Kant’ en suma. En este sentido, las funciones del sistema cognoscitivo son válidas a priori para la experiencia individual pero son el producto a posteriori del desarrollo filogenético y de lo que se trata entonces es de establecer cuáles son esas estructuras a priori del conocimiento. Cabe una breve digresión sobre las pretensiones kantianas de la GE, en las cuales encuentro cuando menos dos tipos de limitaciones: la primera con relación a la confusión entre sujeto trascendental y sujeto psicológico o biológico y, la segunda con relación a la concepción de la cosa en sí. El a priori trascendental forma parte de una teoría sobre las condiciones formales de posibilidad de la experiencia o conocimiento, mientras que el a priori de la GE es elemento de una teoría sobre las condiciones reales de dicha posibilidad. La filosofía trascendental realiza una suerte de reconstrucción conceptual, no una descripción o explicación causal, de las condiciones formales de posibilidad de la experiencia o conocimiento en general; es decir la detección de lo que debe necesariamente suponerse para que el conocimiento en su forma más acabada pueda ser posible. Los a priori kantianos son universales y necesarios, mientras que los propuestos por la GE son resultado de una filogénesis particular única entre muchas posibles. El a priori trascendental no puede ser pensado como coextensivo del a priori biológico o psicológico, es decir innato. Pero, además de estas diferencias que parecen conducir a condiciones de inconmensurabilidad, es necesario agregar algunas cuestiones que parecen ser, con más fuerza que las anteriores – o quizá derivadas de las anteriores- interpretaciones cuando menos muy llamativas de la filosofía kantiana. La cuestión de la cosa en sí ha dado lugar a muchas interpretaciones y herejías protokantianas, que van desde el idealismo al realismo, pero, como quiera que sea, en la argumentación kantiana queda establecida la inaccesibilidad definitiva a la misma. Sin embargo algunos epistemólogos evolucionistas como Lorenz, Vollmer y Riedl entre otros, curiosamente consideran que esa inaccesibilidad es relativa a las condiciones técnicas de investigación, porque asimilan la cosa en sí kantiana con la estructura más fina de la realidad que está referida, fundamentalmente a lo sumamente pequeño (física atómica o subatómica). Si bien es cierto que se puede coincidir en que, “aunque tengamos un gran desconocimiento, hay que señalar que no existe ningún ‘buen motivo’ para postular tras ese mundo real, tal como lo investiga la ciencia empírica y se reconstruye teóricamente, una realidad en sí desconocida” (Ursúa, 1993, p. 78), en tal caso, ese no es el problema que pretende solucionar Kant al postular la cosa en sí. Como quiera que sea, los postulados de la GE requieren la aceptación de un ‘residuo’ incognoscible. En todo caso, este ‘error’ exegético no invalida per se a la GE, aunque las pone de lleno frente a algunos problemas filosóficos insoslayables. Entre ellos y 39 Kant llama ‘analogías de la experiencia’ a los principios puros del entendimiento que corresponden a la categoría de la relación. Su fórmula general es: “la experiencia es sólo posible por la representación de un enlace necesario de percepciones”. Las analogías de la experiencia demuestran: 1° la sustancia es permanente en todos los cambios de los fenómenos y su cantidad no aumenta ni disminuye en la naturaleza (principio de permanencia de la sustancia); 2° todos los cambios acontecen según la ley del enlace de causa y efecto (principio de la sucesión en el tiempo según la ley de la causalidad); 3° todas las sustancias en tanto que pueden ser percibidas como simultáneas en el espacio, están en una acción recíproca general (principio de simultaneidad según la ley de acción y reacción o reciprocidad). principalmente: cómo explicar el conocimiento científico desde un punto de vista evolucionista cuando cada vez se encuentra más alejado de las condiciones y necesidades de la supervivencia biológica, más alejado en suma del ‘mesocosmos’; la cuestión del ajuste entre el mundo real y la representación, el problema de la verdad y el error y la cuestión del realismo. Como quiera que sea, las GE pueden considerarse un marco teórico general desde el cual plantearse el siguiente interrogante: ¿es posible considerar la existencia de cierta inclinación a la detección de lo semejante y lo distinto como un mecanismo básico de producción de conocimiento?. Evidentemente los desarrollos de la GE no van de manera inequívoca en auxilio del carácter constitutivo de las metáforas, pero, y dado el carácter ubicuo de éstas, bien puede sospecharse y a modo de hipótesis de trabajo que la detección/ construcción/ invención de analogías o semejanzas como un mecanismo básico –no necesariamente único o principal- de relación con el mundo, cuyos resultados más elaborados llamamos conocimiento. Incluso puede pensarse sin forzar demasiado las cosas que algunos principios lógicos elementales como el de identidad o el del tercero excluido surgen de disposiciones innatas surgidas de la particular filogenia exitosa de los humanos. La inclinación a agrupar/separar lo semejante/desemejante o a establecer analogías (metáforas) puede considerarse como una versión elaborada, aproximada, provisoria y práctica de esos principios. Una hipótesis semejante permite inferir que las metáforas literarias –también las malas- no son más que el resultado mediado y elaborado por el lenguaje y la cultura, sobre la base de aquellos mecanismos simples. También puede inferirse que el conocimiento científico, tan tardío en la historia de la especie, obtiene esplendorosos resultados de un uso cuidado y meticuloso de ese mecanismo elemental. Las metáforas en sus distintos usos no serían, entonces, más que epifenómenos emergentes. El carácter subsidiario de la lógica con relación a la supervivencia de los individuos y la especie ha sido subrayado por muchos autores que creen que la manera humana de pensar depende en buena medida del hecho de ser una especie animal que para sobrevivir ha debido incorporar y perfeccionar una serie de instrumentos que, tradición filosófica mediante, se han constituido en ‘principios lógicos’. El problema de la inducción que parece conducir según una lógica implacable al incómodo escepticismo humeano adquiere una nueva dimensión pensado en estos términos. Dando por descontado que hay regularidades en la naturaleza, y desechando la pregunta acerca de por qué hay tales regularidades por ser una cuestión oscura acerca de la cual es difícil ver “qué podría contar como una respuesta adecuada”, Quine ha planteado la cuestión con lucidez estableciendo las preguntas más fructíferas: “(...) por qué nuestra innata discriminación subjetiva de cualidades es acorde con las agrupaciones naturales de propiedades de tal modo que nuestras inducciones tienden a tener éxito? ¿Cómo es posible que nuestra discriminación subjetiva aprese la naturaleza y tenga vínculo alguno con el futuro?. Hay un rayo de esperanza en Darwin. Si la discriminación innata es un rasgo vinculado a la estructura genética, la discriminación asociada con las inducciones que han tenido éxito tendrá a predominar por selección natural.” (Quine, 1969 [1986, p. 161]) 5.2.2. la cuestión del realismo A la hora de abordar ciertos problemas filosóficos los defensores de la GE suelen tener una serie de problemas algunos de los cuales ya he abordado más arriba y, si bien no es este el lugar ni la ocasión para abordarlos con detalle, quisiera decir algo sobre una cuestión muy importante para la filosofía general de la ciencia: el problema del realismo. El realismo filosófico- cuando menos en el sentido que aquí interesa y en líneas generales- se opone al idealismo, y puede adoptar tanto versiones epistemológicas como ontológicas y, aunque en general suelen ir en bloque, no necesariamente una implica a las otras. Según el realismo ontológico el mundo, al menos en algunas de sus características, es ontológicamente independiente de cualquier acto de conocimiento. Según el realismo epistemológico el mundo es cognoscible en muchos aspectos en forma adecuada, aunque perfectible y parcial. Ese conocimiento se refiere al mundo y no es algo que el sujeto ponga en él. Algunos (Diéguez, 2002) diferencian este tipo de realismo del ‘realismo semántico’ según el cual “nuestras teorías sobre el mundo serán verdaderas o falsas en función de su correspondencia o falta de correspondencia con la realidad independiente”. Las distintas versiones de la GE defienden un realismo ontoepistémico, pero, y dado que ‘realismo’ no es un término unívoco, cabe preguntarse qué tipo de realismo puede defenderse consistentemente desde una GE40. La afirmación de que las cosas existen fuera e independientemente de la conciencia y del sujeto, resulta implicada por la teoría evolucionista, dramáticamente cuando lo que se juega es ni más ni menos que la muerte y la extinción. Está claro que en general los que defienden el realismo epistemológico también aceptan el realismo ontológico, aunque no necesariamente a la inversa. También queda claro que apostar por el realismo ontológico solamente resulta poco interesante, ya que es una tesis que podría ser “aceptable para instrumentalistas, neopragmatistas moderados, realistas internos, empiristas constructivos, relativistas, e incluso idealistas trascendentales, y constructivistas sociales” (Dieguez, 2002, p. 13). Sin embargo la cuestión adquiere dimensiones diferentes cuando de lo que se trata es de fundamentar el realismo epistemológico. Probablemente la identificación entre conocimiento y vida que hace la GE genere la fantasía de que el problema está resuelto. El realismo epistemológico41 presupone que dado que las capacidades cognoscitivas son el resultado de la evolución por selección natural, es decir que han sido seleccionadas por su eficacia biológica en cuanto favorecieron la supervivencia, nuestras creencias sobre el mundo deben ser aproximadamente verdaderas en muchos casos. En este sentido diría Quine que “las criaturas que yerran inveteradamente en sus inducciones tiene la tendencia patética, pero encomiable, a morir antes de reproducir su clase” (Quine, 1969 [1986, p. 161]) La versión más habitual es la del ‘realismo hipotético’ expresión que aparece por primera vez en un trabajo de Campbell (Campbell, 1987, 1997; cf. también Riedl, 1984; Vollmer, 1984, 1987). El realismo hipotético sostiene que toda teoría acerca del mundo empírico, es decir no formal, es hipotética, inclusive la afirmación acerca de la existencia del mundo externo. Esta forma rechaza por igual el realismo metafísico o ingenuo según el cual el mundo es tal como aparece, y el idealismo según el cual el mundo es mi representación. El realismo hipotético afirma que es plausible aceptar un cierto grado de objetividad del conocimiento, aunque ésta no sea ni absoluta en términos del fundacionalismo clásico, ni demostrable en sentido formal. La plausibilidad viene dada por las premisas de la teoría evolucionista, en el sentido de que la supervivencia de las especies (individuos) es más plausible bajo el supuesto que sus sistemas cognoscitivos no sean totalmente erróneos. Podría agregarse (Cf. Pacho, 1995, p. 89) que otras ciencias como la física o la neurofisiología permiten descubrir los mecanismos que determinan los límites y alcances de la experiencia corriente y confirmarían el carácter adaptativo del sistema filogenéticamente conformado42. La GE no fundamenta, ni en sentido prekantiano ni en sentido trascendental, ni la posibilidad ni los contenidos de conocimiento porque no se ubica en una instancia metateórica privilegiada sino a la par de las ciencias naturales. Sin embargo, cabe preguntarse antes de analizar el realismo hipotético mismo si en verdad la “astucia del realismo hipotético consiste en no saber lo ingenuo que es” (Low, 1984, p. 316). Lorenz sostenía en 1941 que “toda investigación de la naturaleza requiere imprescindiblemente y del modo más necesario un concepto de lo absolutamente verdadero.” 40 Castrodeza (1999) señala que se trata de una cuestión ociosa y sin sentido preguntarse por el realismo desde el evolucionismo 41 Algunos epistemólogos evolucionistas, como por ejemplo Ruse (1986), rechazan el realismo epistemológico. 42 Sobre el carácter circular de la argumentación expuesta cf. Pacho, 1990 y 1995; Vollmer 1987a. En la GE no aparece la hipótesis de que el mundo podría ser de otro modo a no ser como referencia a las limitaciones del intelecto humano y, por el contrario aparece constantemente una optimista ingenuidad sobre el acceso a una sui generis ‘cosa en sí’. La argumentación de la GE parecería conducir directamente a un relativismo interespecífico, y la admisión de una posición protokantiana refuerza ese derrotero, pero, el giro producido a partir de su interpretación de las categorías de Kant- entendida no como condiciones formales de posibilidad del conocimiento sino como limitaciones materiales perfectamente superables-, y la defensa de la verdad como correspondencia, lleva por el contrario a plantear una posición muy cercana al realismo ingenuo o metafísico. En este sentido se expresa E. M. Engels (1985, 1987, 1989), quien partiendo del concepto de conocimiento sustentado por la GE sostiene que ésta es inconsistente, pues su pretensión de explicación, entendida como ventaja selectiva por medio de la reconstrucción adecuada, es incompatible con el realismo hipotético y con la escala jerárquica de posibilidades cognitivas. Engels sostiene que si se presupone una realidad autosubsistente por sí misma, y una cierta jerarquía de logros cognoscitivos por parte de los seres vivos y de las especies, cómo habría de explicarse la supervivencia de especies cuyos logros cognitivos están muy por debajo de la reconstrucción humana de ese mundo. Incluso creencias definitivamente falsas pueden otorgar ventajas de supervivencia (Cf. Dieguez, 2002). Queda claro entonces que la GE, si bien no puede aportar argumentos concluyentes a favor del realismo ontoepistémico (¿por qué habría de hacerlo después de todo?), es compatible con él, aunque algunos de sus exponentes se extralimitan en cuanto a su apuesta por las características y alcances de ese realismo. Sin embargo es mucho más problemática la defensa del realismo semántico. Podríamos decir claramente que la verdad no necesariamente es más adaptativa que la falsedad. Sin embargo esta consecuencia de la GE no debería conducir a ninguna posición escéptica, sino más bien una suerte de relativismo interespecífico, o para ser más preciso un perspectivismo interespecífico. En efecto, las consecuencias de la particular filogenia de la humanidad es algo que ya había vislumbrado W. James: “Si fuéramos langostas o abejas, podría ser que nuestra organización nos condujera a usar modos de aprender nuestras experiencias completamente distinto de los que poseemos. Podría ser asimismo (no podemos negar esto dogmáticamente) que tales categorías, hoy inimaginables para nosotros, hubieran resultado tan útiles en general para el manejo mental de nuestras experiencias como las que realmente usamos.” (James, 1907 [1984, p. 145]) Una constitución biológica diferente y, por tanto una relación con el mundo exterior mediada por una estructura nerviosa surgida en la historia filogenética diferente deberían dar lugar a distintas estrategias de supervivencia y también modos inconmensurables de aprehensión de la realidad. El conocimiento humano incluida la ciencia no es, entonces, más que un producto provinciano y local. Y este perspectivismo antropomórfico es anterior a cualquier análisis de los relativismos subjetivo o cultural: es fundacional. Sobre esta cuestión se basa el ejercicio mental que realiza Rescher (1994) preguntándose por las características que tendrían la ciencia y el conocimiento de una hipotética civilización extraterrestre. Y llegados aquí no parece haberse avanzado demasiado: el problema filosófico del conocimiento sigue allí, intacto. Probablemente, y más allá de sus verdaderos aportes, las GE deban renunciar a la intención de dar cuenta de las condiciones y características más finas del conocimiento humano y de los problemas filosóficos involucrados en términos exclusivamente biológicos. Resumiendo: una GE es compatible con el realismo ontoepistémico y con un perspectivismo interespecífico, aunque no con el escepticismo ni con el realismo semántico 6. METÁFORAS EPISTÉMICAS EN LA EVOLUCIÓN DE LA CIENCIA. Antes de pasar a la segunda parte de este libro conviene hacer una recapitulación de lo dicho hasta aquí para precisar algo más en qué consiste este artefacto que he denominado ‘metáfora epistémica’ y algunas pautas para que sea considerada como unidad de selección en una EE . En el primer capítulo se ha avanzado en la consideración de las posibilidades y dimensión cognoscitivo/epistémica de muchas metáforas. Se trata de una concepción amplia de las metáforas, dado que extiende su ámbito de incumbencia, en contraposición al uso tradicional, restringido a propósitos estéticos. Según esta forma de ver las metáforas, ellas son portadoras de información sobre el mundo y tendrían un papel en la ciencia que va más allá de las funciones heurístico/didácticas. Además, se ha argumentado a favor de la necesidad de considerarlas según sus aspectos pragmáticos y semánticos en conjunto, ya que las metáforas dependen del uso y las circunstancias de los hablantes, y además, hay en ellas aspectos relacionados claramente con la transferencia/modificación de significados. También se ha mostrado que la frontera entre muchos de los modelos científicos y las metáforas se hace difusa; ya sea por el sorprendente parecido que muchos modelos científicos tienen con las metáforas en cuanto a la relación con el mundo empírico o ya sea con relación al hecho de que tanto los modelos científicos como las metáforas pueden funcionar como expresión literal u original de una expresión metafórica cuando se traslada a un ámbito diferente. A los conceptos, teorías, estructuras, nociones, etc. que sufren este traslado entre ámbitos científicos o bien que ingresan a la ciencia desde el lenguaje y las concepciones corrientes o bien desde el trasfondo mismo de la cultura se los ha denominado ‘metáforas epistémicas’, a las que es ha definido como la operación en la cual una expresión (término o grupo de términos) y las prácticas con ellos asociadas habituales y corrientes en un ámbito de discurso determinado socio-históricamente, sustituye o viene a agregarse (modificándolo) con aspiraciones cognoscitivo- epistémicas, a otra expresión (término o grupo de términos) y las prácticas con ellos asociadas en otro ámbito de discurso determinado sociohistóricamente; este proceso se desarrolla en dos etapas, a saber: bisociación sincrónica/literalización diacrónica. En el segundo capítulo se ha desarrollado un rápido repaso por los estudios sobre la ciencia del siglo XX, que muestra como resultado en las últimas décadas, una configuración peculiar del estado de la cuestión que propicia un clima permeable a la revalorización del papel de las metáforas en la ciencia. Pero este rescate de la dimensión metafórica de la ciencia tiene, como ya se ha señalado, un límite más o menos preciso: repensar la ciencia desde la relevancia epistémica de las metáforas supone la superación del dilema principal que se le plantea a la epistemología actual, en el convencimiento, como ya se adelantó, de que son tan indefendibles las tesis fuertes de la CH como las impugnaciones extremas de la misma. En ese sentido puede decirse que de la aceptación de que es necesario atender a los elementos contextuales y prácticos de la actividad científica (a la dimensión sociológica y diacrónica en suma), habida cuenta de su relevancia epistémica y de que en la ciencia habitual y cotidianamente se utilizan recursos discursivos y retóricos varios, no se sigue que se deba desdibujar la especificidad epistémica de la misma. Los estudios sociales de la ciencia, cuando menos en sus versiones más extremas, han caído en las aporías que generaron; por otro lado se impone reevaluar el valor cognoscitivo de las metáforas. La utilización del concepto de ME puede contribuir a rescatar las viejas aspiraciones de reconstrucción del proceso científico sin caer en las exigencias desmesuradas de la CH y al tiempo dar cuenta de los procesos diacrónicos sin caer en las versiones relativistas. Vale decir, abordar los genuinos problemas de la filosofía general de la ciencia acerca de la reconstrucción (relación entre teoría y experiencia; estructura de las teorías; papel heurístico y representacional de los modelos en ciencia; supuestos ontologicos, semánticos y pragmáticos de la ciencia) en el contexto de las condiciones social de producción y evolución del conocimiento. Ya se han señalado líneas de pensamiento que consideran el carácter eminentemente metafórico del lenguaje mismo y del lenguaje científico, pero, además de estos desarrollos teóricos, un indicio de la importancia de las metáforas en la ciencia surge de la constatación, a poco que se comience a indagar en la historia de la ciencia. Allí puede encontrarse que los procedimientos metafóricos no son excepcionales, sino más bien la regla. Se produce entonces un curioso y ostensible desfasaje entre la normativa canónica respecto del uso de metáforas y lo que muestra la historia y las prácticas efectivas de la comunidad científica. Esta disparidad notoria entre el precepto metodológico sobre lo que debería haber y lo que muestra efectivamente el recorrido a través de varios siglos de ciencia debe cuando menos llamar la atención. El objetivo principal del presente Capítulo ha sido trazar un panorama más o menos amplio de las EE, es decir intentos por dar cuenta de los desarrollos históricos de la ciencia utilizando la metáfora evolucionista mostrando algunas de las deficiencias de esos planteos pero rescatando la idea evolucionista básica en el convencimiento de que es posible lograr una formulación de EE que pueda eludir las objeciones más importantes echando mano del concepto de metáfora epistémica como unidad de selección, dado que es lo suficientemente amplio y flexible como permitir explicar la continuidad ciencia/sociedad y la relación entre ciencias. Si esta empresa tuviera éxito, permitiría tener una perspectiva nueva, probablemente no excluyente de otras, para dar cuenta de la dimensión diacrónica de la ciencia y del conocimiento en el marco de una epistemología evolucionista amplia que incluyera los problemas del desarrollo ontogenético, filogenético e histórico del conocimiento. Además, he especulado sobre la posibilidad de considerar la producción de metáforas como uno de los mecanismos básicos del conocimiento y la producción del lenguaje; que las metáforas, en suma, pueden ser consideradas como una regla epigenética. 6.1 epistemología evolucionista y metáforas epistémicas Pero no se trata tan sólo de engrosar un catálogo de metáforas a través de la historia de la ciencia y algunas de sus prácticas habituales, sino de establecer algunas categorías o criterios metacientíficos. Resumiré lo dicho bajo la forma de unas pocas afirmaciones básicas: 1. La constitución del sistema cognitivo es a priori de la experiencia individual, pero se ha desarrollado filogenéticamente, es decir que su adquisición ha tenido lugar a posteriori de la experiencia evolutiva de la especie merced al éxito adaptativo de la misma. Por tanto, lo que llamamos ‘razón humana’ es un producto evolutivo, directa o indirectamente -incluye aspectos culturales relevantes per se o que podrían eventualmente influir en la evolución biológica- originado por el proceso evolutivo. Todos los elementos que componen el aparato cognoscitivo son parte del mundo real pero no a la inversa. La naturaleza es temporal y estructuralmente primera, determinante con respecto a la razón con sus órganos y funciones específicos. 2. como derivación de lo anterior puede afirmarse que hay umbrales de continuidad entre el conocimiento animal y el conocimiento humano. Se trata de un aspecto parcial de las consecuencias generales de la teoría de la evolución con respecto a la relación de la especie humana con el resto del mundo viviente. 3. El órgano cognitivo- o si se quiere en un sentido más general, las estructuras cognitivas no son tan sólo receptoras ni vacías o neutrales, sino portadoras de información o esquemas de interpretación del mundo exterior (desde rangos de la percepción, hasta prejuicios constitutivos, hipótesis, previsiones, persuasiones, etc.); esta información es inherente a las funciones del sistema cognitivo. Los niveles de conocimiento más elaborados, por ejemplo el conocimiento científico, supervienen a partir de las estructuras cognitivas más simples, por lo cual puede explicarse no sólo la continuidad, sino también la ruptura y discontinuidad con el conocimiento animal. La superveniencia explica – contra algunas versiones de la GE (REFERENCIA????)- que las formas más elaboradas de conocimiento no pueden reducirse a algunas funciones básicas primordiales 4. Existe un mundo real e independiente del sujeto y de sus representaciones, parcialmente cognoscible y explicable, de modo hipotético, provisional y falible. Las estructuras cognitivas concuerdan tan sólo parcialmente con las del mundo real, ya que la concordancia no es en el proceso de adaptación un fin en sí mismo, sino que está al servicio de la supervivencia. Como consecuencia de ello, es posible sostener que la función primordial de las estructuras cognitivas no es el conocimiento objetivo de la realidad, sino el éxito en la supervivencia. Como una consecuencia posible de esto puede pensarse que el error no debe ser concebido como un defecto circunstancial del sistema cognitivo sino que se le debe asignar un status diferente, como elemento consustancial con el funcionamiento del mismo, en la medida en que no es la verdad su objetivo, sino la apropiación interna del mundo exterior con fines utilitarios. 5. una buena parte de los procesos humanos de conceptualización y de aumento de conocimiento –aunque probablemente no todos- se desarrollan según un procedimiento de tipo metafórico. A su vez, la configuración de los procesos cognoscitivos se ha dado a lo largo de la historia evolutiva de la especie y son el resultado único y particular de esa filogénesis entre otras posibles que no han tenido lugar. Puede suponerse que los procesos metafóricos sean parte del resultado de esa evolución filogenética. 6. hipótesis de continuidad: las primeras metáforas que podríamos, según algún criterio reconocido, considerar científicas, pueden haberse introducido desde ámbitos no científicos o de conocimiento vulgar, o bien provenir de otros campos científicos consolidados. 7. hipótesis de discontinuidad: dado que la ciencia constituye un tipo de actividad y producto específico la hipótesis de continuidad debe ser completada con una hipótesis de discontinuidad. La discontinuidad puede ser expresada desde dos puntos de vista: por un lado está dada por el alejamiento constante entre conocimiento como ventaja de supervivencia y conocimiento científico teórico (esto es, desvinculado del mesocosmos); por otro lado, en el hecho de que una epistemología que se redujera a una GE sería epistemológicamente vacía, ya que el modelo de variación/selección/replicación, podría ser aplicado tanto a la ciencia como a la moda, la historia de las sectas, e infinidad de otros procesos. Puede leerse la historia de la ciencia o el funcionamiento de la comunidad científica desde un punto de vista epistemológico y sociológico como fundado en el tráfico metafórico de modelos de un ámbito a otro sin que necesariamente ello implique la indagación sobre el funcionamiento profundo y específico del aparato cognoscitivo de los humanos. Pero afirmar que la historia de la ciencia puede leerse según un modelo evolucionista en el cual los elementos de intercambio son las metáforas, requiere una serie de precisiones. 6.2 la evolución de la ciencia Sostener que la historia de la ciencia puede ser comprendida según un modelo EE implica bastante más que mostrar un catálogo más o menos exhaustivo de ejemplos adecuados elegidos estratégicamente. Se trata de una apuesta más fuerte: entender la historia de la ciencia desde un punto de vista evolucionista, considerándola como un proceso que en buena medida se constituye a partir de la apropiación, legitimación, abandono, descarte y recuperación de las potenciales metáforas disponibles. Esta disponibilidad no es lógica sino histórica; vale decir que en cualquier momento dado, no está disponible un universo infinito de metáforas posibles, sino que, por el contrario, hay en cada época un escaso número de candidatos a imágenes de la sociedad y el mundo suficientemente legitimados. Estos conceptos, teorías, nociones, etc., susceptibles de ser utilizados como ME conforman, utilizando una terminología popperiana, una especie de mundo3, pero si bien Popper tiene razón cuando sostiene que hay un mundo objetivo de las producciones humanas y de los argumentos y teorías científicas, se equivoca en dos aspectos sustanciales: cuando afirma que es un mundo lógico y cuando afirma que hay un método universal, las conjeturas y refutaciones. El mundo3 propuesto aquí, al igual que el popperiano es objetivo, pero, a diferencia de aquél, no se trata de un mundo lógico, sino del mundo de las explicaciones disponibles, es decir es un mundo3 delimitado histórica y socialmente43. Es objetivo porque la ciencia no es una actividad arbitraria sujeta sólo a reglas que puedan fijarse por intereses circunstanciales del tipo que sea (sociales, culturales, históricos, económicos, etc); además, puede decirse que se autonomiza de los autores o creadores y sus consecuencias son, en principio, imprevisibles. Es decir que genera un universo de nuevas preguntas e indagaciones científicas cuyo éxito o fracaso explicativo y derivaciones hacia otros campos y preguntas no es posible prever a priori. También se diferencia del mundo3 popperiano en que no hay ningún algoritmo que pueda propiamente denominarse ‘método científico’, único para todo tiempo y lugar (las conjeturas y refutaciones) como regla de oro a seguir, sino que las reglas y pautas metodológicas específicas son generadas al interior de la comunidad científica; no hay en este sentido – más allá de los principios lógicos- pautas que se prescriban a priori de la actividad científica. Pensar la historia de la ciencia desde un punto de vista evolucionista implica que debe haber una cantidad de variantes intelectuales y un proceso de selección que determine qué variantes sobreviven y cuáles se abandonan y, completando el proceso, algún mecanismo de transmisión de las variantes sobrevivientes. Respecto al primer aspecto no es necesario pensar aquí que se trata únicamente de teorías científicas reconocidas y consolidadas, aunque pueden serlo, sino que en este mundo3 operan todo tipo de estructuras conceptuales, modelos de distinto tipo, concepciones metafísicas, taxonomías filosóficas, científicas o de sentido común, prejuicios, etc., y todos ellos pueden cumplir el papel de original para unas metáforas que puedan convertirse en epistémicas. El modelo de EE que defiendo, y esto representa una ventaja con relación a las otras EE, no requiere que las variantes en disputa sean logros científicos consolidados, sino que el origen y genealogía de las metáforas que se convertirán a la postre en partes sustanciales de las teorías y/o modelos científicos puede ser sumamente variado y heterogéneo. No es necesario pensar, con Popper, que se trata exclusivamente de ‘teorías científicas’ en lucha por la supervivencia –aunque de hecho pueda ocurrir-, sino de unidades de bordes más difusos; mucho menos engendros teóricos como los memes de Dawkins (1993) o los culturgenes de Lumsden y Wilson (1981). Estoy más cerca de pensar, con Toulmin, que se trata de variantes intelectuales que merced a ciertos requisitos de evaluación, éxito en la solución o explicación de ciertos problemas y condiciones contextuales propicias, pueden llegar a convertirse en candidatos a teorías o modelos científicos genuinos. Las discusiones entre los epistemólogos evolucionistas acerca de cuál es la unidad que se selecciona queda diluida: es mejor y más plausible considerar que hay una multitud de clases de variantes en disputa. En este sentido se comprende por qué es irrelevante en principio que la unidad que se selecciona sea tan inasible. De cualquier manera, traspasar el umbral de requerimientos de la comunidad científica ocurrirá en la medida en que respete sus pautas de evaluación y aceptabilidad. Una mala metáfora científica no podrá responder a los estándares de evaluación requeridos, por lo menos no por mucho tiempo. Pero los mecanismos de selección entre todas las metáforas disponibles son internos a la comunidad científica, y aún el status mismo de comunidad científica y la demarcación entre ciencia y lo que se considera no-ciencia, resulta acotada a las condiciones histórico/sociales de producción, 43 Aunque a los efectos de la presente argumentación no resulte relevante, es necesario destacar que planteado en estos términos el mundo3 debería probablemente incluir el mundo2 popperiano. En todo caso me aprovecho de la terminología popperiana para señalar el carácter autónomo y objetivo de los contenidos del mundo 3. circulación y disputas entre los distintos saberes. De modo tal que tampoco es preciso pensar unos procedimientos canónicos que permitan establecer estas distinciones a priori, sino que los procedimientos de selección y los criterios también están sujetos a evolución. Probablemente alguna de las insuficiencias de las distintas EE radique en que o bien están pensadas dentro de las acciones de la comunidad científica o bien postulando unidades de selección tan vagas que no hay manera de establecer la especificidad de la ciencia. Pero puede pensarse en unas metáforas epistémicas que, provenientes desde el fondo mismo de la cultura, diacrónicamente vayan creciendo en especificidad, formalidad y precisión a través de instancias de selección previas que no corresponden a las comunidades científicas, sino a mecanismos sociales o culturales en sentido amplio. De hecho, estos procesos e instancias de ‘selección previa’ son primordiales en toda actividad cognoscitiva y para cualquier abordaje epistemológico no estándar. El tercer elemento requerido, el mecanismo de transmisión de la variación, es en su aspecto relacionado con los canales de obtención de información e intercambio de la comunidad científica el menos sujeto a problemas y controversias. Resulta primordial no obstante, y a propósito de las metáforas epistémicas, los aspectos relacionados con la formación de los científicos, en la cual como ya se ha mostrado más arriba siguiendo en esto a Th. Kuhn, desempeñan un papel central. Probablemente los estudios de retórica de la ciencia sean útiles para dar cuenta de esta parte de los procesos. A esta altura, hablando de metáforas, podríamos ensayar una caracterización preliminar de la ciencia desde este punto de vista evolucionista: consistiría en un conjunto de decisiones cognoscitivo/epistémicas de aceptación/rechazo de metáforas epistémicas que toma la comunidad científica sobre la base de las metáforas disponibles como respuesta a un conjunto de preguntas vigentes, para dar cuenta de un conjunto amplio, pero limitado y abierto, de experiencia disponible. Son decisiones que toma la comunidad científica en un lugar y tiempo determinado, vale decir con un cierto margen de convencionalidad como toda decisión, pero son racionales y objetivas porque responden a pautas que esa comunidad científica ha ido elaborando a través del tiempo e intersubjetivamente, aunque de hecho tales pautas no sean ni universales ni a priori. Son decsisiones que comprometen cognoscitiva y epistémicamente, es decir, que con ellas se pretende describir/explicar/predecir el mundo por un lado, y además, están en línea con las pautas aceptabilidad y legitimidad de la comunidad científica. Estos últimos aspectos confieren la especificidad al conocimiento científico en particular respecto a otros discursos. Lo que se elige o selecciona son metáforas epistémicas que a través del proceso que se ha denominado de bisociación sincrónica/literalización diacrónica confieren a la experiencia disponible nuevas configuraciones. La ‘experiencia disponible’, incluye lo que en un momento determinado se considera evidencia empírica que es un conjunto cuyos límites no son definitivos ni claros; se trata en suma de la base empírica relevante que se enriquece y reconfigura mediante nuevas metáforas epistémicas. Es muy importante el calificativo – ‘disponible’- usado en este concepto. Tal disponibilidad está expresando un límite que está dado no sólo por las capacidades humanas –lo cual es una trivialidad-, y ni siquiera primordialmente por las capacidades técnicas –que, si limitadas, también son superables imprevisiblemente- sino principalmente por la configuración, inmanente a la comunidad y discursos científicos vigentes de lo que se considera un ‘hecho científico’ y sus condiciones. En suma mi propuesta de EE parece tener algunas ventajas con respecto a otras conocidas porque: • considerar que las unidades de selección son las ME convierte en irrelevante la discusión en torno al ajuste/desajuste de la metáfora • permite establecer un juego de continuidad/discontinuidad entre conocimiento animal/ conocimiento vulgar/ conocimiento científico sin recurrir a criterios de demarcación estrictos pero indefendibles o laxos pero irrelevantes. En todo caso, si se quiere seguir hablando de criterios de demarcación que expresen la discontinuidad, éstos serán criterios internos a las comunidades científicas en su conjunto y situados sociohistóricamente • • • Se encuentra a tono con el estado de la cuestión en los estudios sobre la ciencia con relación a la relevancia de los análisis diacrónicos pero además provee de una herramienta de análisis para los abordajes sincrónicos Permite vislumbrar una explicación de la introducción de la novedad en la ciencia, al tiempo que una relación osmótica (hablando de metáforas) entre ciencia y sociedad dado que en cualquier momento hay una cantidad de metáforas disponibles circulando socialmente. Las novedades en ciencia hay que buscarlas en ámbitos extra o si se prefiere pre-científicos. En ese sentido, las habituales disputas acerca de la necesidad de delimitar entre historia interna/ historia externa, adquieren otra dimensión y permite establecer un puente plausible para las relaciones entre ciencia y sociedad. El análisis evolucionista de las metáforas epistémicas resulta compatible con distintos tipos de secuencias historicas para la ciencia, resultando ocioso cualquier intento de establecer a priori si la ciencia resulta de un proceso principalmente revolucionario o de acumulación lineal. SEGUNDA PARTE LAS METÁFORAS EN LA HISTORIA DE LA CIENCIA CAPITULO 4 LAS GRANDES METÁFORAS Imágenes del universo Lo que calificamos de evolución en el pensamiento es muchas veces tan sólo la sustitución transformadora, en ciertos puntos críticos de la historia, de una metáfora-base por otra, en la contemplación por el hombre del universo, de la sociedad y de sí mismo (Nisbet, Cambio social e historia) Un repaso por la historia de la ciencia muestra que la transferencia de metáforas epistémicas es uno de los procedimientos más importantes de producción y desarrollo del conocimiento. Sin embargo, las ME no son una suerte de ‘módulo’ estándar, identificable claramente, sino que adquiere variadas formas, niveles y alcances. Como, además, el rastreo de la génesis de las principales metáforas científicas llevaría muy probablemente al trasfondo semioculto de la cultura –ese saber ventrílocuo, en palabras de P. Thuillier (1990a)-, resulta muy difícil establecer clasificaciones o taxonomías exhaustivas. Sin embargo, pueden señalarse algunas formas principales o típicas según las cuales se producen entre áreas del conocimiento interacciones tales como apropiaciones, extrapolaciones o transferencias de conceptos, o teorías completas o parciales. 1. En primer lugar la utilización de metáforas muy generales, muchas veces asunciones metafísicas sobre la naturaleza o la sociedad, aplicadas en distintas disciplinas o áreas de conocimiento como por ejemplo el finalismo de raigambre aristotélica basado en el concepto de physis griega y que predominó en muchos sentidos hasta el siglo XVII, o el mecanicismo que signó las explicaciones desde el siglo XVII hasta, por lo menos en física, fines del XIX. En la medida en que se trata de puntos de vista muy amplios suelen ir en paralelo con fuertes componentes metodológicos, o cuando menos inaugurar verdaderos ‘estilos’, tales como la matematización y cuantificación de la naturaleza a partir de la Revolución Científicas. Estas grandes metáforas operan en la configuración de la experiencia disponible en un momento dado, de modo tal que constituyen el elemento primordial que posibilita la producción de conocimiento; antes que ser un emergente secundario, ellas delimitan el campo de lo posible cognoscitivamente (cf. Jacob, 1981) en un momento dado. 2. En segundo lugar, la utilización de cuerpos teóricos completos - o casi completos- originales de un ámbito científico particular que se exportan o extrapolan a otros ámbitos diferentes. Podría citarse una gran diversidad de casos, aunque existen, en la modernidad, básicamente tres ejemplos paradigmáticos: la física newtoniana y la biología en general y la biología evolucionista darwiniana en particular. La física newtoniana además de constituirse en modelo de cientificidad durante más de dos siglos, sus conceptos y fórmulas fueron extrapoladas, con mayor o menor rigurosidad, meticulosidad y felicidad a ámbitos ajenos como la economía y la sociología. Por citar tan sólo algunos ejemplos: a mediados del siglo XIX los economistas L. Walras y H. C. Carey propusieron leyes que pueden ser consideradas análogas a las de Newton en la medida en que pudieran servir a la misma función básica en sociología o economía que tiene la ley de Newton en física. Autores como G. Berkeley, Ch. Fourier, D. Hume, E. Durkheim, por ejemplo, tampoco pudieron sustraerse a la ‘tentación’ newtoniana. Figuras como S. Jevons, Walras, F. Edgeworth, I. Fisher y W. Pareto- todos arquitectos de la revolución marginalista en economíabasaron sus teorías o al menos las asociaron con la matemática de un subconjunto específico de la física: la mecánica racional post newtoniana (o sea incorporando los principios de Lagrange y Laplace más los métodos de Hamilton) combinada con las doctrinas de la energía. La otra gran línea de campos proveedores de modelos utilizados en otras áreas procede de las ciencias biológicas sobre todo a partir de sus espectaculares desarrollos de los siglos XIX y XX. En esta línea, además de la teoría celular de gran influencia en la sociología del siglo XIX, la teoría darwiniana de la evolución es la que más ha desbordado los límites originales de la biología, sirviendo de marco teórico para la antropología evolucionista de la segunda mitad del siglo XIX, la antropología criminal de Lombroso y otros, cierto apoyo a lo que ha dado en llamarse ‘darwinismo social’, teorías sociológicas de corte organicista evolucionista como la de Spencer y Durkheim, la eugenesia, que apoyada sobre la teoría de la evolución, sirve de legitimación para diversas tecnologías sociales, las economías evolucionistas de las últimas décadas (como teoría económica general, como teoría de la empresa o economía de la innovación tecnológica) y también epistemologías evolucionistas. Algunas versiones reduccionistas del conocimiento pueden ser consideradas una suerte de uso metafórico, tales como la sociobiología humana; distintas formas y niveles de reduccionismo en medicina, etc. El análisis de mente como una computadora, o de la computadora como una mente. Probablemente una de las metáforas vigentes más fuertes sea la que une algunos conceptos de la teoría de la información y la idea de ‘programa’ con la biología molecular. 3. En tercer lugar, un uso algo más restringido de metáforas, surge de una infinidad de casos al interior mismo de los cuerpos teóricos de disciplinas particulares. Se tratano ya de metáforas que se obtienen de la exportación de teorías y/o conceptos provenientes de disciplinas consolidadas hacia otras, sino simplemente de analogías y metáforas obtenidas del conocimiento común o del imaginario cultural. La lista de metáforas usadas por los científicos podría ser casi interminable: el árbol de la vida, la lucha por la supervivencia, la enorme cantidad de metáforas usadas por Freud, la ‘mano invisible’, el mercado en economía, etc. 4. Finalmente se encuentran los usos metafóricos propios de los propósitos didácticos, tanto en la enseñanza de la ciencia como en la divulgación científica. Se trata de un caso muy especial en dos sentidos: por un lado porque parece resolverse aquí la posibilidad misma de enseñanza y divulgación para no especialistas y, por otro también tienen un papel fundamental en la educación de científicos y la divulgación especializada, es decir en la formación académica y profesional, tal como mostrara claramente Th. Kuhn. En ambos casos, diferentes en muchos otros respectos, el uso de metáforas corrientes y establecidas contribuye a construir y a reforzar imágenes culturales sobre el mundo y la ciencia. De hecho es necesario destacar una vez más, que en oposición a la imagen tradicional de la ciencia, no sólo no es este el único uso relevante y pertinente de metáforas como meras estrategias instrumentales de aprendizaje, sino que además este nivel resulta fundamental en la constitución de marcos teóricos y conceptuales sustantivos. En este capítulo se abordarán las grandes metáforas, muy generales y básicas, que funcionan muchas veces como supuestos metafísicos sobre el mundo y atraviesan distintas disciplinas o áreas de conocimiento; funcionan en general como verdaderas imágenes del mundo. Estas metáforas básicas conllevan también, además de contenidos sustantivos teorías, conceptos, taxonomías, clasificaciones, etc.- determinados criterios de cientificidad y ciertos estilos o modos generales de hacer ciencia, compuestos muchas veces no tanto por reglas o pautas metodológicas establecidas claras y explícitamente, sino más bien por la transferencia de sistemas de valores. Estos valores, aunque pueden tener diversa génesis y origen, siempre adoptan la forma de valores epistémicos, es decir que importan a la hora de tomar decisiones sobre justificación y aceptación de las afirmaciones científicas. Quizá no sea demasiado aventurado pensar que los ejemplos de estas metáforas muy amplias, que, por otra parte, han atravesado todo el conocimiento de sus épocas y han perdurado durante siglos, tengan su origen en las principales y más simples fuentes de inspiración de la experiencia humana cotidiana, las que están más a la mano: en lo viviente en general o en algunas de sus funciones o características, muchas veces en versiones estrictamente antropomorfizadas y por otro lado en alguna creación humana siendo el ejemplo más ostensible, aunque no el único, las máquinas creadas por el hombre en distintas versiones y relaciones con el mundo de lo viviente y de lo no viviente. Probablemente el ejemplo más influyente del primer caso aparezca en la herencia del mundo griego clásico, originada en su concepto de physis, y que ha perdurado y adquirido variadas formas a lo largo de siglos. Antes de proceder al tratamiento de los ejemplos de la historia de la ciencia es necesaria una breve digresión sobre el estatus de estos ejemplos en general- es decir sobre la relación entre historia y filosofía de la ciencia- y en particular en este trabajo. El campo interdisciplinario de los estudios sobre la ciencia incluye tanto las perspectivas estrictamente filosóficas como así también las históricas, además de otras como la sociología o la retórica. Este nuevo orden de la distribución de incumbencias intelectuales- tanto en le tándem filosofía/historia de la ciencia como en cualquier otro- a veces parece un solapamiento de disciplinas, es decir que, sin que ninguna dependa de la otra, algunas de las conclusiones alcanzadas en una de las disciplinas coinciden con las alcanzadas en la otra; otras veces la relación parece de interdependencia, de modo que cada una necesita de la otra para desarrollarse. La ya clásica expresión de Lakatos señala este aspecto: “La filosofía de la ciencia sin la historia de la ciencia es vacía; la historia de la ciencia sin la filosofía de la ciencia es ciega” (Lakatos, 1970 [1982, p. 11]). Tanto el solapamiento como la interdependencia son resultado de la creciente conciencia de la necesidad de abordar los aspectos diacrónicos de la ciencia (cf. Capítulo 2) registrada en las últimas décadas. Estos puntos de vista son superadores tanto de aquellos en los cuales la historia y la filosofía de la ciencia eran perspectivas excluyentes o completamente independientes, como de aquellos que pudieran considerar que una perspectiva fuera subsidiaria de la otra (cf. Kuhn, 1977, Lakatos, 1968, 1970, Losee 1987). Como quiera que sea, apostar por la idea según la cual hay un solapamiento o interdependencia entre filosofía e historia de la ciencia, implica el desarrollo de un tratamiento particular de los episodios científicos. En este sentido, pretender que la historia de la ciencia puede ser leída en clave de metáforas epistémicas en evolución, implica llevar adelante el trabajo artesanal de analizar exhaustivamente cada uno de esos episodios. Esa tarea es algo que está por hacerse y la propuesta que se expone en la primera parte de este trabajo debe considerarse como un complejo conjunto de hipótesis de trabajo cuya utilidad y riqueza deberá confirmarse. En los estudios sobre la ciencia estándar se echa mano de ejemplos a través de una selección estratégica que contribuye siempre a ‘probar’ algún punto de vista particular. Pero también es cierto que es posible encontrar una enorme cantidad de contraejemplos; la historia de la ciencia falsea cualquier metodologia señalaba Lakatos (1970, [1982, p. 46]). Por ello, insisto una vez más, el objetivo perseguido no es que los ejemplos que se desarrollarán en este Capítulo y en el siguiente justifiquen de algún modo los desarrollos teóricos o técnicos de la primera parte, sino más bien exponer un abanico amplio de casos en los cuales puede sospecharse fuertemente el uso epistémico de metáforas. Tales sospechas pueden manifestarse en algunos casos más intuitivamente, en otros de manera mucho más clara. En todo caso, el análisis exhaustivo de cada uno de los episodios señalados, o de otros que puedan agregarse, puede indicarse como tarea a desarrollar. 1. LAS METÁFORAS DEL MUNDO CLÁSICO 1.1 la esfera y el círculo: el problema de Platón “El sueño se hace a mano y sin permiso, arando el porvenir con viejos bueyes...” S. Rodríguez Uno de los grandes problemas de los hombres ha sido, desde la antigüedad, dar cuenta del movimiento de los objetos del cielo. En la versión platónica – y en general del mundo clásico-, esta explicación debía tener como resguardo para la verdad, su respeto por el mundo inteligible según el principio: “los verdaderos movimientos son perceptibles para la razón y el pensamiento, pero no para la vista”. La impronta del mundo inteligible en lo sensible regida por los principios de orden, armonía, simplicidad, proporción y simetría, sólo podía expresarse en términos matemáticos –geométricos- y las formas más caras a esos ideales eran la circunferencia (círculo) y la esfera. El problema de hallar los movimientos circulares uniformes y regulares que puedan explicar la evidencia empírica disponible –las apariencias de los movimientos de los objetos del espacio-, es conocido como el problema de Platón y estos criterios de tipo matemático- estético van a traer consigo la adopción de compromisos muy precisos, que influirán decisivamente en el desarrollo de la astronomía desde el siglo VI a.C. hasta el siglo XVII. Esta marca tan persistente podría resumirse como sigue: 1. Tanto los cuerpos celestes como la Tierra tienen forma de esfera 2. El cosmos tiene forma de esfera (es finito) 3. La Tierra se halla en el centro de la esfera cósmica 4. Todos los movimientos celestes son circulares y en el mismo sentido La idea de que el movimiento circular era perfecto estaba muy arraigada en la mentalidad griega y Aristóteles la justificaba señalando que dicho movimiento es el único simple y completo. En efecto, si el movimiento rectilíneo tiene una dirección simple (hacia abajo por ejemplo), no es completo puesto que no contempla el movimiento en la dirección inversa y si fuera completo no sería simple ya que el móvil debería seguir consecutivamente direcciones diferentes. En el movimiento circular en cambio, el punto final también es el punto inicial, es decir que cada punto del recorrido se puede considerar un punto medio, final o inicial. 1.2 La noción griega de physis A. O. Lovejoy en su obra La gran cadena del ser, en la cual sigue las pautas de su programa de historia de las ideas, señala diversas formas que adquiere un conjunto de presupuestos teóricos en diversos autores y en diversas épocas. La idea (o complejo de ideas) de la gran cadena del ser fue la más utilizada en todos los intentos teológicos para explicar el origen del mal y para demostrar el orden e inteligibilidad del mundo y Lovejoy señala a Platón como su iniciador. Básicamente este complejo de ideas sostiene: la existencia de una continuidad de todo lo existente, sin huecos ni fisuras de ninguna clase, expresada metafóricamente con la imagen de una gran cadena regida por los principios de plenitud, de continuidad y de completitud; • expresión de un orden constitutivo del universo y de la racionalidad e inteligibilidad de éste; • posibilidad (o necesidad) de acceso a la existencia de todas las formas de existencia posibles: todo lo que es posible puede llegar a ser (y será) real. Pero comprender las exigencias platónicas presupone una noción mucho más básica – la physis - que le sirve de marco y a la vez impregna la filosofía aristotélica, interlocutora del mundo moderno. Es por ello que resulta indispensable detenerse un poco en ella. Significa ‘nacer’, ‘producirse algo’, ‘brotar’, o como sustantivo: ‘lugar’, ‘estado’. En este sentido ha sido traducida a menudo por ‘naturaleza’ -del latín nascor- que también significa ‘nacer’, ‘generar’. En su primera acepción, pues, la physis designa tanto el origen como el desarrollo de cualquier cosa o proceso. Especialmente éste es el sentido que adquiere en la primera filosofía presocrática, razón por la que Aristóteles llama ‘físicos’ a los filósofos jónicos, Empédocles, Anaxágoras y los atomistas, aunque excluyendo a los eleatas y los pitagóricos (Física, 184b 17). En la medida en que para los milesios la physis es la causa de todo movimiento y de toda vida, esta noción va unida a su hilozoísmo. En el período sofista la physis, aquello que tiene su razón de ser en sí mismo, se contrapone al nomos, es decir aquello que es ley pero también fruto de un convenio, acuerdo o convención. De ahí que Antifonte afirme que mientras las leyes humanas pueden ser transgredidas, las leyes de la physis no pueden serlo. Posteriormente los estoicos relacionarán la physis, en cuanto principio activo, con el • logos. La ética, según ellos, deriva de las leyes de la misma physis, y el sabio es quien sigue los designios de la naturaleza. Por su parte los neoplatónicos conciben la physis como la parte más inferior del alma, en contacto con lo que ya casi propiamente no es, razón por la que Plotino define la physis como el alma fuera de sí. En el cristianismo, fuertemente influenciado por el estoicismo y el neoplatonismo, se tiene en cuenta, no obstante, la necesaria separación entre Dios creador y naturaleza creada, puesto que se trata de una teología de la pura trascendencia, no de la inmanencia, propia del pensamiento pagano. De ahí la famosa división entre natura naturans y natura naturata. Como se ve, el concepto de physis, se encuentra profundamente imbricado en el pensamiento griego, pero aquí nos detendremos fundamentalmente en la versión aristotélica, quien en su Metafísica, ubica los tres primeros significados de physis en términos de crecimiento o generación: “la generacion de objetos que crecen”, “el primer componente del que crece un objeto en fase de crecimiento” y “la fuente de la que el movimiento empieza primero en cada cosa natural y que pertenece a esa cosa en cuanto tal cosa”. Incluso el Estado es explicado a través del mismo concepto: “Si las formas primitivas de la sociedad son naturales, también lo es el Estado, pues es el fin de las mismas, y la naturaleza completada es el fin. Pues lo que es cada cosa al llegar a su completo desarrollo, lo denominamos su naturaleza, ya hablemos de un hombre, de un caballo o de una familia” (Aristóteles, Política) Este punto de vista, entonces, concibe al ser haciéndose. Las nociones de materia y forma por un lado, y potencia y acto por otro, de la metafísica aristotélica se encuentran en línea con este punto de vista. Asimismo, las denominadas cuatro causas44 de Aristóteles pueden considerarse en suma, puntos de referencia para conocer la physis de algo y debería buscarse su origen, en primer lugar en una concepción de la realidad en la que el desarrollo y el devenir eran propiedades primarias. Como apreciación general puede decirse que la filosofía aristotélica posee dos rasgos fundamentales. En primer lugar el carácter jerárquico de todo lo que sucede o está en el universo. Así como hay objetos superiores y más perfectos (los objetos celestes), y objetos inferiores (los objetos del mundo sublunar), el conjunto de lo viviente conforma un ordenamiento de lo menos imperfecto hasta lo más perfecto- el hombre- y aun en las sociedades humanas habrá hombres mejores que ocuparán por su propia naturaleza un lugar de privilegio y hombres inferiores que se ubicarán en los estratos inferiores: el rey nace rey y el esclavo nace esclavo. El hombre libre es un zoón politikón es decir un animal social por naturaleza. Es por ello que la realización de su finalidad esencial consistirá, básicamente, en conformar sociedades y actuar políticamente. En segundo lugar el carácter teleológico de este universo: todos los objetos del mismo, desde los hombres hasta las piedras, tienden a ocupar el lugar que les corresponde según una jerarquía natural y en cumplimiento de una finalidad que les es propia y esencial. El desarrollo (y el cambio) de lo real se explica a través de los conceptos de potencia y acto. Cada cosa contiene en potencia la capacidad de desarrollar sus características esenciales, es decir aquellas que le hacen ser lo que es y no otra cosa y la puesta en acto de esas potencialidades es el desarrollo de su finalidad esencial. Por detrás del modelo teleológico se esconde un pensamiento de origen animista aunque no asimilable a otros modelos animistas primitivos pero sí deudor de la mentalidad griega. “Los griegos permanecieron muy vinculados al cosmos como consecuencia de considerarlo un organismo viviente un cuerpo que puede ser comprendido y aprehendido en su totalidad. Los griegos poseían un profundo sentido de conciencia, que se caracterizaba por un enfoque biológico hacia el mundo de la materia. El principio teleológico es esencialmente biológico y antropomórfico, de forma que la primera base para la concepción del orden en el universo fue hallada en el sistema del mundo de los seres vivientes" (Sambursky, 1990, p. 34) 44 Se trata de la causa material- la sustancia en bruto y sin desarrollar del ente que experimenta el desarrollo-; la causa formal – o esquema del desarrollo revelado desde el principio al fin; la causa eficiente o causa motriz – mecanismo mediante el cual se mantiene en marcha el proceso de desarrollo; y por último y tal vez la más importante, la causa final aquella que hace que cada ente, sin no interfiere nada se desarrollará tal cual está previsto en su propia naturaleza. Los dos caracteres básicos señalados dirigen toda la filosofía aristotélica atravesada por el concepto de physis, una verdadera cosmología en la cual la totalidad de los entes del cosmos cobran sentido. Ella trata de alzarse, entonces, no sólo como una explicación física, sino que también pretende establecer los fundamentos filosóficos, metafísicos, últimos de toda realidad. Cada perspectiva de abordaje de la realidad – física, astronómica y biológica, pero también política, ética y metafísica- cobra sentido en función de la explicación en conjunto de la totalidad. Comencemos con la astronomía y física aristotélicas que pueden dar cuenta de manera relativamente adecuada de las observaciones astronómicas conocidas en la Grecia antigua y de la experiencia cotidiana. El Universo estaba dividido en dos zonas o sectores claramente diferenciados, tanto cualitativa como cuantitativamente: el mundo sublunar (es decir la Tierra que ocupa el centro, más el espacio que va entre ésta y la Luna) y el mundo supralunar, es decir el espacio que incluye la Luna y todo lo que se encuentra más lejos: el Sol, los planetas y las estrellas. El mundo sublunar es el mundo de lo corruptible, de lo cambiante, el mundo de la mutación constante: en él hay nacimiento, decadencia y muerte; los seres vivos así como las sociedades y las culturas, nacen, se desarrollan y mueren. En cuanto a la composición físico/química –utilizando una terminología actual- de los objetos de este mundo sublunar, Aristóteles seguirá la teoría de los cuatro elementos, según la cual todos los objetos, por más complejos que sean, estarían formados por diferentes combinaciones de cuatro elementos básicos: aire, tierra, fuego y agua. La tierra es naturalmente pesada y el fuego liviano, mientras que el agua y el aire ocupan posiciones intermedias. De tal modo que las diferencias en el peso de los objetos obedecen a la proporción en que intervienen los distintos elementos en la formación de cada cuerpo. Esta teoría, en lo fundamental, se mantuvo por casi veinte siglos. En la cosmología aristotélica todos los objetos tienden a ocupar su lugar natural, es decir aquel lugar que les corresponde por su propia constitución y su finalidad. Así, por ejemplo, los objetos pesados tienden a ocupar su lugar natural que es abajo, mientras que a los objetos livianos (como por ejemplo el fuego) les corresponden los lugares más altos. Por eso puede observarse que el fuego y lo caliente sube en el aire y el aire en el agua, así como la tierra en el agua se hunde. El movimiento en la Tierra y sus alrededores (el mundo sublunar) se desarrolla, entonces, en el sentido de una línea que pasa por el centro de la tierra y en la dirección que su mayor o menor peso determine. Los movimientos de los objetos tales como arrojar una piedra hacia arriba o hacia adelante, son considerados por Aristóteles como violentos o antinaturales, es decir contrarios a la naturaleza de los cuerpos. Tales movimientos tienen lugar sólo cuando alguna fuerza actúa para iniciarlos o para mantener el cuerpo en un movimiento o posición antinatural. Es necesario aclarar que este concepto de movimiento resulta extraño para una mentalidad moderna, ya que el mismo no corresponde a un mero cambio posicional45; el movimiento de los objetos en el mundo aristotélico obedece al cumplimiento de la naturaleza que le es inherente a cada uno de ellos. La teoría aristotélica de materia y forma como constitutivas de toda realidad que se despliega en el tiempo a través de un interminable pasaje de la potencia al acto subyace a la idea de los ‘lugares naturales’. El mundo supralunar tiene características completamente diferentes. Los cuerpos celestes, incluida la Luna, no se componen de ninguno de los ‘cuatro elementos’, sino de un ‘quinto elemento’ o ‘éter’, y su movimiento ‘natural’ es circular alrededor de la Tierra. Estos cuerpos, además, son esferas perfectas, y así como en el mundo sublunar todo está sujeto a cambio y corrupción, en los cielos nada cambia, más allá del movimiento circular descripto. Este modelo astronómico, conocido como aristotélico-ptolemaico perduró, más allá de algunos cambios no sustanciales durante veinte siglos. Es interesante notar que los 45 Th. Kuhn llama la atención justamente sobre la física y la astronomía aristotélicas, señalando que los aparentes errores groseros cometidos por el estagirita, pueden evaluarse de manera diferente si se considera otro modo de concebir la historia de la ciencia y las revoluciones científicas (Cf. Kuhn, 1981) cometas, por su comportamiento aparentemente caótico e irregular, fueron considerados durante siglos como fenómenos atmosféricos, es decir que se desarrollaban en el mundo sublunar46. Pero, así como hay ‘lugares naturales’ para todos los entes del universo, también los hay para los hombres. Cada uno de ellos ocupa el suyo en una estructura social que no es artificial, en el sentido de que no es una creación voluntaria de los humanos, sino que responde al movimiento y conformación natural de lo real, de la physis, aunque sí sean diversos los tipos de organización existentes. “La naturaleza, teniendo en cuenta la necesidad de la conservación, ha creado a unos seres para mandar y a otros para obedecer. Ha querido, que el ser dotado de razón y de previsión mande como dueño, así como también que el ser capaz por sus facultades corporales de ejecutar las órdenes, obedezca como esclavo, y de esta suerte el interés del señor y el del esclavo se confunden. La naturaleza ha fijado, por consiguiente la condición especial de la mujer y la del esclavo. (...) En la naturaleza un ser no tiene más que un solo destino, porque los instrumentos son más perfectos cuando sirven, no para muchos, sino para uno sólo. Los bárbaros la mujer y el esclavo están en una misma línea, y la razón es muy clara; la naturaleza no ha creado entre ellos un ser destinado a mandar, y realmente no cabe entre los mismos otra unión que la de esclavo con esclava (...)” (Aristóteles, Política) La realización de la finalidad esencial del zoón politikón consistirá, básicamente, en conformar sociedades: “Así el Estado procede siempre de la naturaleza, lo mismo que las primeras asociaciones, cuyo fin último es aquél; porque la naturaleza de una cosa es precisamente su fin, y lo que es cada uno de los seres cuando ha alcanzado su completo desenvolvimiento, se dice que es su naturaleza propia, ya se trate de un hombre, de un caballo, o de una familia. Puede añadirse, que este destino y este fin de los seres es para los mismos el primero de los bienes, y bastarse a sí mismo es a la vez un fin y una felicidad. De donde se concluye evidentemente que el Estado es un hecho natural, que el hombre es un ser naturalmente sociable, y que el que vive fuera de la sociedad por organización y no por efecto del azar, es ciertamente, o un ser degradado, o un ser superior a la especie humana(...) La naturaleza arrastra pues instintivamente a todos los hombres a la asociación política. El primero que la instituyó hizo un inmenso servicio, porque el hombre, que cuando ha alcanzado toda la perfección posible es le primero de los animales, es el último cuando vive sin leyes y sin justicia. En efecto, nada hay más monstruoso que la injusticia armada. El hombre ha recibido de la naturaleza las armas de la sabiduría y de la virtud, que debe emplear sobre todo para combatir las malas pasiones. Sin la virtud es el ser más perverso y más feroz, porque sólo siente los arrebatos del amor y del hambre. La justicia es una necesidad social, porque el derecho es la regla de vida para la asociación política, y la decisión de lo justo es lo que constituye el derecho”. (Aristóteles, Política) Para los griegos en general y para Aristóteles en especial, resulta inconcebible un hombre en estado de aislamiento, un hombre no social; por eso el punto de partida de conformación de las sociedades no puede ser un hombre en un estado previo, prepolítico, sino una forma específica, concreta e históricamente determinada (aunque de esa historia ‘imaginaria’) de sociedad humana. Para todo el mundo griego la sociedad no resulta lo opuesto de lo individual o privado, sino muy por el contrario el individuo libre sólo puede realizar su esencia en la medida en que participe de lo público, es decir de la vida y conducción de la polis. Por ello, el estado político antes que antitético u opuesto a los intereses individuales, es más bien su realización y su finalidad, de modo que entre aquella sociedad originaria y primitiva, y la sociedad última y perfecta –el Estado o polis- hay más 46 Para un análisis detallado de las distintas variantes y astrónomos, así como también para la relación entre atomismo, heliocentrismo y mecanicismo, todos temas en los cuales la historia empírica es bastante más compleja que lo señalado en estas pocas páginas puede consultarse Ordóñez y Rioja, (1999.) que oposición o ruptura una relación de continuidad o progresión. El Estado no es más que el desarrollo de etapas necesarias a través de una serie pasos intermedios. Por el mismo hecho de que el paso de la familia a la polis se produce por un desarrollo gradual y continuo, y no por una ruptura, la conformación de los distintos estadios de desarrollo no aparece como resultado de un acto de voluntad racional, sino que tiene lugar por efecto de causas naturales, es decir, a través de la actuación de causas objetivas. Es decir, que la constricción que impone lo real, la realización de las potencialidades inherentes a lo humano obligan a la conformación de grupos sociales. En este marco el principio de la legitimación de la sociedad política no es el consentimiento o contrato (como será en los modernos), sino el estado de necesidad o, en términos más sencillos, la misma naturaleza social del hombre. En el ámbito de lo viviente se revela con más evidencia según Aristóteles- y como no podía ser de otra manera- el carácter finalista y jerárquico del universo. Se trata, a diferencia de los cuerpos de los seres no vivientes, de cuerpos cuyas partes se hallan conformadas y coordinadas entre sí de tal modo que el movimiento de cada una de ellas se dirige a un fin dado y todas cooperan en la consecución de un fin superior, en el que consiste la naturaleza propia de ese cuerpo. Los elementos naturales existen en la conformación de los tejidos, éstos existen en vista a la formación de órganos y éstos en vista de las funciones vitales que deben cumplir en la unidad del organismo. Todo lo cual conforma un organismo viviente en potencia que se pone en acto a través del principio sustancial del alma. Y es a través de los tres tipos de almas que se establece la jerarquía de lo viviente: la vida vegetativa propia de las plantas, capaz de cumplir las funciones de nutrición y generación, la vida sensitiva, que en los animales se agrega a la vegetativa, y que les permite experimentar sensaciones de placer y dolor y, finalmente la vida intelectiva que en el hombre viene a agregarse a las dos anteriores y que permite el acceso al conocimiento. Hay una jerarquía entre los distintos ordenes y cierta continuidad aunque ésta no debe entenderse en un sentido evolucionista. La ruina de la impronta teleológica aristotélica se acentúa con el advenimiento de la modernidad y la expansión del modelo mecanicista aunque habría que esperar aún algunos siglos más para la erradicación casi general de la teleología del mundo de lo viviente. Este será uno de los tópicos de la revolución darwiniana de mediados del siglo XIX. 2. EL MUNDO MODERNO 2.1. La Revolución Científica “los viejos ruidos ya no sirven para hablar” (S. Rodríguez) Por ‘revolución científica’47 se entiende, en sentido histórico, el período de renovación del saber ocurrido entre los siglos XVI y XVIII, aunque en un sentido más estricto puede decirse que se desarrolla básicamente en el siglo XVII. Se inicia con la publicación de la obra de N. Copérnico, De revolutionibus orbium coelestium, en 1543, y de A. Vesalio, De fabrica corporis humani, del mismo año, y culmina con los Philosophiae Naturalis Principia Mathematica de Newton, en 1687. Durante este período y, por obra sobre todo de Galileo, J. Kepler, R. Descartes e I. Newton, tiene lugar la aparición y constitución de la denominada ‘ciencia natural moderna’, que se caracteriza sustancialmente por el interés centrado en el conocimiento de la naturaleza, la matematización del conocimiento no sólo como herramienta para generarlo, sino también como uno de los criterios de cientificidad, y la afanosa búsqueda de un método científico. Se ha señalado como una de las características más esenciales de la revolución científica la aparición, durante esta época, de una verdadera comunidad científica, de la que es un ejemplo concreto la Royal Society, de 47 Sobre la evolución del concepto de ‘revolución’ en general y en la historia de la ciencia en particular, cf. Cohen, 1985. Sobre el tratamiento epistemológico del concepto de ‘revolución’’, cf. la compilación que realizan Lakatos y Musgrave, 1970 y Hacking, 1981. Londres, y la Académie Royale des Sciences de París, así como el establecimiento de redes de información entre los científicos, configuradas por las visitas que los científicos se hacían unos a otros, pero sobre todo por el recurso a periódicos, informes científicos y cartas. Los historiadores supusieron que la nueva manera de hacer ciencia era absolutamente distinta, y aun contrapuesta a la de la Edad Media, pese a la existencia de algunos indicios renovadores en la ciencia medieval, sobre todo en la Universidad de Oxford. P. Duhem sostuvo en su Le système du monde: histoire des doctrines cosmologiques de Platon à Copernic, que la idea de que muchos de los conceptos de mecánica y física, que se creían aportaciones originales y revolucionarias de la ciencia moderna, no eran más que la lenta y gradual maduración de conceptos que tuvieron su origen en escuelas medievales: la denominada “revolución científica” sería, pues, más bien una evolución científica; en esta opinión le siguen autores como A.C. Crombie (1952), M. Clagett (1959) y otros. A. Koyré (1939) sostuvo exactamente la postura contraria, dando a la revolución científica el carácter de una verdadera mutación48, la más importante ocurrida desde el pensamiento cosmológico griego; la esencia de la ciencia moderna consiste, según él, en la aplicación de las matemáticas al estudio de la naturaleza, tal como ejemplifican los trabajos de Galileo. Son de la misma opinión respecto al carácter innovador y revolucionario de la ciencia moderna autores como A. R. Hall (1954), I.B. Cohen (1960, 1985), G. Holton (1973), R. Westfall (1971) y otros. Las nuevas historiografias de la ciencia no han cesado de producir estudios acerca de la cuestión y así, Shapin (2000) entre otros, cuestiona la versión tradicional o estándar: "La revolución científica nunca existió, y este libro trata de ella" comienza el trabajo. Se opone a la idea de que hubo una Revolución Científica entendida como cambio radical, coherente y homogéneo de la historia cultural. Reconoce no obstante la lucidez de algunos de sus protagonistas al haber estado convencidos de estar planteando importantes cambios en el conocimiento de la naturaleza y en la forma misma de obtener ese conocimiento, al tiempo que considera que la revolución se ha dado en niveles diferentes de aquellos en que la ubica la historiografía clásica. Puede decirse, en líneas generales, que el modelo de cientificidad que inaugura la Revolución Científica, haciendo abstracción de los desarrollos de las disciplinas particulares, pero que al mismo tiempo los posibilita en la medida en que permite realizar nuevas preguntas a la naturaleza, contiene básicamente el ya señalado recurso a la matemática y la idea fundante de que la naturaleza es similar a un mecanismo, es decir lo que se ha denominado ‘mecanicismo’. 2.2. la metáfora de la máquina Uno de los rasgos fundamentales de la Revolución Científica, es, entonces pensar el Universo en términos mecanicistas. Si bien se trata de una condición que se va generalizando aceleradamente, pueden considerarse como protagonistas principales de la idea del mundo-máquina a Descartes y Newton. El mecanicismo, de modo general, es la doctrina según la cual toda realidad natural tiene una estructura comparable a la de una máquina, de modo que puede explicarse basándose en modelos de máquinas. Es esta una metáfora radical, porque constituye no sólo un modo de entender la física de los cuerpos -la mecánica moderna-, sino una verdadera filosofía, es decir una concepción del mundo en su conjunto. No obstante el mecanicismo ha generado varias versiones (cf. Boido 1996, Ordóñez y Rioja, 1991), como se verá luego. El término mecánica es de origen griego y solía estar ligado al arte. Por arte mecánica se entendía el arte o la técnica que proporciona el modo de construir y usar ingenios, artificios mecánicos o máquinas. Dichas máquinas eran capaces de ejecutar 48 El concepto de ‘mutación’ como sinónimo de cambio importante y significativo proviene del sentido que le da De Vries más que del sentido más moderno proveniente de Morgan, para quien ‘mutación‘ resulta cualquier cambio –importante o insignificante- en la dotacion genética. ciertas operaciones que sustituyen a las que espontáneamente realiza la Naturaleza, aprovechando o incrementando la acción de una fuerza. Un ejemplo clásico es el de la palanca. Las artes mecánicas (a diferencia de las artes liberales, entre las que se incluyen la matemática y la astronomía) suponían siempre una forma de intervención o manipulación de la Naturaleza por parte del hombre. De ahí que a lo natural (esto es, a lo que se produce por las solas fuerzas de la Naturaleza sin mezcla de artificio) se contrapusiera lo artificial o hecho por el arte (en el sentido de técnica) del hombre. Artífice es el que realiza una obra mecánica o artefacto. Es por ello que Aristóteles ha denominado mecánica al tratamiento de los movimientos violentos, en oposición a los movimientos naturales, de los que se ocupa la física. “Movimiento violento” se produce cuando un cuerpo se ve forzado a hacer algo diferente a lo que tiende por naturaleza, como por ejemplo que una piedra ascienda, y una manera de violentar la naturaleza de los cuerpos es emplear instrumentos mecánicos o máquinas, de modo que ya desde la antigüedad la mecánica guarda relación con el movimiento. Tras la desaparición de la distinción aristotélica entre movimientos naturales y violentos pasará a describir el estudio de los movimientos de los cuerpos en general y sin mas adjetivos. En el siglo XVII, muchos filósofos y científicos se preguntarán si no sería posible comprender mejor los movimientos y cambios de los seres naturales estudiándolos por analogía con los que realizan las máquinas. De hecho se disponía ya de unas máquinas muy especiales, los relojes mecánicos que, más allá de las especificidades técnicas, reúnen las siguientes características: 1. Su movimiento nunca se inicia espontáneamente, pues carecen de todo principio interno de actividad. El origen del movimiento es siempre externo. La ley de inercia consagrará esta idea al plantear que todo cambio de estado de un cuerpo se debe a una fuerza extrínseca al cuerpo. 2. La transmisión del movimiento de unas partes a otras se realiza siempre por contacto y nunca a distancia49. Es decir, una parte empuja a otra, que a su vez empuja a otra, y así sucesivamente. 3. Ninguna máquina se mueve para alcanzar ciertos fines, de modo que el mundo de lo mecánico está presidido por una causalidad ciega desprovista de propósito alguno. Así en un reloj las agujas no avanzan para dar las horas; la finalidad está en quien lo diseña y no en el artilugio mismo. Se dispone, en suma, de un ser artificial desprovisto de toda suerte de elementos animistas y finalistas que, sin embargo, es capaz de ejecutar ciertos movimientos. Elevar estas consideraciones a modelo de aproximación a la naturaleza permitió cambiar el arsenal de preguntas de los científicos. Según A. Pyle (1995) la mejor manera de caracterizar la filosofía mecánica es negativa, dado que encierra cuatro tipos de prohibiciones (estrechamente ligadas a las tres condiciones anteriores que ha de cumplir toda máquina): la acción a distancia, la iniciación espontánea del movimiento, la intervención de agentes causales incorpóreos y las causas finales. Todo ello tiene que ver con la necesidad absoluta de purificar la materia de toda suerte de almas, espíritus o cualquier otro tipo de agentes inmateriales, lo que se traduce en lo siguiente. 1. Un cuerpo sólo puede recibir movimiento de otro por contacto o choque. En consecuencia, las influencias astrales de los astrólogos, las atracciones magnéticas, las simpatías y antipatías de neoplatónicos, herméticos y alquimistas, y demás tipos de acción a distancia han de ser rechazados. El principio supremo que gobierna los intercambios de movimiento (mejor sería decir cantidad de movimiento) establece que nada actúa allí donde no está. 2. Ningún cuerpo puede empezar a moverse por sí mismo de modo espontáneo. No es potestad de la materia generar movimiento (ni tampoco destruirlo, tal como afirmara un principio de conservación de la cantidad de movimiento). Todo movimiento tiene así como causa inmediata uno anterior en otro cuerpo comunicado por impulso. 49 Algunos autores, como por ejemplo W. Gilbert, no reconocían este principio. 3. Cuando se trata de estudiar el comportamiento de los cuerpos, la idea de producción de movimiento por supuestas entidades espirituales que se hallan presentes en ellos mismos (en forma de almas u otras semejantes) es enteramente rechazable. La única forma inteligible de acción física es el impulso. 4. En un mundo mecánico todo sucede de modo similar a un reloj, en el que el movimiento de descenso de un peso, previamente elevado a cierta altura, se transmite a unas ruedas dentadas que a su vez lo comunican a las manecillas. El acontecer se reduce a una serie causal sucesiva según la cual, cada hecho esta determinado por los anteriores y determina los siguientes en una cadena ininterrumpida de causas y efectos. No corresponde pues, en este contexto hablar de intención, finalidad, designio o providencia. Sin embargo, aunque el mecanicismo resulta el inicio de una nueva física del movimiento no se reduce tan sólo a eso. Como concepción filosófica reduccionista, el mecanicismo sostiene que toda realidad debe ser entendida sobre la base de los modelos proporcionados por la mecánica, e interpretada solamente sobre la base de las nociones de materia y movimiento local. Pero no se trata de un término unívoco. El mecanicismo adopta una modalidad materialista y determinista en la filosofía de Hobbes, mientras Descartes ofrece también un modelo acabado de mecanicismo pero no adhiere al materialismo ya que sostiene la irreductible diferencia entre la sustancia pensante, no sometida a las leyes de la mecánica, y la sustancia extensa, totalmente regida por éstas. En este sentido considera que toda la realidad física puede y debe explicarse a partir de la mecánica. Así, considera a los animales como meros autómatas, como simples máquinas, reduciendo la biología – incluyendo al cuerpo humano- a mecánica. Una versión materialista de este punto de vista, es decir, negando la especificidad de la sustancia pensante como distinta de la materia, será sustentada por La Mettrie, con su teoría del hombre-máquina, y la mayoría de los filósofos materialistas del siglo XVIII que unen materialismo y mecanicismo (especialmente D'Holbach y Helvetius). Hacia fines del siglo XVII la mecánica cartesiana fue desplazada por la mecánica newtoniana, a partir de lo cual ésta se convirtió en el modelo de las teorías mecanicistas, que tienen en Pierre Simon, marqués de Laplace (1749-1827) a su ejemplo más representativo y más depurado. El punto de vista de Laplace integra el mecanicismo, el materialismo, la superfluidad de considerar la necesidad de Dios (“Sire, no tengo necesidad de esta hipótesis” contestó Laplace a Napoleón cuando éste le preguntó por el lugar de Dios en la cosmología), y el determinismo más absoluto (el ideal del llamado demonio de Laplace) basado en una rígida concepción de la causalidad. En su Essai Philosophique sur les Probabilités sostiene que el presente estado del universo es el efecto de sus estados anteriores y la causa de los estados posteriores. Una inteligencia que en un momento conociera todas las fuerzas que animan la naturaleza y la situación respectiva de los seres que la componen y que, además fuese lo bastante grande como para someter todos estos datos al análisis, abarcaría en la misma fórmula los movimientos de todos los cuerpos del Universo y de sus estados pasados, presentes y futuros. Es el desconocimiento de todas estas condiciones el que, según Laplace, nos obliga a recurrir al cálculo de probabilidades, brillantemente desarrollado por él. El mecanicismo del siglo XVII no necesariamente es ateo pero, en todo caso, contribuye a la secularización de las explicaciones sobre el mundo. Para el objetivo de la ciencia, el recurso a dios es prescindible y si bien, sostiene R. Boyle (1627-1691), “de todas estas cosas [las partes del universo] será difícil dar una explicación satisfactoria si no se reconoce a un autor inteligente u ordenador de las cosas” al mismo tiempo: (...) suponiendo que el mundo haya sido creado y que es continuamente conservado por el poder y la sabiduría de Dios; y suponiendo el concurso general de Dios para mantener las leyes que ha establecido, los fenómenos que me esfuerzo en explicar pueden resolverse mecánicamente, esto es, por las propiedades mecánicas de la materia sin recurrir al odio que la naturaleza tiene por el vacío, a las formas sustanciales o a otras criaturas incorpóreas. Y por esto, si he mostrado que los fenómenos que he tratado de explicar se explican por el movimiento, tamaño, gravedad, forma y otras propiedades mecánicas (...), he hecho lo que pretendía hacer”. (citado en Burtt, 1925 [1960, p. 195]) En el ámbito estrictamente físico, y sin pronunciarse sobre el carácter mecánico o no de los seres vivos, la mayoría de los filósofos y científicos de los siglos XVII y XVIII adoptaron tesis mecanicistas como reacción contra la escolástica, contra el animismo y las concepciones mágicas de muchos filósofos del Renacimiento. En cambio, el idealismo alemán y el romanticismo del s. XIX favorecieron una visión opuesta y organicista de la vida, el hombre y la sociedad. La imagen mecanicista del mundo se apoyaba fundamentalmente en el principio de causalidad por el que se consideraban regidos todos los fenómenos que describe la física clásica. Pero el problema del determinismo mecanicista que ponía en entredicho la libertad humana, junto con los desarrollos de la biología y de otras ramas de la física difícilmente reducibles a la mecánica newtoniana, condujeron a considerar que toda máquina pertenece inevitablemente al mundo inorgánico y, por tanto, toda analogía con los seres vivos era ficticia. Así, la filosofía romántica, en nombre de la humanidad, de la libertad y de la vida, menospreciaba la máquina y el mecanicismo. No obstante, aunque Newton considera que toda la ciencia es reductible a la mecánica, dado que en su concepción de ésta se considera lo real desde el punto de vista de modelos matemáticos (tales como masas puntuales o puntos inextensos), el mecanicismo tendió a abandonar el carácter ontológico para adoptar la forma epistemológica. Es decir, no se trataba tanto de afirmar que el mundo es una máquina, ni tan sólo una máquina extremadamente compleja, sino que se trataba simplemente de concebirlo y explicarlo como si lo fuera, es decir, explicarlo a partir de las leyes de la mecánica sin presuponer por ello el carácter mecánico de lo real. Ello dio lugar a un mecanicismo metodológico y al ideal de poder constituir una única ciencia basada en los principios de la mecánica. Mientras que el mecanicismo ontológico se opone al vitalismo, al organicismo y al finalismo, el mecanicismo epistemológico tiende a oponerse al fenomenismo y al instrumentalismo, y acostumbra a ser una forma de reduccionismo ya que considera que toda ciencia puede reducirse a la mecánica y explicarse por ella. Incluso la oposición del mecanicismo ontológico al finalismo debe matizarse, puesto que podrían sostenerse ambas concepciones si se considerase a Dios como el supremo artífice constructor o ingeniero del mundo. De la misma manera que una máquina sofisticada supone la intervención de un constructor y diseñador experto, el mundo con su maravillosa complejidad era concebido como una exaltación de la infinita sabiduría del dios concebido como Gran Ingeniero. De esta manera, y siguiendo esta concepción antropomorfa, la finalidad estaría dada por la divinidad. Sin embargo, la concepción mecanicista resultó fundamental en el proceso de secularización a todo nivel que comienza a producirse en los albores de la modernidad. Otra vez, si bien dios y la máquina no son incompatibles, dios resulta para algunos superfluo para explicar el funcionamiento de la máquina, aunque otros como Newton no lo consideran así. A partir de la consolidación de la mecánica, especialmente con Galileo, Descartes y Newton, esta ciencia apareció como paradigmática. Además, en la medida en que el reloj fue durante mucho tiempo el prototipo de máquina (que por otra parte liga el tiempo con el espacio que debe recorrer el péndulo o las agujas de su esfera), apareció como el modelo de las concepciones mecanicistas de los siglos XVII hasta mediados del siglo XIX. Por ello es corriente encontrar muchas explicaciones filosóficas y científicas en las que se recurre al reloj como metáfora (por ejemplo, en la armonía preestablecida de Leibniz). El otro representante clave del mecanicismo del siglo XVII fue Descartes, quien no obstante, le imprimió un sesgo particular y más ambicioso a favor del mundo-máquina. La realidad natural, para Descartes, tiene un modo de funcionamiento que puede estudiarse íntegramente desde el modelo que proporcionan las máquinas automáticas o autómatas, es decir ciertos objetos fabricados por el hombre que incluyen el mecanismo gracias al cual tienen movimiento. Ello implica que la combinación de sus elementos constitutivos o estructura debe dar cuenta de la función que realizan. A funciones más complicadas corresponde un mayor número de elementos debidamente dispuestos (así, por ejemplo, diríamos que el sistema nervioso de un organismo es tanto más complejo cuanto mayor es el número de tareas que tiene encomendadas). El todo (ya sea un cuerpo vivo o inerte) es la suma de sus partes, y no hay nada en él que no esté comprendido en dichas partes. Carece del menor sentido identificar la causa de su movimiento con un principio formal irreductible, tal como hace Aristóteles en su teoría hilemórfica (materia-forma). Servirse de alma o conceptos similares para estudiar cuerpos en física, biología o medicina es introducir confusión allí donde debiera reinar la claridad, si es que aspiramos a obtener conocimientos verdaderos. Dicha confusión nace precisamente de la mezcla indebida de cosas de distinta naturaleza, provocando con ello un desorden que impide conocer con distinción qué es una cosa y qué es otra. Para Descartes, es preciso trazar una nítida línea divisoria entre alma y cuerpo. Sólo los seres humanos poseen alma porque sólo ellos piensan y pensar es la única función de la que no es posible dar cuenta sumando o agregando partes (lo que quiere decir que Descartes no tiene una concepción mecanicista de la mente). El pensamiento es precisamente aquello que define el alma, de manera que ser animado es sinónimo de ser racional. Ahora bien, puesto que el pensamiento es atributo exclusive de los seres humanos, resulta entonces que el resto de los seres vivos (animales y plantas) y, por supuesto la materia inerte, carecen de alma. Llegamos así a una naturaleza desalmada o privada de alma, única que puede ser estudiada desde lo que en sí misma es, y no desde lo que los humanos proyectan sobre ella. Toda física animista es una física antropomórfica, que da cuenta de la naturaleza de los cuerpos incorporando en ellos algo que no les pertenece. Pero si allí donde se pretende conocer la materia, terrestre y celeste, se introducen subrepticiamente propiedades que son de la mente, formularemos proposiciones no sobre el objeto físico propiamente dicho, sino sobre una confusa y oscura mezcla de objeto físico y psicológico. Consecuentemente, la teoría de la materia y de los movimientos se verá profundamente trastocada. No es de extrañar, por tanto, que se hable de elementos materiales, definidos por sus cualidades y tendencias, y de movimientos naturales concebidos teleológicamente, como si el agua, la tierra, el aire y el fuego fueran capaces de proponerse fin alguno. En la Naturaleza hay movimiento y hay cambio, pero no cualidades, tendencias, fines o principios intrínsecos de movimiento (llámeseles alma o de cualquier otra manera). Luego, el animismo había de ser radicalmente desterrado. El modo de comportamiento de lo material no es similar al de los seres animados (que son los seres racionales), sino al de las máquinas. Dicho breve y tajantemente, la disyuntiva sería esta: o todo piensa (porque todo está animado), o únicamente los hombres piensan (porque sólo ellos tienen anima). En este segundo caso, lo que no es humano se reduce a cuerpo sin alma. Pero justamente eso son las máquinas. En consecuencia, lo natural es mecánico. Descartes afirma esto mismo en sus Principios de la filosofía en los siguientes términos: “Para acceder al conocimiento de los cuerpos que percibimos por nuestros sentidos me ha sido de gran utilidad el ejemplo de cuerpos varios, hechos gracias al artificio de los hombres: pues no reconozco ninguna diferencia entre las máquinas que hacen los artesanos y los diversos cuerpos que la naturaleza ha formado por sus propios medios. (...) además es cierto que todas las reglas de la mecánica pertenecen a la física. de modo que todas las cosas que son artificiales, son por ello mismo naturales. Así. Por ejemplo, cuando un reloj marca las horas sirviéndose de las ruedas de las que está hecho, esto no es menos natural que lo que es a un árbol dar sus frutos" (Descartes, [1967, p. 307]) En 1640 escribía: "Vemos que (...) las fuentes artificiales (...) así como las demás máquinas de este tipo, no por razón de haber sido construidas por los hombres pierden la facultad de moverse por sí mismas (...) incluso supongo que la máquina (humana) puede perfectamente ser comparada con las tuberías de estas fuentes, sus músculos y tendones con los distintos artilugios y muelles que sirven para ponerlas en movimiento; sus humores animales con el agua que las mueve, y (...) el corazón con la fuente y las concavidades del cerebro con los depósitos. Además, la respiración (...) puede ser comparada con el movimiento de (...) un molino, que es continuo gracias al flujo de agua" (citado en Mazlish, 1993 [1995, p. 31]) La distinción aristotélica entre ser natural (la materia y sus cinco elementos, las plantas y los animales) y ser fabricado se ha diluido hasta el punto de que lo mecánico es natural y lo natural es mecánico. Las mismas reglas rigen uno y otro ámbito; por eso afirma Descartes que la mecánica pertenece a la física. Más aún, la física es mecánica. Ello pone de manifiesto el completo cambio de enfoque respecto del modelo clásico. En las antípodas de lo que ha representado la obra de Aristóteles, una concepción mecanicista de la naturaleza se abre paso. La fuerza del mecanicismo perduró por lo menos hasta mediados del siglo XIX, momento en que se irían desarrollando otras ramas de la física, especialmente la termodinámica y el electromagnetismo, así como otras ciencias, especialmente la biología evolucionista, que no podían ser simplemente reducidas a la mecánica. Por otra parte, la misma mecánica empezaba a experimentar notables cambios, que dieron lugar a la teoría de la relatividad y la mecánica cuántica, incompatibles en muchos aspectos con la mecánica clásica o newtoniana. Por ello, en lugar del antiguo mecanicismo irán apareciendo otros distintos modelos teóricos que actuarán como sustitutos de aquél: el energetismo, por ejemplo, basado en la termodinámica, así como diversas concepciones filosóficas que tomarán la teoría de la evolución, la teoría de la relatividad, la mecánica cuántica, la genética, la cibernética, etc. como modelos alternativos al mecanicismo clásico. La aparición de máquinas generales, cuyo primer ejemplo lo constituye la teórica máquina de Turing, junto con el cuestionamiento de la noción clásica de causalidad (por el que se sustituye el determinismo causal por un determinismo más general que ha de incluir estados futuros sólo estadísticamente predecibles), así como otras direcciones actuales que permiten construir máquinas con tejidos orgánicos vivos, ha provocado que surja una nueva posibilidad de seguir tomando las máquinas como modelos. Así, para Chomsky, las máquinas generales pueden actuar como modelos para comprender el lenguaje, y Turing consideraba la posibilidad de una máquina capaz de pensar. En este sentido, algunos de los teóricos de la inteligencia artificial siguen considerando las máquinas generales como modelos de la inteligencia humana. En cualquier caso, la existencia de máquinas que efectúan operaciones intelectuales abre una nueva perspectiva. En lugar de transformar energía, son máquinas que transforman símbolos y que procesan información, y que en determinados casos son capaces de procesos de autoorganización y aprendizaje. En este sentido la definición misma de máquina queda transformada, y pasa a ser considerada como un sistema material abierto, o una organización jerárquica de sistemas, en los que circulan energía e información. Basándose en las similitudes entre ciertos procesos descritos por las teorías computacionales y los descritos en la biología molecular, se ha cuestionado la oposición entre lo inorgánico y lo orgánico, y algunos autores que han renovado el mecanicismo hablan de solamente dos tipos de máquinas: las máquinas naturales -los seres vivos, por ejemplo- y las máquinas artificiales. 2.3. La nueva ciencia. La matematizacion de la naturaleza y la extensión del mecanicismo En las primeras décadas de la Revolución Científica, los más grandes y ostensibles desarrollos se dieron en matemática (Descartes, Fermat y también Galileo)50, las ciencias 50 En 1623 aparece Il Saggiatore de Galileo, en 1637 el tratado cartesiano de Geometría precedido por su quizá más famoso Discurso del Método y en 1679 la obra de Fermat Ad locos planos et solidos isagoge. Estas dos últimas obras ampliaron la geometría tradicional con la geometría analítica, obteniendo una nueva variedad de objetos y recursos geométricos para construir modelos de los fenómenos naturales. Al identificar figuras geométricas con ecuaciones, éstas se transforman en símbolos nuevos para interpretar el libro de la naturaleza de Galileo. La intuición visual de la geometría propiamente dicha se ampliaba con la intuición, más abstracta, del álgebra y sus ecuaciones. naturales como la astronomía (Galileo, Kepler), la física del movimiento (Galileo, Descartes y también Kepler), y los trabajos de W. Harvey sobre la circulación de la sangre (en anatomía y fisiología podrían agregarse los precursores trabajos de Vesalio en el siglo XVI). Los desarrollos matemáticos y sobre todo la idea de que los mismos podrían ser fundamentales para la comprensión del Universo representaron una gran revolución conceptual: un nuevo modo de pensamiento basado sobre el álgebra y el análisis antes que en la tradicional geometría sintética51. Las innovaciones de la nueva astronomía fueron tanto conceptuales como referidas a la creciente precisión de las observaciones. El uso que hizo Galileo del telescopio alteró completamente la base observacional del conocimiento del universo, mientras Kepler introdujo órbitas no circulares y el concepto de fuerzas en la relación solplanetas52 en parte para conciliar el sistema geométrico del universo con las observaciones cada vez más precisas de T. Brahe. Asimismo fue perdiendo fuerza la tradición geométrica en astronomía y comenzó a prevalecer una astronomía asociada a una nueva física, que culminaría con la aparición de teoría newtoniana.53 La mayoría de las alteraciones básicas en física ocurrieron en el estudio del movimiento, que vincularon los nuevos fundamentos conceptuales y una matematización de la naturaleza, en mucha mayor medida que el cuestionamiento directo de la naturaleza por los experimentos. Desde el punto de vista actual el mayor cambio conceptual hacia principios del s. XVII parece haber sido la destrucción del cosmos aristotélico, el rechazo del concepto tradicional de la naturaleza jerárquica del espacio, y la introducción de la nueva idea de espacio isotrópico, física inercial, y un espacio infinito - o al menos ilimitado. La mayor innovación en las ciencias de la vida se centró sobre el importante descubrimiento de la circulación de la sangre, basada sobre cambios conceptuales fundamentales: la introducción de consideraciones cuantitativas y el presupuesto mecanicista. Así, los cambios revolucionarios en ciencia no consistieron primariamente en la introducción de experimentos y ampliación importante de la base empírica (aunque también lo fue en algún sentido), como durante mucho tiempo creyeron los historiadores, sino que más bien se basó en un cambio básico del marco conceptual desde el cual surgían las preguntas que debían hacérsele a la naturaleza y la introducción de nuevos métodos matemáticos54. Uno de los principales impulsores de la Revolución Científica fue Galileo, quien concebía la naturaleza, aun más que Kepler, como un sistema sencillo y ordenado, en el que cada acción es totalmente regular e inexorablemente necesaria. "La naturaleza (...) no hace por medio de muchas cosas lo que puede hacer con pocas." Muestra el contraste entre la ciencia natural y el derecho y las humanidades: las conclusiones de la primera son absolutamente verdaderas; necesarias; no dependen de ninguna manera del juicio humano. La naturaleza es "inexorable, sólo actúa "por leyes inmutables que nunca infringe", y no se preocupa "si sus razones o métodos de actuar son o no comprensibles por parte de los hombres". Esta rigurosa necesidad de la naturaleza resulta de su carácter fundamentalmente matemático, expresado en la famosa metáfora del libro de la naturaleza en Il Saggiatore: "La filosofía se halla escrita en el gran libro que está siempre abierto ante nuestros ojos quiero decir, el universo-; pero no podemos entenderlo si antes no aprendemos la lengua y los signos en que está escrito. Este libro está escrito en lenguaje matemático, y los símbolos son triángulos, círculos u otras figuras geométricas, sin cuya ayuda es imposible comprender una sola palabra de él y se anda perdido por un oscuro 55 laberinto."(Galileo Galilei, 1981, p. 62) 51 De hecho la idea según la cual la comprensión del mundo requiere de conocimientos matemáticos es muy antigua y puede remontarse a los pitagóricos quienes intentaban explicar los fenómenos naturales a partir de relaciones numéricas, o por la armonía y disposición de las partes . 52 Sobre el ‘error’ de Kepler se puede consultar Cohen, 1960 y Burtt, 1925. 53 Cf. Cohen, 1960 y Ordoñez y Rioja, 1999. 54 Esta línea interpretativa es desarrollada por A. Koyré, 1939. 55 Es necesario señalar que esta famosa cita de Il Saggiatore, como toda la obra, tiene como fin impugnar la obra del padre Grassi titulada Libra Astronomica et filosofica. Esta cita debe entenderse Galileo se asombra continuamente de la maravillosa manera en que los sucesos naturales siguen los principios de la geometría y su respuesta favorita a la objeción de que las demostraciones matemáticas son abstractas y no poseen necesaria aplicación al mundo físico consistía en presentar nuevas demostraciones geométricas, en la esperanza de que se conviertan en pruebas de sí mismas ante los espíritus sin prejuicios. Por tanto, las demostraciones matemáticas, más que la lógica escolástica, proveerían, según Galileo, la llave que permitiría penetrar en los secretos del mundo. La lógica es instrumento de crítica pero la matemática, de descubrimiento. "Es claro que la lógica nos enseña a conocer si las conclusiones o demostraciones que ya se han descubierto y que se posee son válidas; pero no puede decirse que nos enseñe cómo hallar demostraciones y conclusiones válidas. (...) No aprendemos a demostrar con los manuales de lógica sino con los libros que están llenos de demostraciones, que son los libros de matemáticas y no de lógica." (Galileo, Obras, citado en Burtt, 1925 [1960, p. 81]). Este método de la demostración matemática, al basarse en la estructura misma de la naturaleza, se presenta ocasionalmente en Galileo como independiente, en gran parte, de verificación sensible: se trata de un método exclusivamente a priori de alcanzar la verdad. J. J. Fahie cita estas palabras de Galileo: "La ignorancia ha sido el mejor maestro que jamás había tenido, pues a fin de demostrar a los opositores la verdad de las conclusiones, me fue necesario probarlas mediante gran número de experimentos, aunque para satisfacer mi propio espíritu no sentía necesidad de realizar ninguno." (citado en Burtt, 1925 [1960, p. 82]) En otros pasajes de su obra, Galilei muestra que su confiada creencia en la estructura matemática del mundo lo emancipaba de la necesidad de depender estrechamente del experimento. Insiste en que a partir de unos pocos experimentos pueden extraerse conclusiones válidas que llegan mucho más allá de la experiencia porque el conocimiento de un solo hecho logrado mediante el descubrimiento de sus causas prepara al espíritu a comprender y descubrir otros hechos sin necesidad de recurrir al experimento. Da un ejemplo de este principio en su estudio de los proyectiles. Una vez que se sabe que su trayectoria describe una parábola podemos demostrar por pura matemática, sin necesidad de experimento, que su alcance máximo se logra con una inclinación de 45°. En realidad, sólo se necesita la confirmación experimental en el caso de conclusiones cuyo fundamento racional y necesario no se alcanza por medio de la intuición. El caso de Kepler resulta paradigmático si se trata de mostrar esta suerte de tráfico metafórico de unas áreas a otras. Rápidamente adopta el modelo astronómico copernicano, basado al igual que Copérnico, en la convicción de la unidad y sencillez de la naturaleza. Pero el factor quizá más poderoso que motivó su precoz entusiasmo por el nuevo sistema puede hallarse en su exaltación de la dignidad e importancia del Sol. A los veintidós años tuvo que defender la nueva astronomía en una disputa en Tubinga, haciéndolo únicamente sobre la base de la posición eminente del Sol: “En primer lugar- que por ventura no lo vaya a negar un ciego- el cuerpo más excelente del universo es el Sol, cuya esencia toda no es otra cosa que la luz más pura, a la que ninguna estrella puede compararse. Sólo él y él solo es el productor, conservador y calentador de todas las cosas; es fuente de luz, rica en fructuoso calor, la más bella, límpida y hermosa a la vista, fuente de visión, pintora de todos los colores, aunque en sí misma libre de color. Se lo llama rey de los planetas por su movimiento, corazón del universo por su poder, ojo del mundo por su belleza. Sólo a él deberíamos juzgar digno como enfrentando el modo no matemático de argumentación de Grassi, sobre todo en cuanto a geometria; pero no es compatible con muchos otros pasajes de Galileo donde habla del carácter insatisfactorio de las “meras descripciones matemáticas”. del Altísimo Dios, si Dios quisiera un domicilio material donde morar con los santos ángeles... Porque si los alemanes lo eligieron como el César que tiene más poder en todo el imperio, ¿quién dudaría en otorgarle los votos de los movimientos celestes a quien ya ha estado administrando todos los demás movimientos y cambios mediante el beneficio de la luz que es enteramente suya?... Por tanto, puesto que no corresponde al primer motor difundirse a través de una órbita, sino más bien proceder desde un cierto principio, y, por así decirlo, se considera digna de tan grande honor. Con el mayor derecho volvemos, pues, al Sol, que es el único que, en virtud de su dignidad y poder, parece adecuado y debido para ser el hogar de Dios mismo, por no decir el primer motor” (citado en Burtt, 1925 [1960, p.61]) Por esos años el más grande observador de la época –Ticho Brahe- a quien Kepler se unió, completaba la obra de toda una vida en la cual había compilado una inmensa cantidad de datos mucho más grande e incomparablemente más precisos que los disponibles hasta entonces. Esto le sirvió para llevar adelante otra de sus pasiones derivadas de su adhesión a la tradición pitagórico- platónica: si el nuevo sistema es verdadero debe de contener muchas otras armonías matemáticas que pueden descubrirse mediante el estudio intenso de los datos. La búsqueda de armonías, simetrías, regularidades que se esconden tras los fenómenos lleva a dirigir la mirada a las relaciones invariantes que subyacen a los puros datos de observación. Escribe Kepler en 1599: “Para Dios hay en el mundo material entero leyes materiales, números y relaciones de especial excelencia y del mayor orden apropiado (...) No intentemos, pus, descubrir más del mundo inmaterial y celeste que lo que Dios nos ha revelado. Esas leyes están dentro del ámbito de la comprensión humana; Dios quiso que las reconociéramos al crearnos según su propia imagen, de manera que pudiéramos participar en sus mismos pensamientos. Porque ¿qué hay en la mente humana, aparte de números y magnitudes? Es solamente esto lo que podemos aprehender de manera adecuada”. (citado en Crombie, 1952, Vol. II, p. 170) Kepler se había propuesto explícitamente probar con nuevos argumentos la verdad del sistema copernicano. Los frutos de su trabajo han sido evaluados de modo dispar por la posteridad, de modo que mientras algunos han pasado a formar parte de la nueva astronomía otros han pasado como pintorescas anécdotas. Sin embargo la opinión de Kepler era distinta de la de su posteridad, ya que él se sentía particularmente complacido y orgulloso de aquellos elementos que, justamente, serían olvidados. En 1596 publicó su Mysterium cosmographicum, en el cual anunciaba un gran descubrimiento sobre las distancias de los planetas al Sol. Utilizando la idea de los geómetras griegos según la cual existen cinco sólidos regulares (cubo, tetraedro, dodecaedro, icosaedro, y el octaedro y a la búsqueda de regularidades matemáticas, Kepler pensó que dado que los planetas (conocidos) eran seis, sus órbitas deberían estar separadas cada una por uno de estos sólidos. Como se sabe, Kepler solucionó uno de los problemas del modelo copernicano – algunas diferencias en cuanto a las posiciones, fundamentalmente de Marte, respecto de los cálculos previos que el modelo permitía- proponiendo órbitas elípticas y según tres leyes, que publicó en Harmonice mundi, de 1619. La primera de esas leyes sostiene que la órbita de cada planeta es una elipse, uno de cuyos focos está ocupado por el Sol; la segunda – expresada en un lenguaje moderno- que las áreas barridas por el radio vector (línea que se tira desde el foco a cualquier punto de una curva) que une un planeta con el Sol barre áreas iguales en tiempos iguales. Claramente estas dos leyes contribuyen a simplificar el modelo de Copérnico. Pera la tercera, conocida también como ley armónica porque su descubridor creyó ver en ella la demostración de las verdaderas armonías celestiales enuncia una relación entre los periodos con que los planetas describen sus órbitas alrededor del Sol y sus distancias medias al mismo56. 56 Las leyes de Kepler parecían dar por tierra con la idea de las órbitas circulares, suplantándolas por movimientos ligeramente elípticos. Esto es parte de la historia de la ciencia, pero, puede preguntarse El espíritu mecanicista y matemático atravesaba los nuevos desarrollos excediendo los límites de la astronomía y la física hacia las investigaciones sobre lo viviente. Los trabajos de Vesalio en el Renacimiento comenzaron a mostrar algunas falencias en la tradición galénica y, posteriormente, el descubrimiento de Harvey (1578-1657) de la circulación de la sangre57 fue posible por, a la vez que congruente con, el espíritu matemático de la época y merced al uso de un modelo mecanicista de lo viviente. Respecto al primer aspecto, Harvey, utilizó mediciones directas de la capacidad del corazón en hombres, perros y ovejas, que multiplicadas por la frecuencia cardiaca le dieron cantidades totalmente incompatibles con la teoría de Galeno de la producción continua de sangre. Harvey encontró que “el jugo contenido en el alimento que había estado comiendo” simplemente no sería suficiente al hígado para suministrar “la abundancia de sangre que pasaba a través” del corazón. Y por eso, escribió, “comencé a pensar si la sangre no podría tener una clase de movimiento, como si fuera un círculo (...) “y mucho tiempo después encontré que era verdad”. Así, resultó fundamental el hecho de poner en juego una visión cuantitativa - matemática- de lo viviente, que le dio a Harvey una rápida comprensión de la necesidad de una nueva fisiología y proveyó un argumento poderoso para sus ideas sobre la circulación. El trabajo de Harvey, tal como está presentado en Exercitatio anatomica de Motu Cordis et sanguinis in animalibus de 1628, se encontraba sólidamente apoyado en investigaciones anatómicas- incluyendo una gran variedad de observaciones directas y experimentos-, en especial el descubrimiento de la función de las válvulas en las venas y la estructura y acción del corazón. La concepción de Harvey de la circulación de la sangre fue un tremendo avance en las ciencias de la vida. Mostró que el corazón con sus válvulas actúa a la manera de una bomba de agua, forzando a la sangre a fluir en un circuito continuo a través del cuerpo del animal y de los humanos. Fue esta una ruptura directa con la doctrina de Galeno, que había dominado el pensamiento médico y biológico durante quince siglos, creyendo que el hígado era el órgano que continuamente manufactura sangre para enviarla a través del cuerpo para ser consumida por las diferentes partes para sus funciones vitales. Pero Harvey cambio la primacía fisiológica de los órganos del hígado por el corazón cuya función, dijo, era en gran medida mecánica, obligando a la sangre a salir a través de las arterias y volver por las venas. En lo concerniente al status de la concepción mecánica y, sobre todo a la relación que estas ideas fundamentales tienen con la producción de conocimientos o teorías particulares, es importante la reflexión epistemológica de F. Jacob: “Se suele decir que Harvey ha contribuido a la instauración del mecanicismo en el mundo viviente al mostrar la analogía del corazón con una bomba y la de la circulación con un sistema hidráulico. Pero se invierte así el orden de los factores. En realidad, es porque el corazón funciona como una bomba que es accesible al estudio. Es porque la circulación se analiza en términos de volúmenes, de flujo, de velocidad, que Harvey puede hacer con la sangre experiencias similares a las que realiza Galileo con las piedras. Ya que el mismo Harvey, cuando se plantea el problema de la generación que con toda legitimidad por qué Galileo no aceptaba este nuevo modo de ver la trayectoria de los planetas si él contribuía con toda exactitud para ajustar los datos de la observación con el modelo geométrico. Resulta interesante el análisis que realiza el crítico E. Panofsky, para quien el rechazo galileano a las órbitas elípticas se relaciona con su rechazo a cierta forma estética hoy denominada manierismo y que surgió como una tendencia anticlásica en oposición a los ideales de racionalidad, simplicidad y equilibrio que Galileo adoraba. La elipse constituía, en ese contexto, un elemento que era tan enfáticamente rechazado por el arte del alto Renacimiento como aceptado por el manierismo (que Galileo aborrecía). Para Galileo, era una especie de deber sagrado, tanto en el terreno de la música como en el de la pintura o la poesía, luchar contra el manierismo, contra la complejidad innecesaria, contra la distorsión y el desequilibrio. 57 Si bien puede decirse que Harvey no demostró objetivamente la realidad de la circulación de la sanguínea, ya que en su tiempo se desconocía la existencia de capilares periféricos, sus observaciones hicieron casi inevitable tal existencia, confirmada por M. Malpighio en 1661. no tiene relación con esta forma de mecanicismo, no puede sacar ninguna conclusión” (Jacob, 1970 [1977, p.43]) Pero Harvey se diferenció de Descartes y Galileo al creer que su aporte al conocimiento de lo viviente podría tener un valor paradigmático directo en el dominio de la vida social de los humanos. En la Introducción de su De motu Cordis, Harvey usó su nueva ciencia del cuerpo para transformar la antigua noción de cuerpo político. En una larga dedicatoria al rey Carlos I, Harvey expresa inequívocamente esta idea del uso de la nueva ciencia en un contexto socio- político: “De este modo el corazón de las criaturas es el fundamento de la vida, el príncipe de todo, el sol de su microcosmos, al igual que correlativamente el Sol puede ser llamado el corazón del mundo, por cuya virtud y pulsación se mueve la sangre, se perfecciona, se vuelve vegetal y es defendida de la corrupción y de la solidificación: y este dios familiar y doméstico cumple con su deber para con el cuerpo entero, nutriéndolo, alimentándolo y suministrándole fuerza, ya que es el fundamento de la vida y el autor de todo. (...) También el rey, fundamento de sus reinos y sol de su microcosmos, es el corazón de la comunidad, desde donde todo poder surge, toda gracia procede.” (citado en Cohen, 1995, p. 105) La comparación entre el rol del Rey58 y la función del corazón está modelada según un modo de pensamiento tradicional, la antigua metáfora organicista del cuerpo político, en la cual el Estado era comparado con un animal o persona, y el soberano considerado como la cabeza gobernante del cuerpo. No obstante, resulta interesante la recepción y giro que la metáfora organicista del cuerpo político adquiere en el pensamiento de Harvey. Algunas presentaciones anteriores del cuerpo político usaron el corazón como metáfora del conductor, pero otros ubicaron la cabeza en ese rol, según el uso todavía corriente en nuestro concepto de “cabeza de estado”. En verdad muy pocos escritores políticos anteriores a Harvey habían dado importancia al corazón, excepto en el marco del pensamiento aristotélico o galénico. En 1565, el cirujano John Halle, sostuvo que “el corazón del hombre es un Rey”, al tiempo que el hígado es su jefe de gobierno haciendo referencia al principio galénico de que el hígado está generando constantemente nueva sangre a partir de los alimentos digeridos y enviándola al corazón. Pero en el sistema de Harvey el hígado es relegado a una posición inferior con relación al sistema circulatorio, como resultado de su propio descubrimiento. Por otro lado, la soberanía del corazón es un rasgo de la fisiología aristotélica, que aún sostenía que en el desarrollo del embrión el corazón se forma antes que la sangre. Las investigaciones embriológicas de Harvey mostraron, sin embargo, que la sangre aparece antes que el corazón embrionario. El punto de vista de Harvey sobre el corazón tiene, en consecuencia, dos aspectos: en su Generatione Animalium el corazón es relegado a una posición inferior dado que no aparece como la primera parte discernible del embrión, pero en De Motu Cordis el corazón adquiere primacía por su rol fundamental en el bombeo de la sangre a través del cuerpo animal. En Exercitationes Anatomicae de Generatione Animalium (1651) Harvey hizo la clara distinción: “(...) estando más seguro por aquellas cosas que he observado en el huevo y en la 58 W. Harvey fue médico real, y allí conoció a Charles I y a través de la intervención directa de éste utilizó ciervos de la manada real para sus estudios sobre la generación animal. Harvey instruyó personalmente al rey acerca del corazón, circulación, y sobre sus descubrimientos en embriología. En una oportunidad Harvey, a instancias del rey, pudo examinar un corazón humano vivo latiendo. Cuando Charles I supo que un hijo del Viscount Montgomery había sufrido una herida en el pecho que resultó en una permanente fístula abierta o cavidad, que permitía la vista directa de los órganos interiores, instruyó a Harvey para que le hiciera un examen personal al joven. Harvey lo examinó e hizo los arreglos para que el joven fuera trasladado a la corte real para que el rey pudiera observar el movimiento del corazón y tocar los ventrículos mientras ellos se contraían y expandían, tal como el propio Harvey lo había hecho. Se dice que Charles había dicho al joven, “Señor, desearía poder percibir los pensamientos de algunos de mis corazones nobles como he visto su corazón”. disección de animales vivos, sostengo, contrariamente a Aristóteles, que la sangre es la primera partícula genital, y que el corazón es el instrumento designado para su circulación. Para la función del corazón es el empuje de la sangre (....)” (citado en Cohen, 1995, p. 107) La comparación de Harvey entre el rol de la monarquía y la función del corazón, entonces, no debe ser interpretada como la primacía del corazón en el tradicional sentido aristotélico. Pero la idea del cuerpo político no aparece sólo en la dedicatoria de De Motu Cordis, sino también en el texto mismo, en la conclusión del capítulo XVII, en el cual Harvey prueba “la hipótesis del movimiento y circulación de la sangre” por referencia a los fenómenos observables del corazón y la evidencia de la “disección anatómica”. El corazón, sostuvo, es el primer órgano del cuerpo que aparece en forma completa en el desarrollo embrional, y “contiene en su interior mismo sangre, vida, sensación y movimiento, antes que el cerebro o el hígado estuvieran hechos o pudieran ejecutar cualquier función”; en este estadio el corazón es “como un animal interno”. El corazón, además, dice Harvey, es “como el Príncipe en la Comunidad en cuya persona radica el primer y supremo poder”. El corazón “gobierna todas las cosas en todo lugar, y desde él como desde su origen y fundamento en la criatura viviente todo poder deriva y de él depende”. La transformación por parte de Harvey de la tradicional analogía organicista del Estado, o cuerpo político, en el contexto de sus propios descubrimientos originó, además, exploraciones sobre los sistemas políticos basadas en la nueva fisiología humana, transformándose ésta en una poderosa metáfora. Th. Hobbes apuntó a producir una ciencia de la política o de la sociedad basada en la nueva ciencia del movimiento, conceptos de la mecánica, y la nueva fisiología. Hobbes extremadamente vanidoso sobre su papel en la ciencia creyó haber aportado a dos nuevas ciencias, la Optica y la Justicia Natural, aunque la verdad es que ha pasado a la historia sólo por esta última. Se ha comparado con Galileo y Harvey: “Galileo en nuestro tiempo (...) fue el primero que nos abrió la puerta de la filosofía natural universal, que es el conocimiento de la naturaleza del movimiento. (...) Últimamente, la ciencia del cuerpo humano, la parte mas beneficiosa de la ciencia natural, fue descubierta por la admirable sagacidad de nuestro compatriota el Dr. Harvey (...) La filosofía natural es por ello muy joven; pero la filosofía civil es todavía mucho mas joven, no más vieja que mi propio libro de Cive” (citado en Cohen, 1995, 140) Hobbes ha sido influido fuertemente por la nueva ciencia del movimiento de Galileo pero también por Descartes, y por ambos en cuanto a confianza tanto en la certeza sustantiva de la matemática como en su estructura deductiva y modelo de cientificidad. Pero si bien Hobbes también emplea la metáfora del cuerpo político, la misma no se sustenta sobre la base de pensar que el Estado es esencialmente un cuerpo animado en el sentido en que lo son los seres vivientes naturales según la visión tradicional, sino que tal analogía aparece mediada por la noción de máquina, y entonces se trata más bien de un cuerpo artificial. No es que se elimine la metáfora organicista, sino que los organismos ahora son máquinas; lo que ha cambiado es la concepción con respecto a los animales, dado que ahora son autómatas que funcionan de acuerdo a leyes físicas. Es en este sentido que ejerce gran influencia Harvey: “La NATURALEZA, arte por el que Dios ha hecho y gobierna el mundo, es imitada por el arte del hombre, como en tantas otras cosas, en que éste puede fabricar un animal artificial. Si la vida no es sino un movimiento de miembros cuyo principio está radicado en alguna parte principal interna a ellos, ¿no podremos también decir que todos los autómata (máquinas que se mueven a sí m mismas mediante muelles y ruedas, como sucede con un reloj) tiene una vida artificial? ¿Qué es el corazón sino un muelle? ¿Qué son los nervios sino cuerdas? ¿Qué son las articulaciones sino ruedas que dan movimiento a todo el cuerpo, tal y como fue concebido por el artífice?. Pero el arte va aún más lejos, llegando a imitar esa obra racional y máxima de la naturaleza; el hombre. Pues es mediante el arte como se crea ese gran LEVIATAN que llamamos REPUBLICA o ESTADO, en latín CIVITAS, y que no es otra cosa que un hombre artificial” (Hobbes, 1651 [1995, INTRODUCCION]) Un punto interesante, y que muestra, además de la gran influencia de estos modelos científicos en todas las áreas del saber, el intrincado recorrido de las metáforas en la construcción y justificación del conocimiento, puede surgir de la comparación entre algunos aspectos del modelo hobbesiano de Estado y el análisis que hace J. Harrington (16111677), quien, por la misma época, desarrolla una anatomía política basada en los trabajos de Harvey pero realizando una analogía mucho más biológica que mecánica, estableciendo homologías entre las partes biológicas y el funcionamiento de las instituciones del Estado y su noción de equilibrio en la sociedad. 2.4. autómatas y animales máquina La novedad que inaugura el siglo XVII con el mecanicismo consiste en la exacerbación de la metáfora de la máquina que se eleva así a modelo universal, e incluso tiende a verse lo viviente mismo como una máquina. Pero el logro de Harvey y otros se asienta sobre una tradición que veía a los seres vivos como si fueran máquinas, algo anterior al siglo XVII, y una tradición más antigua y extensa aun sobre la construcción de autómatas. Como quiera que sea la concepción de la relación entre seres vivos (en particular los hombres) y máquinas no siempre ha sido la misma. La tradición que podríamos llamar de los autómatas se apoyaba en la pretensión de construir máquinas que fueran como seres vivos o, en algunos casos como intermediarios con los dioses. El giro producido en el siglo XVII invierte, obviamente para los mecanicistas, la relación y comienza a concebir a los seres vivos como si fueran máquinas. En las últimas décadas parece haberse producido un nuevo giro consistente en considerar a las máquinas (sobre todo computadores) como seres vivos, aunque probablemente ya no con la impronta de la imitación lo más perfecta posible sino como incluidos ambos- hombres y máquinas- en un modo de funcionamiento más general59. A la base del programa de Inteligencia Artificial se encuentra esta poderosa metáfora (Cf. Ursúa, 1993; Ares, 1996; Mazlish, 1993). Hay una larga tradición que se remonta varios miles de años que da cuenta de la existencia de autómatas, esto es, máquinas que imitan el comportamiento de los hombres o bien algún aspecto especial u otros seres de la naturaleza. Es difícil saber cuántos de estos autómatas que aparecen en la literatura realmente reunían las condiciones que se les atribuía, e incluso si realmente fueron construidos alguna vez. J. Needham en su Science and Civilization da cuenta de la abrumadora cantidad de referencias a juguetes mecánicos en la antigua China. También se conocen gran cantidad de relatos provenientes de la antigua Grecia. Diógenes Laercio refiere que Arquitas de Tarento (no aquel homónimo que había salvado a Platón de la esclavitud) es autor de un libro sobre mecánica y la leyenda cuenta que construyó una paloma capaz de volar. Ya Homero había hablado de ciertos autómatas construidos por Hefestos: las esclavas de oro que se movían y hablaban (Ilíada XVIII) y perros de oro que custodiaban el palacio Alcinoo (Odisea VII). Hero de Alejandría (150-100 a.C.), matemático y astrónomo parece haber inventado una serie de aparatos y autómatas por puro placer y para montar una suerte de espectáculo. Como quiera que sea, queda claro que la perfección de la máquina (probablemente en muchos de los casos exagerada o ficticia) hablaba de las excelencias del mecánico, es decir del hombre que la había construido. La edad Media europea también es prolífica en relatos sobre máquinas de maravillosas habilidades. Pero, hacia el siglo XVI se comienza a producir el giro que se señalaba más arriba hacia la concepción de lo viviente como una 59 Sobre la relación entre máquinas y hombres puede consultarse Mazlish (1993). La tesis del autor es que de algún modo la historia de la humanidad es la historia de la ruptura de las discontinuidades, como por ejemplo la ruptura de la discontinuidad entre el hombre y el resto de los seres vivos. La cuarta discontinuidad que se estaría quebrando es la de hombres y máquinas. máquina. El tratado de Vesalio sobre el funcionamiento del cuerpo, ilustrado por una artista flamenco, ilustra un cierto paralelismo entre el funcionamiento del cuerpo humano y las máquinas. Por ejemplo, aparecen algunas ilustraciones que muestran diversos ensamblajes de carpintería comparados con las juntas de los huesos del cráneo, y las articulaciones de los huesos comparadas con los goznes de las puertas. Ambroise Paré (1510-1590), médico francés, llegó a pensar en la posibilidad de reemplazar una mano humana por una máquina, cuyo diseño ilustra en un texto de 1564 (Dix Livres de chirurgie, París, 1564). Las palabras de Descartes, ya en pleno siglo XVII, citadas más arriba, parecen estar claramente inspiradas en escritos e ilustraciones de este tipo, pero que dan lugar no sólo a cuestiones tecnológicas sino a disputas, filosóficas y prácticas, muy profundas con relación a la cuestión de los animales máquinas. No se trata de una cuestión menor. Si los animales son (sólo) máquinas no hay reparo alguno a realizar vivisecciones por ejemplo. Pero, un crítico, Fontenelle, sostuvo "¿Dice usted que las bestias son máquinas igual que los relojes? Pues ponga juntos a un Sr. Perro mecánico y una Sra. Perra mecánica y el resultado será una tercera maquinita; en cambio, dos relojes pueden pasar juntos toda su vida sin llegar a hacer un tercer reloj." Por otro lado, si es falso que los animales no sienten dolor o no tienen ningún tipo de sentimientos, y, por el contrario, se parecen en esto a los humanos, ¿también se parecerán en cuanto a poseer razón?. Los personajes de las fábulas de La Fonteine son animales que razonan como los humanos. Gassendi en la quinta de las objeciones a Descartes señala que la diferencia en cuanto a la capacidad de razón entre animales y humanos era sólo una cuestión de grado. Otra postura anticartesiana en algún sentido, es la propuesta de J. O. de La Mettrie proclamando que los humanos son máquinas, una máquina ilustrada más precisamente (une machine bien éclairée), en su L’Homme-machine de 1747. Para La Mettrie los animales tienen sentimientos en el mismo sentido que los humanos y además existe una continuidad entre ellos: “(...) tal es la uniformidad de la naturaleza, de la que estamos empezando a darnos cuenta; y la analogía del reino animal con el vegetal, del hombre con la planta. Tal vez haya incluso animales-planta que, vegetando, tal vez pelean como los pólipos o realizan otras funciones características de los animales” (de La Mettrie, [1981, p. 103]) Creo que no hay que caer en la tentación de vislumbrar alguna inspiración evolucionista en estos pasajes. De hecho las referencias a seres que eran mezcla de reinos animal y vegetal eran abundantes, no solo en los siglos anteriores sino incluso en relatos del siglo XVI. Muy probablemente la intención de La Mettrie estaba dirigida a menoscabar la autoestima de la humanidad: (...) ¿qué era el hombre antes de inventar las palabras y conocer el lenguaje?. Un animal de su propia especie con mucho menos instinto que los demás. En aquellos días no se creía el rey de los animales, ni era distinguible del mono y del resto de ellos salvo en lo mismo que el mono se distingue de los otros animales, i.e., en una cara más inteligente” (citado en Mazlish, 1993 [1995, p. 48]) Uno de los casos más famosos de autómatas del siglo XVIII es el pato que construyó Jacques de Vaucanson, que según se dice, bebía, comía, digería, graznaba y nadaba- con todo el aparato digestivo a la vista. Vaucanson también construyó un flautista que tocaba doce canciones diferentes moviendo sus dedos, labios y lengua. En 1774 el suizo P. JaquetDroz creó un muchacho sentado en un pupitre que podía escribir hasta cuarenta letras y que todavía funciona en el museo de Historia de Neuchatel. Obras literarias como Frankestein de M. Shelley y otros se inscriben en un campo ambivalente entre lo mecánico y lo viviente pero siempre dentro de la línea de resaltar el papel del constructor en busca de una imitación lo más perfecta posible. 2.5. la matemática en la ciencia social del siglo XVII Durante el primer florecimiento de la Revolución Científica a principios del siglo XVII, la matemática era el área de logros más fácilmente identificables. Estos éxitos no hacen más que reforzar el carácter paradigmático de que gozaba la matemática (geometría) desde la antigüedad y generar la idea de reproducir el éxito de estos pioneros de la matemática produciendo una nueva ciencia del Estado o de la sociedad en un molde matemático. Dice Jacob en este sentido: “Si en los siglos XVII y XVIII la física juega un papel decisivo, no es únicamente por la transformación que aporta al Universo. Tampoco es por las nuevas funciones que asigna a la observación, a la experiencia y al razonamiento. En realidad, es por ser la única entre las ciencias de la naturaleza que puede expresarse con el lenguaje de las matemáticas. La física sustituye la palabra de la revelación por la de la lógica” (Jacob, 1970 [1977, p. 40]) Pero el pasaje o la utilización de la matemática en otras áreas del saber se ha concretado de formas diversas, básicamente cuatro: 1. La primera y quizá la principal fue el intento de producir trabajos que desplegaran la claridad y certeza del razonamiento matemático, que fueran tan infalibles como la geometría euclidiana. 2. La segunda fue el intento de adoptar la actual forma estructural de presentación: clases ordenadas de definiciones, de axiomas y postulados, que llevaran a probar teoremas. 3. La tercera fue aplicar nuevas técnicas y métodos matemáticos, tales como los del álgebra y la aritmética de los comerciantes y mercaderes para producir un cálculo ético o moral o una forma de matemática social o política. 4. La cuarta fue el uso de datos sociales numéricos a la manera que había probado exitosamente en las ciencias físicas o biológicas; un corolario fue favorecer la colección de tales datos numéricos para este propósito. La primera forma puede verse en el pensamiento de Huig -o Huigh- de Groot, o Hugo Grotius (1583-1645), uno de los fundadores del derecho internacional moderno. Grotius es una figura particularmente significativa en este contexto porque se ganó su reputación como jurista y su carrera no es usualmente asociada con la ciencia matemática del siglo XVII. Sin embargo en 1636, Grotius estuvo de acuerdo con Galileo en relación con las propuestas de este último sobre nuevos medios para la determinación de la longitud del mar, un tema familiar para Grotius, ya que había traducido -del holandés al latín- un trabajo sobre este tópico del ingeniero holandés Simón Stevin, que fue también amigo de su padre. En su carta a Galileo, expresó enorme admiración por su talento, ya que: “(...) supera todo esfuerzo humano y lo pone en obra de modo que no necesitamos ni escritos de los antiguos ni preocuparnos de que en el futuro edad alguna triunfe sobre esta (...) pretendo haber sido siempre uno de sus admiradores (...)”. (citado en Cohen, 1995, p. 106) Pero, además, la admiración de Grotius por la física matemática galileana se puede detectar en su tratado de 1625, De Jure Belli ac Pacis, o Law of War and Peace, trabajo sobre el cual se construyó su fama. En los Prolegomena declaró que en la elaboración de su tratado no había considerado controversias presentes o futuras insistiendo en que había seguido el procedimiento matemático. “Tal como los matemáticos tratan sus figuras como abstraídas de los cuerpos así, en el tratamiento de la ley, yo he apartado mi mente de todo hecho particular”. Grotius evidentemente creyó que su ciencia de la ley internacional era tan cierta y segura como cualquier sistema matemático porque había adoptado el mismo alto nivel de abstracción y en concordancia, se había abstraído de los eventos contemporáneos. Juzgó que sus “pruebas de las cosas en cuanto a la ley de la naturaleza” estaban basadas sobre “ciertas concepciones fundamentales que están fuera de cuestión, por eso nadie puede negarlas sin violentarse a sí mismo”. En un trabajo anterior, De Jure Praedae Commentarius, realizado entre 1604-1606, pero publicado en su totalidad recién en 1868, Grotius sostiene claramente que su propuesta tiene la forma de lo que hoy llamaríamos un ‘sistema axiomático’: “Tal como los matemáticos habitualmente establecen para cualquier demostración concreta una afirmación preliminar de ciertos axiomas generales sobre los que todas las personas están fácilmente de acuerdo, para que pueda haber un punto fijo desde el cual trazar la prueba de lo que sigue, así nosotros estableceremos ciertas reglas y leyes de la naturaleza más general, presentándolas como supuestos preliminares que necesitan ser recordados más que aprendidos por primera vez, con el propósito de establecer un fundamento sobre el que nuestras otras conclusiones puedan descansar”. (citado en Cohen, 1995, p. 108) El procedimiento matemático, obviamente no está referido aquí a la utilización de consideraciones aritméticas o cuantitativas, sino respecto a lo que se consideraba el procedimiento racional por excelencia. De un modo similar se expresa en De Jure bellis ac pacis: “En mi trabajo como un todo, yo he apuntado, por encima de todo, a tres cosas: hacer las razones para mis conclusiones tan evidentes como fuera posible; exponer en un orden definido las materias que necesitaban ser tratadas; y distinguir claramente entre las cosas que parecían ser iguales y las que no”. (citado en Cohen, 1995, p. 109) Grotius se basó, para el análisis de la idea misma de justicia en la “proporción geométrica y aritmética”. Pero, además, y concibiendo a la naturaleza como inalterable, asumió que ni el hombre ni dios podrían interferir con la necesidad de las leyes de la misma. Del mismo modo que en la matemática dios mismo no podría hacer que dos veces dos no fuera sino cuatro, así también en el reino de las leyes naturales, Grotius extrajo como conclusión –que, reconoció, rozaba la blasfemia- que el derecho natural podría existir aun si no hubiera un Ser Supremo. De este modo Grotius “liberó el concepto de derecho natural de su origen divino heterónomo” y lo redujo a “un elemento de la naturaleza humana que puede ser conocido por el ejercicio de la razón, de un modo similar al que caracteriza las reglas de la matemática”. Otro autor de la época, S. Pufendorf (1632-1694), sostiene que él mismo, así como también Grotius y Hobbes han sido los que iniciaron la verdadera ciencia de la ley por haber introducido el razonamiento propio de la matemática en sus estudios. De hecho el planteo iusnaturalista hobbesiano se presenta con pretensiones de constituir un sistema deductivo al estilo de la geometría euclideana. Las premisas, que en la geometría son los axiomas y postulados, en el modelo político son las cualidades de la naturaleza humana a partir de la cual se legitima el orden político; sea el orden dado como así también las posibles impugnaciones a un orden existente que no se adecua a los dictados del orden natural. A diferencia de lo que ocurre en la geometría, en la cual la verdad de los principios está garantizada por la evidencia de los mismos en el planteo político es la razón humana la que debe captar esos principios, presentes en la naturaleza misma de las cosas pero no inmediatamente captables. Como quiera que sea, y por lo menos en el siglo XVII, además de conservar la estructura geométrica, el modelo político resulta, al igual que la geometría un orden conforme a la razón que puede explicar lo empíricamente dado pero que no se legitima en lo empírico sino por la luz de la razón atenta. El más celebrado ejemplo del modo geométrico-matemático de discurso en la época de la Revolución Científica –el segundo modo de influencia de la matemática-es la Ethica ordine geométrico demonstrata (completada en 1674, pero publicada en 1677) por B. Spinoza (1632-1677). Organizada en una estricta estructura euclidiana, este tratado comienza con un conjunto de ocho definiciones numeradas y axiomas, que conducen a otras proposiciones numeradas y sus pruebas. Luego hay otros conjuntos de definiciones y axiomas numerados, que conducen a proposiciones adicionales y pruebas. Hay también postulados y lemas. Pero aunque la forma externa es estrictamente geométrica o en el estilo de Euclides, Spinoza no usa técnicas actuales de matemática o geometría en el desarrollo de los temas ni sus argumentos dependen de datos numéricos o consideraciones cuantitativas. Spinoza no empleó esta forma geométrica en sus otros trabajos. Pero en el Tratado teológico político sostuvo que había adoptado “la misma objetividad que generalmente mostramos en las inquisiciones matemáticas”. Esto es, en fundamentar la política sobre “la real naturaleza del hombre”, habiendo “tenido sumo cuidado para comprender las acciones humanas, más que en ridiculizar, deplorar o denunciarlas”. En suma, sostuvo: “Por consiguiente he considerado las pasiones humanas como amor, odio, cólera, envidia, vanidad, piedad, y los otros sentimientos que agitan la mente, no como vicios de la naturaleza humana, sino como propiedades que le pertenecen a ella en el mismo sentido que calor, frío, tempestad, trueno, y otras similares pertenecen a la naturaleza de la atmósfera” (Spinoza [1990, p.34]) Otro ejemplo de la aplicación del método geométrico –el tercer modo- para un problema en las ciencias sociales fue un ensayo de G. W. Leibniz (1646-1716) sobre la elección de un rey de Polonia. Titulado Specimen demonstrationum politicarum, este pequeño trabajo proclamó a través de su subtítulo que Leibniz había usado “un nuevo estilo de escritura que tendía a producir claridad y certeza”. Publicado en 1669, ocho años antes que la Etica, el Specimen de Leibniz difiere de todos los esfuerzos similares de esa época porque su meta era solucionar un problema político particular, no construir un sistema abstracto general. El Specimen es también de interés porque contiene una sugerencia del cálculo lógico de probabilidades- en un contexto político. Aunque Specimen no es mencionado en muchos trabajos sobre Leibniz y es sumariamente descartado en otros, adquiere un cierto renombre en 1921, cuando John Maynard Keynes comenzó el prefacio de su tratado sobre la probabilidad declarando que “el contenido de este libro apareció por primera vez en la mente de Leibniz (...) en la disertación, escrita a sus veintitrés años, sobre el modo de elección de reyes en Polonia”. Leibniz desarrolla su tema en una secuencia de proposiciones numeradas, interrumpidas una y otra vez por la introducción de un corolario o lema. El contenido de las proposiciones individuales, como quiera que sea, no es generalmente matemático. Por ejemplo, la Proposición Nº 9 expresa lo siguiente: “Todo lo que es contrario a la LIBERTAD es contrario a la SEGURIDAD en Polonia. Todo lo que es contrario a la libertad es contrario a la cosa mas deseada por los polacos, por la prop. Nº3 Los polacos son una nación guerrera, por la prop. Nº 5. Todo lo que sea contrario a los deseos de una nación guerrera es propenso a ser causa de guerra. Por ello, es propenso a ser causa de una guerra civil. Pero la guerra civil es peligrosa. Todo lo que sea peligroso es contrario a la seguridad. Por ello, todo lo que es contrario a la libertad es contrario a la seguridad en Polonia.” (citado en Cohen, 1995, p. 112) En la época en que el Specimen fue publicado la elección ya había sido hecha, y el trono no le fue otorgado al candidato por quien Leibniz había abogado. Quizá el Specimen pueda ser considerado como un documento pionero en los intentos de matematización de la ciencia política. Durante toda su vida Leibniz se mostró profundamente preocupado por los aspectos de la ciencia política o social. Su meta fue producir una ciencia general (scientia generalis) que abrazara la matemática, las ciencias físicas y las ciencias sociales, usando un método matemático para todas ellas. Apuntaba también a una ‘lógica civil’ o ‘lógica de la vida’ en la cual los problemas prácticos, especialmente las cuestiones legales, fueran analizadas por el cálculo de probabilidades. Quiso en particular proveer un modo cierto y fácil para resolver todas las disputas. Sostuvo: “Cuando surja la controversia, la disputa no será más necesaria entre dos filósofos que entre dos contadores. (...) Será suficiente para ellos tomar sus lápices en las manos y apoyados en sus sumas, decir cada uno al otro (amistosamente si lo desean): calculemos’”. (citado en Cohen, 1995, p. 113) G. L. Leclerc, conde de Buffon (1707-1788), uno de los grandes naturalistas del siglo XVIII, aunque no se destacó en matemática, publicó en 1777 y como suplemento a su Historia Natural en 30 volúmenes, un opúsculo titulado Essai d’Arithmetique Morale. Su preocupación por averiguar la relación de los algunos números (por ejemplo en los juegos de azar) con las conductas de las personas justifica el adjetivo ‘moral’ en el título. Aspiraba a poder medir en lo posible las emociones, temores y esperanzas de los humanos reales y concretos. Sostiene que se puede escoger como unidad de medida el temor a la muerte, dado que se trata de una característica humana a la cual se podrían referir las medidas de los otros temores y también de las esperanzas puesto que “las diferencias entre las esperanzas y los temores son tan sólo de signo positivo o negativo”. Mientras que los animales, para Buffon, no saben que morirán, los hombres, al saberlo, hacen de la muerte el centro de su vida, creencias, ritos, esperanzas y temores. La pasión que Buffon consideraba más perniciosa, quizá por ser la más extendida, era la del juego de azar entendido como una suerte de convenio en el cual una persona apuesta parte de su patrimonio con la intención de quedarse con parte del patrimonio de otro; sostenia que era un contrato desventajoso para amnbas partes y que su efecto era provocar siempre una pérdida superior a las ganancias, eludiendo el bien para caer en el mal. La noción misma de introducción de la matemática en las ciencias sociales sobre el modelo de las ciencias naturales hoy sugiere mucho más que las ideas abstractas de Grotius o la forma geométrica del Specimen de Leibniz o la Etica de Spinoza. Más bien el término ‘matemática’ implica al mismo tiempo tanto la acumulación de datos numéricos o cuantitativos como la introducción de técnicas matemáticas: proporciones, álgebra, gráficos, técnicas estadísticas, cálculos, y otros tipos de altas matemáticas. El reino de la ciencia social matemática del siglo XVII abraza no solamente los trabajos de pensadores cuyo objetivo era emular la estructura formal del sistema geométrico o adoptar la certeza abstracta del razonamiento matemático sino también los intentos de producir una base numérica para la comprensión de la sociedad y proponer análisis cuantitativos -el cuarto modo de influencia de la matemática. Para tener tales números sociales era necesario tener algún tipo de censo. Aunque varias formas de censos y de colección de datos cuantitativos sobre recursos naturales y otros aspectos de la economía antecedieron en mucho a la Revolución Científica, las primeras series útiles de números referidos a lo social regularmente producidos fueron las Listas londinenses de mortalidad (London Bills of Mortality) (cf. Cohen, 1995), inicialmente tomada, sobre bases semanales, a principios del s. XVI. Interrumpidas durante algún tiempo fueron luego restituidas durante los años de plaga, y después de 1603 fueron tomadas mas o menos regularmente, aun durante los años relativamente libres de plaga u otras enfermedades. Un paso importante en ciencia social asociada a la matemática ocurrió cuando estos datos estuvieron sujetos a análisis por J. Graunt (1620-1674), un comerciante londinense con poca educación formal, cuya reputación se estableció por la publicación, en 1662, de un pequeño libro titulado Natural and political observations upon the bills of mortality, el cual aseguró su elección para la Royal Society. Ya en la dedicatoria, Graunt aclara que su uso de la matemática no es en un nivel académico como el de la geometría teórica o la teoría del número abstracto, sino que hace uso de los datos a la manera de los negocios y la contabilidad, agregando totales y subtotales, estimando fracciones, y analizando datos a la manera de un hombre de negocios. Observó, por ejemplo, que durante un periodo de veinte años, las muertes de viruelas, viruelas locas, sarampión y parásitos sin convulsiones totalizó 12.210, de lo cual él supuso que “alrededor de la mitad podrían ser niños de menos de 6 años”. Unos 16.000 del total de 229.250 muertes fueron causadas por la plaga. Por ello, “alrededor del 36 por ciento de todos los concebidos vivos murieron antes de los seis años”. De este total, “enfermedades agudas” diferentes de la plaga estimadas en “alrededor de 50.000, o los 2/9”. Concluyó que este número daba una “medida del estado y disposición de este clima y aire para la salud”. Estos análisis pioneros pronto dieron frutos en la “Aritmética Política” de Sir W. Petty, fuertemente influenciado por el trabajo de Graunt. Fue miembro fundador de la Royal Society y escribió muchos tratados sobre temas económicos, de los cuales el mas celebrado es la Political Arithmetik publicado póstumamente en 1690. En el informe preliminar se señala que Petty inventó el nombre ‘aritmética política’ para denotar el modo en el cual “la felicidad y grandeza de un pueblo están bajo Reglas Ordinarias de Aritmética, comprometidas en una suerte de demostración”. Petty describió su método como sigue: “El método que he adoptado para realizar esto no es muy común: en lugar de usar solamente términos comparativos y superlativos y argumentos intelectuales, he adoptado para expresarme el camino (como una especie de Aritmética Política) de usar términos de medida, peso o medida; usar solo argumentos basados en los sentidos y considerar como causas lo que tiene un fundamento visible en la naturaleza, dejando de lado aquellos que depende de los puntos de vista, opiniones, apetitos y pasiones de los hombres particulares(...)” (citado en Cohen, 1995, p. 116) Del mismo modo que Graunt, Petty insiste sobre la primacía de los números y en consecuencia la aritmética y su generalización en el álgebra, a diferencia de la tradicional geometría de los académicos que se remonta a la antigua Grecia. Los tópicos en los cuales Petty está interesado - bienes y comercio, marina mercante, impuestos, y el costo de manutención de un ejercito- son considerados en términos de datos numéricos. En sus primeros ensayos en aritmética política estudió cuestiones especificas de vivienda, hospitales y poblaciones. Por ejemplo, habiendo hallado que la población de Londres se duplica cada cuarenta años y la población de “toda Inglaterra” cada 360 años, concluyó que “el crecimiento de Londres debe parar antes del año 1800” y que “el mundo estará repleto de gente dentro de los próximos doscientos años”. El deseo de tener números exactos que den cuenta de los social o datos censales, fue parte de la esperanza del s. XVII de producir una ciencia cuantitativa del Estado y la sociedad. Fue un complemento de la meta fijada de desarrollar una ciencia social que recordara a la matemática tanto en su forma como en la certeza de los resultados a partir de la abstracción, desde la ausencia de discusión en temas y sucesos que despertara la pasión humana. Otro caso es el de S. Le Prestre de Vauban (1633-1707) Marshall de Francia bajo Luis XIV quien ha sido llamado, por su interés y uso de estadísticas o información numérica, ‘el padre de la estadística’ o ‘creador de la estadística’. Fontenelle, en su éloge oficial para la Academia de Ciencias, dijo que Vauban fue elegido miembro honorario de la Academia de Ciencias como matemático porque él, más que ningún otro, “había traído la matemática de los cielos”. CAPITULO 5 METÁFORAS ENTRE CIENCIAS Jugando en el árbol del conocimiento “(...) la verdad, una vez hallada, sería sencilla, además de bella” (J. Watson, La doble hélice,) En este Capítulo se abordará el uso metafórico de teorías, conceptos o modelos que pasan de un área específica de la ciencia a otra, que en principio, le es ajena. Si hubiera que elegir ejemplos o casos típicos de ‘metáforas epistémicas’ tal como se las ha definido aquí, probablemente serían estos los que mejor se prestarían. Igual que en el Capítulo anterior no se intentará hacer aquí un rastreo exhaustivo de metáforas en la ciencia, sino más bien señalar algunas de las principales líneas de transferencias metafóricas entre las distintas áreas de la ciencia. Pueden establecerse entonces, algunos criterios según los cuales se ha operado la selección de casos. Haciendo una lectura a grandes rasgos de la historia de la ciencia europea de los últimos tres o cuatro siglos puede decirse que hay dos líneas fundamentales: una que tiene como proveedora de modelos a la física, que se inicia primero, merced a los éxitos de la física de la Revolución Científica -principalmente la de Newton-; y otra que se apoya en las ciencias biológicas y que fue creciendo en importancia a medida que se iba desarrollando la biología. Estas dos líneas se han ido consolidando desde la Revolución Científica en adelante y durante el siglo XIX se pudo asistir al apogeo de ambas, siendo profusamente utilizadas en las incipientes ciencias sociales aunque con algunas especificidades: mientras que por una parte la física matemática, tenía una profunda influencia sobre la economía, los modelos provenientes de las ciencias biológicas, tales como por ejemplo la teoría celular y la teoría de la evolución, resultaron sumamente influyentes en el área de las teorías de la morfología social y la conducta. De cualquier manera, y este es un punto importante para los estudios sobre la ciencia, la relación entre el ámbito original proveedor de metáforas, casi nunca es lineal y en un solo sentido, sino que debería decirse, con más propiedad, que se produce una interacción compleja entre sectores del conocimiento. En segundo lugar, puede decirse que el modelo de cientificidad ha sido durante los siglos XVII, XVIII y XIX básicamente la física-matemática, hegemonía que, en lo referente a las ciencias de la conducta, individual y socialmente consideradas, comenzó a compartir en el siglo XIX con las ciencias biológicas, proceso que se ha profundizado en las últimas décadas, pasando a ser la biología el modelo de cientificidad por antonomasia. 1. APROPIACIONES DE LA FISICA NEWTONIANA 1.1 algunos usos metafóricos de la física en ciencias sociales Las leyes de Newton dan cuenta de una serie de fenómenos de diferentes clases, tanto en los cielos como en la Tierra, fenómenos que incluyen los movimientos orbitales de los planetas, satélites y cometas; las mareas en el océano; el hecho de que, en todo lugar, cuerpos de diferentes pesos caigan con la misma aceleración, y muchos otros. En 1713 Berkeley (1685-1753), intentó desarrollar una ciencia social basada en la ley de la gravitación de Newton (Principia, Libro II, Proposición VII) que establece que la fuerza de la gravedad entre dos cuerpos es directamente proporcional al producto de las masas de los cuerpos e inversamente proporcional al cuadrado de las distancias entre ellos. Berkeley sostuvo, en esta misma línea, que el funcionamiento de la sociedad es análogo al de los cuerpos y que hay un ‘principio de atracción’ en los ‘espíritus o mentes de los hombres’. Esta especie de fuerza de gravitación social tiende a juntar a los hombres en comunidades, clubes, familias, círculos de amistades y todo tipo de sociedades. Del mismo modo en que en los cuerpos físicos de igual masa ‘la atracción es más fuerte entre aquellos que se encuentran más cerca’ así también con respecto a las ‘mentes de los hombres’ -ceteris paribus- la ‘atracción es más fuerte (...) entre aquellos que están más cerca’. Partiendo de estos supuestos extrajo toda clase de consecuencias sobre los individuos y la sociedad, abarcando desde el amor de los padres por los hijos hasta el que pueda tener una nación por los asuntos de otra, y de cada generación por las futuras. De cualquier manera, aunque Berkeley introdujo la noción de atracción social y consideró las ‘mentes de los hombres’ y la solidez de sus relaciones como si tuvieran los mismos roles que masa y distancia en la física, no intentó desarrollar un isomorfismo exacto de conceptos, ni tampoco cuantificó su ley de fuerza moral. A mediados del s. XIX el economista americano H. Ch. Carey (1793-1879), por su parte, sostuvo que la sociedad está regida por leyes similares a las de la física, proponiendo un principio general de la gravitación social: “El hombre tiende necesariamente a gravitar hacia sus semejantes” y su corolario: “cuanto más grande es el número de hombres que están juntos en un espacio dado, más grande es la fuerza de atracción allí ejercida” (citado en Cohen, 1995, p. 17) Carey pretendía que su ley cumpliera respecto al funcionamiento de la sociedad, la misma función que la ley de Newton en la física, utilizando análogos de los conceptos de ‘atracción’ y de ‘masa’. Por la misma época (alrededor de1860) el economista suizo L. Walras (1834-1910) intentó establecer una suerte de ley newtoniana de la economía en un trabajo titulado “La aplicación de las matemáticas a la economía política”. Sostuvo allí que “el precio de las cosas está en razón inversa a la cantidad ofertada y en razón directa a la cantidad demandada”. Pretendía que esta ley que intenta establecer una relación funcional entre las entidades económicas, cumpliera en la teoría del mercado, el mismo papel central que la ley de Newton cumple en la física. De cualquier manera hay también algunas diferencias importantes: en primer lugar, la ley de Walras depende de una razón inversa simple (el precio es inversamente proporcional a la cantidad ofertada), mientras que la ley de Newton invoca la razón inversa del cuadrado (la fuerza es inversamente proporcional al cuadrado de la distancia); en segundo lugar, la ley de Walras, implica una proporción directa de una cantidad o parámetro simple (cantidad demandada), mientras que la ley de Newton usa la proporción directa de dos cantidades (las masas). A principios del s. XIX Ch. Fourier (1772-1837), pretendió haber descubierto un equivalente de la ley de la gravitación, que aplicó a la naturaleza humana y la conducta social. Llegó a equiparar su 'descubrimiento' con el de Newton, y se jactó de que su ‘cálculo de atracción’ era parte de su descubrimiento de ‘las leyes del movimiento universal ignoradas por Newton’. Cuando en 1803, Fourier anunció su descubrimiento de un ‘cálculo de armonía’, declaró que su ‘teoría matemática’ era superior a la de Newton, ya que éste y otros científicos y filósofos habían hallado solamente ‘las leyes del movimiento físico’, mientras que él había descubierto ‘las leyes del movimiento social’. La física social de Fourier estaba basada sobre un sistema de doce pasiones humanas y una ley fundamental de ‘atracción pasional’ (o ‘atracción apasionada’), a partir de la cual concluyó que solamente un número cuidadosamente determinado de individuos viviría juntos en ‘armonía’ en lo que llamó phalanx. E. Durkheim provee otro ejemplo de la pretensión de haber descubierto un análogo social de la ley de Newton de la gravitación universal. Resulta particularmente interesante el caso de Durkheim, por cuanto esta referencia aparece en la conclusión de su División del trabajo social, texto en el cual abunda el uso de analogías organicistas, biológicas y médicas de la sociedad, incluso introduciendo las células biológicas, funciones fisiológicas, la acción del sistema nervioso, y otros elementos anatómicos y morfológicos. La ley social newtoniana de Durkheim depende de dos factores sociales: ‘el número de individuos en relación - en rapport- y su proximidad material y moral’. Estos factores asimismo son para él ‘el volumen y densidad de la sociedad’: su aumento produce la ‘intensificación que constituye la civilización’, o como expresa la misma idea en una nota, ‘el crecimiento en masa social y densidad’ es ‘el hecho que determina el progreso de la división del trabajo y la civilización’. Durkheim, algo presuntuosamente, llamó a su ley sociológica: la ‘ley de gravitación en el mundo social’. Y en una de sus formulaciones de esta ley ciertamente resuena, en medio de abundantes referencias a la lucha por la vida en la sociedad, el eco de Newton: “La división del trabajo varía en relación directa con el volumen y densidad de las sociedades, y, si progresa de una manera continua en el curso del desarrollo social, es porque la sociedad deviene regularmente más densa y generalmente más voluminosa”. (Durkheim, [1993, p. 317]) En todo el siglo XIX es una constante la relación entre física y economía: por un lado la mecánica racional con la física de la energía fue ampliamente utilizada como modelo original para la naciente economía marginalista -o neoclásica-, junto con herramientas analíticas tales como desplazamientos virtuales de Lagrange y las funciones de Hamilton, ecuaciones análogas y principios de maximización y minimización. Pero además, por el hecho de tomar a la física matemática como modelo de cientificidad, con el objetivo de establecer una ciencia social de la economía legitimada en la comunidad científica por estar apoyada en el sistema de valores de la ciencia ‘dura’. 1.2 mecánica racional y economía marginalista Las principales figuras de la revolución marginalista en economía -Jevons, Walras, Edgeworth, Fisher y Pareto- basaron sus teorías económicas, o al menos las asociaron con, la matemática de un subconjunto específico de la física: la mecánica racional post newtoniana (o sea incorporando los principios de Lagrange y Laplace más los métodos de Hamilton) combinada con las doctrinas de la energía. En el fondo, parece tratarse del antiguo recurso de lograr estatus de cientificidad sobre la base de parecerse lo más posible a la física matemática. Walras escribió en su Elements of Pure Economics que el uso de la “matemática promete convertir la economía pura en una ciencia exacta”, que “la economía matemática se alineará con las ciencias matemáticas de la astronomía y la mecánica”, para concluir que “la ciencia pura de la economía es una ciencia con semejanzas a las ciencias físico matemáticas en muchos respectos”. Probablemente en este caso, como en muchos otros, la asociación de la economía con la física matemática, más que apuntar a elaborar contenidos sustanciales en la economía, esté dirigida a establecer elementos de legitimación. Como quiera que sea, en un artículo llamado “Economía y mecánica”, publicado en 1909, sostuvo que ecuaciones diferenciales idénticas a las de su análisis de la economía aparecen en dos ejemplos de la física matemática: el equilibrio de la palanca y el movimiento de los planetas de acuerdo a la mecánica gravitacional celeste. La utilización en la economía de estos modelos va mucho mas allá de una mera transferencia creativa de conceptos y principios, expresiones matemáticas, y otras herramientas del arsenal de la física matemática. Jevons (1835-1882) reconocía que la analogía “nos lleva a descubrir regiones de una ciencia todavía no desarrollada, para lo cual la llave es provista por las verdades correspondientes en la otra ciencia”. Sostiene Jevons que a pesar de que parece que no hay disciplinas tan disímiles como la economía y la física matemática, en la medida en que la primera se las tiene que ver con factores tales como avaricia, beneficio, costo, valor, utilidad, necesidad y bien, mientras que la física lo hace con abstracciones tales como fuerza, campo, distancia, velocidad, y energía cinética y potencial, sin embargo sostiene en su Teoría de la Economía Política, que la economía es similar a la física de tal modo que “las ecuaciones empleadas no difieren en su carácter general de las utilizadas en muchas ramas de la ciencia física”. De hecho, sostiene “no hay dos ciencias que puedan parecer a primera vista más diferentes en cuanto a sus temas que la geometría y el álgebra”, y sin embargo la geometría analítica de Descartes demostró lo contrario. Hay que tener en consideración que en el s. XIX Newton aún simbolizaba el nivel más alto de hazaña científica, y las palabras usadas en relación con la ciencia newtoniana- ‘racional’, ‘exacta’, y hasta ‘matemática’- denotaban una ciencia en el zenit de la jerarquía científica. La asociación de la ‘mecánica racional’ newtoniana, entonces, unía a la economía con la rama más exitosa de las ciencias naturales. Esta asociación estaba basada en una metáfora, pero no sólo como transferencia y asimilación de significados y fórmulas más o menos felices, sino que opera también una verdadera transferencia de sistemas de valores epistémicos y aun otros de reconocimiento social. Por su parte, W. Pareto sostuvo que las ecuaciones que determinan el equilibrio económico “no parecen nuevas para mí; las conozco bien, ellas son viejas amigas. Ellas son las ecuaciones de la mecánica racional”. Dado que las ecuaciones son las mismas, concluyó que “la economía pura es una suerte de mecánica o pariente de la mecánica”. Pareto atribuyó un doble rol a la matemática en la economía y en general en ciencia social. La matemática, creyó, provee los medios de transferir analógicamente las ecuaciones básicas de la física a la economía y también sirve como una herramienta primaria para tratar con problemas tales como la “mutua dependencia de los fenómenos sociales” en condiciones de equilibrio; aquí el análisis matemático permitiría precisar “cómo las variaciones de cualquiera de estas (condiciones) influye en las otras”, una asignación en la cual “nosotros realmente necesitamos tener todas las condiciones de equilibrio”. En el “estado actual de nuestro conocimiento”, notó, sólo el análisis matemático puede “decirnos si este requisito es observado”. Esto lleva a Pareto a algunos señalamientos acerca del rol de la analogía y los peligros de su uso en la ciencia social. Dado “que el intelecto humano procede desde lo conocido hacia lo desconocido”, escribió, podemos hacer progresos en nuestro pensamiento basando nuestras ideas de un área desconocida en analogías traídas desde un área conocida. Por ejemplo, el “extenso conocimiento del equilibrio de un sistema material” nos ayuda a “adquirir una concepción del equilibrio económico” y esto en suma “puede ayudarnos a formar una idea del equilibrio social”. Advirtió, de cualquier modo, que en “tales razonamientos por analogía hay (...) una trampa de la que hay que escapar”. Esto es, el uso de analogías “es legítimo y quizá, altamente fructífero, en la medida en que sólo está implicado en la elucidación del sentido de una proposición dada”. Incurrimos en un grave error, si tratamos de usar analogías para probar una proposición o aun “establecer una presunción en su favor”. Las analogías, agregó, sirven primariamente para clarificar el sentido de las proposiciones. Pareto estaba igualmente convencido de que el equilibrio de un sistema económico ofrece fuertes similitudes con el equilibrio de un sistema mecánico y firme en su convicción de que un análisis de un sistema mecánico ofrece la máxima ayuda para dar “una clara idea del equilibrio en un sistema económico”, construyó una tabla (Ver Tabla 1) para “aquellos quienes no han estudiado mecánica pura” y que necesitarán ayuda en la comprensión del argumento. En esta tabla ubicó en columnas paralelas algunos importantes conceptos y principios de la mecánica física y su contraparte en la economía, previniendo, de cualquier modo, que en una tabulación tal de las analogías existentes entre los fenómenos de la mecánica y los sociales las “analogías no prueban nada: ellas simplemente sirven para elucidar ciertos conceptos que deben entonces ser sometidas a los criterios e la experiencia”. TABLA Nº 1 Analogías de Pareto Fenómenos mecánicos Fenómenos sociales Dado un cierto numero de cuerpos materiales, las relaciones de equilibrio y movimiento entre ellos son estudiadas, cualquier otra propiedad es excluida de la consideración. Esto nos da una disciplina llamada mecánica. Esta ciencia de la mecánica es divisible, a su vez, en otras dos: 1- el estudio de los puntos materiales y conexiones invariables (inextensibles) llevan a la formulación de una ciencia pura- la mecánica racional pura, que realiza un estudio abstracto Dada una sociedad, las relaciones creadas entre los seres humanos por la producción y el intercambio de bienes son estudiadas, cualquier otra propiedad es excluida de la consideración. Esto nos da una disciplina llamada economía política. Esta ciencia de la economía política es divisible, a su vez, en otras dos: 1- El estudio del homo economicus, el hombre considerado únicamente en el contexto de las fuerzas económicas, lleva a la formulación de la economía política pura, que realiza un estudio del equilibrio de fuerzas y el movimiento. Su parte más sencilla es la ciencia del equilibrio. El principio de D’Alembert permite que la dinámica sea reducida a un problema de estática. 60 abstracto de las manifestaciones de ofemilidad . La única parte que estamos comenzando a comprender claramente es la que trata con el equilibrio. Un principio similar al de D’Alembert es aplicable a los sistemas económicos; pero el estado de nuestro conocimiento sobre este punto es aun imperfecto. No obstante, la teoría de las crisis económicas provee un ejemplo de estudio de la dinámica económica. 2- La mecánica pura es seguida por la mecánica 2- La economía política pura es seguida por la aplicada la cual se aproxima un poco más economía política aplicada, la cual no se refiere cercanamente a la realidad en su consideración exclusivamente al homo economicus, sino que de los cuerpos elásticos, conexiones variables, también considera otros estados humanos que se fricción, etc. aproximan más al hombre real. Los cuerpos reales tienen propiedades distintas Los hombres desarrollan características que son de las de la mecánica. La física estudia las objeto de estudio para ciencias especiales, tales propiedades de la luz, electricidad y el calor. La como las ciencias de la ley, la religión, la ética, química estudia otras propiedades. La desarrollo intelectual, estética, organización social y termodinámica, la termoquímica y ciencias otras. Algunas de estas ciencias están en un estado similares conciernen específicamente a ciertas apreciablemente avanzado; otras son categorías de propiedades. Estas ciencias juntas extremadamente lentas. Tomándolas en conjunto constituyen las ciencias físico químicas. constituyen las ciencias sociales. No existen cuerpos reales con propiedades No existen hombres reales gobernados solamente mecánicas puras. Se comete exactamente el por motivos de la economía pura. Se comete mismo error tanto si se supone que en los exactamente el mismo error tanto si se supone que fenómenos concretos existen únicamente fuerzas en un fenómeno concreto existen únicamente mecánicas –excluyendo por ejemplo fuerzas motivos económicos –excluyendo por ejemplo químicas- como si se imagina, que un fenómeno fuerzas morales- como si se imagina que un concreto puede ser inmune a las leyes de la fenómeno concreto puede ser inmune a las leyes de mecánica pura la economía política pura La diferencia entre la teoría y la práctica reside precisamente en que la práctica tiene que tomar en cuenta una masa de detalles con los cuales la teoría no trata. La relativa importancia de los fenómenos primarios o secundarios variará de acuerdo a si el punto de vista es el de la ciencia o de una operación práctica. Hay, de tanto en tanto, intentos de hacer una síntesis de todos los fenómenos. Por ejemplo se sostuvo que todos los fenómenos pueden ser atribuidos a: La atracción de átomos. El intento se hizo para La utilidad, de la cual la ofemilidad es sólo un tipo. El reducir y para unificar todas las fuerzas físicas y intento se hizo para encontrar la explicación de todos los fenómenos en evolución. químicas. (Pareto, W., “On the economics Phenomenon”. Tomado de Cohen, 1995) Un caso extremo de las analogías entre la economía y la mecánica racional se encuentra en Mathematical Investigations into the Theory of value and Prices de I. Fisher (1926). En el mismo estilo de Pareto, Fisher (Ver Tabla 2) también construyó una tabla similar de analogías entre la mecánica física y la economía, pero su lista de semejanzas no se limita a la inclusión de pares de conceptos -tales como partículas e individuos; energía y utilidad, etc. - sino que se extiende a la inclusión de principios generales. TABLA Nº 2 Analogías de Fisher Mecánica Economía Una partícula Espacio Fuerza Trabajo Energía Trabajo o energía= fuerza x espacio Fuerza es una magnitud vectorial La suma de las fuerzas es una suma vectorial un individuo Commodity Utilidad marginal o costo Costo Utilidad Utilidad= utilidad marginal x commodity Utilidad marginal es una magnitud vectorial La suma de las utilidades marginales es una suma vectorial Trabajo y energía son magnitudes escalares Costo y utilidad son magnitudes escalares El equilibrio estará donde la energía neta El equilibrio estará donde la ganancia (utilidad menos 60 La palabra ‘ofemilidad’ es un neologismo utilizado por Pareto y otros economistas, derivado del término griego que denota ‘satisfacción’. Se refiere a la satisfacción obtenida por un individuo con el disfrute de un determinado bien. (energía menos trabajo) es máxima; o el equilibrio estará donde el impulso y las fuerzas de resistencia a lo largo de cada eje sean iguales. Si la energía total es sustraído del trabajo total, en lugar de hacerlo al revés, la diferencia es ‘potencial’ y es mínima. pérdida) es máxima; o el equilibrio estará donde la utilidad marginal y el costo marginal a lo largo de cada eje sea igual. Si la utilidad total es sustraída del costo total, en lugar de hacerlo al revés, la diferencia puede ser denominada ‘pérdida’ y es mínima. (Fisher, I., Mathematical Investigations into the Theory of value and Prices. Tomado de Cohen, 1995) Es importante recalcar que la imitación de las ciencias naturales por las ciencias sociales lleva consigo una validación y legitimación de los valores, métodos y estilos de investigación. En el campo de circulación de los discursos científicos las analogías o metáforas toman fuerza del encanto y la seguridad de un saber consolidado y venerado. Valga una breve digresión para mostrar, en un caso contemporáneo hasta qué punto el prestigio –no siempre debidamente fundadoopera a favor de la legitimación de saberes. En los últimos años hemos asistido a una especie de escandalete académico conocido como el ‘affaire Sokal’. En el número 46/47 –vol. 14, primavera/verano de 1997-, denominado ‘Science Wers’ y dedicado a los estudios sociales y culturales de la ciencia, la revista Social Text, publicó un artículo del físico A. Sokal, titulado “Transgressing the Boundaries. Towards a Transformative Hermeneutics of Quantum Gravity”. En ese artículo Sokal defiende una posición relativista con respecto a la ciencia, argumentando que se trata de una construcción social y lingüística, mero reflejo de la ideología dominante y, por lo tanto un saber entre saberes, sin ningún tipo de privilegio epistémico. Lo curioso es que tal defensa, es llevada adelante por Sokal a partir del desarrollo de las teorías de la gravedad cuántica y recurriendo a una gran cantidad de citas pertenecientes a autores reconocidos. No bien sale publicado su trabajo, Sokal publicó en la revista Lingua Franca otro artículo, titulado "Experiment with Cultural Studies", en el cual revela que el artículo de Social Text, no era más que una parodia y un cúmulo de falacias. En este segundo artículo Sokal revela las falacias utilizadas, el manejo poco serio de conceptos físicos y matemáticos y la introducción de algunos verdaderos disparates como por ejemplo que el axioma de equivalencia de la teoría de conjuntos es análogo a las tesis feministas y otros en los cuales cita y refuerza irónicamente fragmentos de algunos de los filósofos postmodernos franceses. “No se me escapan las cuestiones éticas relacionadas con mi poco ortodoxo experimento. Las comunidades profesionales actúan sobre la base de la confianza; el engaño mina esa confianza. Pero es importante entender exactamente lo que hice. Mi artículo es un ensayo teórico en un todo basado en fuentes públicamente accesibles, todas las cuales fueron minuciosamente citadas en notas de pie de página. Todas las fuentes son reales y todas las citas rigurosamente exactas; ninguna es inventada. Ahora, es cierto que el autor no cree en su propia argumentación. Pero, ¿por qué habría ello de importar?. El deber de los editores, como académicos, es juzgar la validez y el interés de las ideas, sin tomar en cuenta de dónde provengan (por eso, muchas revistas académicas utilizan el arbitraje ciego). Si los editores de Social Text encontraron mis argumentos convincentes, por qué habrían de desconcertarse simplemente porque yo no lo hago? ¿O es que son más sumisos a la ‘autoridad cultural de la tecnociencia' que lo que les gustaría admitir? En última instancia, recurrí a una parodia por una simple razón pragmática. Los blancos de mi critica, a esta altura, se han transformado en una subcultura académica autoperpetuante, que típicamente ignora (o desprecia) a la crítica razonada externa. En tal situación, se requería una demostración más directa de los estándares intelectuales de dicha subcultura. Pero, ¿cómo puede demostrar uno que el emperador está desnudo?. La sátira es, de lejos, la mejor arma; y el golpe que nunca puede desviarse es el que uno se inflige a sí mismo. Ofrecí a los editores de Social Text una oportunidad para demostrar su rigor intelectual. ¿Pasaron la prueba? No lo creo” (Sokal, 1996, p. 64). Posteriormente, Sokal envía un nuevo artículo a Social Text, con el título de "Transgressing the Boundaries: an afterword". Como era previsible, dado el ridículo implicado, los editores se negaron a la publicación de este trabajo que al tiempo fue incluido en la revista Dissent Nº 43. Lo sustantivo de la posición de Sokal se halla contenido en Impostures Intellectuelles, un libro publicado en Francia en 1997, en coautoría con J. Bricmont físico teórico de la Universidad de Lovaina, Bélgica. Sokal y Bricmont dedican un capítulo distinto para cada uno de los autores criticados: Lacan, Kristeva, Irigaray, Latour, Baudrillard, Deleuze, Guattari, Virilio, además de intermedios para Kuhn, Feyerabend, Bloor, Barnes, Lyotard, etc. Sokal y Bricmont sostienen que su libro tiene dos propósitos. El primero de ellos es denunciar el abuso de los conceptos científicos por parte de connotados autores y se dedican a mostrar que intelectuales reconocidos como Lacan, Kristeva, Irigaray, Baudrillard, y Deleuze, han abusado repetidamente de los conceptos y la terminología científica tanto usando las ideas científicas totalmente fuera de contexto, sin dar la más mínima justificación, como así también esparciendo jerga científica entre lectores no-científicos sin ninguna consideración de su relevancia o incluso de su significado. Sostiene que hay una serie de prácticas habituales entre los autores postmodernistas tales como "(...) mistificación, lenguaje deliberadamente oscuro, pensamiento confuso, y mal uso de conceptos científicos". El otro objetivo es enfrentar críticamente el relativismo epistemológico, que definen como "la idea (...) de que la ciencia moderna no es más que un 'mito', una 'narración' o una 'construcción social' entre otras". Sostienen que estas expresiones son propias del 'postmodernismo': "una corriente intelectual caracterizada por el rechazo más o menos explícito de la tradición racionalista de la Ilustración, por discursos teóricos desconectados de todo test empírico, y por un relativismo cognitivo y cultural que considera la ciencia como nada más que una 'narración', un 'mito' o una construcción social entre otras" (Sokal y 61 Bricmont, 1999, p. 17) . Sokal y Bricmont ponen a la vista algunas de las tácticas usadas en este abuso de los conceptos científicos: • uso de teorías científicas acerca de las cuales, en el mejor de los casos, se tiene una vaga idea expresada en una erudición científica excesivamente superficial e irrelevante y en el uso extendido de jerga aparentemente científica • importación de conceptos desde las ciencias naturales a las humanidades o las ciencias sociales sin la más mínima justificación; uso indiscriminado y arbitrario de la metáfora y la analogía y despliegue de generalizaciones arbitrarias • despliegue de erudición superficial, manejando términos técnicos en contextos completamente irrelevantes; • manipulación de frases carentes de significado, con exhibición de una verdadera intoxicación con palabras que resulta en un estilo oscuro de exposición como signo de supuesta profundidad • Indiferencia o desdén por los hechos y por la lógica El affaire Sokal permite extraer varias conclusiones posibles, además de haberle dado a su autor cierta fama y dinero. En principio puede objetarse que se trata de que la revista Social Text no respeta los estándares de evaluación por pares, o que determinados 61 Es discutible que con esta caracterizacion se agote el pensamiento del postmodernismo. De cualquier manera también Kuhn utiliza el término en un sentido similar (Kuhn,1990) ámbitos de la filosofía constituyen meramente nichos académicos muy poco serios y que, en todo caso Sokal las emprende contra el enemigo más débil. Tampoco resulta una novedad que en vastos sectores intelectuales, la utilización de un lenguaje típicamente científico genera una respetabilidad y legitimidad por sí misma, que excede y en muchos casos aun en contra de, sus legítimos méritos científicos. Pero volvamos a la metáfora newtoniana. Una de las apropiaciones que ha resultado significativa para las ciencias sociales consiste, no ya en la analogía con los contenidos y las fórmulas de las leyes de la gravitación, sino en la imitación de lo que podría denominarse un cierto ‘estilo’ newtoniano que no se refiere tanto a la utilización de las técnicas matemáticas usadas por Newton - geometría y trigonometría, álgebra, proporciones, series infinitas y calculo diferencial, etc.- sino antes bien a la utilización de modelos de sistemas ideales en contraposición con lo que sucede en la naturaleza física. Los Principia comienzan con un mundo idealizado, un constructo mental que incluye una simple partícula matemática y una fuerza operando en el centro de un espacio matemático. Bajo estas condiciones idealizadas, Newton puede libremente desarrollar las consecuencias matemáticas de las leyes del movimiento que son los axiomas de los Principia. En un estadio posterior, después de la contrastación de este mundo ideal con el mundo de la física, agregará las condiciones para su constructo intelectual, por ejemplo, mediante la introducción de un segundo cuerpo que interactuará con el primero y luego la exploración de las consecuencias matemáticas adicionales. Más tarde, comparará una vez más el reino de las matemáticas con el mundo físico y revisará el constructo, por ejemplo, a través de la introducción de un tercer cuerpo interactuante. De este modo puede abordar, por pasos, acercándose cada vez más a las condiciones del mundo del experimento y la observación, introduciendo cuerpos de diferentes formas y composiciones y finalmente considerar que se mueven en varios tipos de medios resistentes antes que en el espacio vacío. Los Principia así exponen tanto la física de un mundo ideal como los problemas que emergen porque las condiciones del mundo de la experiencia difieren de las ideales. Por ejemplo, Newton muestra que la primera de las dos leyes de Kepler del movimiento de los planetas es exactamente verdadera sólo para la condición matemática o ideal de un simple punto -masa que se mueve sobre un centro matemático de fuerza, y entonces desarrolla los modos actuales en los cuales la pura forma de las leyes de Kepler deben ser modificadas para ajustarse al mundo de la observación. Los Principia pueden ser exactamente descriptos como un trabajo en el cual Newton explora, uno por uno, las condiciones de aplicación de las leyes ideales y cómo esas condiciones se ven modificadas en el mundo externo de la experiencia y la observación. Un procedimiento similar fue el que adoptó R. Malthus (1766-1834) cuando en su An Essay on the Principle of Population, de 1789 estableció como principio básico: “la población, si no se la limita, se incrementa según una razón geométrica”. Esta ley no es ciertamente, el producto de una inducción baconiana sobre una masa de observaciones. De hecho, la ley funcionaría sólo para una población dejada sin control, pero una buena parte del Ensayo de Malthus está de hecho, dedicado a la evidencia de que las poblaciones no se incrementan así y a explicaciones de por qué ello ocurre de tal modo. Malthus no dice que las poblaciones observadas actualmente se incrementan en una progresión geométrica o razón exponencial sino que ese sería el caso para poblaciones si su crecimiento no fuera controlado. La similitud de esta afirmación con el primer axioma o ley del movimiento de Newton es inmediatamente clara: Newton no sostuvo que todos los cuerpos se mueven uniformemente en línea recta o permanecen en reposo, sino más bien, que un cuerpo se mantendrá en uno u otro de aquellos dos estados excepto en el caso de que se le imprima una fuerza que le cause un cambio de estado. Malthus sigue este estilo de los Principia al preguntarse por qué las leyes del mundo de la naturaleza difieren de las del mundo de la pura abstracción, estudiando por qué las poblaciones reales no se incrementan geométricamente como lo harían en un mundo ideal o imaginado. 2. LAS METÁFORAS PROVENIENTES DE LA BIOLOGIA Las ciencias biológicas (y biomédicas) son las otras grandes proveedoras de metáforas aprovechables para explicar distintas áreas o perspectivas del mundo en general. En el siglo XIX se asiste a una interpenetración de saberes provenientes claramente de la física, pero confluyen también la impronta de la Ilustración acerca del desarrollo y progreso de la humanidad, los inéditos desarrollo de la biología. El resultado final muestra una prevalencia de los modelos biológicos para dar cuenta de buena parte de los procesos sociales y de la conducta individual. De hecho, los procesos biológicos, parecen resultar más adecuados para explicar los procesos de desarrollo, la historia humana, el cambio en sistemas irreversibles, e incluso pueden incluir cierto margen de plasticidad para dar cuenta de las conductas 'libres' de los humanos. Establecer una clasificación exhaustiva de las metáforas biológicas resultaría bastante difícil, sin embargo pueden señalarse dos estrategias típicas de transferencia metafórica de un campo a otro, cuyo denominador común, a su vez, es el juego de la relación entre el todo y la parte. Una estrategia consiste en tomar como originales a los individuos orgánicos o incluso sus partes constitutivas (células y órganos) como metáforas para explicar la estructura y funcionamiento de las sociedades. La otra estrategia proviene de la relación entre filogenia y ontogenia, donde filogenia y ontogenia- depende el caso- resultan los originales de una interpretación metafórica de los procesos de tipo ontogenético y filogenético respectivamente. la metáfora consiste en sostener que o bien la filogenia repite la ontogenia o bien que la ontogenia repite la filogenia. Esta última estrategia, seguramente por implicar la noción de desarrollo a través del tiempo, ha sido más usada para dar cuenta de procesos. 2.1 vitalismo Más de veinte siglos de metáforas originadas en lo viviente han configurado un complejo entramado en el cual se confunden corrientes y tradiciones, a veces con notorias diferencias entre sí. Tal es el caso del llamado ‘vitalismo’, que puede entenderse de maneras diferentes. Suele usarse 'vitalismo' como sinónimo de 'organicismo animista', vale decir, la tendencia a usar lo viviente62 como modelo de explicación para otros ámbitos. Este modo de proceder, uno de los principales usos metafóricos, puede rastrearse hasta la antigüedad, sobre todo si se incluyen las religiones y mitos varios. Bajo la forma de la creencia en una supuesta relación de semejanza entre macrocosmos y microcosmos es una idea antiquísima. El macrocosmos sería el modelo imitado por el microcosmos u hombre: un cosmos en miniatura reflejo del universo entero o macrocosmos concebido como un gran organismo. La tesis de esta correspondencia se halla en abundantes textos de todas las épocas y de culturas diversas, incluso en los albores de la filosofía presocrática: milesios, órficos y pitagóricos, Empédocles, Diógenes de Apolonia y Demócrito (cf. Mondolfo, 1974) han creido en un cosmos animado por un alma del mundo, la correspondencia entre micro y macrocosmos. En las corrientes mágicas, la correspondencia entre macrocosmos y microcosmos se ha concebido a partir de considerar que tanto uno como otro están formados por los mismos elementos y dispuestos en el mismo orden, diferenciándose solamente en la escala. Esto 62 también se denomina 'vitalistas' a un conjunto e filósofos cuyo núcleo de reflexión era el fenómeno de lo viviente. Autores como Dilthey, introductor del vitalismo en las ‘ciencias del espíritu’, Simmel, Eucken o Troeltsch, representan una de las orientaciones de este vitalismo entendido como filosofía de la vida. También Nietzsche y Ortega y Gasset pueden considerarse pensadores vitalistas en este sentido. supone la concepción del macrocosmos como un organismo vivo y da pie a las concepciones mágicas -de indudable base antropomórfica-, que consideran que cada parte del cuerpo, y cada destino humano, está regido por la disposición de los astros. A la inversa, se considerará, en estas concepciones mágicas, que actuando sobre el microcosmos se puede influir en el macrocosmos. En el período clásico de la filosofía griega esta tesis fue defendida por Platón: el mundo y el alma del mundo fueron creados por el demiurgo tomando como modelo la forma de un ser vivo ideal (Timeo, 30b). En el período helenístico fue defendida por los estoicos, por Galeno, los gnósticos, Filón, Proclo y los neoplatónicos. Por su parte, en la medicina hipocrática, ésta era una tesis fundamental. En la época medieval dicha correspondencia se matizó a través del cristianismo que consideraba al hombre no como imagen del cosmos, sino creado “a imagen y semejanza” de Dios. Durante el Renacimiento, y en el contexto de un resurgir de las concepciones organicistas y mágicas, fue defendida, entre otros, por Nicolás de Cusa, Tomás Campanella, Pico della Mirandola, Giordano Bruno, y Paracelso (cf. Webster, 1982). Ellos, y todos los astrólogos, supusieron la existencia de complejas relaciones de correspondencia entre los astros y determinadas partes del cuerpo humano, como también sugerían la existencia de corrientes de simpatía entre determinadas figuras geométricas, cristales y piedras preciosas con los humores corporales. Algunas versiones algo patéticas y totalmente acríticas de la llamada autoayuda contemporánea repiten esta vinculación entre macrocosmos y microcosmos. En la historia del pensamiento, la noción de ser vivo plenamente diferenciado del resto de la naturaleza va apareciendo paulatinamente y la modernidad lo resuelve de una manera especial. La concepción tradicional de lo vital perduró con diferencias y matices hasta la irrupción del mecanicismo del siglo XVII, como se ha señalado en el capítulo anterior. Al afianzarse el modelo mecanicista con el desarrollo de la Revolución Científica y la nueva mecánica, se eclipsó durante mucho tiempo todo modelo de origen organicista clásico y más bien se tendió a ver a los organismos como máquinas. Hacia el siglo XIX, la filosofía del romanticismo tendió a adoptar posiciones organicistas, en general condenando el reduccionismo mecanicista. La pugna entre mecanicismo (no necesariamente dualista, como el cartesiano, sino también plenamente materialista) y vitalismo marcó buena parte del desarrollo de la filosofía en el siglo XIX y comienzos del siglo XX. No hay que pensar que se trata sólo de formas antiguas y superadas de concebir lo viviente y lo no viviente. En las últimas décadas ha surgido, sin demasiado éxito por cierto, la hipótesis de Gaia, propuesta por J. Lovelock, y referida al “organismo vivo más grande del Sistema Solar”. Se trata lisa y llanamente del planeta Tierra: “La hipótesis de Gaia supone que la Tierra está viva y considera los datos que existen a favor y en contra de esta suposición. La presenté por primera vez a mis colegas científicos en 1971 en forma de una nota titulada “Gaia vista desde la atmósfera”. Era un escrito breve, que sólo ocupaba una página de la revista Atmospheric Environment. Los datos que la apoyaban se habían obtenido principalmente a partir de la composición atmosférica de la Tierra y su estado de desequilibrio químico (...) [comparando] la composición actual de las atmósferas de Marte y Venus, y con la hipótesis de cuál sería ahora la atmósfera de la Tierra si nunca hubiera tenido vida. Después de largas e intensas discusiones, Lynn Margulis y yo publicamos unos argumentos más detallados y concisos en las revistas Tellus e Icarus. Luego, en 1979, Oxford University Press publicó mi libro: Gaia:Una nueva visión de la vida sobre la Tierra, que recogió todas las ideas desarrolladas por nosotros hasta aquel momento. Empecé a escribir este libro en 1976, cuando las naves Viking de la NASA estaban a punto de aterrizar en Marte. Utilicé su presencia allí como exploradores planetarios para establecer el escenario para el descubrimiento de Gaia, el organismo vivo más grande del Sistema Solar. (Lovelock, 1993, p. 17-22.) Otra forma de entender el 'vitalismo' refiere a una corriente de pensamiento filosóficobiológica desarrollada desde mediados del siglo XIX hasta comienzos del XX, que se opone a toda forma de materialismo y reduccionismo de la vida a fenómeno físico-químico o mecánico, defendiendo la existencia de un principio vital específico. Este 'principio vital' no necesariamente debe considerarse en una continuidad lineal63 con la idea, muy antigua, de considerar la especificidad de los fenómenos vitales como dependientes de un principio externo a la materia y la concepción del alma como principio de la vida64. Entre sus principales defensores están los biólogos J. Uexküll (1864-1945), y H. Driesch (1867-1941). Otros importantes biólogos, como J.B.S. Haldane (1892-1968), L.V. Bertalanffy (1901-1972) y R. Sheldrake (1897-1967) han defendido formas menos estrictas de vitalismo. Entre los filósofos se puede considerar a Bergson como integrante de este movimiento. En verdad se trata de un grupo heterogéneo de autores. Así, por ejemplo, unos afirmaban explícitamente la existencia de un ‘principio vital’ (‘entelechie’ o ‘psychoid’ le llamaba Driesch, o ‘élan vital’, le llamaba Bergson), mientras que otros se limitaban a señalar la imposibilidad de reducir lo inorgánico a mecanicismo y lo vital a orgánico, sin afirmar de manera explícita una fuerza vital. Esta afirmación sobre la existencia de tal principio o fuerza vital suele ser el aspecto más criticado de estas concepciones, sobre todo a partir de la hegemonía teórica de la Concepción Heredada de las teorías científicas (cf. Capítulo 2). No obstante, desde otras perspectivas, algunas corrientes vitalistas o inspiradas en ellas, han impulsado otras ramas de la ciencia, tales como la teoría general de los sistemas propuesta por Bertalanffy quien, si bien estudió en el contexto del Círculo de Viena, se opuso siempre a las concepciones reduccionistas, mecanicistas y positivistas. Por ello, tanto en contra del mecanicismo como en contra del vitalismo, elaboró su teoría organísmica para explicar los fenómenos vitales. Para Bertalanffy todo organismo constituye un todo abierto, un “sistema que intercambia materia con el medio circundante, que exhibe importación y exportación, constitución y degradación de sus componentes materiales”. 2.2. metáforas biológicas en sociología Las metáforas biológicas que son utilizadas con relación a las sociedades humanas forman parte, principalmente, de teorías referidas a la constitución y funcionamiento de esas sociedades y de las conductas humanas. Las metáforas específicamente evolucionistas por su parte- muchas veces en conjunción con el organicismo- básicamente intentan responder a las preguntas por el origen, pautas y características del cambio social. Las ciencias sociales actuales muestran un desdén generalizado, cuando no verdadera vergüenza por la sociología organicista, pero su influencia, sin embargo, ha sido fortísima y, lejos de constituir meras formas de hablar propias de la época o, en los casos más extremos anticiencia, ella ha constituido genuina y generalizada ciencia social. No sólo ha tomado conceptos de las ciencias biológicas para describir la sociedad, sino que también ha echado mano de algunos de los conceptos y principios desarrollados en la ciencia médica. Autores como A. Comte, P. Lilienfeld (1829-1303), W. Schaffle, R. Worms, y otros utilizaron los conceptos médicos de normal y patológico65, sosteniendo como principio tomado en primera instancia por Comte de Broussais- que los estados sociales normales y patológicos no se deberían considerar tipos esencialmente diferentes, sino antes bien estados extremos de un tipo simple de condición. De hecho, no hay gran diferencia entre tomar conceptos del psicoanálisis para el análisis sociológico por un lado y tomar la patología médica de Virchow y buscar análogos sociales de la teoría de los gérmenes de la 63 Wuketits (1999) además de sostener que tanto el mecanicismo como el vitalismo son, en verdad, dos filosofías con las cuales se intenta dar cuenta de los fenómenos biológico, considera que hay una continuidad entre las formas antiguas de vitalismo y las más modernas. 64 Este principio ha recibido diversos nombres: entelequia para Aristóteles, espíritu o neuma para Galeno, archeus para Paracelso, vis plastica para Helmont, anima para Stahl, succus nervosum para Boerhaave, fluidum spirituosum para Swedwnborg, moule interne para Buffon, vis essentialis para Wolff, nisus formativus para Blumenbach, entre otros. 65 Un excelente análisis de los conceptos de ‘lo normal y lo patológico’ puede verse en Canguilhem, 1966. enfermedad. Para los sociólogos organicistas parece una conclusión analógica obvia de la medicina que los males o enfermedades sociales son causadas por individuos enfermizos, tal como R. Virchow enseñó que los desórdenes médicos se podrían reducir a la condición patológica en las células individuales. Aunque provenientes de contextos y ámbitos disciplinares diferentes, puede señalarse que ya en el s. XVIII, hubo una fuerte corriente de pensamiento que ligaba la salud individual o la felicidad a la salud de la sociedad y que en el siglo XIX y primeras décadas del XX se ha operado un fuerte proceso de medicalización de las relaciones y estatus sociales de los individuos. En realidad, la medicina siempre ha ejercido un poder normalizador o de control social -básicamente por los conceptos de salud y enfermedad, normal y patológico- estableciendo un orden normativo rival de la religión y el derecho, que ha venido incrementándose desde la modernidad con la conquista de un auténtico estatuto científico, profesional y político. El auge de la bioética en las ultimas décadas tiene como uno de sus elementos potenciadores la reacción contra el llamado modelo médico hegemónico de la segunda mitad del siglo XX. Una representación en tiempo de parodia de este proceso se encuentra en Knock o el triunfo de la medicina, la pieza teatral de J. Romains publicada en 1923. Knock es un estudiante crónico que por fin se acaba de graduar. Destinado al cantón de Saint Maurice, logra en poco tiempo que una escasa clientela de campesinos atrasados y renuentes a tomar servicios médicos se convierte en una población consumidora de medicina con un gran sanatorio-hotel como principal atractivo y actividad económica de la región, todo ello basado en una redefinición de los conceptos de salud y enfermedad. Unos fragmentos de la obra pueden ser ilustrativos: [Knock sostiene que] "Caer enfermo’, vieja noción ya insostenible frente a los datos de la ciencia actual. La salud no es más que un nombre, al que no habría inconveniente alguno en borrar de nuestro vocabulario. Por mi parte, no conozco sino gente más o menos afectada por enfermedades más o menos numerosas, de evolución más o menos rápida (...)" En un diálogo con el doctor Parpalaid a quien reemplazó, Knock sostiene: "doctor Parpalaid: ¿Pero no es que en vuestro método, el interés del enfermo está un poco subordinado al interés del médico? Knock: Dr. Parpalaid, no olvide que hay un interés superior a esos dos: aquél de la medicina. Yo me ocupo sólo de ése (...) Usted me da un cantón poblado de algunos miles de individuos neutros, indeterminados. Mi rol es determinarlos, llevarlos a la existencia médica. Los meto en la cama y miro lo que va a poder salir de allí: un tuberculoso, un neurópata, un arterioescleroso, lo que se quiera, pero alguien ¡Buen Dios! ¡Alguien! Nada me disgusta más que ese ser ni carne ni pescado que usted llama un hombre sano." Un poco más adelante: "Es un paisaje salvaje, apenas humano, aquél que usted contemplaba. Hoy se lo restituyo todo impregnado de medicina, animado y recorrido por el fuego subterráneo de nuestro arte (...) En doscientas cincuenta de esas casas hay doscientas cincuenta habitaciones donde alguien confiesa la medicina, doscientas cincuenta camas donde un cuerpo extendido testimonia que la vida tiene un sentido y, gracias a mí, un sentido médico (...) Piense usted que, en algunos instantes, van a dar las diez, que para todos mis enfermos las diez es la segunda toma de temperatura rectal, y que, en algunos instantes, doscientos cincuenta termómetros van a penetrar a la vez (...)" Pero volvamos un poco hacia atrás en el tiempo. Utopías tales como la de Condorcet trazaron una analogía entre la eventual ejecución de una condición perfecta de salud individual y la creación de una sociedad perfecta, prediciendo un tiempo en el cual la gente se volvería tan saludable y longeva que la muerte, sostenía, se convertiría en un ‘curioso accidente’. Como contraparte, los trabajos de Malthus sobre población tomaron un giro decididamente diferente señalando que la analogía entre salud de un individuo y salud de la sociedad podría ser demasiado ingenua. Malthus quiso mostrar que la salud y el vigor natural en la procreación, antes bien, podrían ser una causa de males y enfermedades sociales, produciendo un ‘aumento de la población’ limitado solamente por la miseria o el vicio. Según Malthus el incremento en los alimentos se producía según una razón aritmética, mientras que el incremento de población lo hacía en una razón exponencial si no se le ponían límites, por lo cual el efecto de la salud humana con su consecuente aumento de la tasa de reproducción, llevaría a la pobreza, el hambre y la miseria. 2.2.1 los organicistas Th. Carlyle (1795-1881) obsesionado con las comparaciones organicistas y preocupado por la situación de Inglaterra, a la que consideraba ‘impotente sobre su lecho de enfermo’, sostiene en su Sartor Resartus (1833-1834), una especie de autobiografía en la cual realiza una fuerte crítica a su época: “Si el gobierno es la PIEL exterior del cuerpo político, manteniéndolo totalmente unido y protegido; y todos sus Asociaciones de Trabajadores y de Industrias, (...) los tejidos óseos y musculares (ubicados bajo esa PIEL), por medio de los cuales la sociedad permanece y trabaja; entonces la religión es el íntimo tejido Nervioso y Pericardial, que administra la Vida y la animada circulación para la totalidad. Que sin este Tejido Pericardial, los Huesos y Músculos (de la Industria) sería inerte, o animado sólo por una vitalidad galvánica; la PIEL se volvería un pellejo arrugado, o un cuero rápidamente corrompido; y la sociedad en sí misma una cáscara muerta, - digna de ser enterrada” (citado en Cohen, 1995, p. 22) Otro pensador social del s. XIX que estaba obsesionado con las comparaciones organicistas fue C. Bluntschli (1808-1881), un jurista suizo-alemán, nacionalista, que permaneció unos años como profesor en Heidelberg. Publicó un valioso Código de Derecho Internacional, probablemente su mayor trabajo teórico fue The theory of the state (18511852) y un libro titulado Psycological investigations concerning state and church (1844). Según Bluntschli: “El Estado no es de ninguna manera un instrumento inanimado, una máquina muerta, sino un ser vivo y por tanto un ser orgánico (...) No se encuentra en el mismo nivel de los organismos inferiores como las plantas y los animales, sino que es de especie superior (...) Por tanto, cuando decimos que el Estado es un organismo no pensamos en la actividad de los seres naturales que sólo buscan, obtienen, y asimilan alimentos, y se reproducen” (Citado en Cohen, 1995, p. 22) Profundamente influenciado por el psicólogo-místico F. Rohmer, Bluntschli dotó al Estado con las dieciséis funciones psicológicas que, según creía, caracterizaban a los seres humanos. Convencido de que tanto el Estado como la iglesia son organismos similares a los seres humanos, Bluntschli concluyó lógicamente que ambos deben tener todos los atributos primarios humanos, incluyendo características sexuales en cuyo contexto, el Estado representa ‘lo masculino’ y la iglesia el elemento ‘femenino’. Esta atribución de sexo lo conduce a una teoría de la historia, basada sobre el desarrollo sexual-social, en el cual la ‘evolución’ histórica de la sociedad y del Estado siguen los patrones de ‘evolución’ de los individuos. Trazando la historia sexual de la iglesia y del Estado desde la infancia (el antiguo imperio asiático) a través de la adolescencia (los judíos de los tiempos bíblicos) la madurez temprana (la Grecia clásica), él encontró que en Grecia la ‘organización eclesiástica’ maduró más temprano ‘que la institución política’, lo cual, según su modo de ver, no hacia sino repetir los ciclos más tempranos de maduración de los órganos sexuales de las niñas con relación a los del niño varón. La actitud de Bluntschli, algo extravagante por cierto, lo lleva a afirmar que el deseo papal de subordinar el Estado a la iglesia es tan ‘antinatural’ como ‘la subordinación de un marido a su esposa en el hogar. Avizoró un tiempo, no demasiado lejano en el cual prevalecerá lo masculino, cuando “los dos más grandes poderes de la humanidad, Estado e iglesia, se apreciarán y amarán el uno al otro, y el augusto matrimonio de ambos tendrá lugar”. Otra formulación organicista de la sociedad es la que propone el sociólogo ruso Lilienfeld (1829-1903), en ocasión de comparar el estado moral e intelectual de una mujer histérica con ciertas condiciones de la sociedad. Como fundamento psicológico de tal semejanza, usó en particular los descubrimientos del Dr. E. Dupouy (ca. 1845-1920), autor de numerosos trabajos sobre medicina, psicología e historia de la medicina. Citándolo, Lilienfeld describió la condición de las mujeres que sufren de histeria como ‘inconstantes en sus sentimientos’, y ‘pasan muy fácilmente de las lágrimas a la risa, de la excesiva alegría a la tristeza, de la apasionada ternura a una furiosa soberbia, de la castidad a los propósitos lascivos e ideas lujuriosas’. Además, tales mujeres, aman la publicidad, y emplean cualquier medio para obtener su objetivo: denuncia, simulación de dolencias o enfermedades, y el revólver. Encuentran regocijo pretendiendo ser ‘víctimas de cualquier cosa; dicen haber sido violadas’. Para ‘conseguir sus metas engañan a todos: marido, familia, confesor, magistrado examinante, y su doctor’. Comienza preguntando retóricamente si la conducta sintomática de las mujeres que sufren de histeria no es ‘perfectamente análoga a la manera en que la población de una gran ciudad se conduce durante una crisis financiera o en ocasión de disturbios civiles’. Encuentra en la conducta de tales mujeres ‘un fiel reflejo de la agitación de los partidos durante las elecciones’. Y se pregunta si cuando consideramos el pasado, no encontramos el mismo desordenado y confuso patrón de conducta, ‘causado por convulsivos y contradictorios reflejos del sistema nervioso social’, durante ‘todas las revoluciones religiosas, económicas y políticas que han sacudido a la humanidad. A fines del s. XIX prevalecía una línea de pensamiento muy vigorosa sobre lo social, basada en un paralelo exacto con las ciencias de la vida y, aunque es discutible cuáles fueron las razones de esta situación, lo cierto es que no puede desconocerse que la idea de que las conductas humanas, sea tomadas individual o socialmente, debían tener algún fundamento biológico en un sentido relevante, era generalizada. Muchos sociólogos estaban convencidos, en paralelo con las enseñanzas de A. Comte, de que, dado que la sociología entiende en la conducta humana, debe ser una ciencia muy cercana, o muy parecida a la biología. Por otra parte las ciencias de la vida habían conseguido logros sumamente importantes. La segunda mitad del siglo XIX asistió a desarrollos como la teoría celular y la teoría de la evolución además de la embriología, fisiología y morfología que transformaron completamente el campo. La nueva ciencia de la microbiología no solamente había abierto un excitante nuevo reino de la biología sino que proveyó a la medicina con un conocimiento de las causas de las enfermedades contagiosas y aun mostró los modos de prevenirlas o curar algunas de ellas. En contraste los físicos parecían solamente realizar mediciones más exactas de las constantes de la naturaleza. Este punto de vista fue expresado dramáticamente por el economista A. Marshall en su ‘Conferencia Inaugural’ en la Universidad de Cambridge en 1885. “A comienzos del s. XIX,- dijo- el grupo de ciencias físico matemáticas estaba en ascenso”. Pero ahora “las especulaciones de la biología han pasado al frente”. Los descubrimientos en biología, continuó, ahora atraen “la atención de todos los hombres como la física lo había hecho en los primeros años”. El resultado fue que las “ciencias morales e históricas de hoy han (...) cambiado su tono, y la economía ha participado en el movimiento general”. Los físicos de la segunda mitad del siglo XIX, es decir antes de la cuántica y de la relatividad- estaban convencidos que su disciplina estaba, en lo fundamental, concluida. La mayoría de los organicistas, entonces, forman un linaje que viene desde Comte, quien hizo un uso extensivo de la metáfora organicista, apoyándose fuertemente sobre la fisiología y la patología. De hecho fue el primero que sostuvo que una ciencia social debe estar apoyada en la biología. En su Curso de Filosofía Positiva sostiene, claramente, que los disturbios sociales debían ser considerados como casos patológicos, siendo, “en el cuerpo social, exactamente análogos de las enfermedades en el organismo individual”. Comte pensaba que en el desarrollo de la ciencia biológica, “los casos patológicos son el verdadero equivalente de la experimentación pura”, de lo que puede seguirse que el estudio de la patología social proporcionaría el equivalente del experimento social, algo que sabía que no podía ocurrir nunca en el mismo grado y tipo que en la física o la química. Comte utilizó las ideas de Broussais, uno de los grandes reformadores de la medicina y su Sistema de política positiva, -1851/1854- se refirió al “(...) admirable axioma de Broussais” que “destruye la antigua distinción absoluta entre salud y enfermedad”. Entre esos límites extremos, agregó, “podemos siempre encontrar multitud de estados intermedios, no meramente imaginarios, sino perfectamente reales, y juntos forman una casi insensible cadena de gradaciones delicadas”. Comte tomó de Broussais la idea de que la patología, “el estudio de la enfermedad, es la vía para comprender el estado de salud”. Primariamente fue su “principio de continuidad” el que guío el análisis de Comte: “que el fenómeno del estado patológico era una simple prolongación del fenómeno del estado normal, más allá de los límites ordinarios de variación”. Según Comte, hasta ese momento, nadie había marcado la analogía entre la patología fisiológica y social, nadie había nunca aplicado “este principio para los fenómenos intelectual y moral -o sea social-.” El citólogo estadounidense E. B. Wilson sostuvo en 1896 que la teoría celular era la segunda gran generalización hecha en biología (la teoría darwiniana de la evolución había sido la primera). Esta teoría celular ha tenido gran repercusión en la teoría social porque el concepto de un organismo natural como un sistema organizado de células vivas proveyó de una nueva fundamentación científica para una concepción organicista de la sociedad; la relación todo-parte observada en los seres vivos proveía de una buena metáfora para lo social, ya que las células parecen asemejarse a los miembros individuales de la sociedad humana en la medida en que cada célula tiene una vida propia, además de constituir un grupo mayor cuando están juntas. Además, las células de los seres vivientes se organizan según el principio de la división fisiológica del trabajo, dado que cada tipo de célula tiene una estructura especialmente adaptada para su función dentro del organismo. Este principio se convirtió en central para el pensamiento biológico de Milne Edwards y otros, y de ellos pasó a través de diversas mediaciones a teóricos de la sociedad como Durkheim, quien lo utilizó en su tesis doctoral. Por otro lado, las células se agrupan en unidades funcionales mayores tejidos y órganos- tal como los individuos humanos están organizados en distintos tipos de unidades sociales. Aun la distribución o circulación de alimentos y la descarga de productos de desecho se podría ver analógicamente en los cuerpos naturales compuestos de células y en los cuerpos sociales compuestos de humanos. La significación de la teoría celular para la ciencia de la sociedad fue reforzada por los descubrimientos embriológicos de K. E. von Baer (1792-1876) y sus sucesores. El reconocimiento de los estados de desarrollo del embrión por división celular desde una única célula, y la subsecuente elaboración de órganos y tejidos, sugirió una secuencia similar de la organización social, a partir de una única madre -como la célula original- y, por subsecuente multiplicación, acompañada por la agrupación de individuos- similar a la agrupación de células-, formando unidades familiares, luego tribus, y eventualmente países. De especial importancia para los científicos sociales fue el principio de von Baer, que establece la forma de desarrollo como una secuencia caracterizada por una transición desde la simplicidad a una complejidad cada vez mayor. Esto fue similar a descubrir que los animales vivientes y extintos podrían ser ordenados en una escala ascendente de desarrollo en la cual habría un incremento gradual de complejidad. En su forma más completa, esto resulta incluido en la famosa ‘ley biogenética’, formulada por Haeckel (1834-1919), en 1866, a partir de investigaciones debidas a F. Müller (por eso se la conoce también como ley de Haeckel o ley de Müller y Haeckel), e inspiradas en los trabajos de von Baer, según la cual “la ontogenia es una recapitulación de la filogenia”. Esta tesis sostiene, pues, que las fases sucesivas del desarrollo de un organismo en su estado embrionario son como un resumen acelerado de los sucesivos estados que han sido alcanzados por el grupo biológico al que pertenece a través del curso de su evolución. Por ello, el embrión de un animal se parece más a un animal adulto de una especie inferior que a un adulto de su propia especie, y su desarrollo individual es un resumen del desarrollo evolutivo de la especie. Esta ley, surgida de las observaciones embriológicas, permitía explicar la existencia de órganos transitorios en los embriones, tales como las hendiduras branquiales en los embriones humanos -como si se tratase de peces-, o de esbozos de dientes en los embriones de las ballenas que, sin alcanzar su desarrollo y sin tener función alguna desaparecen, como si recordasen la existencia de dientes en los precursores evolutivos de estos cetáceos. Un aspecto de la teoría celular que tuvo una especial importancia para la sociología organicista del s. XIX, y especialmente para la consideración de analogías sociales de la teoría celular, fue introducido por la idea de Virchow de la patología celular (1858), según la cual todas las condiciones patológicas del cuerpo humano se podrían atribuir a un estado de degeneración o a una condición de actividad anormal de una o varias células constituidas individualmente. Así Virchow transformó el pensamiento sobre el cuerpo como un todo a un pensamiento sobre las condiciones de las unidades biológicas fundamentales de las cuales el cuerpo está compuesto. Una importante consecuencia del punto de vista de Virchow fue que las condiciones patológicas fueron vistas meramente como extremos de lo normal antes que de una clase diferente. En el presente contexto sus ideas son especialmente interesantes también porque los biólogos forzaron las similitudes entre los fenómenos biológicos y los sociales. Según Virchow: “(...) así como un árbol constituye una masa ordenada de una manera determinada, en la cual, en todas sus partes simples, en las hojas como en las raíces, en el tronco como en las flores, las células son sus elementos últimos, también es así con las formas de vida animal. Todo animal es en sí mismo una suma de unidades vitales, todas las cuales presentan todas las características de la vida. Las características y unidad de la vida no pueden ser limitadas a cualquier sector particular en un organismo altamente desarrollado -por ejemplo en el cerebro de un hombre- pero se puede encontrar en la estructura definida, constantemente repetida que todos los elementos individuales despliegan. De ello se sigue que la composición estructural de un cuerpo de dimensiones considerables, (...), siempre representa una clase especial de ordenamiento social de sus partes, un ordenamiento de un tipo social, en el cual una cantidad de existencias individuales son mutuamente dependientes, pero en tal sentido que todo elemento tiene su acción especial propia (...) (citado en Cohen, 1995, p. 53) Creyendo que todas las plantas y animales son agregados de células como unidad fundamental de vida, Virchow concluyó que todas las propiedades estructurales y funcionales de los organismos están determinadas por relaciones entre células individuales. Según Virchow todo organismo: “(...) es un estado libre de individuos con iguales derechos aunque no con iguales dotaciones, que permanecen juntos porque los individuos son dependientes uno de otro y porque hay ciertos centros de organización con cuyos integrantes las partes simples no pueden recibir su provisión necesaria de materia nutriente sana” (citado en Cohen, 1995, p. 53) Virchow, a su vez, proporcionó un modelo directo para científicos sociales tales como Lilienfeld y Schäffle (1831-1903). Lilienfeld sostiene que la sociedad humana, al igual que los organismos naturales, es un ser real, nada más que una continuación de la naturaleza, una alta expresión de las mismas fuerzas que subyacen a todo fenómeno natural. La sociedad no es sino una continuación de la naturaleza, una continuación más alta de las mismas fuerzas que están en la base de todos los fenómenos naturales, el más elevado y más desarrollado de todos los organismos. Aunque reconocía que también hay diferencias importantes entre los organismos y las sociedades, LiIienfeld señalaba muchas analogías con sumo detalle. Las células del organismo corresponden a los individuos de la sociedad, los tejidos a los grupos voluntarios más sencillos, los órganos a las organizaciones más complejas, la sustancia intercelular al medio físico, que incluye hasta los alambres del telégrafo. Las actividades económicas, jurídicas y policiales son paralelas a los aspectos fisiológicos, morfológicos y unitarios de un organismo. La mercancía en circulación equivale al alimento no asimilado. Las razas conquistadoras son masculinas, las conquistadas son femeninas; su lucha equivale a la lucha de los espermatozoides en torno del huevo. Las personas que pasan de una sociedad a otra son análogas a los leucocitos. En la sociedad -sostiene- se encuentra uno exactamente con las mismas estructuras, órganos y funciones que en los demás organismos. Así se llega, pues, a la conclusión de que la sociología no puede constituirse si no es sobre la base de la biología. En su Social pathology, señalando que la condición sine qua non para que el estudio de la sociedad pueda ser verdaderamente científico, es decir convertirse en una ciencia positiva es la concepción de la sociedad humana como un organismo vivo real, compuesto de células como están los organismos individuales de la naturaleza. Lilienfeld retomó las enseñanzas de Virchow sosteniendo que “no hay diferencia absoluta y esencial entre el estado normal y el estado patológico de un organismo”. De modo tal que en una “desviación del estado normal”: “(...) una célula o un grupo de células manifiestan una actividad fuera del tiempo necesario, fuera del lugar necesario, o fuera de los limites de excitación prescrita por el estado normal. (...) “Como toda enfermedad individual deriva de un estado patológico de la célula, asimismo toda enfermedad social tiene su causa en una degeneración o acción anormal del individuo que constituye la unidad anatómica elemental del organismo social. Asimismo, una sociedad atacada por la enfermedad no presenta un estado esencialmente diferente que el de una sociedad normal. El estado patológico consiste sólo en la manifestación por un individuo o grupo de individuos de una actividad que es extemporánea o fuera de lugar o indica sobreexcitación o falta de energía”. (citado en Cohen, 1995, p. 43) Lilienfeld sostenía, además que las conexiones entre los organismos vivientes y la sociedad podían llevarse aun más lejos: “(...) la naturaleza orgánica en sí misma presenta tres grados de desarrollo y perfección”. El primero es que las plantas no pueden moverse autónomamente, ya sea juntas como una totalidad o separadas como partes. El segundo: los animales pueden moverse libremente, pero sólo como individuos, esto es como partes. Tercero, un “conjunto social” pude moverse libremente tanto como totalidad como en sus partes. Así, “es solamente en la sociedad humana que la naturaleza realiza en su totalidad el más alto grado de la vida orgánica: la autonomía del mismo organismo individual en las partes y en el todo”. El economista alemán Schäffle expuso una teoría organicista algo más moderada. Sus principales obras en el campo de la sociología son The structure and life of the social body (1875-78), en cuatro volúmenes, y Bosquejo de sociología (póstuma, 1906). Reconocía que sus opiniones habían sido influidas de manera importante por Comte, Spencer y Lilienfeld. El subtítulo del primero de esos textos expresa inequívocamente su punto de vista, se trata de “bosquejo enciclopédico de la anatomía real, la fisiología y psicología de la sociedad humana” en el cual la “economía nacional es considerada como el proceso social de la digestión”. Schäffle sabía que la correspondencia entre la sociedad humana y los cuerpos animales es imperfecta dado que los vínculos entre los humanos derivan de la mente y no son físicos. “Ninguna ocupación ininterrumpida del espacio” escribió, es observada en la sustancia de la sociedad, en contraste con el “cuerpo orgánico”, en el cual “las células y las partes intercelulares forman un objeto sólido”. Esto es, en el cuerpo social no hay fuerzas físicas tales como “cohesión, adhesión o afinidad química” para “efectuar la coherencia y la coordinación”, sino que antes bien hay ‘fuerzas mentales’ que establecen “conexiones espirituales y corporales y cooperación entre elementos separados espacialmente”. Schäffle utiliza una gran cantidad de analogías organicistas: los edificios y las carreteras son el esqueleto del cuerpo social; las mercancías acumuladas son la substancia intercelular; la economía es la nutrición; el cambio de mercancías y de personas es la locomoción; el equipo técnico es el sistema muscular; los símbolos y las comunicaciones son el funcionamiento del sistema nervioso; la minería, la colonización y la propaganda corresponden a la autoafirmación y el crecimiento del organismo. Igual que Lilienfeld, Schäffle entendió que la unidad fundamental de la sociedad debe ser equivalente a la célula biológica: “los elementos más simples de los cuerpos de las especies superiores de animales y plantas” son “las células y la sustancia intercelular entremezclada entre ellas”. Concluyó que “la familia tiene todos los rasgos de los tejidos”, que “todo rasgo fundamental de la estructura y función de la célula orgánica se repite allí”. Sostuvo, además, que “en todos los órganos sociales” hay un “tejido que regula el ingreso y flujo de los materiales de regeneración y nutrición de y hacia los canales de producción económica y circulación y asegura una digestión normal sobre la parte de todos los elementos del órgano o partes orgánicas involucradas”. Este “tejido” o institución social es “el hogar”. Encontró un paralelo perfecto entre los procesos vegetales y animales de la digestión y los procesos de producción en las sociedades humanas, aun al punto de creer que “la evacuación de cadáveres humanos y desechos materiales es el punto final de la digestión social externa”. Otro representante del pensamiento organicista fue A. Fouillée (1838-1912) quien encuentra entre las sociedades y los organismos analogías que se parecen mucho más a las señaladas por Spencer (ver más abajo), pero con una diferencia fundamental: la unidad de una sociedad depende primordialmente de la buena voluntad de los individuos que la componen para compartir las necesidades colectivas. No puede haber sociedad sin un acuerdo interno entre los individuos, sin la representación del todo a que los individuos pertenecen. Entre los miembros de una sociedad existe un contrato implícito, y este contrato se manifiesta en la conducta humana. Una forma un tanto extrema de organicismo aparece en la obra del francés R. Worms (1869-1920). En su Organismo y sociedad, de 1896, concibe la sociedad como un agregado duradero de seres vivos que ejercitan en común todas sus actividades. Enumera cuatro analogías entre las sociedades y los organismos: las estructuras externas varían con el tiempo y presentan formas irregulares; las estructuras internas experimentan un cambio constante mediante el proceso de asimilación-desintegración; existe una diferenciación coordinada entre las partes; tanto los organismos como las sociedades se reproducen a sí mismos. Puesto que la analogía orgánica es profunda y estrecha, las concepciones sociológicas deben desenvolverse bajo los mismos pautas y criterios que las biológicas. Si bien reconoce que la sociedad es no sólo más plástica y más apta para reemplazar las pérdidas de miembros que los organismos, sino también más compleja –es en verdad un superorganismo- tales diferencias no resultan lo suficientemente sustanciales como para desechar el punto de vista organicista para el análisis social. El fisiólogo estadounidense W. Cannon (1871-1945), en su primer ensayo en sociología biológica publicado en 1932, y titulado ‘Relaciones de la homeostasis biológica y social’, investiga la posibilidad de encontrar equivalentes de los ‘procesos de estabilización’ en organismos animales, en ‘formas de organización industrial, domestica o social’. A la manera de Spencer y otros organicistas del s. XIX, Cannon comparó las circunstancias de los pequeños grupos de humanos viviendo en “condiciones primitivas” con la “vida de simples células aisladas”, y las agrupaciones de “seres humanos (...) en grandes grupos con las células ‘agrupadas para formar organismos”. Sólo en organismos altamente desarrollados, sostuvo, los “procesos automáticos de estabilización” trabajan “pronta y efectivamente”. La comparación pretendía mostrar que el sistema social actual, se asemejaba a los organismos que se encuentran más bajo en la escala evolutiva u organismos que no se han desarrollado totalmente, cuyos “recursos fisiológicos que preservan la homeostasis están al principio no totalmente desarrollados”. En diciembre de 1941, Cannon volvió sobre este tema en su alocución presidencial para la American Asociation for Development of Science. Se retractó de sus primeras afirmaciones sobre similitudes entre las células y los miembros humanos de la sociedad, y sostuvo que la comparación del cuerpo fisiológico con el cuerpo político había sido desacreditada en el pasado porque se había concentrado erróneamente sobre detalles mínimos de la estructura y criticó a los que realizan homologías absurdas. Descartó que fuera acertada “la comparación de trabajadores manuales con las células musculares, manufactureros con las células glandulares, banqueros con las células gordas, y la policía con los glóbulos blancos”. Sin embargo, su respuesta fue esencialmente la misma que antes: “La analogía más ajustada parece ser la de la totalidad del intrincado sistema de producción y distribución de mercaderías”. 2.2.2 los evolucionistas Concepciones evolucionistas de lo social pueden rastrearse hasta la antigüedad aunque, obviamente la diferencia recae sobre el contenido del concepto de evolución, multívoco por cierto tanto diacrónica como sincrónicamente. No obstante, el sentido de ‘evolución’ que más me interesa rescatar es aquel que se encuentra ligado a la premisa del progreso, estigma de la modernidad que en el siglo XIX cobra una fuerza inusitada y omnipresente y que incluye también, aunque con vínculos bastante complejos, la idea de evolución biológica. Autores clásicos como Hegel, Comte y Marx, por señalar a los más importantes, se expresan inequívocamente en un sentido evolucionista general. "El principio de desarrollo supone también la existencia de un germen latente del seruna capacidad o potencialidad- que lucha por realizarse. Esta concepción formal encuentra existencia efectiva en el espíritu, que tiene la historia del mundo como teatro propia, posesión privativa y esfera de su realización. No es propio de su naturaleza el agitarse de aquí para allá entre el juego superficial de accidentes, sino que es propiamente el árbitro absoluto de las cosas, completamente inconmovible a las contingencias que, por cierto, aplica y manipula para sus propios fines". (Hegel) "El verdadero espíritu general de la dinámica social consiste, pues, en concebir cada uno de los estados sociales como resultado necesario del precedente, y el móvil indispensable del siguiente, de conformidad con el axioma de Leibniz: el presente está preñado de futuro. En este aspecto, el objeto de la ciencia es descubrir las leyes que gobiernan esta continuidad" (Comte) "Ningún orden social desaparece antes de que se hayan desarrollado todas las fuerzas productivas que puede albergar, y las nuevas y superiores relaciones de producción jamás aparecen antes de que las condiciones materiales de su existencia hayan madurado en el seno de la vieja sociedad" (Marx) No obstante, probablemente ningún nombre esté más asociado que el de H. Spencer a la utilización del evolucionismo en el siglo XIX como modelo explicativo para las diversas áreas del comportamiento de las sociedades. La base de la teoría sociológica de Spencer es la evolución en sentido metafísico, pero también y paralelamente formuló una teoría secundaria que representó un papel importante en su sistema de ideas: la analogía orgánica, es decir, la identificación, para ciertos fines, de la sociedad con un organismo biológico. Spencer sostuvo explícitamente en la edición revisada de su Social Statics (1892) que el reconocimiento del paralelismo entre las generalizaciones relativas a los organismos y las relativas a las sociedades era el primer paso hacia la teoría general de la evolución. La sociología llegaría a ser ciencia únicamente cuando advirtiera que las transformaciones experimentadas durante el crecimiento, la madurez y la decadencia de una sociedad se conforman a los mismos principios que las transformaciones experimentadas por agregados de todos los órdenes, inorgánicos y orgánicos. Existían para Spencer profundas y diversas analogías entre los organismos biológicos y sociales: Primero, tanto la sociedad como los organismos se diferencian de la materia inorgánica por un crecimiento visible durante la mayor parte de su existencia. Un niño crece hasta llegar a ser hombre, una pequeña comunidad se convierte en una gran ciudad, un pequeño Estado se convierte en un imperio. Segundo, así como las sociedades y los organismos crecen de tamaño, también aumentan en complejidad y estructura. Aquí tenía presente Spencer no tanto la comparación del desarrollo de una sociedad con el crecimiento de un organismo individual sino la afinidad del desarrollo social con la supuesta sucesión evolutiva de la vida orgánica. Los organismos primitivos son simples, mientras que los organismos superiores son muy complejos. Tercero, en las sociedades y en los organismos la diferenciación progresiva de estructura va acompañada de una diferenciación progresiva de funciones. Esto es poco más que una tautología: si hay un organismo con órganos complejos, cada órgano desempeña una función especifica; si hay una sociedad subdividida en muchas organizaciones diferentes, éstas tienen funciones diferentes. Cuarto, la evolución crea para las sociedades y para los organismos diferencias de estructura y de función que se hacen posibles unas a otras. Quinto, así como un organismo vivo puede ser considerado como una nación de unidades que viven individualmente, así una nación de seres humanos puede ser considerada como un organismo. Spencer siguió esta línea peculiar de razonamiento hasta llegar a una nueva analogía: en los organismos y en la sociedad puede ser destruida la vida del agregado o conjunto, pero las unidades seguirán viviendo durante algún tiempo por lo menos. Spencer era un individualista, rasgo que puede entrar en tensión con el organicismo, y admitía diferencias importantes entre las sociedades y los organismos. La primera de ellas es que en un organismo las partes forman un todo concreto, y en una sociedad las partes son libres y están más o menos dispersas. La segunda es que en un organismo la conciencia se concentra en una pequeña parte del agregado, y en una sociedad está difundida por todos los miembros individuales. Y la tercera es que en un organismo las partes existen para beneficio del todo, y en una sociedad el todo existe meramente para beneficio del individuo. A pesar de este complicado esfuerzo para establecer las analogías y las diferencias entre la vida orgánica y la social, y no obstante el empleo de la analogía orgánica como tema central de la segunda parte de sus Principles of Sociology (1876), Spencer negaba que sustentara esta teoría. Contestando a los críticos, hacía afirmaciones como la siguiente: "He usado las analogías, pero sólo como un andamio que me ayudara a construir un cuerpo coherente de inducción sociológica. Quitemos el andamiaje: las inducciones se sostendrán por sí mismas" (citado en Cohen, 1995, p. 24) Aunque, en verdad su uso de la terminología del organicismo, consecuente y notoria, es mucho más que un expediente heurístico. Un capítulo de los Principles of Sociology se titula "La sociedad es un organismo". Desde luego que no fue Spencer el creador de la analogía orgánica. La emplearon algunos filósofos antiguos, y con frecuencia estuvo también representada en la filosofía y en la ciencia política alemanas, especialmente durante la primera mitad del siglo XIX. Pero Spencer fue el primero en dar a esa analogía el valor de una teoría científica, y en definitiva fue prisionero del mismo fantasma a quien había invocado. Comprendía que realmente la sociedad no es un organismo, puesto que había diferencias esenciales entre ambas cosas, y sin embargo persistió en la metáfora o analogía. Decía que la analogía era un mero andamiaje, pero al construir su teoría procedió como si el andamiaje fuera la verdadera construcción. Pero el verdadero sostén de la teoría spenceriana es su teoría de la evolución, que se encuentra principalmente en versiones revisadas de Los primeros principios y Social Statics . En un párrafo bastante oscuro describe su ley de la evolución: “La evolución es una integración de la materia y una disipación concomitante de movimiento, durante las cuales la materia pasa de la homogeneidad indefinida e incoherente a una heterogeneidad definida y coherente, y el movimiento que subsiste sufre una transformación paralela”. Básicamente expresa la tendencia de lo homogéneo o uniforme a hacerse heterogéneo o multiforme, considerando que se trata de una tendencia necesaria del universo en su conjunto y en todos sus sistemas, tanto en los sistemas celestes como en los organismos y las sociedades. Esa ley de la evolución expresa, en versión sintetizada, tres leyes y cuatro proposiciones secundarias sobre el comportamiento de la realidad, algunas de ellas tomadas de la física de su tiempo. Las tres leyes son: la de la persistencia de la fuerza – que reconoce la existencia y persistencia de una causa última que trasciende al conocimiento humano-; la ley de la indestructibilidad de la materia – vigente a mediados del siglo XIX pero no hoy-; y la ley de la continuidad del movimiento –la energía pasa de una forma a otra, pero perdura siempre. Con respecto a las proposiciones secundarias: la persistencia de la relación entre las fuerzas o la uniformidad de la ley; la transformación y equivalencia de las fuerzas; la tendencia de todas las cosas a moverse siguiendo la línea de menor resistencia y de mayor atracción; el principio de la alternación o ritmo del movimiento. Puede decirse que Spencer ha sido un apóstol de la evolución con progreso aunque a lo largo de su obra puedan detectarse afirmaciones algo ambiguas o directamente contrarias a esta idea. Probablemente el espíritu de la época ha prevalecido e incluso el mismo Darwin que hace un esfuerzo por anular la idea de progreso en el mundo de lo viviente expresa cierta ambigüedad para el caso de la especie humana. La idea dominante, entonces, en la obra de Spencer es que a través de los tiempos ha habido realmente evolución social y que la misma se ha dirigido de lo uniforme a lo multiforme, es decir mediante formas progresivas. Un caso interesante en el cual se conjugan dos metáforas es el de Durkheim, con sus conceptos de solidaridad mecánica y orgánica, en los cuales reaparece de algún modo la distinción entre lo homogéneo y lo heterogéneo planteada por Spencer, aunque el objetivo de Durkheim no fuera dar cuenta de la evolución. Esta cuestión es abordada en su tesis de doctorado De la división du travail social de1893, en la cual estudia las relaciones que vinculan al individuo con la sociedad. En la sociedad arcaica, donde existe una solidaridad mecánica, las relaciones se establecen entre individuos indiferenciados, con una fuerte presencia de la “conciencia colectiva”, esto es la suma total de creencias y sentimientos comunes al término medio de los individuos. Esta conciencia colectiva, que obviamente vive y permanece en los individuos, en la medida en que es producto de las similitudes humanas adquiere fuerza e independencia mayores cuanto más pronunciadas son las analogías entre los individuos de la sociedad. Por eso es una situación que prevalece en las sociedades arcaicas con solidaridad mecánica. Allí la conciencia individual es cubierta casi por completo por la colectiva y en estas condiciones hay reacciones drásticas contra las violaciones de las instituciones del grupo, expresadas en las leyes represivas, penales, que sirven para conservar la solidaridad mecánica. En la sociedad moderna, que se caracteriza por la división del trabajo y el desempeño de muchos roles diferenciados entre los individuos, con lo que se rompe la uniformidad natural y se multiplican los intereses individuales, existe la solidaridad orgánica. Tiende a disminuir la importancia de la conciencia colectiva y, así, el derecho penal sostenido por sanciones represivas tiende a ser reemplazado por el derecho civil y administrativo que exige la restitución de justicia más que el castigo por sí mismo. Las sociedades avanzadas que se distinguen cada vez más por la solidaridad orgánica, representan el progreso moral que destaca los valores superiores de la igualdad, la fraternidad y la justicia. El evolucionismo constituyó un clima de ideas que influyó no solamente en las teorías estrictamente sociológicas, es decir en los estudios de la estructura y funcionamiento de la sociedad contemporánea, sino también en los estudios de las culturas pasadas y sobre todo en la relación contemporánea entre las distintas culturas. El antropólogo L. W. Morgan (18181881) formuló una teoría de la evolución social que subrayaba la importancia de los factores tecnológicos en la sociedad y sus cambios. Morgan creía en la existencia de etapas evolutivas definidas por las que han de pasar los hombres en todas las culturas. Sostenía que la humanidad había pasado por periodos análogos porque las necesidades humanas en circunstancias análogas han sido las mismas así como el funcionamiento de la mente es uniforme a través de las diferentes sociedades humanas. Ha tenido cierta influencia su periodización del avance cultural en tres etapas: salvajismo, barbarie y civilización. Las dos primeras a su vez estaban subdivididas en tres subetapas y todo pasaje de una a otra se debía a algún invento tecnológico importante. En el mismo sentido se expresaba otro antropólogo, E. Tylor: "(...) la tesis que me atrevo a defender- dentro de unos límites- es simplemente esta: que el estado salvaje representa en cierta medida una condición primitiva de la humanidad, de la que se ha desarrollado o evolucionado gradualmente la cultura superior, mediante procesos que siguen funcionando regularmente lo mismo que antaño (...) Que la tendencia de la cultura ha sido similar a lo largo de la existencia de la sociedad humana, y que podemos juzgar justamente con base en su curso histórico conocido cuál puede haber sido su curso prehistórico, es una teoría que goza claramente de derecho de prioridad como principio fundamental de la investigación etnográfica" (citado en Timasheff, 1977, p. 71) El evolucionismo también ha ejercido una enorme influencia en la economía aunque lo ha hecho de formas sumamente dispares y diferentes. Hace un siglo, Th. Veblen (18571929) hablaba de una economía evolucionista y post-darwiniana. Los institucionalistas en la tradición de Veblen y J. Commons frecuentemente describen su enfoque como economía evolucionista, y utilizan los términos institucional y evolucionista como sinónimos. Veblen intentó mostrar que las relaciones sociales y la cultura humanas se encuentran moldeadas por la tecnología y por lo tanto, sobre el fondo común de instintos constantes se produce una variación proporcionada por el medio material en que cada individuo se encuentra. La evolución de la sociedad es, en este sentido un proceso de adaptación mental de los individuos bajo la presión de circunstancias en las cuales los hábitos formados anteriormente se revelan como inadecuados. La tendencia de los individuos es conservadora y será más fácil en la medida en que haya más coerción del medio. Toda clase social protegida contra la acción del medio adaptará más tardíamente sus opiniones a las situaciones cambiantes y tenderá así a retardar la transformación de la sociedad. La clase ociosa es precisamente ese sector retardatario de la transformación social. Puede considerarse toda sociedad como un mecanismo industrial, cuyos elementos estructurales son sus instituciones económicas. De ahí la apuesta epistemológica de Veblen: "Una economía evolutiva debe ser (...) una teoría de la sucesión acumulativa de las instituciones económicas formulada en los términos del propio proceso" (Veblen, 1965, p. 77) Joseph Schumpeter, por su parte, describe el desarrollo capitalista como un proceso evolucionista. Los trabajos influenciados por Schumpeter son también descriptos como economía evolucionista, como es evidente por el título del Journal of Evolutionary Economics, publicado por la Asociación Internacional Joseph Schumpeter. El enfoque de la Escuela Austríaca de Economistas es descripto generalmente como evolucionista, como se observa en la teoría de la evolución del dinero y otras instituciones de C. Menger, y por el uso extensivo de la metáfora evolucionista de la biología en los trabajos de F. Hayek, especialmente en relación al concepto de orden espontáneo. También los estudios de varios autores como A. Smith, K. Marx, A. Marshall y otros son descriptos a veces como de carácter evolucionista. Sin embargo el uso de la denominación ‘economía evolucionista’, sin ser unívoca, resulta algo más restringido y resurge durante la década de los ’80, concretamente a partir de la publicación del libro de R. Nelson y S. Winter (1982): “Una teoría evolucionista del cambio económico”. El evolucionismo actual en economía pretende dar cuenta, fundamentalmente de la cuestión del cambio económico, no solamente de corto sino, principalmente, de largo plazo y su enfoque está dirigido explícitamente a negar la confianza en el análisis de equilibrio y el supuesto casi universal de comportamiento racional optimizador66. La idea de racionalidad limitada es central para entender este proceso. La idea principal es que las empresas se apegan a sus rutinas siempre que eso las lleve a resultados satisfactorios. Una característica distintiva de la teoría evolucionista es que las identidades de los agentes económicos están constituidas por las reglas que gobiernan su comportamiento (Vromen 1997). Esa característica generalmente ha sido contrastada por economistas evolucionistas con el supuesto neoclásico de que los agentes económicos no tienen restricciones y tienen poderes ilimitados para responder de manera flexible y óptima a los cambios en las circunstancias. Inicialmente la economía evolucionista apuntaba a analizar el cambio tecnológico y la innovación, campo al que luego se agregaron los estudios sobre las características y comportamientos de las firmas y el papel de las instituciones, entendidas en un sentido amplio, como limitantes a la vez que moldeadoras de los patrones de comportamiento de los agentes económicos. Cabe señalar que los enfoques evolucionistas en economía son variados, de modo tal que, en general se desconocerán aquí las diferencias y matices existentes. Para que el modelo evolucionista de la biología pueda ser extrapolado a cualquier ámbito y en particular a la economía en este caso, debe poder detectar: 1. elementos de permanencia o herencia al estilo de los genes en biología: las rutinas de conductas regulares y predecibles; 2. algún principio de variación o mutación: los comportamientos de búsqueda e innovación que resultan fundamentales en momentos de presión selectiva; y 3. un mecanismo de selección que actúa sobre las variaciones: el ambiente en el cual desarrollan su actividad los agentes económicos. De cualquier modo, y más allá de la gran variedad de matices en los economistas evolucionistas, se apresuran en señalar las limitaciones de la analogía con la evolución biológica: “(...) 1) en economía la creación de una nueva variedad se orienta sistemáticamente hacia sitios que parecen apropiados al contexto. Mientras que la mutación en el ámbito genético es azarosa, frecuentemente la mutación económica es sujeto de cambios intencionales; 2) la evolución biológica es darwinista- sólo las características genéticas se transmiten- mientras que la evolución económica es lamarckiana (...) 3) los agentes económicos pueden anticipar futuros estados del ambiente selectivo; 4) la selección natural es independiente de las acciones de los organismos individuales. En cambio los agentes económicos mejoran su habilidad para sobrevivir no sólo cambiando ellos mismos, sino también modificando el ambiente -el mecanismo selectivo (Chang, 1994; Mctcalfe, 1995; Nelson y Winter, 1982; Nelson, 1995).” (López, 1994, p. 95) El evolucionismo en economía, a partir de su crítica a los modelos simplificadores basados en el individualismo metodológico, la maximización de la utilidad y el equilibrio general, comienza a tomar en consideración las organizaciones y los procesos como no equilibrados, con desarrollos que se dan en procesos no predecibles, irreversibles y estocásticos, para lo cual la metáfora de los seres vivos se adecua mucho más que los modelos de la física tradicional. Así, se diferencia de la economía ortodoxa en varios puntos cruciales. En primer lugar, que los individuos no siempre responden al objetivo de maximizar 66 Hay autores muy críticos hacia la economía evolucionista. Para Rosenberg (1994), por ejemplo, la teoría darwiniana es un modelo, metáfora, inspiración o marco teórico inapropiado para la teoría económica. La teoría de la selección natural comparte pocas de sus fortalezas y la mayoría de sus debilidades con la teoría neoclásica. Además, para Rosenberg los términos de intercambio están siempre en dirección desde la economía a la biología y no a la inversa. Rosenberg plantea principalmente dos cuestiones críticas: el relativamente débil poder de predicción de la teoría evolucionista y la imposibilidad, a su juicio de establecer una isomorfia entre biología y economía para los estados de equilibrio/desequilibrio su utilidad en forma inmediata y ni siquiera que la evaluación que éstos hacen sea siempre enteramente racional; que los cambios son endógenos a los sistemas complejos, es decir que los mercados e instituciones condicionan e influyen en los gustos y en la personalidad de los individuos; que "las preferencias no sólo están en relación con el individuo, sino también con relación a su prole (biológica y cultural)" (López García, S. y Valdaliso, J., 1999). Según Dosi los modelos evolucionistas, en una caracterización básica: “(...) se focalizan en las propiedades dinámicas de los sistemas económicos guiados por procesos de aprendizaje, mientras que ignoran en una primera aproximación, la asignación óptima de recursos. Este enfoque consta de tres elementos centrales: I) un conjunto de microfundamentos basados en agentes con racionalidad limitada; II) un supuesto general de que las interacciones entre agentes ocurren fuera del equilibrio; III) la noción de que los mercados y otras instituciones actúan como mecanismos de selección entre agentes y tecnologías heterogéneas”. (Dosi et al, 1994, p. 23) Con respecto a la innovación tecnológica, la concepción neoclásica considera implícitamente a la tecnología como una información aplicable generalizadamente y concretada en un conjunto de instrucciones que, si se siguen con precisión llevan inexorablemente al resultado previsto. De este modo el conocimiento tecnológico se percibe como explícito, articulado, imitable, codificable y perfectamente transmisible. El punto de vista evolucionista, por su parte, sostiene que dicho cambio es básicamente una actividad tácita, acumulativa y local. Es tácito en oposición a articulado: es imposible, en general, escribir instrucciones precisas para todos los pasos. Es acumulativo ya que procede de proceso de aprendizaje activos. Es local o específico, dado que se refiere a ‘maneras de hacer cosas’ y no al conocimiento de principios científicos de gran generalidad. Estas premisas cuestionan fuertemente la idea de ‘función de producción’. No sólo no se puede asumir que las firmas y menos aun los países- acceden a una función de producción comúnya que la imitación no es trivial- sino de hecho las firmas operan no en una función de producción sino en algunos o, en un extremo, en un punto específico del conjunto de combinaciones tecnológicas, y su progreso técnico, construido sobre sus propios esfuerzos, experiencias y capacidades, está localizado alrededor de ese o esos puntos (López, 1994, p. 118) Según la tradición neoclásica, la firma es una suerte de ´caja negra’ cuyo objetivo es maximizar beneficios. En este sentido, y dado que se los considera irrelevantes para la teoría económica, no cuenta el análisis de la firma como organización – con estructuras, reglas, habilidades y estrategias diferenciadas-, ni su dimensión institucional en el contexto social, histórico, legal y político. En oposición a este punto de vista el evolucionismo sostiene que atender a esas circunstancias resulta importante. El análisis debe basarse, entonces, en los siguientes presupuestos básicos: 1. la habilidad para desarrollar, imitar y adoptar innovaciones tecnológicas es heterogénea aun cuando las firmas posean patrones organizacionales compartidos, y también entre países; 2. entre países también existen diferencias en cuanto a niveles de productividad e ingresos; 3. entre ambos fenómenos hay, a largo plazo una cierta correlación o coevolución. Además de la explicación de los procesos de cambio económico de diverso alcance el evolucionismo en economía también incluye propuestas y recomendaciones políticas: “El evolucionismo coincide en señalar al capitalismo como un sistema insuperable para impulsar las actividades innovativas.(y a pesar de que) Nelson (1990) reconoce que los procesos evolucionarios -como el de la competencia capitalista- son derrochadores (...) El despilfarro generado en el proceso competitivo es el precio a pagar por evitar los peligros de ‘confiar en una sola mente para la innovación’. El capitalismo asegura que existan múltiples fuentes de iniciativas, con una competencia real entre aquellos que ponen en juego diferentes ideas. Este proceso, ni óptimo ni eficiente, ha sido, sin embargo, apropiado para impulsar un flujo casi incesante de innovaciones en los últimos dos siglos (...) (y para algunos más radicalizados) el mercado es, además, el único proceso que permite la expresión creativa de los individuos (Buchanan y Vanberg, 67 1995).(...) (y aunque no todos los evolucionistas son tan categóricos ) los programas de I+D direccionados a objetivos específicos son generalmente criticados. (López, 1994, p. 141) El evolucionismo en economía descansa sobre una teoría de los microfundamentos, es decir una teoría sobre el comportamiento de los individuos y sus interacciones que sirva de fundamento a cualquier investigación macroeconómica. La teoría ortodoxa se basa en el supuesto de un agente representativo único, maximizador, hiperracional e hipercompetente. Este punto de vista ha sido criticado fundamentalmente por: 1. la heterogeneidad de los agentes en cuanto a sus creencias, competencias, expectativas y capacidad y posibilidad de acceso y procesamiento de la información relevante y pertinente; 2. la dificultad de pensar que esos agentes puedan tener conductas maximizadoras, probablemente ineficientes en contextos semejantes; 3. la dificultad para pensar también un comportamiento racional único aún para un agente privilegiado que conociera toda la información, dado que su beneficio puede depender de conductas inciertas de los restantes agentes. La economía evolucionista por su parte sostiene otros microfundamentos: “i) las creencias individuales y colectivas son relevantes; ii) en un contexto de información imperfecta, es preciso que existan instituciones que generen un esquema de incentivos, evaluación de desempeños y flujos de información; iii) los comportamientos institucionalizados –gobernados por reglas que se aplican repetidamente a lo largo del tiempo- pueden tener un efecto estabilizador sobre las variables macro; iv) los intercambios económicos son imposibles sin normas preexistentes y organizaciones de monitoreo; v) las conductas de los agentes deben ser descriptas a partir de rutinas no óptimas que cambian sólo lentamente a lo largo del tiempo: estas rutina operan en el mismo sentido que las instituciones al compatibilizar los comportamientos de agentes heterogéneos; vi) las rutinas resultan de procesos de aprendizaje que consolidan formas de respuesta casi automáticas, que incluyen grandes cantidades de conocimiento tácito; al mismo tiempo los agentes al actuar en ambientes complejos y no estacionarios, deben realizar desarrollos ‘creativos’ en base a sus propias rutinas. Por ende, su comportamiento se describe en términos de reglas de decisión rutinizadas, criterios de mayor nivel que gobiernan su implementación y, finalmente, procesos de aprendizaje que cambian las reglas y las meta reglas. Este marco conceptual hace de los propios agentes sujetos ‘evolutivos’, no dotados a priori de ningún concepto de racionalidad, sino construyendo sus comportamientos en el curso del aprendizaje”. (López, 1994, p. 145) Ahora bien, algunos autores fundan estos análisis estrictamente económicos en algunas consideraciones sobre la naturaleza humana apoyada en argumentos sociobiológicos conocidos. Así, sostienen López y Valdaliso: “Seguimos defendiendo que el hombre es por naturaleza egoísta, pero introducimos en el análisis económico los conceptos encadenados de altruismo, selección grupal y creatividad, que nos permiten ver el egoísmo a largo plazo (egoísmo aplazado)”. (López y Valdaliso, 1999, p. 33) Apoyados en esta ‘naturaleza humana’ sostienen una curiosa explicación de la innovación como privativa de la iniciativa y carácter individual: “El mayor acto de altruismo real (cultural) que podemos hacer los seres humanos es poner a disposición de la comunidad una creación (tecnológica, institucional, científica o artística). (...) Este proceder permite una recompensa cultural al altruista real innovador: incrementar su posterioridad (vía aclamación, o reconocimiento de la deuda ancestral con él contraida); y una recompensa económica en el mundo económico del mercado y 67 Hay posiciones evolucionistas que son más conciliadoras con el papel del Estado. las empresas: un premio en forma de derecho sobre la propiedad intelectual para que sea explotado temporalmente (patente y derechos de autor). Por supuesto no debemos olvidar que ambas gratificaciones dan acceso a una posible reproducción biológica menos incierta. Las actitudes altruistas están reforzadas en nuestras sociedades por tres tendencias: una general aprobatoria de este comportamiento en el resto de los individuos, otra que nos lleva a expresar nuestra desavenencia con los comportamientos egoístas y, finalmente, una tercera que nos hace premiar al altruista con oportunidades o responsabilidades que le sitúen en mejor posición para reproducirse biológicamente” (resaltado mío). (López y Valdaliso, 1999, p 35) Se trata del argumento sociobiológico que pretende sostener una ‘naturaleza humana’ egoísta y, por lo tanto transforma los comportamientos altruistas en egoísmo aplazado y, tales comportamientos altruistas inmediatos (altruismo real) permitirían la selección de grupo. Si este resulta un punto de vista reduccionista para explicar las conductas humanas en general, lo es mucho más cuando se trata de conductas que responden a contextos de una gran complejidad y en el cual intervienen una infinidad de factores. Entre muchos otros, el historiador G. Basalla (1988) ha hecho un uso explícito del modelo darwinista para estudiar el cambio tecnológico, sosteniendo que este modelo puede ayudar a superar las limitaciones tradicionales de la historia de la tecnología, que a través de la necesidad y la utilidad pretenden explicar la variedad y novedad de cosas creadas por el ser humano. Según Basalla es necesario encontrar otras explicaciones que puedan incorporar las suposiciones más generales sobre la significación y metas de la vida y considera que la aplicación de la teoría de la evolución orgánica al mundo tecnológico es ese instrumento idóneo. Los conceptos básicos del modelo de Basalla reproducen el orden y secuencia evolucionista: diversidad/novedad, selección y continuidad. Diversidad y novedad: las innovaciones tecnológicas se producen por dos grandes grupos de factores: los psicológicos e intelectuales (entre los que incluye la investigación científica), y los socioeconómicos y culturales. En cualquier caso, como para la mayoría de los evolucionistas, lo importante es la constatación de la variabilidad. Selección: los factores selectivos surgen de dos tipos defactores: económicos y militares por un lado, y sociales y culturales por otro. Reconoce que pese al papel heurístico del modelo darwinista, la evolución de los artefactos y de los organismos mantienen significativas diferencias. La selección en el mundo de los artefactos es equivalente a la selección artificial, antes que a la selección natural. Son los humanos quienes deciden, influidos por factores de diferente índole, quienes deciden qué artefactos sobreviven. Continuidad: la continuidad es un punto crucial en el enfoque evolucionista de Basalla. La continuidad es el modo en que se ‘reproducen’ los artefactos, i.e., lo que favorece o impide los factores de selección. Los artefactos seleccionados se convierten en los antecedentes de una nueva generación, influyendo así en la configuración futura del mundo producido. 2.2.3 darwinismo social Pero resta aún analizar una caso especial, el darwinismo social, que junto con algunas de sus derivaciones científicas y otras formulaciones evolucionistas como la eugenesia, representan casos muy especiales del uso de metáforas en ciencia. Una de las formas más conocida, y también más criticada y controvertida, de determinismo y de interrelación entre ciencias biológicas y orden social probablemente sea el llamado ‘darwinismo social’. Es controvertida la filiación de este concepto, ya que no resulta del todo cierto desde el punto de vista histórico que la teoría de la evolución biológica haya sido extrapolada lineal o automáticamente hacia las ciencias sociales como parece sugerir la denominación ‘darwinismo social’. El proceso más bien parece ser el de una interrelación muy profunda sobre un telón de fondo cultural, generalizada y marcadamente evolucionista, al que la teoría biológica viene a prestar un apoyo extra e importante, pero el evolucionismo en lo social no se apoya al modo de una copia sobre su original biológico. El evolucionismo ha sido una idea que recorrió todo el siglo XIX y se extendió y ramificó a todas las áreas del conocimiento (Cf. Randall, 1981). La idea de evolución aplicada a la dinámica social tiene las siguientes características: • identificación de las etapas o periodos que se postulan a priori como indicadores de esa misma evolución. • El cambio obedece a leyes naturales y, en ese sentido es inmanente. • El cambio es direccional y se da en una secuencia determinada, aunque, obviamente, ninguno de los autores evolucionistas establece plazos para esos cambios. Por esto mismo, • El cambio es continuo Debe notarse que la teoría de la evolución biológica no cumpliría con la primera característica - salvo en una mirada retrospectiva- ni con la tercera y de allí una notoria diferencia con la evolución en lo social. Los autores catalogados como darwinistas sociales, en general, veían los conflictos entre los grupos raciales, nacionales y sociales en términos biológicos, naturalizando la guerra, en una versión caprichosa y gladiatoria de la darwiniana 'lucha por la vida'. Para W. Bagehot, la lucha ocurre más entre grupos que entre individuos aislados, pero justamente esta cooperación interna a los grupos hacía más feroz la competencia: "Por más que se hable en contra del principio de selección natural en otros terrenos, no hay duda de que predominó en la historia primitiva de la humanidad. Los más fuertes mataban a los más débiles tanto como podían (...) En todos los estados del mundo las naciones más fuertes tratan de imponerse a las demás, y en ciertas particularidades notables las más fuertes tienden a ser las mejores (...) Las mejores instituciones tienen una natural ventaja militar sobre las malas instituciones". (citado en Timasheff, 1955 [1977, p. 84]) Otro de los representantes típicos del darwinismo social, el austríaco L. Gumplowicz, quien al considerar en su Soziologie und Politik las luchas raciales de Austria consideró que: "De las fricciones, de las uniones y separaciones de elementos opuestos surgen finalmente como productos de la nueva adaptación fenómenos psicológicos y sociales superiores, formas culturales superiores, nuevas civilizaciones, el nuevo Estado y las unidades nacionales (...) y esto surge por pura obra de la acción y de la reacción sociales, enteramente independientes de la iniciativa y de la voluntad de los individuos y en contra de sus ideas, deseos y esfuerzos sociales" (citado en Timasheff, 1955 [1977, p. 85]) Nótese cómo en las citas precedentes hay un desplazamiento en el contenido del concepto de 'selección natural' según el cual los triunfadores serían 'los más fuertes' o 'los mejores', sesgo que no aparece de ningún modo en la teoría darwiniana de la evolución. Como quiera que sea, Ch. Darwin, que no era en este sentido un 'darwinista social', se ha preocupado por la cuestión del hombre y, en su Descent of man, publicada en 1871 -doce años después de El origen de las Especies-, aborda el tema que en ese primer gran texto había quedado pendiente pero que resultaba una consecuencia inevitable: el hombre como ser que evoluciona en la naturaleza. El libro de 1971 se transforma en una obra con cierto sesgo sociológico en tanto que describe, propone explicaciones causales, predice y define acciones sobre la organización social humana que quedarían definidas por la validez de las investigaciones científicas: "El mejoramiento del bienestar de la humanidad es un problema de los más intrincados. Todos los que no puedan evitar una abyecta pobreza a sus hijos deberían abstenerse del matrimonio porque la pobreza es no tan solo un gran mal, sino que tiende a aumentarse, conduciendo a la indiferencia en el matrimonio. Por otra parte, como ha observado Galton, si las personas prudentes evitan el matrimonio, mientras que las negligentes se casan, los individuos inferiores de la sociedad tienden a suplantar a los individuos superiores. El hombre, como cualquier otro animal, ha llegado, sin duda alguna, a su condición elevada actual mediante ” la lucha por la existencia", consiguiente a su rápida multiplicación: y si ha de avanzar aún más, puede temerse que deberá seguir sujeto a una lucha rigurosa. De otra manera caería en la indolencia, y los mejor dotados no alcanzarían mayores triunfos en la lucha por la existencia que los más desprovistos. De aquí que nuestra proporción o incremento, aunque nos conduce a muchos y positivos males, no debe disminuirse en alto grado por ninguna clase de medios. Debía haber una amplia competencia para todos los hombres, y los más capaces no debían hallar trabas en las leyes ni en las costumbres para alcanzar mayor éxito y criar el mayor número de descendientes. A pesar de lo importante que ha sido y aún es la lucha por la existencia. hay, sin embargo, en cuanto se refiere a la parte más elevada de la naturaleza humana otros agentes aún más importantes. Así, pues, las facultades morales se perfeccionan mucho más, bien directa o indirectamente, mediante los efectos del hábito, de las facultades razonadoras, la instrucción. la religión, etc., que mediante la selección natural; por más que puedan atribuirse con seguridad a este último agente los instintos sociales que suministran las bases para el desarrollo del sentido moral. La principal conclusión a que llegamos en esta obra, es decir, que el hombre desciende de alguna forma inferiormente organizada, será, según me temo, muy desagradable para muchos. Pero difícilmente habrá la menor duda en reconocer que descendemos de bárbaros. El asombro que experimenté en presencia de la primera partida de fueguinos que vi en mi vida en tina ribera silvestre y árida, nunca lo olvidaré, por la reflexión que inmediatamente cruzó mi imaginación tales eran nuestros antecesores. Estos hombres estaban completamente desnudos y pintarrajeados, su largo cabello estaba enmarañado, sus bocas espumosas por la excitación y su expresión era salvaje, medrosa y desconfiada. Apenas poseían arte alguno, y como los animales salvajes. vivían de lo que podían cazar: no tenían gobierno eran implacables para todo el que no fuese de su propia reducida tribu. El que haya visto un salvaje en su país natal. No sentirá mucha vergüenza en reconocer que la sangre de alguna criatura mucho más inferior corre por sus venas. Por mi parte, preferiría descender de aquel heroico y pequeño mono que afrontaba a su temido enemigo con el fin de salvar la vida de su guardián, o de aquel viejo cinocéfalo que, descendiendo de las montañas, se llevó en triunfo sus pequeño camaradas librándoles de una manada de atónitos perros, que de un salvaje que se complace en torturar a sus enemigos, ofrece sangrientos sacrificios, practica el infanticidio sin remordimiento, trata a sus mujeres como esclavas, desconoce la decencia y es juguete de las más groseras supersticiones. Puede excusarse al hombre de sentir cierto orgullo por haberse elevado, aunque no mediante sus propios actos, a la verdadera cúspide de la escala orgánica; y el hecho de haberse elevado así, en lugar de colocarse primitivamente en ella, debe darte esperanzas de un destino aún más elevado en un remoto porvenir. Pero aquí no debemos ocuparnos de las esperanzas ni de los temores, sino solamente de la verdad, en tanto cuanto nos permita descubrir nuestra razón: y yo he dado la prueba de la mejor manera que he podido. Debemos, sin embargo, reconocer que el hombre. según me parece, con todas sus nobles cualidades, con la simpatía que siente por los más degradados de sus semejantes, con la benevolencia que hace extensiva, no ya a los otros hombres, sino hasta a las criaturas inferiores, con su inteligencia semejante a la de Dios, con cuyo auxilio ha penetrado los movimientos y constitución del sistema solar—con todas estas exaltadas facultades—lleva en su hechura corpórea el sello indeleble de su ínfimo origen". (Darwin, 1871 [1994, p. 521]) El contexto de la Europa de la segunda mitad del siglo XIX es suficientemente conocido. Inglaterra había llegado a consolidar el más grande imperio de la historia, dominando gran parte de Africa y Asia. En su propio territorio contaba con un proletariado que incluía niños de corta edad- explotado en las minas o en las hilanderías y sumido cotidianamente en la miseria y en la promiscuidad de ciudades desbordadas de habitantes. Pero ese mismo imperio proclamaba valores cristianos universales como la idea según la cual todos los hombres están hechos a imagen y semejanza del creador. Una explicación naturalizada de las relaciones sociales anularía o por lo menos debilitaría el problema moral generado por la contradicción entre los ideales cristianos de igualdad y caridad, al menos tal es lo que se proclama, y el dominio brutal al que eran sometidos diversos grupos humanos por la economía imperial de la Inglaterra victoriana. Desde esta perspectiva el darwinismo triunfó en un sentido masivo más como idea sociológica que como teoría biológica. Existe una lectura posible de las ideas darwinianas según la cual las relaciones sociales de dominio y sumisión quedan definidos como fenómenos naturales y no como decisiones morales, sociales o políticas. El hombre en su marco social no escaparía a la ley evolutiva general de la supervivencia del más apto en la lucha por la existencia. Al aplicar el darwinismo al ámbito socioeconómico, los darwinistas sociales tienden a justificar las diversas formas de agresividad propias de la sociedad “liberal”, y a explicar científicamente las diferencias económicas y sociales de clase. Por ello el darwinismo social ha sido utilizado por los ideólogos del racismo o por los ideólogos más conservadores, así como por partidarios de corrientes eugenésicas que consideraban que la evolución de la cultura depende del grado de desarrollo de las razas. Para los darwinistas sociales, la abundancia o la riqueza económica, serían los equivalentes de la buena adaptación biológica; la feroz competencia económica capitalista, sería el equivalente de la selección natural. De esta manera, el éxito en la vida económica y social daría la medida de la valía de las personas. En definitiva, según los darwinistas sociales, los ricos lo son porque son más inteligentes, y los pobres lo son porque son menos eficientes o más tontos. Si bien es cierto que el éxito de El origen de las Especies, en 1859, otorgó un espaldarazo naturalista extra al evolucionismo, existe una interdependencia entre biología y ciencia social, más que una determinación lineal desde la biología. Huelga señalar que casi todas las obras importantes que sostuvieron la evolución social habían aparecido antes de 1859, tales como las de Hegel, Comte, Marx y los primeros trabajos de Spencer. Incluso las que aparecieron contemporáneamente o inmediatamente después a El Origen... contienen una elaboración anterior no deudora directa de la teoría de Darwin. De hecho, mientras que la teoría darwiniana de la evolución sufría cierto descrédito hacia las últimas décadas del siglo XIX, no ocurría lo mismo con el evolucionismo en otras áreas. En este sentido, parece más apropiado hablar de darwinismo social en un sentido propiamente dicho con las teorías eugenésicas y la moderna sociobiología humana. Esbozaremos las principales ideas de ambas a continuación. La eugenesia, básicamente, consiste en tomar decisiones y llevar a cabo medidas para el mejoramiento de la descendencia humana, posibilitando la reproducción diferencial de ciertos grupos considerados valiosos o mejores. Es muy antigua la idea de que algunas características que diferencian a los humanos entre sí son hereditarias, de modo tal que la intervención humana estimulando la reproducción de ciertos individuos e inhibiendo la de otros, podría contribuir a la mejora de la población68. Pero la eugenesia moderna posee dos requisitos de los que carecían las prácticas conocidas desde hace siglos: el fundamento científico de sus premisas básicas y la implementación de políticas y programas de gobierno dirigidos al mejoramiento de ciertos grupos humanos a través de promover la reproducción diferencial. Ambos elementos confluyen en el programa eugenésico hacia fines del siglo XIX y, sobre todo primeras décadas del siglo XX. Las perspectivas evolucionistas corrientes, reforzadas por el fortísimo aval de la biología evolucionista darwiniana, otorgan una nueva dimensión a problemas acuciantes hacia esa época: la salud, la educación, el delito, la inteligencia humana e incluso las relaciones entre grupos y países. En este sentido, puede caracterizarse a la eugenesia como un conjunto de tecnologías sociales asociadas al conocimiento científico disponible e implementadas a través de políticas públicas activas y destinadas a favorecer la reproducción de determinados individuos o grupos humanos considerados mejores e inhibir la reproducción de otros grupos o individuos considerados inferiores o indeseables, con el objetivo del mejoramiento/progreso de la humanidad o de esos grupos humanos. Se trató de un programa que en la primera mitad del siglo XX abracó casi todo el mundo occidental a través de un amplio y generalizado plan de implementación 68 De hecho este procedimiento llevado a cabo entre las especies de animales domésticos es una práctica común desde la antigüedad. de políticas públicas ejercidas de manera coactiva, no tratándose en lo fundamental de acciones individuales voluntarias. Habitualmente se suele adjudicar la paternidad de la eugenesia a Sir F. Galton (1822-1911), quien introduce este término derivado del vocablo griego utilizado que designa a los individuos “bien nacidos, de noble origen y de buena raza”. Definió a la eugenesia (Galton,1884), como la ciencia que trata de todas las influencias que mejoran las cualidades innatas, o materia prima, de una raza y aquellas que la pueden desarrollar hasta alcanzar la máxima superioridad pero fundamentalmente dirigida al estudio de los “factores sometidos al contralor social que pueden aumentar y disminuir las condiciones sociales, sea físicas o espirituales, de las generaciones futuras”. De hecho esta definición amplia de eugenesia admite tanto puntos de vista fuertemente hereditaristas como otros que reserven un papel relevante a las condiciones ambientales o de vida de los individuos, diversidad que se ha dado efectivamente en la diseminación de la eugenesia por todo Occidente. Como quiera que sea, para Galton era fundamental la herencia de los rasgos mentales y se había propuesto demostrar que los padres transmiten la inteligencia. Pretendía demostrar científicamente las causas de algo que en la Inglaterra victoriana no era ningún secreto: que los hombres eminentes generalmente eran hijos de hombres eminentes. Para obtener sus datos utilizaba el método biográfico y de la historia familiar con el propósito de mostrar, por un lado, que el comportamiento considerado socialmente como valioso depende causalmente de una aptitud concreta, la inteligencia y, por otro lado que dicha aptitud, hereditaria, no puede ser modificada por el ambiente. Muchas de las ‘comprobaciones’ de Galton y otros acerca de las diferencias en el nivel de inteligencia y su relación con la ubicación social no hacían más que reflejar prejuicios ampliamente extendidos: “La ciencia de la mejora de la descendencia, que no se limita de ningún modo a las cuestiones de uniones judiciales, sino que, particularmente en el caso del hombre, se ocupa de todas las influencias susceptibles de conceder a las razas mejor dotadas, un mayor número de posibilidades de prevalecer sobre las razas menos buenas. (...) El nivel intelectual promedio de la raza negra está alrededor de dos grados por debajo del nuestro (...) Si la agudeza de las mujeres fuera superior a la de los hombres, los empresarios, por propio interés, las emplearían siempre antes que a los varones, pero como ocurre lo contrario, resulta probable que la suposición opuesta sea la verdadera”. (Galton, 1883, p. 17) Los postulados básicos de la eugenesia son: 1. las diferencias entre los individuos están determinadas hereditariamente69 y sólo en una muy pequeña medida dependen del medio; 2. el progreso depende de la selección natural, mecanismo fundamental por el cual, según la teoría darwiniana, se produce la evolución de las especies; 69 En la actualidad es posible afirmar que hay dos diferentes y grandes líneas o programas de investigación que intentan explicar causalmente el origen de la inteligencia en los individuos: el hereditarismo y el ambientalismo. Mientras los hereditaristas sostienen que la inteligencia se hereda, lo cual implica que tiene un origen biológico, los ambientalistas sostienen que la inteligencia deriva de las condiciones sociales en las que las personas viven y se desarrollan. Ambos programas coinciden en reconocer una correlación positiva entre inteligencia y status social y profesional. La diferencia aparece cuando se trata de dar una interpretación causal de tal correlación: “para unos las diferencias en inteligencia (biológica) causan las desigualdades económicas, mientras que para sus oponentes son estas desigualdades las que causan las diferencias en inteligencia (en este caso entendida como inteligencia social)” (Luján López, 1996). El origen de tales controversias básicas, que dieron lugar a estos dos programas, incompatibles entre sí en sus formulaciones más interesantes, se remonta a fines del siglo pasado. Uno de los ‘experimentos’ preferidos por aquella época y aun posteriormente, y que ha dado lugar a todo tipo de fantasías y hasta fraudes, eran los que se realizaban con gemelos univitelinos separados entre sí para distinguir los efectos genéticos de los vinculados con factores ambientales. Son célebres las experiencias de Sir C. Burt, aunque más tarde se llegó a la conclusión de que gran parte de ellas eran un fraude. Sobre este punto se puede consultar Gould, 1981. 3. las condiciones modernas (medicina, planes de asistencia, las condiciones 'cómodas' de la vida moderna etc.) tienden a impedir la influencia selectiva de la muerte de los menos aptos; 4. a partir de (3) se ha iniciado un deterioro, una degeneración en la especie humana que continuará a menos que se tomen medidas para contrarrestarla. Adjudicar la paternidad de la eugenesia a Galton es acertado, a condición de que se tenga en cuenta que su propuesta viene a realizar y concretar el desarrollo de creencias y aspiraciones ampliamente extendidas hacia fines del siglo XIX. Lejos de ser una creencia marginal o aislada, cobró rápidamente gran predicamento llegando a constituir, definitivamente, el fundamento ‘científico’ para medidas de política sanitaria, pero también para generar y consolidar creencias y prejuicios corrientes. El racialismo70 y la concepción de la degeneración de las clases bajas, ideologías ampliamente difundidas, hacían que las problemáticas prevalecientes en las urbes en expansión, fueran interpretadas como un proceso de ‘degeneración’ en marcha; la idea del mejoramiento racial, relacionado con la salud, se apoyó en las nuevas teorías genéticas de los primeros años del siglo XX, y se consideraba que de su utilización podía depender el auge o a la decadencia de las naciones. La teoría eugenésica no ha sido un fenómeno circunscripto a los EE.UU. y la Alemania nazi, sino que gozó de tal autoridad científica e influencia política, que culminó con su institucionalización, a través de la generación de sólidas sociedades científicas, constituidas mayoritariamente por prestigiosos médicos en todo el mundo Occidental. Éstos promovieron la promulgación de leyes y normas de salud pública que pretendían contrarrestar el “peligro de la descontrolada fertilidad de los débiles mentales y la mezcla racial derivada de la inmigración, que se temía poblaran al Nuevo Mundo con imbéciles que finalmente suplantarían a los de mente dotada” (Medawar, P.B. y Medawar, J.S., 1983, p. 202). Estas ideas, no eran más que los presupuestos corrientes de vastos sectores de hombres de ciencia y pensadores. En el mismo sentido se expresaba Spencer: "La pobreza del incapaz, las penalidades que caen sobre el imprudente, el hambre de los perezosos o aquellos seres débiles que el fuerte empuja a un lado son consecuencias de una benevolencia grande y de largas miras. Debemos calificar de espurios a aquellos filántropos que, por impedir la miseria de hoy, desencadenan una miseria mayor sobre las generaciones futuras, y en esta categoría hemos de incluir a todos los defensores de la ley de los pobres. A los amigos de los pobres les repele la ruda necesidad que, cuando se le permite actuar, es un acicate tan potente para el perezoso, un freno tan fuerte para el desordenado. Ciegos ante el hecho de que, continuamente a sus miembros enfermizos, imbéciles, lentos, vacilantes, pérfidos, estos hombres irreflexivos abogan por una interferencia que no sólo interrumpe el proceso purificador, sino que incluso aumenta la depravación (...) eliminar al enfermizo, al deforme y al menos veloz o potente (...) así se impide toda degeneración de la raza por la multiplicación de sus representantes menos valiosos. Se asegura también el mantenimiento de una constitución completamente adaptada a las condiciones del entorno y por consiguiente productora de un grado máximo de felicidad" (citado en Chorover, 1979 [1985, p. 54]) Se trata de ideas que se encuentran en germen, aunque de un modo velado y en un sentido diferente en los iniciadores de la biología evolucionista moderna, Darwin y Wallace: “El hombre estudia con la más escrupulosa atención el carácter y la genealogía de sus caballos, de sus perros, de sus otros animales domésticos, antes de permitirles acoplarse; pero cuando se trata de su propia descendencia, toma esta precaución muy raramente, tal vez nunca. La selección le permitiría, sin embargo, hacer algo favorable, no sólo para la constitución física de sus hijos, sino también para sus cualidades intelectuales y morales. Los dos sexos no deberían unirse en matrimonio cuando se 70 El concepto de ‘racialismo’ (Todorov, 1989) se diferencia del de ‘racismo’ en que éste hace referencia a una conducta más o menos espontánea y generalizada de rechazo y temor al difrente o al extranjero en general surgida de prejuicios del sentido comun, mientras que aquél consiste en la búsqueda de apoyatura en teorías ‘científicas’. encontrasen en un estado de inferioridad física o espiritual demasiado pronunciado; pero expresar semejantes esperanzas importa expresar una utopía, pues estas esperanzas no se realizaran siquiera en parte, mientras las leyes de la herencia no sean completamente conocidas” (Darwin, 1871 [1994, p. 510]) “Entre las naciones civilizadas no nos parece posible que la selección natural obre de manera de asegurar el progreso permanente de la moralidad y de la inteligencia, pues son incontestablemente los espíritus mediocres, cuando no los inferiores, los que arriban mejor en la vida, porque se multiplican más rápidamente” (Wallace, 1864) La propuesta de Galton, como decíamos, cayó en campo fértil. Así se expresaba el premio Nobel de Medicina y Fisiología de 1913, Ch. Richet en su La Selección Humana, evidenciando un inquietante corrimiento hacia posiciones políticas que sobrevendrían poco después y una sesgada interpretación de la teoría darwiniana de la evolución: “En la vida salvaje, dice, la selección es la consecuencia necesaria de la lucha que se entabla entre los seres. Vivir es un combate perpetuo, y en esta lucha, los fuertes son siempre vencedores; los débiles son aplastados. La naturaleza implacable no se preocupa de los inválidos y condena a los impotentes; el individuo no es nada; la especie lo es todo. Es necesario, para el vigor de la especie, que todo lo imperfecto sea destruido. La naturaleza viva es así; ni cruel, ni suave, ni justa, ni inicua. Dulzura, piedad, justicia, son ideas humanas y palabras humanas. La naturaleza no conoce ni la generosidad ni el odio. Sigue su camino interesada solamente en producir seres vivos, y en producirlos enérgicos, vigorosos y potentes. Pero la sociedad ha introducido en las relaciones humanas un elemento nuevo: El respeto de cada personalidad humana. La noción de derecho ha reemplazado la de fuerza. La sociedad ha querido que todos los seres humanos tuvieran el mismo derecho a la vida, sea cual fuere su pequeñez y su debilidad. Así, pues, por el estado social se encuentra viciada la gran ley de la selección, que consiste esencialmente en la sobrevivencia de los fuertes. Pero la civilización ha hecho más aun, pues si ha pervertido la selección natural ha pervertido aun más la selección sexual. El matrimonio se ha convertido en función social en lugar de ser función natural, apta a la conservación de una raza fuerte” (citado en Farre, 1919, p. 80) Y en el mismo sentido: “(...) es una barbarie forzar a vivir a los sordomudos, idiotas, raquíticos; que una masa de carne humana, sin inteligencia no es nada, más bien es una mala materia viviente, que no es digna de respeto, ni de compasión; que fuera de la inteligencia el hombre no debe respetar nada; que todos los ríos de las grandes ciudades deberían transformarse en otros tantos Eurotas; que el solo medio para no ver nacer niños anormales, es eliminar los que son anormales” (citado en Ciampi, 1922, p. 119) Contra la idea de considerar ‘supervivencia del más apto’ como sinónimo de ‘supervivencia del más fuerte’ ya el propio Darwin había advertido en la sexta edición de El Origen de las Especies. La misma tiene como origen una interpretación ‘gladiatoria’ de la expresión ‘lucha por la existencia’ contra la que advierte Darwin indicando que había usado esa expresión en un sentido amplio y metafórico, que incluye tanto la lucha efectiva como el esfuerzo que desarrolla una planta en el límite del desierto por conseguir un poco de humedad. Uno de los grandes exponentes de la psiquiatría francesa de principios del siglo XX, el Dr. Binet-Sanglé, publicó en 1919 un libro en el cual se proponen mecanismos para llevar adelante los ideales eugénicos: Le haras humain. Comienza en la Introducción criticando la forma de matrimonio, que llama ‘por conveniencia’ por constituir un elemento disgenésico responsable de la decadencia de la raza. En la primera parte del libro se exponen los conocimientos sobre la herencia disponibles en ese momento. En la segunda parte, que llama “Antropogenia genética”, se ocupa, en primer lugar de la eugenesia negativa, dirigida a la represión del ‘mal generador’ para lo cual propone: la supresión del mal generador, mediante una muerte eufórica (eutanasia); su internación; la castración; el aborto provocado y el infanticidio. En el Capítulo IV, se ocupa de la eugenesia positiva71, dirigida a la “producción del buen generador”, es decir a la formación del “haras humano”. Propone fundar una especie de cabaña humana para la producción de buenos generadores, con el mismo criterio con el que un industrial trata de hallar buenos reproductores, e incluso llega a proponer la importación- exportación de hombres y mujeres típicos para la formación de nuevos planteles. En la tercera parte dirigida a la educación del niño proponía entre otras cosas la higiene sexual consistente en la práctica regular del coito desde la pubertad dos veces por semana a ambos sexos. A. Hermant, comenta: “el mundo es actualmente para los hombres un harem (SIC) y para las mujeres un haras” (citado en Regnault, 1922, p. 24). El texto de Binet-Sanglé resulta un antecedente -no literario, sino científico- de la novela que hoy es una referencia inmediata apenas se comienza a hablar de eugenesia y que publicara dos décadas después A. Huxley: Brave New World (Un mundo feliz). Como quiera que sea, había una gama de matices entre los eugenistas, muchos de ellos más prudentes y cuidadosos que Richet72 o de prosa menos inflamada que Spencer, y los hubo profundamente reaccionarios o conservadores, pero también progresistas. Esta heterogeneidad se explica por el hecho de que la eugenesia constituyó verdaderamente un clima de ideas dominante que se fue constituyendo con el correr del siglo XX por una serie de manifestaciones científicas dirigidas a relacionar condiciones biológicas con posiciones sociales, clima de ideas que, además, estuvo dado no sólo por consideraciones teóricas generales sobre la evolución y progreso de la especie humana o de apuestas más o menos optimistas o pesimistas sobre el futuro, sino que, una vez instalado como pensamiento hegemónico adquiere como componente estratégico fundamental el reclamo por la implementación de políticas públicas y/o tecnologías tanto biológicas como sociales que tuvieran incidencia evolutiva, es decir que estuvieran orientadas a modificar la composición media de una población con el objetivo de ‘mejorarla’. Y este es el carácter distintivo de la eugenesia73, aunque las diversas medidas concretas en que ha derivado hayan sido de 71 Los controles que suelen hacerse a las embarazadas con el objetivo de detectar enfermedades congénitas en el hijo, aunque derivan en alguna medida del planteo general, no serían medidas eugenésicas en un sentido estricto y se les ha reservado la denominación ‘eugenesia negativa’, mientras que al otro planteo más radical, y cualitativamente diferente, se lo ha denominado ‘eugenesia positiva’. La eugenesia negativa puede definirse como el intento de eliminar o disminuir la frecuencia de alelos que se juzgan perjudiciales o deletéreos para el ser humano o al menos para alguna población particular. Es fundamental el carácter poblacional de la eugenesia, de modo tal que, en esta perspectiva, los padres que deciden interrumpir el embarazo frente a la certeza de que el embrión porta una afección genética no están actuando en forma eugenésica en tanto su elección no tiene como objetivo la eliminación o disminución de la frecuencia, en la población, del o los alelos responsables de la dolencia. La eugenesia positiva, por su lado, estará definida por la implementación de prácticas y políticas que tienen como objetivo incidir evolutivamente y se asienta sobre la promoción de la reproducción de ciertos individuos, portadores de caracteres reconocidos como deseables, bajo la intención de generar así un fenómeno de reproducción diferencial. La distinción entre eugenesia negativa y positiva constituye una diferenciación aproximativa que merecería, para cada caso particular un debate profundo. Algunos autores invierten el sentido de eugenesia ‘negativa’ y positiva’ porque le dan a tal clasificación connotaciones éticas. En tal caso es positiva la que se considera un bien y negativa la que atenta contra las libertades y decisión individuales. No es ese el sentido que se le da aquí. El carácter ‘negativo’ proviene de la simple abstención o control de la reproducción y el carácter ‘positivo’ de generar las condiciones de interferencia y modificación efectiva del desarrollo evolutivo. 72 De hecho había autores que sostenían que no era lícito hablar de disparidad de razas y mucho menos que hubiera razas inferiores y superiores, como Jean Finot en su Le préjugé des races de 1905 73 En otro lado (Palma, 2002) he desarrollado con cierto detalle el programa eugenésico y he señalado lo que considero tres errores con respecto a su evaluación historiográfica y conceptual. El primer error consiste en considerar a la eugenesia como pseudociencia y así, ni los científicos actuales, ni los historiadores de la ciencia, ni los epistemólogos pueden dar acabada cuenta de ella. Pero tampoco puede decirse que se trata de una teoría científica sin más. La eugenesia ha constituido un enorme proyecto interdisciplinario, en el cual estuvo comprometida buena parte de la comunidad científica internacional, y cuyo objetivo era el mejoramiento/progreso de la humanidad o variado alcance en las diferentes épocas y países, tanto por la índole propia de las mismas como por la decisión política de su puesta en práctica. Las tecnologías sociales más difundidas asociadas a la eugenesia han sido: • la exigencia del certificado médico prenupcial, probablemente la práctica más extendida y difundida en Europa y América, obligatorio en la mayoría de los países y optativo en otros. • Control de la natalidad o más bien “control diferencial de la concepción” ya que no se trataba meramente de un control de la tasa de natalidad en forma genérica sino sólo de inhibir la reproducción de determinados grupos considerados indeseables. • Esterilización de determinados grupos (“débiles mentales”, criminales, y algunos proponían agregar a los epilépticos, y a los “invertidos sexuales”). • Aborto eugenésico. No se trata del aborto considerado como prerrogativa o decisión individual y voluntaria, y la prédica de los eugenistas no estaba dirigida a lograr la despenalización, sino muy por el contrario, a lograr la reglamentarización y control efectivo para que el aborto estuviera indicado para los considerados indeseables. • Restricciones a la inmigración: una de las más extendidas ha sido la tendencia a controlar, restringir o tener una fuerte injerencia sobre la inmigración de determinados grupos humanos. Hacia mediados del siglo XIX los países de América, Australia, algunos africanos y algunos europeos como los estados balcánicos, países con escasa población en general y también escasa población calificada para las nuevas formas de la industria, comenzaron a generar legislación que favorecía a la inmigración a través de distintos mecanismos de promoción y ventajas. Con el correr de las décadas y a medida que la inmigración se iba concretando, comenzaron a desnudarse una serie de conflictos y a consolidarse el concepto de “defensa social”, entre otras cosas referido a la protección contra la inmigración de las razas y grupos inferiores, pero que también llegó a abarcar a los anarquistas. La Argentina, como no podía ser de otro modo, no escapó a la influencia generalizada del movimiento eugenésico de las primeras décadas del XX, aunque la versión local se desarrolló con particularidades propias y fue sostenida por grupos heterogéneos tanto en cuanto a la procedencia disciplinar como a la filiación ideológica. Abundan, en este sentido, los argumentos eugenésicos más liberales, como así también las encendidas defensas del fascismo y del nacional socialismo alemán. De cualquier modo, prevalece como agenda básica la preocupación por el perfeccionamiento de la raza en un contexto de problemas sanitarios a veces acuciantes como el alcoholismo, la tuberculosis y la sífilis, y problemas sociales generalizados como la higiene en la industria, la vivienda obrera o la delincuencia infantil. de grupos humanos, por medio del conocimiento científico y a través de la implementación de diversas políticas públicas. El segundo error consiste en considerar que la eugenesia es, básicamente, un fenómeno propio de la Alemania nazi, con algunas repercusiones circunstanciales y marginales en otros países. Es verdad que el nazismo ha exacerbado hasta límites horrorosos e incalificables los postulados eugenésicos, pero se trató de un fenómeno que se extendió prácticamente a todo el mundo. El tercer error, proviene del temor de algunos autores sobre una eugenesia actual, pensando en los diagnósticos prenatales sobre enfermedades del embrión, o sobre diagnósticos genéticos preimplantatorios que detectan posibles enfermedades hereditarias. Estos casos que a veces también suelen denominarse ‘eugenesia negativa’, no deben ser confundidos con la eugenesia positiva o selectiva. La “eugenesia actual” o negativa, se caracteriza por ser producto de decisiones privadas, individuales o familiares, sobre tratamientos terapéuticos, que se realizan con la finalidad de influir sobre la transmisión de características genéticas a la descendencia; actos voluntarios, es decir, por ser una decisión libre y voluntaria de los potenciales padres afectados; no discriminación de grupos o sectores de la población, es decir, prácticas que no están dirigidas a seleccionar grupos de población específicos, que pudieran resultar discriminados en sus derechos, si las medidas son aplicadas de modo coactivo. La eugenesia tal como se dio en las primeras décadas del siglo XX respondía a tres condiciones muy claras: pautas de selección de grupos raciales o de otro tipo bien definidas con la intención de que tal intervención tuviera incidencia evolutiva, se llevó a cabo a través de la implementación de políticas públicas y no se trataba, en principio, de acciones individuales voluntarias. Muchos autores consideran que la sociobiología humana es una forma aggiornada del darwinismo social. Aunque existen buenas razones para ello es conveniente hacer algunas precisiones no solamente porque el término ‘sociobiología’ puede utilizarse de más de una manera, sino también porque entre sus defensores también hay matices diferenciados. Tomado en un sentido amplio, algunos autores han identificado prácticamente sociobiología con determinismo biológico. Aquí ha sido tomado en un sentido mucho más restringido como la última versión del ‘determinismo biológico’ que se desarrolla a partir de los años ’70, y que, en virtud de que se basa en los éxitos de la genética molecular debería denominarse, de un modo más restringido: ‘determinismo genético’. La sociobiología es un programa de investigación que pretende utilizar la teoría de la evolución para dar cuenta de características significativas de índole social, psicológica y conductual en distintas especies; por lo tanto es una teoría del origen y la conservación de las conductas adaptativas por selección natural. Estas conductas deben tener una base genética, porque la selección natural no puede funcionar si no hay variación genética. En este sentido señalan similitudes y continuidades entre la conducta animal y la conducta humana (y muchas veces se antropomorfizan las conductas animales). Pretende estudiar las bases biológicas de todas las formas de comportamiento social, incluyendo el parentesco y la conducta sexual, partiendo de la selección natural y del concepto de eficacia inclusiva. La hipótesis central es que el comportamiento social de cualquier animal, incluido el hombre, expresa la tendencia a maximizar la eficacia inclusiva (es decir, a dejar el máximo número posible de descendientes), tomando en consideración las alternativas que ofrece la situación y los costos a afrontar. La evolución por selección natural requiere que las diferencias fenotípicas sean heredables. Así, por ejemplo la selección de la velocidad en carrera de algún animal que sea presa habitual de los predadores, por ejemplo la cebra, hará que la velocidad de carrera media aumente si y sólo si los progenitores más rápidos que la media poblacional tienden a transmitir a su descendencia este rasgo fenotípico. La teoría de la evolución sostiene que las diferencias genéticas entre los progenitores explica las diferencias de velocidad de los descendientes en la medida en que éstos heredan los genes de aquellos. Este esquema básico se mantiene cuando la sociobiología intenta explicar alguna característica conductual compleja, afirmando que la misma es resultado de la evolución por selección natural. Así, los sociobiólogos, por ejemplo, han intentado descubrir los fundamentos adaptativos y genéticos de la agresividad, el odio, la xenofobia, el conformismo, la homosexualidad, y hasta del ascenso social. M. Harris dice: “La sociobiología es una estrategia investigativa que procura explicar la vida social humana mediante los principios teóricos de la biología evolutiva darwiniana y neodarwiniana. Su finalidad es reducir los enigmas correspondientes al nivel sociocultural a enigmas que pueden resolverse en el nivel biológico de los fenómenos” (Harris, 1985, p. 187) Se considera en general como el inicio de la moderna sociobiología humana la publicación, en 1975, del libro de E. O. Wilson, Sociobiología: la nueva síntesis. En el último capítulo el autor desarrolla una serie de ideas polémicas sobre la aplicación de la sociobiología a la mente y la cultura humanas. En el campo de la sociobiología pueden distinguirse, básicamente, tres grupos deautores. En primer lugar aquellos que sostienen que los genes individuales o grupos de genes intervienen en el control de las diversas formas de comportamiento social humano; lograr su identificación es tan sólo cuestión de tiempo. Aunque los sociobiólogos afirman no compartir la tesis “un gen, un comportamiento”, en el fondo muchos de ellos parecen pensar realmente en la existencia de genes específicos. De hecho esta postura, la más ‘fuerte’ o extrema, es profundamente reduccionista y ha generado toda suerte de críticas. En las publicaciones de divulgación científica suelen proliferar artículos que defienden posiciones como esta. Dado que la sociobiología pretende basarse en la teoría sintética de la evolución, y habida cuenta que ésta considera que la variación genotípica y la fenotípica están correlacionadas, resultaría que la variedad de las culturas humanas sería una función de la variedad que subyace a la distribución de los genotipos74. En segundo lugar están las posiciones interaccionistas, que sostienen que el comportamiento humano representa una respuesta diferenciada a las presiones del genotipo y del ambiente. El mismo genotipo produciría, por tanto, conductas diferentes en ambientes diferentes; o bien, a partir de genotipos diferentes podrían originarse comportamientos semejantes a causa de presiones del entorno semejantes. La tarea de la sociobiología sería, según esta posición, más débil que la primera, determinar las predisposiciones adquiridas a través de la evolución. Por último, en tercer lugar, aquellos que sostienen que la maximización de la eficacia inclusiva no está vinculada con comportamientos concretos, controlados por genes, sino con la capacidad genérica de elaborar y emplear cultura, posible a causa del cerebro complejo, del largo proceso de maduración del organismo, rasgos que derivan de una filogénesis que ha recibido esa orientación a causa de las ventajas diferenciales que permitía. Los genes no producirían comportamiento alguno que pudiera asegurar su duplicación y pervivencia, sino un potencial susceptible de usar cualquier material para lograr ese resultado. El individuo tiene una libertad notable, pero siempre dentro de la búsqueda de la máxima eficacia inclusiva. 2.3. la marca en el cuerpo y la obsesión por la medida El siglo XIX marcó una tendencia a establecer como uno de los criterios fundamentales para la cientificidad de las teorías, las posibilidades y alcances de cuantificación y medición. Los estudios biológicos y antropológicos no han sido la excepción y con esta impronta comenzaron a surgir una serie de teorías científicas funcionales a los prejuicios racistas de la época. Este grupo de teorías pueden incluirse dentro del grupo del determinismo biológico. En verdad, la tendencia, de las cuales esbozaremos algunas versiones, ha sido generalizada y amplia, de modo que atravesó y signó toda una extensa época, cuyos inicios podemos ubicar hacia principios del siglo XIX, aunque quizá no podamos fechar su finalización, en la medida en que aun aparecen nuevas versiones algo más elaboradas. Pero, además de aquella tendencia generalizada hacia la medición y la cuantificación otro rasgo asociado define a las formas de determinismo biológico de principios del siglo XIX: la idea de la marca en el cuerpo, es decir esos rastros visibles que exponen, según se llegó a creer, clara e inequívocamente lo que los individuos son; marcas en el cuerpo, por otra parte que son las que deben medirse. Probablemente el clima de ideas que da sentido a esta forma de concebir lo científico sea el resultado de largos procesos que incluyen el éxito más que centenario de la física newtoniana, elevada a modelo de cientificidad a imitar por las otras ciencias, incluyendo las incipientes ciencias sociales, el triunfo de los ideales de la Ilustración del siglo XVIII, a lo que se agrega, en las primeras décadas del siglo XIX, los ideales positivistas que rescatan lo positivo de la observación y el dato por sobre lo negativo de la especulación. La gran cantidad de disciplinas y áreas de investigación que surgen en el siglo XIX llevan estas marcas a fuego. Hacia 1890, y una vez consolidada esta tendencia a la medición y a relacionarla con la superioridad racial, así se expresaba al antropólogo norteamericano D. C. Brinton: “(...) el adulto que conserva rasgos fetales, infantiles o simiescos es sin lugar a dudas inferior al que ha seguido desarrollándose (...) de acuerdo con esos criterios, la raza blanca o europea se sitúa a la cabeza de la lista, mientras que la negra o africana ocupa el puesto más bajo (...) Todas las partes del cuerpo han sido minuciosamente 74 Esta idea de la correspondencia uno a uno entre genes y fenotipos suele llamarse despectivamente “genética de saco de judías” y es criticada entre muchos otros por Gould (1981). examinadas, medidas y pesadas para poder constituir una ciencia de la anatomía comparada de las diferentes razas”. (citado en Gould, 1981 [1985,p. 111]) Una mirada amplia sobre las distintas formas teóricas que adquirió este afán de medir y de correlacionar las medidas del cuerpo con las jerarquías sociales podría permitir discriminar algunas modalidades básicas: la que se circunscribe a distintos tipos de mediciones y relaciones de medidas referidas al cerebro y al cráneo (las distintas versiones de la craneometría), la que amplía el espectro de mediciones a todo el cuerpo humano y comienza a tomar en cuenta otros rasgos actitudinales (la antropología criminal), la que efectúa mediciones, ya no sobre los aspectos anatómicos, sino sobre una cualidad humana esencial, la inteligencia, principalmente a través de los tests de Cociente Intelectual. El internacionalmente famoso médico estadounidense S. G. Morton (1785-1851), poligenista75, inauguró la craneometría con la intención de probar su hipótesis: “puede establecerse objetivamente una jerarquía entre las razas basándose en las características físicas del cerebro, sobre todo en su tamaño” (Citado en Gould, 1981 [1985,p.36]). Así, se dedicó por más de treinta años a coleccionar cráneos de distinto origen y a medir su volumen. Los resultados de la medición de más de mil cráneos no hacían más que ‘demostrar’ lo que se esperaba de ellos, es decir que la raza blanca era superior a la negra y a la de los indios norteamericanos. Las conclusiones de Morton respecto de la superioridad de la raza blanca por sobre las otras pueden ser objetadas porque adolecen de defectos técnicos, porque existe una gran cantidad de contraejemplos, pero, fundamentalmente, porque se basan en el falso presupuesto de que la medida del volumen craneano indica superioridad o mayor inteligencia (cf. Gould, 1981). Quizá el nombre más ilustre asociado a la craneometría sea el del médico francés P. Broca (1824-1880), quien adhiere a la tesis general: “En general, el cerebro es más grande en los adultos que en los ancianos, en los hombres que en las mujeres, en los hombres eminentes que en los de talento mediocre, en las razas superiores que en las razas inferiores (...) A igualdad de condiciones, existe una relación significativa entre el desarrollo de la inteligencia y el volumen del cerebro” (citado en Gould, 1981 [1985, p. 133]) Los trabajos de Broca contribuyen a diversificar las medidas y relaciones cuantitativas consideradas relevantes. Entre las técnicas utilizadas figuran: • pesar los cerebros en lugar de medir su volumen a través de la cavidad craneana. • obtención del índice craneano según la relación existente entre el largo del cráneo y el ancho, dando lugar a individuos dolicocéfalos –con cráneo alargado- y braquicéfaloscuyo cráneo no presentaba mayor diferencia entre largo y ancho-. Estos últimos eran considerados inferiores. La abrumadora cantidad de braquicéfalos que eran personas exitosas hizo que rápidamente se abandonara esta línea. • la proporción entre la parte anterior y posterior del cerebro, bajo el supuesto de que las facultades superiores de la inteligencia radican en el lóbulo frontal. Este tipo de mediciones está en la misma línea que las del ángulo facial. Broca sostuvo: “Un rostro prognático [proyectado hacia adelante], un color de piel más o menos negro, un cabello lanudo y una inferioridad intelectual y social, son rasgos que suelen ir asociados, mientras que una piel más o menos blanca, un cabello lacio y un rostro ortognático [recto], constituyen la dotación normal de los grupos más elevados en la 75 Una de las discusiones de la primera mitad del siglo XIX, se daba entre los que sostenían el origen único de la humanidad (los monogenistas) y los que por el contrario atribuían a la misma un origen múltiple (poligenistas). escala humana (...) Ningún grupo de piel negra, cabello lanudo y rostro prognático ha sido nunca capaz de elevarse espontáneamente hasta el nivel de la civilización” (citado en Gould, 1981 [1985, p. 45]) la ubicación del foramen magnum - orificio que se encuentra en el cráneo y por el cual se vincula la médula a la masa encefálica-: en los humanos este orificio se encuentra en la base del cráneo y está en relación directa con la posición erguida que mantienen. Por su parte en los mamíferos cuadrúpedos, también por su posición habitual se encuentra por detrás del cráneo. En los monos superiores, por su parte, se ubica en una posición algo más atrás que en los humanos. Siguiendo con el supuesto de que los negros estarían en una fase de desarrollo intermedia entre los monos superiores y el hombre, se intentó mostrar que también el foramen magnum se encontraba en una posición intermedia. Rápidamente se mostró que era una afirmación sin sentido. Otra línea de trabajo consistía en comparar los cerebros femeninos con los masculinos, con el previsible resultado de una diferencia en volumen y peso a favor de los hombres. Si bien estos autores eran conscientes de que la diferencia podía explicarse perfectamente por la proporción con el volumen del cuerpo en general, tendían a desechar tal explicación. Una de las formas peculiares que adoptó la obsesión por la medición constituye lo que se llamó ‘ángulo facial’, medida basada en la forma de la cabeza y que corresponde a la pendiente de la frente colocando el cráneo de perfil. El término y el concepto son muy antiguos, y parece (Cf. Chorover, 1979) haber sido introducido por un anatomista e historiador del arte holandés –P. Camper- quien señalaba que los escultores griegos habían incorporado a sus estatuas la idea de que las variaciones de la forma y estructura del cráneo eran prueba de la inteligencia. Señalaba que “la idea de estupidez es asociada, incluso con el alargamiento del morro (...)”. Y ya con criterios cuantitativos: • “Los dos extremos (...) de la línea facial humana son los 70 y los 100 grados, que, corresponden al negro y al antiguo griego respectivamente. Por debajo de 70 están los orangutanes y los monos, más bajo todavía, la cabeza del perro” (Citado en Chorover, 1979 [1985, p. 53]) Esta correlación entre el rasgo físico del ángulo facial y las jerarquías humanas basadas en la inteligencia fueron moneda corriente en el siglo XIX entre los naturalistas: “La raza blanca es la que conserva el tipo del primer hombre, su color es blanco, su rostro ovalado, su ángulo facial de ochenta y cinco, a noventa grados; su nariz generalmente es recta y grande, aguileña algunas veces; su boca hundida moderadamente, sus dientes bien colocados y verticales, por lo que su pronunciación es expedita clara y sonorosa. La raza blanca reúne toda la dignidad, hermosura, y regularidad de que carecen las demás razas”. (Riesco Le Grand, 1848, p. 145) La determinación del ángulo facial y su sustento teórico llevaron, y esto puede verse en muchos grabados del siglo XIX, a la exageración caricaturesca y completamente irreal de los perfiles de ciertos grupos humanos, básicamente los negros. Aunque mezclándose con otra serie de determinaciones, la medición del ángulo facial siguió siendo, en algunos ámbitos, un indicador racial y, obviamente, de jerarquías hasta bien entrado el siglo XX. 2.4. la metáfora de la relación ontogenia y filogenia Lo viviente implica desarrollo y éste incluye el desarrollo de los individuos por un lado, fenómeno reconocido desde la antigüedad y, teoría de la evolución mediante, el desarrollo de la especie y aun de las relaciones de ésta con especies emparentadas en el árbol de la vida. El desarrollo del primer tipo, el de los individuos, es denominado ‘ontogenético’, mientras que el del segundo tipo se llaman ‘filogenético’. Una metáfora recurrente y generalizada surge de utilizar como original la explicación ontogenética para dar cuenta de los desarrollos de largo plazo que bien podríamos denominar filogenéticos. Este es el proceso metafórico más común, pero también existe lo inverso, es decir, utilizar el conocimiento del desarrollo filogenético para dar cuenta del proceso ontogenético. En su excelente Cambio social e historia (1976), R. A. Nisbet analiza la metáfora del crecimiento, a la que considera, aplicada a las explicaciones históricas y sobre todo del cambio social, como la más antigua, trascendente y de mayor amplitud. Bajo la impronta de la metáfora del crecimiento, el cambio social y la historia misma no son meras modificaciones fortuitas o casuales- aunque puede incluir, de hecho, cambios de este tiposino que se trata de la naturaleza misma de la cosa puesta en movimiento. Hablar de ‘crecimiento’ implica otras condiciones o propiedades, tales como: • ‘direccionalidad’, por la cual el crecimiento no es cambio fortuito, sino que tiene una tendencia o configuración lineal en el tiempo • este movimiento direccional es ‘acumulativo’, vale decir que lo ocurrido en un momento dado es el resultado de lo que ha ocurrido en el pasado • el desarrollo tiene ‘fases’ que se dan en una secuencia determinada y que tienen entre sí una relación genética • el crecimiento o desarrollo tiene una ‘finalidad’ La analogía de la cual surge la metáfora del crecimiento aplicada al cambio cultural tiene su origen en lo viviente, en el desarrollo manifestado por los organismos. Según Nisbet esta metáfora atraviesa la historia de Occidente desde Heráclito hasta la actualidad, pasando por infinidad de autores de la diversa extracción cultural, ideológica e intelectual y lejos de ser una mera figura de dicción es “completamente inseparable de algunas de las más profundas corrientes en el pensamiento occidental acerca de la sociedad y el cambio”. La metáfora del crecimiento tiene su origen en la noción de physis griega, aunque a lo largo de los siglos ha adquirido ciertas configuraciones diferentes. Pero estas modificaciones al axioma inicial de los griegos, justamente se encuentra a la base del argumento de Nisbet acerca de la persistencia y fuerza de la metáfora. Aunque no necesariamente se deba compartir todo el contenido del excelente y exhaustivo análisis de Nisbet, sobre todo con respecto a la ubicuidad de la metáfora del crecimiento, de cualquier modo puede concederse la enorme influencia de las metáforas provenientes de lo viviente o de lo orgánico. Una metáfora muy influyente y generalizada de la biología de los últimos dos siglos es la que surge de sostener que la ontogenia repite la filogenia. Como ya se ha señalado, durante el siglo XIX el concepto de evolución dominó el pensamiento humano y la teoría darwiniana proporcionó una herramienta teórica formidable para avalar tales criterios. Entre las muchas derivaciones de la misma aparece la reinstalación por parte del zoólogo alemán E. Haeckel (1834-1919) de una vieja idea predarwiniana: la ontogenia recapitula la filogenia. Es decir que los individuos a lo largo de su desarrollo (ontogenia) atraviesan una serie de estadios que corresponden, en el orden correcto, a las diferentes formas adultas de sus antepasados. En suma, cada individuo recorre en forma acelerada la escala de su propio árbol de familia (filogenia) hasta sus antepasados más remotos76, que teoría de la evolución mediante, se remonta a otras especies que se hunden en el tiempo profundo de la vida en el planeta. Siendo Haeckel el defensor más conocido de la teoría de la recapitulación, ésta no obstante, proviene del siglo XVIII. El fisiólogo inglés J. Hunter (1728-1793) señalaba que “si nos pusiéramos a ordenar animales serialmente, de los imperfectos a los perfectos, probablemente encontraríamos un animal imperfecto que se correspondería con alguna fase del más perfecto”. La teoría de la recapitulación ha recorrido un largo camino y aunque bajo distintas formulaciones y especificaciones, se sostiene en la idea de que las mismas leyes que gobiernan la evolución de las especies son las que gobiernan la evolución de los embriones y de allí su cercanía estrecha con los desarrollos de la embriología. Muchos naturalistas de fines del XVII y primeras décadas del XVIII han suscripto alguna de las 76 Esta idea gozaba de una gran difusión. Una versión particular de la misma aparece por ejemplo en la explicación que ofrece S. Freud del origen del complejo de Edipo en algún episodio del pasado de la especie. formas de la recapitulación. Richards77 (1992) sostiene que hay una relación estrecha y una suerte de continuidad entre los esquemas embriológicos de la evolución y la idea, más moderna, de la evolución de las especies. En efecto, sostiene que habría una línea que, partiendo de la vieja teoría de la evolución con resonancias preformacionistas - el embrión es un adulto en miniatura de su propia especie- y pasando por la primera versión de la recapitulación -el embrión de los animales superiores pasa por etapas representadas por las formas adultas de animales inferiores existentes en ese mismo momento- llega a la teoría de la evolución de las especies: las formas adultas de las criaturas existentes han surgido de las formas de ancestros inferiores que ya no existen. Richards (1992) atribuye uno de los orígenes importantes de la teoría darwiniana de la evolución al principio general de la recapitulación. Es un hecho conocido que Darwin fue muy prudente al hablar de ’evolución’ y prefirió referirse a ella en otros términos tales como ‘descendencia con variación’, seguramente por algunas reservas sobre la filiación que atribuye Richards. Comenzaron a surgir una serie de analogías referidas a la superioridad o inferioridad racial, de modo que los adultos pertenecientes a grupos inferiores debían ser como los niños de los grupos superiores, porque el niño representa un antepasado primitivo adulto. Si los negros y las mujeres adultos son como los niños varones blancos, entonces vienen a ser los representantes vivos de un estadio primitivo de la evolución de los varones blancos. De hecho, todos los grupos –razas, sexos y clases- ‘inferiores’ fueron comparados con los niños varones blancos. El reconocido paleontólogo norteamericano E. D. Cope (1840-1897) utilizó el mecanismo de la recapitulación para identificar como formas inferiores a las razas no blancas, la totalidad de las mujeres, los blancos del sur de Europa (con relación a los del Norte) y las clases inferiores dentro de la raza blanca. La diferenciación entre las razas del norte y del sur de Europa, como veremos más adelante, era uno de los argumentos utilizados contra los que sostenían la superioridad de la ‘raza latina’. Un caso particularmente interesante de recapitulación, y de cómo las denominaciones científicas se construyeron al amparo de consideraciones racistas es lo sucedido con lo que hoy se conoce como ‘síndrome de Down’. El Dr. J. L. Down , en un artículo titulado “observaciones acerca de una clasificación étnica de los idiotas” publicado en 1866, consideró que algunos idiotas congénitos presentaban rasgos que no tenían sus padres clasificándolos como de ‘variedad etíope’, otros como de tipo ‘malayo’ y otros, en cambio eran ‘típicos mongoles’. Probablemente la forma que más repercusión social ha tenido de la idea de la recapitulación es la antropología criminal desarrollada por el médico y criminalista italiano Cesare Lombroso (1835-1909), a partir de la publicación, en 1876 de L’uomo delinquente. Lombroso elaboró su teoría del criminal nato, no sólo como una vaga afirmación del carácter hereditario del crimen- opinión bastante generalizada en la época por otra parte-, sino como una verdadera teoría evolucionista basada en datos antropométricos, sosteniendo que los criminales son tipos atávicos que perduran en los seres humanos78. Según Lombroso en la herencia humana yacen aletargados gérmenes procedentes de un pasado ancestral. En algunos individuos desafortunados, aquel pasado vuelve a la vida. Esas personas se ven impulsadas por su constitución innata a comportarse como lo harían un mono o un salvaje normales, pero en nuestra sociedad su conducta se considera criminal. Afortunadamente, sostiene Lombroso, podemos identificar a los criminales natos porque su carácter simiesco se traduce en determinados signos anatómicos. Su atavismo es tanto físico como mental, 77 Cf. el excelente ensayo de Richards (1992) para un rastreo exhaustivo de la idea de recapitulación, su relación con la embriología y la teoría de la evolución. 78 La teoría lombrosiana puede inscribirse en la línea que venimos analizando y reconoce otros antecedentes como el francés Moreau de Tours en cuyo trabajo La Psicología morbosa en sus relaciones con la filosofía de la historia sostiene que el cuerpo humano es como un gran libro abierto –retomando la metáfora bíblica, también usada por Galileo para referirse al Universo- que todos pueden leer y que basta con escudriñar bien y atentamente para descubrir en él, la fatal relación que habría entre los músculos, el sistema nervioso, las células cerebrales y el temperamento, las diferentes cualidades morales, la potencia intelectiva, el genio y el crimen. pero los signos físicos, o 'estigmas' son decisivos. La conducta criminal también puede aparecer en hombres normales, pero se reconoce al ‘criminal nato’ por su anatomía. La antropología criminal constituye un caso específico y prototípico de la marca en el cuerpo. Expresaba en L’uomo delinquente: “(...) aun los crímenes más horrendos e inhumanos tienen un punto de partida fisiológico, atávico, en esos instintos animales que, embotados por un cierto tiempo en el hombre por la educación, por el ambiente, por el miedo al castigo, vuelven pulular de golpe por el influjo de ciertas circunstancias” (citado en Gould, 1981 [1985, p. 135]) La teoría lombrosiana, más allá de derivar con el tiempo en herejías más o menos divergentes con la versión original, estableció durante décadas la agenda básica acerca del tratamiento de la delincuencia, instalando las discusiones y dispositivos de detección y control por fuera de la dimensión específicamente humana desplazando la atención al interior de la organización psicofísica individual, casi siempre coincidente, en la práctica, con una condición social baja. Por un lado la naturalización de la delincuencia o, en tal caso la ‘animalización’, requiere que se presente una versión antropomórfica y brutal de las especies animales que dicho sea de paso, contrasta claramente con algunas versiones actuales idílicamente ecologicistas de la naturaleza como el reino de la bondad y la armonía, y, por otro lado, el costado evolucionista requiere identificar la conducta criminal en los pueblos inferiores: “Así pues, Lombroso dedicó la primera parte de su obra más importante - El hombre criminal- a lo que hemos de considerar como la más ridícula muestra de antropomorfismo de que se tenga noticia: un análisis de la conducta criminal de los animales. Cita, por ejemplo, al caso de una hormiga cuya furia asesina la impulsa a matar y despedazar un pulgón; el de una cigüeña que, junto con su amante, asesinaba a su marido; el de unos castores que se asocian para asesinar a un congénere solitario; el de una hormiga macho que no tiene acceso a las hembras reproductoras y viola a una obrera, cuyos órganos sexuales están atrofiados, provocándole la muerte en medio de atroces dolores; llega incluso a decir que cuando el insecto come determinadas plantas, su conducta equivale a un crimen. A continuación Lombroso da el siguiente paso lógico: compara los criminales con los grupos inferiores. “Yo compararía -escribió uno de sus seguidores franceses- al criminal con un salvaje que, por atavismo, apareciese en la sociedad moderna; podemos considerar que nació criminal porque nació salvaje”. Para identificar la criminalidad como conducta normal en los pueblos inferiores, Lombroso se aventuró en el terreno de la etnología. Escribió un pequeño tratado sobre los Dinka del Nilo Alto. En él se refirió a los profundos tatuajes que éstos practicaban en su cuerpo, así como al elevado umbral de dolor que les permitía soportar pruebas como la rotura de los incisivos en la pubertad, realizada a golpes de martillo. Su anatomía normal exhibía una serie de estigmas simiescos: ‘su nariz (…) no sólo achatada, sino también trilobulada como las de los monos’.(...) Prácticamente todos los argumentos de Lombroso estaban construidos de forma que nunca pudiesen fracasar; por tanto, eran vacuos desde el punto de vista científico. Aunque mencionase abundantes datos numéricos para otorgar una aire de objetividad a su obra, ésta siguió siendo tan vulnerable que incluso la mayoría de los miembros de la escuela de Broca se opusieron a su teoría del atavismo. Cada vez que Lombroso se topaba con un hecho que no cuadraba con dicha teoría recurría a algún tipo de acrobacia mental que le permitiera incorporarlo a su sistema. Esta actitud es muy evidente en el caso de sus tesis acerca de la depravación de los pueblos inferiores, porque una y otra vez se encontró con relatos que hablaban del valor y la capacidad de aquellos a quienes quería denigrar. Sin embargo, deformó todos esos relatos para que cupiesen en su sistema”. (Gould, 1981 [1985, p. 120]) Lombroso estableció una verdadera tipología de los delincuentes a partir de mediciones de las distintas partes de los cuerpos, como por ejemplo el largo de los brazos y también de la capacidad craneana; de rasgos como la asimetría facial, o características del rostro. Estableció una gran cantidad de estigmas simiescos, que denotaban criminalidad innata: mayor espesor del cráneo, simplicidad de las suturas craneanas, mandíbulas grandes, precocidad de las arrugas, frente baja y estrecha, orejas grandes, ausencia de calvicie, piel más oscura, mayor agudeza visual, menor sensibilidad ante el dolor, y ausencia de reacción vascular (incapacidad de ruborizarse). En el Congreso Internacional de Antropología Criminal celebrado en 1896, llegó a sostener que los pies de las prostitutas suelen ser prensiles como en los monos. Incluso llegó a agregar otros signos de la criminalidad no propiamente antropométricos tales como las jergas que utilizan los criminales que, según Lombroso contenía una gran cantidad de voces onomatopéyicas, semejantes a las de los niños que ni hablan correctamente; también consideraba la presencia de tatuajes, reflejo tanto de la insensibilidad al dolor como del atávico gusto por los adornos presente en los delincuentes. Si bien Lombroso no atribuía todos los delitos a los criminales natos sostenía que éstos cometían alrededor del cuarenta por ciento de los mismos. Estas teorías han tenido una enorme influencia en la criminología y en la literatura jurídica internacional y no sólo como debate académico, sino también en la práctica jurídico-penal. Probablemente se trate de la versión antropométrica que más influencia y desarrollo ha tenido y el mismo Lombroso actuó como perito en varios juicios escribiendo después sobre uno de los delincuentes que le había tocado examinar: “(...) era, de hecho, el tipo exacto del criminal nato: mandíbulas enormes, frente abultada, arco cigomático, labio superior fino, incisivos enormes, cabeza más grande que lo habitual (1620 cm3), torpeza táctil junto con sensorial. Estaba condenado.” (citado en Gould, 1981 [1985, p. 135]) La influencia de Lombroso generó una nueva forma de concebir la pena. Mientras que para la escuela clásica del derecho penal, la pena debía ajustarse estrictamente a la naturaleza del crimen, Lombroso sostenía que la misma debía adaptarse al criminal. El objeto de estudio de Lombroso no era el crimen, entonces, sino el criminal y una vez identificado éste, el castigo administrado no resulta fundado tanto en la responsabilidad individual del sujeto que cometía el hecho, ya que esa conducta estaba condicionada y/o determinada biológicamente, sino en la necesidad de la comunidad de ’defenderse’. Así, era legítimo condenar a un criminal nato por un delito menor, dado que irremediablemente volvería a hacerlo y por tanto no tenía sentido insistir en su regeneración. Como contrapartida no tenía demasiado sentido condenar a un criminal ocasional dado que no volvería a delinquir. El fundamento de la pena, entonces, sería un requisito de la defensa social, más que castigo para el delincuente que, en definitiva era un enfermo. Un seguidor de Lombroso, Ferri, sostenía en el mismo sentido la ‘indeterminación de la sentencia’, es decir que las sanciones debían adaptarse a al personalidad del criminal por más que los criminólogos clásicos lo consideraran una herejía; las penas previamente estipuladas serían absurdas desde el punto de vista de la defensa de la sociedad. Es interesante señalar que las ideas de Lombroso admiten el doble juego de, por un lado estigmatizar ideológicamente a los supuestos delincuentes y por otro lado, prestar argumentos para suavizar las penas, sobre la base del carácter ‘natural’ del ‘instinto criminal’, por lo cual, algunos lombrosianos posteriores que ampliaron la determinación del delincuente hasta incluir los factores ambientales como la educación, contribuyeron a instalar la idea de la atenuación de las penas a propósito de las circunstancias atenuantes. S. Freud, por otra parte maestro de la metáfora en toda su obra, establece también, aunque en otro contexto y con otros objetivos, una relación en la cual la ontogenia repite la filogenia. Con referencia al tabú del incesto señala Freud: “Para poder vivir unidos en paz, los hermanos victoriosos renunciaron a las mujeres, a las mismas por las cuales habían muerto al padre, y aceptaron someterse a la exogamia. El poder del padre estaba destruido; la familia se organizó de acuerdo con el sistema matriarcal. La actitud afectiva ambivalente de los hijos hacia el padre se mantuvo en vigencia durante toda la evolución posterior. En lugar del padre se erigió determinado animal como tótem, aceptándolo como antecesor colectivo y como genio tutelar; nadie podía dañarlo o matarlo; pero una vez al año toda la comunidad masculina se reunía en un banquete, en el que el tótem, hasta entonces reverenciado, era despedazado y comido en común. A nadie se le permitía abstenerse de este banquete, que representaba la repetición solemne del parricidio, origen del orden social, de las leyes morales y de la religión.” (Freud, 1968, p.245). En la misma línea: “Aunque parezca que la renuncia instintual y la ética sobre ella basada no forman parte del contenido esencial de la religión, genéticamente, sin embargo, se hallan vinculados a ésta de la más íntima manera. El totemismo primera forma de religión que conocemos, contiene como piezas indispensables de su sistema una serie de preceptos y prohibiciones que, naturalmente, no son sino otras tantas renuncias instintuales: la adoración del tótem, que incluye la prohibición de dañarlo o de matarlo: la exogamia, es decir, la renuncia a la madre y a las hembras de la horda, apasionadamente deseadas ; la igualdad de derechos establecida para todos los miembros de la horda fraterna, o sea, la restricción del impulso a resolver violentamente la mutua rivalidad. En estos preceptos hemos de ver los primeros orígenes de un orden ético y social. No dejamos de advertir que aquí se manifiestan dos distintas motivaciones. Las dos primeras prohibiciones se ajustan al espíritu del padre eliminado, perpetúan en cierto modo su voluntad ; el tercer precepto, en cambio, el de iguales derechos para los hermanos aliados, prescinde de la voluntad paterna y sólo se justifica por la necesidad de mantener el nuevo orden establecido una vez eliminado el padre, pues sin aquél se habría hecho irremediable la recaída en el estado anterior. Aquí se apartan los preceptos sociales de los otros, directamente derivados de un sentido religioso, como bien puede afirmarse. Los elementos esenciales de este proceso se repiten en la evolución abreviada del individuo humano (resaltado mío). También aquí es la autoridad parental, especialmente la del todopoderoso padre con su amenazante poder punitivo, la que induce al niño a las renuncias instintuales, la que establece qué le está permitido y qué vedado. Lo que en el niño se llama «bueno» o «malo» se llamará más tarde, una vez que la sociedad y el super-yo hayan ocupado el lugar de los padres el bien o el mal, virtud o pecado; pero no por ello habrá dejado de ser lo que antes era: renuncia a los instintos bajo la presión de la autoridad que sustituye al padre y que lo continúa (Freud, 1968, p.250). 3. MISCELANEAS Ha quedado claro que en este trabajo no se ha pretendido establecer una taxonomía exhaustiva de las metáforas utilizadas en ciencia, por lo cual es natural que muchísimas de ellas, algunas de gran importancia en la historia del conocimiento, hayan quedado fuera del análisis o la mención. Existe una amplia variedad de metáforas en ciencia, cuyos objetivos son un tanto más modestos desde el punto de vista estrictamente teórico que los señalados hasta aquí, aunque no por ello menos efectivos. Se trata, en muchos casos, de metáforas no ocultas, es decir de metáforas que cumplen con el papel que tradicionalmente se les ha asignado: retórico, didáctico, estilístico. Dado que su carácter queda inmediatamente patentizado su uso queda legitimado al tiempo que no ocasiona menoscabo alguno al resto del texto, considerado no- metafórico para una epistemología estándar. Hay científicos que son maestros de la metáfora y tal es el caso de Darwin. En la sexta edición de El Origen de las Especies se sintió obligado a aclarar el sentido de la expresión ‘lucha por la vida’: “Utilizo este término en un sentido amplio y metafórico, que incluye la dependencia de un ser respecto de otro y, lo que es más importante, no sólo la vida del individuo, sino el éxito en dejar descendientes. De dos animales caninos en tiempo de escasez puede decirse verdaderamente que luchan entre sí para dirimir quién obtendrá alimento y vivirá. Pero de una planta en el límite de un desierto se dice que lucha por la vida contra le sequedad, aunque fuera más propio decir que depende de la humedad (...)” Se trata de una metáfora que en algunas de sus apropiaciones, sobre todo del lado de las ciencias sociales ha dado lugar a versiones gladiatorias y guerreras de la sociedad y sus relaciones. El proceso que han sufrido metáforas como estas, que por lo menos en principio se formularon sin otra vocación que ser metáfora en el sentido tradicional de lenguaje figurado, hacia apropiaciones y utilizaciones literales en áreas ajenas, resulta ser una muestra más del carácter fuertemente epistémico y cognoscitivo que tienen. En efecto, nada más claro que los desplazamientos y cambios de estatus de estas metáforas abiertas y francas que se convierten en su transcurrir diacrónico en versiones literales. Otra metáfora, que por otra parte no es original de Darwin, el ‘árbol de la vida’, muestra otra clase de proceso de apropiación metafórica en el cual el mismo concepto puede servir, en dos contextos diferentes, a teorías diferentes o incluso incompatibles. La metáfora del árbol de la vida le sirve a Darwin para ilustrar que la mayor o menor cercanía en ese árbol imaginario era indicativo del grado de parentesco entre las especies, y de la antigüedad en que, de algún antecesor común, surgieron las variedades que habrían dado lugar a las dos especies en cuestión. Recorrer ese árbol de arriba a abajo es ir desde la actualidad hasta el origen de la vida. Así se expresaba Darwin en las últimas páginas de El Origen : “Así como los brotes dan origen, por crecimiento, a nuevos brotes, y éstos, si son vigorosos, se ramifican y sobrepujan por todos lados, a muchas ramas más débiles, si también, a mi parecer, ha ocurrido en el gran árbol de la vida, que con sus ramas muertas y rotas llena la corteza terrestre y cubre su superficie con sus hermosas ramificaciones, siempre en constante bifurcación” La misma metáfora había sido usada por K. von Linne (1707-1778) en el siglo XVIII para clasificar a las especies según ciertos criterios de distinta índole. Habitualmente se sostiene, y con razón que Linne era un fijista, es decir que no creía en la evolución y entonces lee la metáfora del árbol de la vida de manera estática, sincrónica y poniendo el acento en el orden, la armonía y el sentido de la creación, mientras que la lectura darwiniana, diacrónica y genética, le otorga una significación completamente diferente79. En otro orden de cosas, es lo suficientemente conocido el episodio histórico en el cual N. Bohr adoptó, en 1913, el modelo del sistema solar copernicano, adopción que tras el éxito inicial comenzó a acusar serias limitaciones, que llevaron finalmente a W. Heisemberg a proponer pocos años más tarde la eliminación del uso de modelos representables del átomo. Dirac escribió en este sentido en 1930: “La tradición clásica consideraba al mundo como una asociación de objetos observables (...) Sin embargo, desde hace relativamente poco tiempo cada vez es más evidente que la naturaleza funciona de acuerdo con un plan diferente. Sus leyes fundamentales no gobiernan el mundo tal como aparece en nuestra imagen mental de un modo directo, sino que controlan un sustrato del que no podemos formarnos una imagen mental sin introducir irrelevancias” (Dirac, 1930, 25) Hacia fines del siglo XIX se dio una disputa entre C. Maxwell y Lord Kelvin a propósito de la representación del campo eléctrico, propuesta por el primero, sobre la base 79 Richards (1992) hace una lectura diferente e interesante, señalando que se ha considerado a Linneo como el paradigma de la biología esencialista y fijista, anclada firmemente en el aristotelismo y en la escolástica. Sostiene Richards que esto es así para las obras anteriores a 1753, pero en los escritos posteriores Linneo se habría ido alejando de los planteamientos escolásticos que, sin duda, estaban presentes con anterioridad: los géneros anteriores, propios de un sistema de clasificación descendente (que va de lo general a lo especial), habrían dejado paso a géneros posteriores, asociados a una vía de clasificación ascendente (que parte de las especies para construir los géneros); el sistema de denominación esencialista porfiriano habría resultado desbordado por la propia variedad de los especímenes y habría conducido a la nomenclatura binomial; por último, la tesis sobre el carácter primitivo y fijo de las especies habrían dejado paso a concepciones en las que la hibridación, gobernada por las leyes de la Naturaleza, sería la responsable de las especies actualmente presentes. En este sentido, habría un incipiente aporte a corrientes que desembocaron posteriormente en el evolucionismo del siglo XIX. de las propiedades de un fluido incompresible imaginario (éter). Tal debate se inscribe en la discusión más general referida al status ontológico de los referentes de los términos teóricos entre realistas e instrumentalistas. Así se expresaba en un principio Maxwell: “Por consiguiente el primer proceso del estudio efectivo de la ciencia tiene que ser de simplificación y reducción de los resultados de las investigaciones previas a una forma de inteligencia que pueda captarlas. Los resultados de tal simplificación pueden adoptar la forma de una fórmula puramente matemática o la de una hipótesis física: en el primer caso perdemos de vista enteramente el fenómeno a explicar, y, aunque podemos seguir las consecuencias de unas leyes dadas, no es posible jamás llegar a un panorama más amplio de las conexiones del asunto; si, por el contrario, adoptamos una hipótesis física vemos los fenómenos sólo a través de un medio, y estamos expuestos a la ceguera ante los hechos y el apresuramiento en las suposiciones que la explicación parcial tanto alienta. Por tanto, tenemos que descubrir algún método de investigación que permita a la mente asirse en todo momento a una concepción física clara sin comprometerse a ninguna teoría fundada en la ciencia física de la que se tome dicha concepción, de modo que ni se vea arrastrada lejos de su asunto en persecución de sutilidades analíticas ni llevada más allá de la verdad por una hipótesis favorita. (...) Al referir todo a la idea puramente geométrica del movimiento de un fluido imaginario espero alcanzar generalidad y precisión, y evitar los peligros que proceden de una teoría prematura que profese explicar la causa de los fenómenos (...) La sustancia de que aquí trato (...) no es siquiera un fluido hipotético que introdujese para explicar los fenómenos reales: es meramente una colección de propiedades imaginarias que puede emplearse para asentar ciertos teoremas de la matemática pura de modo más inteligible para muchas mentes y más aplicable a los problemas físicos que aquel en que sólo se usan símbolos 80 algebraicos” (citado en Black, 1962 [1966, p. 223]) Lord Kelvin, por su parte adopta una posición realista sobre el mismo problema: “Es preciso no escuchar insinuación alguna de que hayamos de considerar el éter luminífero como una manera ideal de exponer las cosas. Que hay una materia real entre nosotros y las estrellas más remotas eso es lo que creo, y que la luz consiste en movimientos reales de tal materia (citado en Black, 1962 [1966, p. 224]) Hay una profunda diferencia entre considerar al éter como algo conveniente y útil con fines heurísticos al modo de Maxwell y considerarlo como una ‘materia real’ al modo de Lord Kelvin. Una cosa es pensar como si tal entidad existiera y otra es sostener que efectivamente hay tal materia. Arriesgar afirmaciones sobre la existencia y no meramente ficciones heurísticas, representa una ventaja explicativa pero se expone a los peligros del engaño, tal como la historia posterior del éter ejemplifica suficientemente. En la actualidad se encuentran plenamente vigente una serie de metáforas sumamente potentes relacionadas con la biología y con los estudios sobre la mente. Las explicaciones acerca de la herencia se han convertido, a través del uso de modelos lingüísticos y de teoría de la información, en afirmaciones en las que aparecen conceptos tales como ‘información’, ‘mensajes’ y ‘código’. F. Jacob (1977) sostiene: “Estos mensajes sólo son de hecho un solo escrito (...) por la combinatoria de cuatro radicales químicos. Estas cuatro unidades se repiten por millones a lo largo de la fibra cromosómica: se combinan y permutan infinitamente como las letras de un alfabeto a lo largo de un texto del mismo modo que una frase constituye un segmento del texto, un gen corresponde a un segmento de la fibra nucleica” (Jacob, 1970 [1977,p. 23]) 80 Black señala que poco después Maxwell avanza mucho más hacia los compromisos ontológicos. En su trabajo sobre la acción a distancia habla del “maravilloso medio” que llena todo el espacio, y ya no mira las líneas de fuerza de Faraday como “concepciones puramente geométricas”: ahora dice sin ambages que “no hay que mirarlas como meras abstracciones matemáticas: son las direcciones en que el medio ejerce una tensión, parecida a la de una cuerda o. Mejor, a la de nuestros propios músculos”. Verdaderamente, ésta no es forma alguna de hablar acerca de una composición de propiedades imaginarias: el medio puramente geométrico se ha convertido en algo muy sustancial. La idea básica prevaleciente en la biología actual es que el desarrollo de organismos complejos depende de la existencia de información genética que al nivel de los genes puede copiarse mediante una especie de plantilla. Pero lo que se transmite de una generación a la otra es una lista de instrucciones para construir al individuo y el organismo se convierte en la realización de un programa prescrito por la herencia y que haya distintas clases de seres depende de distintas instrucciones escritas en los mismos tipos de caracteres. Maynard Smith se pregunta y responde: “¿Debemos pensar en un gen (es decir, una molécula de ADN) como una estructura que se replica, o bien como una información que se copia o se traduce?. En los organismos actuales un gen es ambas cosas. Por un lado hace de plantilla en la replicación génica, de modo que a partir de un único modelo se hacen copias idénticas. Si esto fuera todo, la molécula de ADN sería simplemente una estructura que se replica. Pero los genes también especifican los tipos de proteínas que una célula puede producir.” (Maynard Smith y Szathmary, 2001, p. 27) Fox Keller (1995) rastrea la relación entre genes y mensajes y sostiene que, hasta mediados del siglo XX prevaleció la analogía con la tecnología del telégrafo, que fue desplazada, hacia esa fecha, por la tecnología de la computadora, pero siempre bajo la lógica de la información. Una variante de la metáfora es la que insiste en ver a la mente como una computadora o también y como contraparte a la computadora como una mente. Se establece según la analogía mente/cerebro = software/hardware. Los desarrollos en inteligencia artificial se basan en esta metáfora81. En general no plantean que el comportamiento del cerebro se desarrolla según algoritmos deterministas sino con algoritmos que incluyen elementos estocásticos, con lo cual se salvan los aspectos que, al menos fenoménicamente aparecen como creativos o no provenientes de antecedentes identificables con facilidad. La historia de la filosofía, por su parte, está plagada de metáforas, algunas realmente maravillosas y memorables. Baste recordar la serie de fragmentos de Heráclito acerca del río o acerca del fuego. Platón, maestro de las metáforas ha dejado entre otras su alegoría de la caverna que se repite una y otra vez. El ‘giro copernicano’ a que se refiere Kant para dar cuenta de un nuevo enfoque acerca del conocimiento. El búho de Minerva que, según Hegel, levanta vuelo al atardecer. Las mónadas, sin ventanas para Leibniz, con ventanas para Husserl y tiradas en la calle para Heidegger. La tábula rasa de Locke. El Leviathan de Hobbes. El ‘contrato social’ de los contractualistas del siglo XVII en adelante. El ‘cuerpo político’. Los esfuerzos por explicar el estatus de la mente humana han dado lugar, también, a una amplia gama de metáforas en la filosofía. Así, se ha dicho que la mente es un recipiente, que se va llenando a lo largo de la vida con conocimientos; que es una red como la de las computadoras; o bien que es como un programa de computación; que es la manifestación de las metas y deseos de la sociedad; que es una especie de fantasma en una máquina. También la epistemología ha utilizado metáforas muchas veces, tales como la evolucionista de las últimas décadas. Pero, quizá la metáfora de uso más extendido en la epistemología de las últimas décadas, sea la de la ‘revolución científica’. El derrotero del concepto de ‘revolución’ puede mostrar, al modo de caso testigo, la gran agilidad y movilidad que algunas metáforas adquieren. Un brevísimo análisis de la génesis del concepto puede mostrarlo. Durante la edad Media y hasta el Renacimiento el significado principal de ‘revolución’ era astronómico: se refería a las revoluciones diarias observadas en las estrellas, el Sol, la Luna y los planetas. Pero, por esos años se pensaba que las revoluciones de los planetas regían los asuntos del Estado. Los grandes astrónomos fueron también grandes astrólogos, pero no ‘además’, sino como parte de un saber común no escindido. 81 Ursúa (1993) relaciona la idea del cerebro como una computadora con la epistemología evolucionista y con la Inteligencia artificial. Curiosamente, o quizá no tanto, lo que hoy llamamos ‘la Revolución Científica’ se inaugura con la publicación por parte de N. Copérnico, de De Revolutionibus Orbium Coelestium (Sobre las revoluciones de las esferas celestes). Pero ya hacia el Renacimiento y fundamentalmente en el siglo XVII ‘revolución’ comenzó a adquirir una gama de significados con matices diferentes. Se designaba de ese modo cualquier suceso periódico (o cuasi periódico) y, por añadidura comenzó a nombrar cualquier grupo de fenómenos que atraviesan un conjunto de etapas sucesivas como un ciclo, dando metafóricamente la idea de ‘completar el círculo’. Tanto al flujo y reflujo de las mareas, como al ascenso y caída de las civilizaciones se las llamaba ‘revoluciones’. Si bien todas estas acepciones están evidentemente relacionadas con el sentido original astronómico de giro o de circunferencia, aparece una primera gran transformación en el concepto en cuanto pasa de una utilización circunscripta sólo al comportamiento de los objetos celestes a asuntos relacionados con el quehacer, y la vida de los humanos. El término ‘revolución’ comienza, por esos tiempos, a incluir múltiples acepciones relacionadas con las ideas de ‘giro’, ‘rueda’, ‘rodar’, ‘ciclo’, etc.: “Una de las cartas más importantes de los tarocchi (tarot), los naipes utilizados por los adivinadores de fines de la edad Media y el Renacimiento, es la rota di fortuna o rueda de la fortuna. Se creía que la rotación de esa rota determinaba el destino de los hombres. es decir, dos tipos de ‘giro’ afectaban e incluso determinaban la vida de los hombres y la situación del Estado: la rotación de la rueda de la fortuna y la revolución de las esferas celestes. Tal vez , como sugiere H. Guerlac, el surgimiento de la palabra ‘revolución’ esté asociado con ambas, como se pone de manifiesto en la frecuencia con que aparece rivlouzione asociada con rota di fortuna. Aunque el giro de una rueda es cíclico, nada indica que al final del movimiento la rueda se encontrará en el mismo lugar donde lo inició. Por consiguiente, la rueda de la fortuna no implica un retorno o la finalización de un ciclo, como sucede con las revoluciones de las esferas celestes.(...) En el Renacimiento y los siglos XVI y XVII se asociaba la palabra ‘revolución’ con la idea de las evoluciones de la gran rueda del tiempo. Este concepto lejos de ser una metáfora intelectual, aparecía en imágenes y objetos físicos. En los relojes de los campanarios renacentistas se advertía la revolución continua de la aguja que señalaba el paso del tiempo. Otra imagen del paso del tiempo era el movimiento diario aparente de la esfera celeste con el Sol, la Luna y las estrellas. La rueda del tiempo también evocaba la traslación del Sol en su órbita anual aparente entre las estrellas fijas. La revolución diaria (que hoy se llama rotación) de la esfera celeste trae consigo el paso de la mañana al mediodía, a la tarde y a la noche en un ciclo cotidiano de 24 horas. (...) La cualidad significativa de estas revoluciones reside no sólo en que son cíclicas o repiten fenómenos sucesivos en el sentido de retornar, sino que en el transcurso de cada una se producen cambios dramáticos de gran importancia (el día y la noche, el invierno y el verano, etc.)” (Cohen, 1985 [1989,p. 65]) Pero el concepto de ‘revolución’ habría de sufrir otra gran transformación con la aplicación a los sucesos políticos, a propósito de las revoluciones modernas. “En la primera edición de la Encyclopaedia Britannica (1771) se dice que una revolución ‘en la política’ significa ‘un cambio importante o un vuelco en el gobierno’. Se añade que el término es utilizado ‘como ejemplo eminente’ para el ‘gran cambio en los acontecimientos de Inglaterra, en el año 1688, cuando el Rey Jacobo II abdicó del trono y el príncipe y la princesa de Orange fueron declarados rey y reina de Inglaterra, (...). La cuarta edición de la E. Britannica (1811) mencionaba cuatro revoluciones políticas: “la que se llama la revolución en Gran Bretaña (la Revolución Gloriosa de 1688) , la revolución americana, la revolución que tuvo lugar en Polonia a fines del siglo XVIII (por la cual Polonia quedó repartida entre Austria, Prusia y Rusia) y la revolución francesa, calificada como ‘la más extraordinaria de todas, sea por los hechos que la acompañaron como por las consecuencias que la siguieron”( Cohen, 1985 [1989, p. 60]) Consumadas estas grandes revoluciones ‘burguesas’, en el s. XIX ya se tiene conciencia de que ha habido, también, una ‘revolución industrial’ y la idea de revolución política comienza a estar indisolublemente vinculada a las reivindicaciones sociales y a una sensación de violencia asociada con el cambio rápido. Más allá de estas variantes el concepto de ‘revolución’ adquiere definitivamente la idea de ‘acto fundacional’ de procesos incompatibles con un estado anterior; de rupturas realizadas de un modo más o menos brusco; de inauguración de procesos nuevos. Todavía en los siglos XVI y XVII, convivían dos sentidos aparentemente opuestos de ‘revolución’: por un lado designaba el acto de atravesar las etapas de un ciclo que culmina en una situación idéntica o similar a otra anterior, o la continuación de ese ciclo; por el otro el proceso de flujo y reflujo que no necesariamente es periódico. De este conjunto de usos e implicaciones surgió gradualmente el concepto de revolución como cambios de gran magnitud no cíclicos. Sin embargo, el matiz de giro o vuelta, como ‘restauración’ de un estado anterior perdido, ha persistido: “(...) Desde la antigüedad se ha pensado que un mejoramiento radical significa el retorno a una situación pretérita, una Edad de Oro. La idea de que progresar significa volver atrás el reloj o el calendario está asociada con el concepto de la decadencia continua del mundo o de las condiciones de vida, un proceso que - según el pensamiento religioso de Occidente - se remonta al pecado original y la expulsión del hombre del paraíso”. (Cohen, 1985 [1989, p. 61]) En los pensadores políticos de la modernidad esta dialéctica de restauración inauguración adquiere una dinámica particular. El contenido revolucionario respecto del orden feudal, de la propuesta de pensadores como por ejemplo T. Hobbes (1588 - 1679), J. Locke (1632 - 1704) y J.J. Rousseau (1712 - 1788), entre otros, se fundaba en la igualdad ‘por naturaleza’ de los hombres. La burguesía en ascenso por esos años, desequilibra el ancienne regime disputándole la legitimidad de la soberanía a la nobleza, bajo la indicación de que si somos todos iguales la obediencia y sometimiento al soberano político es un acto de voluntad individual (el ‘contrato social’). Así, la construcción del estado civil o político debía respetar esa ‘naturaleza humana’ igualitaria. Esta concepción del hombre que nos parece tan natural, resultó revolucionaria por aquellos años en tanto se oponía al modelo clásico vigente. Modelo jerárquico y teleológico que básicamente afirmaba la desigualdad de los hombres por naturaleza y, consecuentemente, la ubicación de éstos en la escala social predeterminada por ‘nacimiento’. Prevalece el sentido de inauguración dado que la invocación a la ‘recuperación’ de una ‘igualdad natural’ no implica la vuelta a un estado histórico perdido. El ‘estado de naturaleza’ no es un momento histórico sino una ‘idea regulativa’, un ‘deber ser’ ahistórico. Remarquemos aquí dos conceptos: • el concepto de revolución política, en lo formal indica un cambio brusco, una ruptura respecto de lo anterior, la inauguración de un nuevo proceso • el caso particular de las revoluciones modernas se efectúa bajo el supuesto de la igualdad de los hombres. Esto se puede aplicar de un modo genérico tanto a las revoluciones burguesas de los siglos XVII y XVIII como los intentos revolucionarios ocurridos en la Europa del s. XIX, realizados en nombre del logro de una igualdad ‘real’ y material que completara la ya lograda igualdad formal y abstracta que fuera bandera de las revoluciones burguesas. Pero el concepto de ‘revolución’ ha sido también profusamente utilizado para dar cuenta de los cambios que se producen en el conocimiento científico, heredando el carácter de cambio brusco y fundacional que tiene en la política y, en general incluyen cambios en conceptos fundamentales, modificaciones radicales en las normas aceptadas y habituales de explicación, postulados y axiomas nuevos, nuevas formas aceptables de conocimiento y nuevas teorías. I. B. Cohen propone, desde el análisis histórico, dos tipos de criterios para determinar que se ha producido una revolución científica. El primero hace referencia a “las etapas sucesivas que integran una secuencia característica de todas las revoluciones en la ciencia”: la primera etapa (de la ‘revolución intelectual’ o ‘revolución en sí’) ocurre cuando un científico o grupo de científicos “elabora una solución novedosa para un problema o grupo de problemas importantes, descubre un nuevo método de utilización de la información, propone un nuevo marco de conocimiento que permite emplear la información existente de manera distinta, introduce un conjunto de conceptos que altera el carácter del conocimiento existente o propone una teoría nueva y revolucionaria”. Esta experiencia individual o privada, es registrada (y esta es la segunda etapa) en un diario íntimo o cuaderno. La tercera etapa, en la que se hace público el descubrimiento y que Cohen llama ‘revolución en los papeles’ consiste en la publicación de un paper, o una llamada telefónica a colegas, exposición en coloquios, etc. La cuarta y última (la “revolución en la ciencia”) acaece cuando la comunidad científica adhiere a la propuesta. Este último nivel de análisis corresponde a lo que suele llamarse ‘sociología de la ciencia’, tema en el que no nos adentraremos y que, per se, amerita un análisis exhaustivo y exclusivo. El segundo criterio es el del análisis histórico y requiere tener en cuenta: los juicios emitidos por observadores científicos y no científicos de la época; el examen de la documentación histórica vinculada con el tema y posterior a la época en que se produjo la presunta revolución; el juicio de los historiadores, sobre todo los de la ciencia y la filosofía; y, por ultimo, “la opinión de los especialistas de nuestros días (...) En este último tipo de testimonios se da gran importancia a la tradición científica viva, a la mitología que forma parte de la herencia de los científicos. Los mitos desempeñan un papel importante en la ciencia, análogo al que juegan en la sociedad en general, aunque pocos lo reconocen. Si bien los mitos sobre los héroes de la ciencia y sus presuntas revoluciones no constituyen pruebas históricas de sucesos del pasado, contienen en cambio, indicios sobre hechos de gran magnitud e influencia en el desarrollo de la ciencia. Las creencias de los científicos sobre su pasado refuerzan las pruebas aportadas por las tres primeras pruebas”. (resaltado mío) La formulación más fuerte del aspecto de radical novedad respecto de lo anterior de las revoluciones científicas aparece de la mano de T. Kuhn, por lo menos en su trabajo de 1962/69. El planteo de Kuhn apunta a mostrar que en el desarrollo de la ciencia los periodos de continuidad y acumulación se ven interrumpidos por bruscas rupturas: las ‘revoluciones científicas’. En esos momentos se produce un abandono de lo ya sabido y la inauguración de nuevas líneas de investigación de la mano de nuevos marcos conceptuales y así, los ‘paradigmas’ determinan qué tipos de preguntas y de respuestas contendrá la ciencia en cuestión. Con la adopción de un nuevo paradigma, las antiguas respuestas pueden dejar de ser importantes y hasta pueden volverse ininteligibles ya que: “(...) durante las revoluciones los científicos ven cosas nuevas y diferentes al mirar con instrumentos conocidos y en lugares en los que ya habían buscado antes. Es algo así como si la comunidad profesional fuera transportada repentinamente a otro planeta, donde los objetos familiares se ven bajo una luz diferente y, además, se les unen otros objetos desconocidos. (...)después de una revolución los científicos responden a un mundo diferente”. (Kuhn, 1962 [1992, p.67]) En el planteo kuhniano no solamente se desmorona la versión acumulativa, sino también la concepción de que ‘la verdad’ es la meta a la cual el conocimiento científico se acerca ‘asintóticamente’. Las revoluciones científicas se realizan a partir de rupturas respecto de lo que conocemos, y no hacia lo que desconocemos. La racionalidad así como la verdad en ciencia se construyen y reconstruyen históricamente. El concepto de revolución utilizado es de inspiración política, a tal punto que Kuhn sugiere algunas analogías entre los dos tipos de sucesos: “Las revoluciones políticas se inician por medio de un sentimiento, cada vez mayor, restringido frecuentemente a una fracción de la comunidad política, de que las instituciones existentes han cesado de satisfacer adecuadamente los problemas planteados por el medio ambiente que han contribuido en parte a crear. De manera muy similar, las revoluciones científicas se inician con un sentimiento creciente, también a menudo restringido a una estrecha subdivisión de la comunidad científica, de que un paradigma existente ha dejado de funcionar adecuadamente en la exploración de un aspecto de la naturaleza(...)” (otro paralelo más importante que el primero es que así como) “Las revoluciones políticas tienden a cambiar las instituciones políticas en modos que esas mismas instituciones prohíben. Por consiguiente, su éxito exige el abandono parcial de un conjunto de instituciones en favor de otro y, mientras tanto, la sociedad no es gobernada completamente por ninguna institución”, las revoluciones. científicas explican el mundo de un modo incompatible con el anterior que desplaza.”(Kuhn, 1962 [1992, p. 75]) 4. EPILOGO Aunque sea a modo de hipótesis de trabajo se ha mostrado que es posible compatibilizar algunas de las versiones más conspicuas de las gnoseologías evolucionistas con la consideración de la producción de metáforas como uno de los mecanismos básicos del conocimiento. Se trata en suma de la cuestión de ‘¿por qué hacemos metáforas?’. Si bien ha quedado sin respuesta clara y concluyente, puede sospecharse que una práctica tan corriente como la de producir metáforas debe constituir uno de los mecanismos más básicos de las funciones cognoscitivas y probablemente tenga un origen filogenético lo que, desde una perspectiva evolucionista, explicaría su éxito. Desde el punto de vista de la gnoseología evolutiva es posible defender la posibilidad de que las metáforas sean uno de los mecanismos fundamentales de producción de conocimiento y si bien la ciencia excede con mucho el nivel del sentido común no es implausible suponer que si el conocimiento como actividad humana se basa en buena medida en la producción de metáforas, también esa práctica se traslade a la producción de conocimiento científico. Es decir que, en tal sentido, podría considerarse la generación de analogías, de las cuales las metáforas serían un subconjunto, como una regla epigenética. La producción o detección de semejanzas sería un mecanismo cognoscitivo producto de la filogénesis humana, es decir un producto evolutivo. Se ha propuesto también una epistemología evolucionista en la cual la metáfora epistémica juega un papel central. La hipótesis básica es que puede defenderse una continuidad entre las gnoseologías y las epistemologías evolucionistas y que, en este contexto, las ‘metáforas epistémicas’ constituyen estructuras esenciales para la producción de conocimiento y pueden ser consideradas como unidades de selección para una aproximación evolucionista a la historia de la ciencia que pueda evitar los inconvenientes y objeciones que las epistemologías evolucionistas han suscitado. La perspectiva evolucionista de la historia de la ciencia, concibe a ésta como un proceso de selección de metáforas disponibles de distintos niveles de generalidad y procedencia. El problema de la metáfora tal como se lo ha tratado aquí, como toda perspectiva nueva parece venir a solucionar algunos problemas pero inaugura, además, una serie de preguntas y cuestiones nuevas. ¿Cómo funciona una metáfora?, es decir mediante qué mecanismos intelectuales alguien puede súbitamente establecer una analogía o comparación novedosa es una cuestión pertinente y relevante. La respuesta, parece, deberá provenir de consideraciones psicológicas y/o neurofisiológicas. O bien, ¿en qué condiciones una metáfora tiene éxito?, cuya respuesta implica cuando menos consideraciones sociológicas, antropológicas y también psicológicas. A los efectos de este trabajo no resulta necesario ninguna respuesta a la primera pregunta: basta con constatar que hacemos metáforas habitualmente. La segunda cuestión, en lo que aquí interesa, se refiere al análisis de las condiciones en las cuales, en la historia de la ciencia, una metáfora epistémica se instala y es reconocida. Se tratará de una constatación empírica de tal éxito en las circunstancias particulares y no de plantear la existencia de algún mecanismo general de apropiación y aceptación de las nuevas configuraciones que las nuevas metáforas inauguran. En la segunda parte se ha expuesto una cantidad de ejemplos o episodios de la historia de la ciencia en los cuales puede vislumbrarse una transferencia metafórica de un ámbito a otro del conocimiento. El panorama desarrollado no contempla la posibilidad de plantear una lectura ‘panmetafórica’ de la historia de la ciencia o de la práctica científica, pero muestra claramente que tampoco puede soslayarse la importancia fundamental de este tipo de procesos en la producción, legitimación y difusión del conocimiento. Los ejemplos que se han señalado en los capítulos 4 y 5 son una muestra de las metáforas exitosas, es decir aquellas que en una lucha por la supervivencia con otras metáforas posibles han salido airosas. Pero cada episodio citado podría por sí solo constituir el inicio de una investigación detallada sobre el proceso de transferencia de las metáforas epistémicas. Es algo que está por hacerse y por eso puede decirse, en términos algo pretenciosos quizá, que la virtud -o el demérito según se mire- del presente trabajo es la de iniciar un programa de investigación a partir de la reconsideración del papel de las metáforas en la producción y legitimación del conocimiento. La tarea que resta, y que no es poca, si es que el planteo desarrollado pretende convertirse realmente en un programa de investigación dentro de los estudios sobre la ciencia es analizar episodios de la historia de la ciencia de un modo diacrónico estableciendo de qué manera efectiva se han dado las disputas entre las metáforas candidato y principalmente contra qué otras metáforas han debido rivalizar para lograr el favor de la comunidad científica de su época. Un programa como el propuesto quizá pueda servir para tender un puente entre los estudios sobre la ciencia de la línea que pretende la reconstrucción racional de las teorías y la línea que, desconociendo la entidad de las reconstrucciones, pretende dar cuenta exhaustiva de la ciencia de manera meramente descriptiva. Un puente que se construya esquivando las deficiencias que ambas líneas han desnudado en las últimas décadas. El punto de vista evolucionista puede servir de categoría de análisis de la diacronía de la ciencia mientras que el concepto de metáfora epistémica puede constituir una categoría de los aspectos sincrónicos lo suficientemente flexible como para dar cuenta de los aspectos sumamente variados de la creatividad o la introducción de novedad en ciencia así como de las interrelaciones entre ciencia y sociedad. Es un hecho que hacemos metáforas. Y que no sólo hacemos muchas metáforas, sino que probablemente buena parte de nuestro lenguaje sea de naturaleza metafórica. Si esto es así y lo que se ha planteado a lo largo de los capítulos precedentes tiene algún sentido, es hora de reforzar la idea de que el saber y el conocimiento adquieren formas de expresión diferentes; habrá que comenzar a considerar que el Búho ya no se expresa en forma literal sino que es un verdadero búho travestido. En honor a la verdad es justo reconocer que la literatura también ha generado buenas metáforas a lo largo de los siglos, pero el hecho de que se las haya apropiado y monopolizado ‘ilegítimamente’ quizá deba ser revisado. Despues de todo, las metáforas de la ciencia no son menos bellas, y probablemente, incluso sean más ricas y potentes. BIBLIOGRAFIA Acero Fernández, J., (1990), Filosofía y análisis del lenguaje, Madrid, Cincel. Achard, P. et al (1977), Discours biologique et ordre social, París, Editions du Seuil. Versión en español: Discurso biológico y orden social, México, Nueva Imagen, 1989. Achinstein, P., (1968), Concepts of Science. A Philosophical Analysis, Baltimore, J.Hopkins. Adorno, T. et al (1969), Der Possitivismusstreit in der Deutsches Soziologie, Berlín, H. Luchterhand Verlag. Versión en español: La disputa del positivismo en la sociología alemana, Barcelona, Grijalbo, 1972. Agustí, J., (1994) La evolución y sus metáforas. Una perspectiva paleobiológica, Barcelona, Tusquets. Agustí, J., (1998), “La paradoja del progreso evolutivo”, en Wagensberg y Agustí, 1998. Alberch, P., (1998), “El concepto de progreso y la busqueda de teorías generales en la evolución”, en Wagensberg y Agustí, 1998. Albert, H., (1982), La ciencia y la búsqueda de la verdad, en Radnitzky y Anderson, 1982. Albizu, E., (1993), “Mundo como metáfora metafisica”, en Escritos de Filosofía Nº 23/24:Metáfora, Buenos Aires, Academia de Ciencias. Alexander, R., (1979), Darwinism and human affairs, Seattle, University of Washington Press. Versión en español: Darwinismo y asuntos humanos, Barcelona, Salvat, 1987. Aliseda-Llera, A., (1997), Seeking explanations: abduction in logic, philosophy and artificial intelligence, Ed. Propia. Althabe, G. Y Schuster, F., (1999), Antropologia del presente, Buenos Aires, EDICIAL. Althabe, G., (1999), “Hacia una antropologia del presente”, en Althabe y Schuster, 1999. Althabe, G., (1999), “Lo microsocial y la investigación antropológica de campo”, en Althabe y Schuster, 1999. Alvargonzález, D., (1996), “El darwinismo visto desde el materialismo filosófico”, El Basilisco, Nº 20, pp. 3-46. Apostel, L., (1987), “Evolutionary epistemology, genetic epistemology, history and”, en Callebaut y Pinxten, 1987. Arenas, L., Muñoz, J., Perona, J., (1997), El desafio del relativismo, Madrid, Trotta. Ares, F., (1996), “Evolución de la inteligencia y computadores”, en Molina (edit.), 1996. Aristóteles, (1990), Poética, Caracas, Monte Avila. Aristóteles, (2000), Retórica, Madrid, Alianza. Asúa, M. de (ed), (1993), La historia de la ciencia. Fundamentos y transformaciones, Buenos Aires, C.E.A.L. Ayala, F., (1987), La naturaleza inacabada, Barcelona, Salvat. Ayala, F., (1998), “Beyond darwinism? The challenge of macroevolution to the synthetic theory of evolution”, en Ruse, 1998. Ayala, F., (1998), “Teleological explanations”, en Ruse, 1998. Ayala, F., (1999), La Teoría de la evolución, Madrid, Temas de hoy. Ayer, A. (comp.) (1959), Logical Positivism, Glencoe, The Free Press. Versión en español: El positivismo lógico, México, FCE, 1965. Ayer, A., (1958), Language, Truth and Logic, Londres, V. Gollancz. Versión en español: Lenguaje, verdad y lógica, Buenos Aires, Eudeba, 1965. Bachelard, G., (1972), L’engagement rationaliste, París, Presses Universitaires de France. Versión en español: El compromiso racionalista, Madrid, Siglo XXI, 1998. Bacon, F., (1984), Novum organum, Madrid, Sarpe. Barlow, C. (ed), (1995), Evolution Extended, Massachusetts, MIT Press. Barnes, B., (1985), “El problema del conocimiento”, en Olivé (comp.), 1985. Barnett, S. et al (1962), Acentury of Darwin, Londres, Heineman Educational Books Ltd. Versión en español: Un siglo después de Darwin. 1. La evolución, Madrid, Alianza, 1966 . Bartley, W., (1982), “A popperian harvest”, en Levinson, P. (edit.), In pursuit oftrutuh: essays on the philosophy of Karl Popper on the ocassion of his 80th birthday, Atlantic Highlands, Nueva York, Humanities Press & Sussex, Harvester Press, 249-284 Bartley, W., (1987), “Philosophy of biology vs. philosophy of physics”, en Radnitzky y Bartley, 1987. Bartley, W., (1987), “Theories of rationality”, en Radnitzky y Bartley 1987. Basalla, G. (1988), La evolución de la tecnología, Barcelona, Crítica. Battistini, A., (2000) “El libro, el laberinto, la fábrica del mundo. Metáforas epistemológicas de la nueva ciencia de Galileo”, en Sevilla Fernández y Barrios Casares, 2000. Bauer, H.H. (1992), Scientific Literacy and the Myth of Scientific Method. Urbana, U. Illinois Press. Baynes, K., Bohman, J. y MacCarthy, Th., (1995), Philosophy. End or transformation?, Massachusetts, MIT Press. Bergmann, M., (1991), “Metaphorical assertions”, en Davis, 1991. Bethell, T., (1998), “Darwin's mistake”, en Ruse, 1998. Black, M., (1962), Models and metaphors, Ithaca, Cornell University Press. Versión en español: Modelos y metáforas, Madrid, Tecnos, 1966. Black, M., (1977), “More about metaphors”, Dialectica, 31; reimpreso en Ortony, (ed.), 1979. Bloor, D., (1985), “El programa fuerte en la sociología del conocimiento”, en Olivé. (comp.), 1985. Bloor, D., (1985), “La experiencia sensorial, el materialismo y la verdad”, en Olivé (comp.), 1985. Bloor, D., (1971), Knowledge and Social Imaginary, David Bloor. Versión en español: Conocimiento e imaginario social, Barcelona, Gedisa, 1998. Boido, G., (1993), “La polémica sobre el enfoque whig en la historia de la ciencia”, en Análisis Filosófico, Buenos Aires, SADAF. Boido, G., (1996), Noticias del planeta Tierra. Galileo Galilei y la revolución científica, Buenos Aires, AZ Editora. Bosch, G., (1930), “Los propósitos de la ‘Liga argentina de Higiene Mental”, en Revista de la Liga Argentina de Higiene Mental, Buenos Aires, Año 1, N° 1. Bradie, M., (1994), Epistemology from an evolutionary point of view, en Sober (edit), 1994. Bradie, M., (1997), “Una evaluacion de la epistemologia evolucionista”, en Martínez y Olivé, 1997. Brannigan, A., (1981), The social basics of scientific discoveries, Cambridge University Press. Burke, K., (1945), Grammar of motives, New Jersey, Prentice Hall. Burtt, E., (1925), The Metaphysical Foundations of Physical Science,Nueva York, Harcourt, Brace and Co. Versión en español: Los Fundamentos metafísicos de la ciencia moderna, Buenos Aires, Sudamericana, 1960. Bustos, E. de, (edit) (2001), La metáfora, Madrid, FCE. Bustos, E. de, García Bermejo, J., Pérez, (1994), Perspectivas actuales de lógica y filosofía de la ciencia, Madrid, Siglo XXI. Butterfield, H., (1993)“La interpretación Whig de la historia”, en de Asúa, 1994. Callebaut, W. y Pinxten, R. (edit) (1987), Evolutionary epistemology, Dordrecht, Reidel. Callebaut, W. y Pinxten, R., (1987), “Evolutionary epistemology today: converging views from philosophy, the natural and social sciences”, en Callebaut y Pinxten (edit) 1987. Campbell, D., (1987), “Blind variation and selective retention in creative thought”, en Radnitzky y Bartley (edit.) 1987. Campbell, D., (1987a), “Selection theory and the sociology of scientific validity”, en Radnitzky y Bartley (edit.) 1987. Campbell, D., (1997), “Epistemologia evolucionista”, en Martínez y Olivé, 1997. Campbell, N. R., (1920), Physics: the elements, Cambridge, Cambridge University Press. Canguilhem, G., (1966), Le normal et le pathologique, París, Presses Universitaires de France. Versión en español: Lo normal y lo patológico, Mexico, Siglo XXI editores, 1971. Carnap, R., (1928), Der logische Aufbau der Welt, Berlín, Weltkreis. Carnap, R. et al (1929), Wissenschaftliche Weltauffassung. Der Wiener Kreis, Viena, A. Wolf Verlag. Versión en español: “La Concepción Científica del mundo: el Círculo de Viena”, REDES, Vol.9, N° 18, PP. 103-149, Buenos Aires, Universidad Nacional de Quilmes, 2002. Carnap, R., (1965), “La antigua y la nueva lógica”, en Ayer. (comp.), 1959. Carnap, R., (1965a), “La superacion de la metafisica mediante el analisis lógico”, en Ayer (comp.), 1959. Carnap, R., (1965b), “Psicologia en lenguaje fisicalista”, en Ayer (comp.), 1959. Carnap, R., (1966), Philosophical Foundations of Physics, Nueva York, Basic Books. Versión en español: Fundamentación lógica de la física, Barcelona, Hispamérica, 1985. Castrodeza, C., (1989), Ortodoxia darwiniana y progreso biológico, Madrid, Alianza. Castrodeza, C., (1999) Razón biológica. La base evolucionista del pensamiento, Madrid, Minerva ediciones. Chorover, S. L., (1979), From Génesis to genocide, Nueva York, MIT. Versión en español: Del génesis al genocidio, Buenos Aires, Editorial Orbis S.A, 1985. Ciampi, L., (1922), “La doctrina eugénica y la infancia anormal”, Revista de filosofía, cultura, ciencias y educación, Buenos Aires, Vol. 16, N° 4, pp. 110-132. Clagett, M., (1959), The Science of Mechanics in the Middle Ages, Madison. Clark, A., (1987), “The philosophical significance of an evolutionary epistemology”, en Callebaut y Pinxten (edit) 1987. Cohen, I., (1960), The Birth of a New Physics,Nueva York, Doubleday and Co. Versión en español: El nacimiento de una nueva física, Buenos Aires, Eudeba,1971. Cohen, I., (1985), Revolution in Science, Cambridge, Harvard University Press. Versión en español: Revolución en la ciencia, Barcelona, Gedisa, 1989. Cohen, I., (1995), Interactions, Massachussets, MIT Press. Collins, H.M., (1974), “The TEA set: tacit knowledge and scientific networks”, Science Studies, Vol. 4, pp. 165-185. Collins, H.M., (1983), “The sociology of scientific knowledge: studies of contemporary science”, Annual Review of Sociology, Vol. 9, pp. 265-285. Cordero, A., (1997), “Las ideas evolucionistas y el naturalismo contemporáneo”, en Martínez y Olivé, 1997. Creath, R. y Maienschein, J., (2000), Biology and epistemology, Cambridge, Cambridge University Press. Crombie, A. C., (1952), From Augustine to Galileo, Londres. Versión en español: Historia de la ciencia: de San Agustín a Galileo, Madrid, Alianza, 1974 Danesi, M., (1990), “Thinking is seeing: visual metaphors and the nature of abstract thought”, Semiótica, 80, pp. 221-237 Danesi, M., (1993), Vico, metaphor and the origin of language, Indiana University Press, Bloomington. Danesi, M., (1998), Sign, thought and culture: a basic course in semiotics, Canadian Scholars Press, Toronto. Danesi, M., (2000), “La metáfora y la formacion de los conceptos abstractos”, en Sevilla Fernández y Barrios Casares (edit.) 2000. Darwin, Ch., (1859), On the Origin of Species by Means of natural Selection or the Preservation of the favored Races in the Struggle for Life, Londres, J. Murray. Versión en español: El Origen de las especies, Barcelona, Planeta De Agostini, 1985. Darwin, Ch., (1871), Descent of man, Londres, J. Murray. Versión en español: El origen del hombre, Madrid, Edaf, 1994. Darwin, F. (ed.), (1892), The Autobiography of Charles Darwin and Selected Letters, Londres, J. Murray. Versión en español: Autobiografia y cartas escogidas, Madrid, Alianza,1997. Davidson, D., (1984), Inquiries into Truth and Interpretation, Oxford, Clarendon (reimpreso en Davis, S., 1991). Versión en español: De la verdad y de la interpretación, Barcelona, Gedisa, 1995. Davis, S., (1991), Pragmatics, N.Y, Oxford Univ. Press. Dawkins, R., (1988), The Selfish Gene, Oxford, Oxford University Press. El gen egoísta, Barcelona, Salvat, 1993. de Bustos, E., (2000), La metáfora, Madrid, FCE. De Coorebyter, V. (ed) (1994), Rhetoriques de la Science, París, PUF. de La Mettrie, 1981), L’Homme machine, Denoel Descartes, R. (1967), Obras escogidas, Buenos Aires, Edit Sudamericana di Trocchio, F., (1993), Le bugie della scienza. Perché e come la scienzati imbrogliano, Milan, A.Mondadori Ed. Versión en español: Las mentiras de la ciencia, Madrid, Alianza, 1995. Dieguez, A., (2002), “Realismo y epistemología evolucionista de los mecanismos cognitivos”, Crítica, Vol. 34, N° 102, pp. 3-28. Diez, J. y Lorenzano, P. (edit) (2002), Desarrollos actuales de la metateoria estructuralista: problemas y discusiones, Buenos Aires, Universidad de Quilmes. Diez, J. y Lorenzano, P., (2002a), “La concepción estructuralista en el contexto de la filosofía de la ciencia del siglo XX”, en Diez y Lorenzano (edit), 2002. Diez, J. y Moulines, C. U., (1997), Fundamentos de filosofía de la ciencia, Barcelona, Ariel. Dirac, P. A.M., (1930), The principles of quantum mechanics, Oxford, Clarendon Press Dosi et al, (1994), “The dynamics of international differentiation: a multi-country evolutionary model”, Industrial and Corporate Change,Vol. 3, N° 1. Duhem, P. (1954), La theorie physique, son objet, sa structure, París, M. Riviere. Durkheim, E., (1993), La división del trabajo social, Barcelona, Planeta Agostini. Estany, A., (1993), Introducción a la filosofía de la ciencia, Barcelona, Crítica. Estany, A., (1994), “Papel de las tipologías en la explicación de la dinámica científica”, en Bustos, García Bermejo, y Pérez, 1994. Falguera, J.L., (1993), “El enredo de los modelos en los análisis de las ciencias factuales”, ÁGORA 12/2, 171-178. Farré, M., (1919), “Degeneración y regeneración de la raza”, en La Semana Médica, Buenos Aires, Año XXVI, N° 30, pp. 77-99. Fleck, L., (1986), La génesis y el desarrollo de un hecho científico, Madrid, Alianza. Feyerabend, P., (1970), Against Method: Outline of an Anarchistic Theory of Knowledge, Minnesota Studies in the Philosophy of Science, vol. IV. Versión en español: Contra el método, Barcelona, Planeta Agostini, 1993. Feyerabend, P., (1975), Against Method, Londres, NLB. Versión en español: Contra el método, Madrid, Planet Agostini,1995. Flichman, E., (1985), “Causación y antropomorfismo”, Buenos Aires, SADAF. Fox Keller, E., (1995), Refiguring Life Metaphors ofTwentieth-Century Biology, Nueva York, Columbia University Press. Versión en español: Lenguaje y vida. Metáforas de la biología en el siglo XX, Buenos Aires, Manantial, 2000. Frege, G., (1879), Begriffsschrift, eine der arithmetischen nachgebildete Formel sprache des reinen Denkens Versión en español: Conceptografía. Los fundamentos de la aritmética, México, UNAM, 1972. Freud, S., (1968), “Moisés y la religión monoteísta”, en Obras completas , Vol. III, pp.244271, Madrid, Biblioteca Nueva. Fuller, S. (1993), Philosophy, Rhetoric and the End of Knowledge. Madison, U. Wisconsin Press. Galileo Galilei, (1981), El ensayador, Buenos Aires, Aguilar Galileo Galilei, (1996), Dos nuevas ciencias, Barcelona, Planeta. Galton, F., (1883), Inquiries into human faculty and its development, Londres, Macmillan. Galton, F., (1884), Hereditary genius, Nueva York, D. Appleton. Gianella, A. (1995), Introducción a la epistemología y a la metodologia de la ciencia, La Plata, Universidad de La Plata. Gómez, R., (1993), “Kuhn y la racionalidad científica. ¿Hacia un kantianismo postdarwiniano?”, Buenos Aires, C.E.A.L. Gómez, R., (1995), Neoliberalismo y seudociencia, Buenos Aires, Lugar editorial. González Asenjo, F., (1993), “Ontologia formal de la metáfora”, en Escritos de Filosofía Nº 23/24: Metáfora, Buenos Aires, Academia de Ciencias. González García et al, (1996), Ciencia, tecnología y sociedad. Una introducción al estudio social de la ciencia y la tecnología, Madrid, Tecnos. Goodman, N., (1968), The Languages of Art, Indianapolis, Bobbs-Merrill. Versión en español: Los lenguajes del arte, Barcelona, Seix Barral, 1976. Gould, S., (1980), The Panda’s Thumb, Nueva York, H. Blume Ed. Versión en español: El Pulgar del panda, Buenos Aires, Hispamérica, 1986. Gould, S. J., (1981), The Mismeasure of Man, Nueva York, Norton. Versión en español: La falsa medida del hombre, Buenos Aires, Editorial Orbis S.A., 1985. Gould, S., (1987), Time’s Arrow. Time’s Cycle. Myth and Metaphor in the Discovery of Geological Time, Cambridge; Harvard University Press. Versión en español: La flecha del tiempo, Madrid, Alianza, 1992. Gould, S., (1993), “La rueda de la fortuna y la cuña del progreso”, en Preta (edit) 1993. Gould, S., (1998), “Sociobiology”, en Ruse, 1998. Grasa Hernández, R., (1986), El evolucionismo: de Darwin a la sociobiología, Madrid, Cincel. Grassi, E., (2000), “¿Preeminencia del lenguaje racional o del lenguaje metafórico? La tradición humanista”, en Sevilla Fernández y Barrios Casares, 2000. Grice, H.. P., (1989), Studies in the way of words, Cambridge; Harvard University Press Gross, A.G., (1990), The Rhetoric of Science, Cambridge, Massachusetts, Harvard Unievrsity Press. Gruber, H., (1974), Darwin on Man. A Psychological Study of Scientific Creativity, Gruber y Barret. Versión en español: Darwin sobre el hombre. Un estudio psicologico de la creatividad, Madrid, Alianza, 1984. Gutierrez Lombardo et al (1999), Estudios en historia y filosofía de la biología, México, Centro de Estudios Filosófico Politicos y Sociales VLT. Habermas, J., (2001), Die Zukunft der menschlichen Natur. Auf dem Weh su einer liberalen Eugenik?; Francfort del Meno, Suhrkamp Verlag. Versión en español: El futuro de la naturaleza humana.¿Hacia una eugenesia liberal?, Barcelona, Paidos, 2002. Hacking, I., (1981), Scientific Revolutions, Oxford, Oxford University Press. Versión en español: Revoluciones científicas, México, FCE, 1985. Hall, A. R. (1954), The Scientific Revolution, 1500-1800: the Formation of the Modern Scientific Attitude, Londres, Longmans, Green and Co. Hanson, N. R., (1958), Patterns of Discovery, Cambridge, Cambridge University Press. Harris, M., (1985), El desarrollo de la teoría antropológica, Mexico, Siglo XXI. Harvey, B. (1981), “Palusibility and the evaluation of knowledge:a case study of experimental quantum mechanics”, en Collins (ed), Knowledge and controversy. Special Issue of social studies of science, Vol. 2 Harvey, B. (1981a), “The effects of social context of the process of scientific investigation: Experimental test of quantum mechanics, en Knorr Cetina, Krohn & Whitley (eds.),The social process of scientific investigation, Dordrecht, Reidel Harvey,W., (1628), Versión en español: De Motu Cordis, Buenos Aires, Eudeba, 1970 Heisenberg, W., (1959), Fisica y filosofía, Buenos Aires, Ed. La Isla. Heisenberg, W., (1955), Das Naturbild der heutigen Physik, Hamburgo, Rowohlt Verlag. Versión en español: La imagen de la naturaleza en la física actual, Madrid, Hyspamérica, 1985. Hempel, C., (1953), “The Logic of Explanation”, en Readings in the Philosophy of Science, Nueva York, Appleton-Century-Crofts, pp. 330-340. Hempel, C., (1959), Versión en español: “Problemas y cambios en el criterio empirista de significado”, en Ayer, 1959. Hempel, C., (1966), Philosophy of Natural Science, Nueva Jersey, Prentice-Hall. Versión en español: Filosofía de la ciencia natural, Madrid, Alianza, 1973. Hernandez, V. Y Filippa, A., (1999), “La ciencia y sus contextos”, en Althabe y Schuster, (1999). Hesse, M. (1966), Models and Analogies in Science, Notre Dame, University of Notre Dame Press. Hesse, M., (1985), “La tesis fuerte de la sociología de la ciencia”, en Olivé (comp.), 1985. Hidalgo, C., (1999), “Comunidades científicas: los antropólogos enfocan la ciencia”, en Althabe y Schuster, 1999. Hierro Pescador, J., (1997), Principios de filosofía del lenguaje, Madrid, Alianza. Hobbes, T. (1651), Leviathan:or the Matter, Form and Power ofa Commonwealth Ecclesiastical and Civil. Versión en Español: Leviatán, Barcelona, Altaya, 1995 Hoffman, R., (1985), “Some implications of metaphor for the pshilosophy and psycholgy of science”, en Paprotté y Dirven (eds), 1985. Holton, G., (1973), Thematic origins of Scientific Thought: Kepler to Einstein, Cambridge, Harvard University Press. Holton, G. (1978), The Scientific Imagination: Case Studies, Cambridge, Cambridge University Press. Holton, G., (1993), “Pensar imaginando”, en Preta (edit), 1993. Horowitz, I., (comp.) (1969), Historia y elementos de la sociología del conocimiento, Buenos Aires Eudeba. Hull, D., (1997), "Un mecanismo y su metafisica: una aproximacion evolucionista", en Martínez y Olivé, 1997. Hull, D., (1998), "Progreso panglosiano", en Wagensberg y Agustí, 1998. Hull, D., (2000), “Why did Darwin fail? The role of John Stuart Mill”, en Creath y Maienschein, 2000. Hume, D., (1974), Tratado de la naturaleza humana, Buenos Aires, Paidós. Hume, D., (1983), Investigación sobre el entendimiento humano, Madrid, Alianza. Hurtado de Mendoza, D. y Drewes, A. (2003), Tradiciones y rupturas. La historia de la ciencia en la enseñanza, Buenos Aires, J. Baudino Ediciones. Huxley, J., y Kettlewel, H., (1965), Darwin and his World, Londres, Thames and Hudson. Versión en español: Darwin, Barcelona, Salvat,1984. Huxley, T., (1998), “Evolution and ethics”, en Ruse, 1998. Ibarra y Mormann (1997), Representaciones en la ciencia, Barcelona, Ediciones del Bronce. Jacob, F., (1970), La logique du vivant. Une histoire de l’heredité, París, Editions Gallimard. Versión en español: La Lógica de lo viviente, Barcelona, Laia, 1977. Jacob, F. (1974), “Le modèle linguistique en biologie”, Critique, N° 322, pp. 197-205. Jacob, F., (1981), Le jeu des possibles, París, Librairie Artheme Fayard. Versión en español: El Juego de lo posible, Barcelona, Grijalbo, 1982. Jacob, F., (1997), La souris, la mouche et l’homme, parís, Editions Odile Jacob. Versión en español: El ratón, la mosca y el hombre, Barcelona, Drakontos, 1998. James, W., (1907), Pragmatism: a New Name for Some Old Ways of Thinking. Versión en español: Pragmatismo, Madrid, Sarpe, 1984. Kant, I., (1991), Crítica de la Razón Pura, México, Porrúa. Kim, J., (1990), "Mecanismo, propósito y exclusión explicativa", Buenos Aires, SADAF. Kim, J., (1994), "What is naturalized epsitemology?", en Kornblith, 1994. Kim, J., (1995), "El mito del materialismo no reduccionista", Buenos Aires, SADAF. Kitcher, P., (1993), The advancement of science, Nueva York, Oxford Univ Press. Kitcher, P., (1994), "A priori knowledge", en Kornblith, 1994. Klimovsky, G. y Nudler, O. (edit), (1993), La Racionalidad en debate, Buenos Aires, C.E.A.L. Knorr Cetina, Krohn & Whitley (eds.) (1981), The social process of scientific investigation, Dordrecht, Reidel. Knorr Cetina, K. (1987), “Evolutionary epistemology and sociology of science”, en Callebaut y Pinxten, 1987. Koestler, A. (1964), The Act of Creation, Nueva York, Penguin Books. Koestler, A., (1959), The sleepwalkers, Londres, Hutchinson Publishing Group. Versión en español: Los sonámbulos, Barcelona, Salvat, 1986. Kolakowski, L., (1966), Die Philosophie des Positivismus, Warszawa, PanstwoweWydawnictwo Naukowe. Versión en español: La filosofía positivista, Madrid, Cátedra, 1988. Kornblith, H., (1984b), “Beyond foundationalism and the coherence theory”, en Kornblith, (comp.) 1994. Kornblith, H., (1994a), “Introduction, What is naturalistic epsitemology”, en Kornblith, (comp.) 1994. Kornblith, H., (comp.) (1994), Naturalizing epistemology, Massachusetts, MIT Press. Koyre, A., (1939), Etudes galileennes, París, Herman y Cie. Versión en español: Estudios galileanos, México, Siglo XXI, 1998. Kuhn, T., (1957), The Copernican Revolution. Planetary Astronomy in the Development of Western Thought, Cambridge, President andfellows of Harvard College. Versión en español: La revolución copernicana, Madrid, Planeta Agostini, 1994. Kuhn, T., (1962-1970), The Structure of Scientific Revolutions, Chicago, University of Chicago Press. Versión en español: La estructura de las revoluciones científicas, México, FCE, 1992. Kuhn, T., (1977),The essential Tension, Chicago, University of Chicago Press. Versión en español: La Tensión esencial, México, FCE, 1988. Kuhn, T., (1979), “Mepahor in Science”, en Ortony, 1979. Kuhn, T., (1981), What are the Scientific Revolutions?, Cambridge, MIT Press. Versión en español: ¿Qué son las revoluciones científicas?, Barcelona, Altaya, 1994. Kuhn, T. (1990), “The Road since Structure”, PSA, Vol. 2. Lakatos, I., (1968), Criticism and the Methodology of Scientific Research, Proceedings of the Aristotelian Society, 69, pp. 149-186. Versión en español: La Falsación y la metodologia de los programas de investigación cientifica, Barcelona, Grijalbo, 1975. Lakatos, I., (1970), History of Science and its Rational Reconstructions, PSA, pp.91-135, East Lansign. Versión en español: Historia de la ciencia y sus reconstruciones racionales, Madrid, Tecnos, 1982. Lakatos, I., (1976), Proofs and refutations. The Logic of Mathematical Discovery, Cambridge, Cambridge University Press. Versión en español: Pruebas y refutaciones, Madrid, Alianza, 1994. Lakatos, I. y Musgrave, A., (edit.) (1970), Criticism and the Growth of Knowledge, Cambridge, Cambridge University Press. Versión en español: La crítica y el desarrollo del conocimiento, Barcelona, Grijalbo, 1975. Lakoff, G. y Johnson, M., (1980), Metaphors we Live by, Chicago, University ofChicago Press. Versión en español: Metáforas de la vida cotidiana, Madrid, Cátedra, 1998. Lakoff, G. y Johnson, M., (1999) Philosophy in the Flesh. The embodied mind and its challenge to western thought, Basic Books, New York. Lakoff, G., (1987), Women, fire and dangerous things: what categories reveal about the mind, Chicago, University of Chicago Press. Lamo de Espinosa, E., et al, (1994), La sociología del conocimiento y de la ciencia, Madrid, Alianza. Latour, B. y Woolgar, S., (1979), Laboratory Life: the Social Construction of Scientific Facts, Hollywood, Sage. Versión en español: La Vida en el laboratorio, Madrid, Alianza, 1995. Latour, B., (1987), Science in Action, Cambridge, Harvard University Press. Versión en español: Ciencia en acción, Barcelona, Labor, 1992. Laudan, L., (1990), Science and Relativism, Chicago, University of Chicago Press. Versión en español: La ciencia y el relativismo, Madrid, Alianza, 1993. Laudan, L., (1984), Science and Values, Berkeley, University of California Press. Le Gros Clark, W., (1966), “El estudio del origen del hombre”, en Barnett, S. et al, (edit.), (1966). Leith, B., (1982), The Descent of Darwin, Londres, W. Collins Sons and Co. Versión en español: El legado de Darwin, Barcelona, Salvat, 1986. Leserre, D., (1993), “Humboldt, Nietzsche y Heidegger: acerca de las metáforas”, en Escritos de Filosofía Nº 23/24: Metáfora, Buenos Aires, Academia de Ciencias. Locke, J. Versión en español: Dos ensayos sobre el gobierno civil, Barcelona, Planeta, 1996 Locke, D., (1992), Science as Writing, Yale University. Versión en español: La ciencia como escritura, Madrid, Fronesis, 1997. López, A., (1994), “Ideas evolucionistas en economía: una vision de conjunto”, Buenos Aires, Pensamiento Económico. López García, S. y Valdaliso, J., (1999), “Economía, biología y evolución.Algunas refkexiones sobre la economía evolutiva y la importancia de la historia”, Anthropos, N° 182, pp. 21-29. Lorenz, K y Wuketits, F., (1983), Die evolution des Denkens, Munich, R. Piper and Co. Versión en español: La evolución del pensamiento, Barcelona, Argos Vergara, 1984. Lorenz, K., (1984), “La teoría kantiana de lo aprioristico bajo el punto de vista evolucionista”, en Lorenz y Wuketits, 1984. Losee, J., (1972), An Historical Introduction to the Philosophy of Science, Oxford, Clarendon. Versión en español: Introducción histórica a la filosofía de la ciencia, Madrid, Alianza, 1976. Losee, J., (1987), Philosophy of Science and Historical Inquiry, Oxford, Oxford University Press. Versión en español: Filosofía de la ciencia e investigación histórica, Madrid, Alianza, 1989. Lovejoy, A., (1936), The Great Chain of being, Oxford,Oxford Unirversity Press. Lovejoy, A., (1993), “El estudio de la historia de las ideas” Buenos Aires, C.E.A.L. Lovelock, J., (1993), Las edades de Gaia, Barcelona, Tusquets. Low, R., (1984), “Evolución y conocimiento: trascendencia y limitaciones de la gnoseología evolucionista, en Lorenz y Wuketits, 1984. Luján López, J., (1996), “Teorías de la inteligencia y tecnologías sociales”, en González García et al, 1996. Lumsden, C.J. y Wilson, E.O., (1981), Genes,Mind and Culture: the Coevolutionary Process, Cambridge, Mass., Harvard University Press. Mac Lean y Estenós, R. (1952), “La eugenesia en América”, México, Cuadernos de Sociología. McKenzie, D. (1978), “Statistical Theory and Social Interests:a Case Studdy”, Social Studies of Science, Vol 8, pp. 35- 83. McKenzie, D. (1981), Statistics in Britain, 1865-1930: The Social Construction of Scientific Knowledge, Edinburgh, Edinburgh University Press. Maienschein, J. (2000), Biology and epistemology, Cambridge, Cambridge University Press. Mannheim, K., (1952), Essays on the sociology of knowledge, Londres, Routledge and Keagan Paul. Mannheim, K., (1969), “Los determinantes políticos y sociales del conocimiento”, en Horowitz, (comp.), 1969. Marí, E., (1974), Neopositivismo e ideología, Buenos Aires, Eudeba. Martínez, S. y Olivé, L. (comp.) (1997), Epistemologia evolucionista, México, Paidós. Martínez, S., (1997a), “Una respuesta al desafio de Campbell”, en Martínez y Olivé (comp.), 1997. Martínez, S., (1997b), De los efectos a las causas. Sobre la historia de los patrones de explicacion cientifica, México, UNAM-Paidós. Martinich, A., (1991), “A theory for metaphor”, en Davis, 1991. Maturana, H., (1995), La realidad:¿objetiva o construida?, México, Anthropos. Maturana, L., (1993), “Acerca de la referencia en el discurso metaforico”, en Escritos de Filosofía Nº 23/24: Metáfora, Buenos Aires, Academia de Ciencias. Maynard Smith, J. y Szathmary, E., (1999), The Origins of Life. From the Birth of Life to the Origin of Language. Versión en español: Ocho hitos de la evolución, Barcelona, Tusquets, 2001. Mayr, E., (1994), Typological vs. Population thinking, Massachusetts, MIT Press. Mazlish, B., (1993), The Fourth Dicontinuity. The Co-evolution of Humans and Machines, Yale University. Versión en español: La cuarta discontinuidad. La coevolución de hombres y maquinas, Madrid, Alianza, 1995. Medawar, P. B. y Medawar, J. S. (1983), Aristotle to zoos:a philosophical dictionary of biology, Cambridge, Harvard University Press. Merton, R., (1973), The Sociology of Science, Nueva York, FreePress. Versión en español: La sociología de la ciencia, Madrid, Alianza, 1977. Mirowski, P., (1989), More Heat Than Light: Economics and Social Physics; Physics as Natures’s Economics, Cambridge/Nueva York, Cambridge University Press. Molina, E., (1996), (edit), Evolución: aspectos interdisciplinares, Zaragoza, Mira Edit. Mondolfo, R., (1974), El pensamiento antiguo, Buenos Aires, Losada. Monod, J., (1970), Le Hasard et la nécessité, París, Ediciones du Seuil. Versión en español: El azar y la necesidad, Barcelona, Tusquets, 1993. Mosterin, J. (1978), “La estructura de los conceptos científicos”, en Conceptos y teorías en la Ciencia, Madrid, Alianza P. 11-40. Moulines, U. (1982), Exploraciones metacientificas, Mardid, Alianza. Muguerza, J., (1975), ”La teoría de las revoluciones científicas”, en Lakatos y Musgrave, (edit.) 1975. Mulkay, M., (1985), “La ciencia y el contexto social”, en Olivé (comp.), 1985. Nelson, R. R (1995), Recent Evolutionary Theorizing About Economic Change, Journal of Economic Literature, vol XXXIII, marzo. Nelson, R. y Winter, S. (1982) An Evolutionary heory of Economic Change, Cambridge, Harvard University Press. Nersessian, N.J., (1987), The Process of Science, Dordrecht, Kluwer. Newton-Smith, W., (1981), The rationaliy of Science, Boston, Routledge and Kegan Paul Ltd. Versión en español: La racionalidad de la ciencia, Barcelona, Paidós,1987. Nisbet, R., (1976), Social Change and History, Nueva York, Oxford University Press. Versión en español: Cambio social e historia, Barcelona, Editorial Hispano Europea, 1985. Nudler, O. (comp.), La racionalidad: su poder y sus límites, Buenos Aires, Paidós. Olivé, L. (comp.), (1985), La explicación social del conocimiento, México, U.A.M. Olivé, L., (1985a), “Un programa fuerte realista y antinaturalista para la sociología”, en Olivé, 1985. Orayen, R., (1991), “Indeteminacion de la traduccion y epistemología naturalizada”, Buenos Aires, SADAF. Ordóñez, J. y Rioja, A., (1991), Teorías del universo, Madrid, Themata. Ortony, A., (1979), Metaphor and Thought, Cambridge, Cambridge University Press. Pacho, J., (1995), ¿Naturalizar la razón?. Alcances y límites del naturalismo evolucionista, Madrid, Siglo XXI. Palma, H. (2002), Gobernar es seleccionar. Apuntes sobre la eugenesia, Buenos Aires, J. Baudino ediciones. Palma,H. (2003), “Notas preliminares a (una teoría de) la divulgación científica”, en Wolovelsky, E. ¿??????? Panofsky, E. (1954): Galileo as a Critic of the Arts, La Haya, Martinus Nijhoff. Paprotté, W. y Dirven, R. (eds.) (1985), The ubiquity of metaphor, La Haya, North Holland. Parente, D., (2002), Márgenes del lenguaje. Metáfora y conocimiento, Mar del Plata, Ediciones Suárez. Passmore, J., (1957), 100 Years of Philosophy, Londres, G. Duckworth and Co.Versión en español: Cien años de filosofía, Madrid, Alianza, 1981 Pepper, S. (1942), World Hypotheses, California, University of California Press. Pera, M., (1994), The Discourses of Science, Chicago, University of Chicago Press. Pérez Tamayo, R., (1993), ¿Existe el método científico?. Historia y realidad, México, FCE. Pescador, J., (1986), Principios de filosofía del lenguaje, Madrid, Alianza. Pickering, A. (1981), “The role of interests in high energy phisycs: the choice between charm and colour”, en Knorr Cetina, Krohn & Whitley (eds.), 1981. Pickering, A. (1984), Constructing quarks, Edinburgh, University of Edinburgh Press. Pinch, T. (1981), “Theoreticians and the production of experimental anomaly”, en Knorr Cetina, Krohn & Whitley (eds.),The social process of scientific investigation, Dordrecht, Reidel. Plotkin, H., (1987), “Evolutionary epistemology and the synthesis of biological and social sciences”, en Callebaut y Pinxten. (edit), 1987. Plotkin, M., (1996),”Psicoanalisis y política: la recepcion que tuvo el psicoanálisis en la Argentina”, REDES, Buenos Aires, Universidad de Quilmes. Popper, K., (1935-1958), The Logic of Scientific Discovery, Londres, Hutchinson (revisada de 1958 del original alemán de 1935). Versión en español: La lógica de la investigación científica, Madrid, Tecnos, 1999. Popper, K., (1963), Conjectures and Refutations, Londres, Routledge and Kegan Paul. Versión en español: Conjeturas y refutaciones. El desarrollo del conocimiento científico, Buenos Aires, Paidós, 1989. Popper, K., (1970), Objective Knowledge, Oxford, Clarendon. Versión en español: Conocimiento objetivo. Un enfoque evolucionista, Madrid, Tecnos, 1988. Popper, K., (1970a), “Normal Science and its Dangers”, en Lakatos y Musgrave (eds.) (1970). Versión en español: “La Ciencia normal y sus peligros”, en Lakatos y Musgrave, (edit.), 1975. Popper, K., (1974), “Unended Quest: An Intelectual Autobiography”, en Schilpp (ed.) The Philosophy of Karl Popper, La Salle, Open Court. Versión en español: Búsqueda sin término, Madrid, Tecnos, 1994. Popper, K., y Eccles, J., (1977), The Self and its Brain, Berlín, Springer-Verlag. Versión en español: El Yo y su cerebro, Barcelona, Labor, 1993. Popper, K., (1985), “La Racionalidad de las revoluciones científicas”, en Hacking, 1985. Prego, C., (1995), Las bases sociales del conocimiento científico, Buenos Aires, C.E.A.L. Preta, L. (edit), (1992), Immagini e metafore della scienza, Gius, Laterza e figli. Versión en español: Imágenes y metáforas de la ciencia, Madrid, Alianza, 1993. Putnam, H. (1995), “Why reason can’t be naturalized”, en Baynes, K., Bohman, J. y MacCarthy, Th., 1995. Putnam, H., (1981), Reason, Truth and History, Cambridge, Cambridge University Press. Versión en español: Razón, verdad e historia, Madrid, Tecnos, 1988. Pyle, A., (1995), Atomism and its critics, Bristol, Thoemmes Press. Quine, W., (1960), World and Object, Cambridge, MIT Press. Quine, W., (1969), Ontological Relativity and the Other Essays, Nueva York, Columbia Universirty Press. Versión en español: La relatividad ontológica y otros ensayos, Madrid, Tecnos, 1986. Radnitzky, G. y Bartley, W., (edit) (1987), Evolutionary epistemology, rationality, and the sociology of knowledge, Illinois, La Salle. Radnitzky, G., (1987), “In defense of self-aplicable critical rationalism”, en Radnitzky y Bartley (edit), 1987. Randall, J., (1940), The Making of the Modern Mind, Boston, Houghton Mifflin (edición de 1926 revisada). Versión en español: La formación del pensamiento moderno, Buenos Aires, M. Moreno,1981. Regnault, J., (1922), “La eugénica”, en La Semana Médica, pp. 22-25, Buenos Aires. Reichenbach, H., (1938), Experience and prediction, Chicago, University of Chicago Press. Rescher, N., (1990), Evolution, Cognition and Realism, Lanham, University Press of America Rescher, N., (1984), The Limits of Science, Londres y California, University of California Press. Versión en español: Los límites de la ciencia, Madrid, Tecnos, 1994. Richards, I.A., (1936), The Philosophy of Rethoric, Oxford, Oxford University Press. Richards, R., (1997), “El modelo de selección natural y otros modelos en la historia de la ciencia”, en Martínez y Olivé (comp.). 1997. Richards, R., (1992), The Meaning of Evolution. The Morphological Construction and Ideological Reconstruction of Darwin’s Theory, Chicago, University of Chicago Press. Versión en español: El significado de la evolución, Madrid, Alianza, 1998. Richards, R., (2000), “The epistemology of historical interpretation: progressivity and recapitulation in Darwin’s theory”, en Creath y Maienschein, 2000. Ricoeur, P. (1975), La métaphore vive, París, Editions du Seuil. Versión en español: La metáfora viva. Madrid, Cristiandad, 1980. Riedl, R., (1984), Biology of Knowledge: teh Evolutionary Basis of Reason, Chichester, J. Wiley and Sons. Riedl, R., (1984a), “Evolución y conocimiento evolutivo: sobre la concordancia entre los órdenes del pensamiento y de la naturaleza”, en Lorenz y Wuketits, 1984. Riesco Le Grand, I. (1848), Tratado de embriología sagrada. Rojo, R., (1993), “Metáfora y verdad”, en Escritos de Filosofía Nº 23/24: Metáfora, Buenos Aires, Academia de Ciencias. Rorty, R. (1979), Philosphy and the Mirror of Nature, Princeton, Princeton University Press. Versión en español: La Filosofía y el espejo de la naturaleza, Madrid, Cátedra, 1995. Rosenberg,A., (1994), “Does evolutionary theory give comfort or inspiration to economics?”, en Natural Images in economics thought, editado por Philip Mirowsky, Cambridge University Press, Cambridge, 1994. Ruiz, R. Y Ayala, F., (1998), El método en las ciencias. Epistemología y darwinismo, México, FCE. Ruse, M., (1973), The Philosophy of Biology, Londres, Hutchinson and Co. Versión en español: La filosofía de la biología, Madrid, Alianza, 1979. Ruse, M., (1980), Sociobiology: Sense or Nonsense?, Dordrecht, Reidel. Versión en español: Sociobiología, Madrid, Cátedra, 1989. Ruse, M., (1986), Taking Darwin Seriously, Oxford, Basil Balckwell. Versión en español: Tomándose a Darwin en serio, Barcelona, Salvat, 1987. Ruse, M., (1998), “Evolución y progreso: crónica de dos conceptos”, en Wagensberg y Agustí (edit.), 1998. Ruse, M., (2000), “Darwin and the philosophers: epistemological factors in the developmental and reception of the theory of the Origine of Species”, en Creath y Maienschein, 2000. Sambursky, S., (1990), El mundo físico de los griegos, Madrid, Alianza. Sánchez Navarro, J, (1994), “Naturalización y factores sociales en la ciencia”, en Bustos, E. de, García Bermejo y Pérez, 1994. Sánchez Navarro, J., (1988), “Las sociologías del conocimiento científico”, Madrid, Revista Española de Investigaciones Sociales. Sánchez Navarro, J., (1996), “Ciencia y retórica”, Madrid, Isegoria, CSIC. Sanchez Puerta, M. L. (1999), "El concepto de evolución en la historia del pensamiento economico" (www. aaep.org/espa/anales/PDF_99/sanchez-puerta). Schroedinger, E., (1944), What is the Life?. The Physical aspect ofthe living Cell, Cambridge, Cambridge University Press. Versión en español: ¿Qué es la vida?, Madrid, Hyspamérica, 1985. Schumpeter, J. (1943-1947), Capitalism, Socialism and Democracy, Nueva York, Harper and Row. Schuster, F., (1985), “La validez del conocimiento en ciencias sociales”, Buenos Aires, SADAF. Schuster, F., (1995), “Consecuencias métodológicas del contexto de aplicación”, REDES, Buenos Aires, Unievrsidad de Quilmes. Schuster, F., (1999), “Los laberintos de la contextualizacion en ciencia”, en Althabe y Schuster, 1999. Searle, J., (1991), “Metaphor”, en Davis, 1991. Searle, J., (1995), “Mentes y cerebros sin programas”, en Rabosi, E. (ed.), Filosofía de la mente y ciencia cognitiva, Barcelona, Paidós. Serres, M. (edit), (1989), Eléments d’Histoire des Sciences, París, Bordas. Versión en español: Historia de las ciencias, Madrid, Cátedra, 1991. Sevilla Fernández, J., y Barrios Casares, M. (edit.) (2000), Metáfora y discurso filosófico, Madrid, Tecnos. Sevilla Fernández, M., (2000), “El filósofo es un decidor. En torno al decir metafórico y el pensar epistemológico de Ortega y Gasset”, en Sevilla Fernández y Barrios Casares, 2000. Shapin, S. (1975), “Phrenological knowledge and the social structure of early XIXth century Edinburgh”, Annals of Sciences, Vol. 32, pp. 219-243 Shapin, S. (1979), “Homo phrenologicus: anthropological perspectives on a Historical problem”, en Barnes & Shapin (Eds.), Natural Order: historical studies of scientific culture, Londres, Sage Shapin, S. (1982), “History of Science and its Sociological Reconstructions”, History of Sciences, Vol. 20, pp. 157-211. Shapin, S., (1993), “Hablar de historia. Reflexiones sobre análisis del discurso”, Buenos Aires, C.E.A.L. Shapin, S., (2000), La revolución cientifica. Una interpretacion alternativa, Barcelona, Paidós. Simpson, G. G., (1951), The Meaning of Evolution, Yale University Press. Versión en español: El sentido de la evolución, Buenos Aires, Eudeba, 1987. Sober, E. (edit), (1994), Conceptual issues in evolutionary biology, Massachusetts, MIT Press. Sober, E., (1993), Philosophy of Biology, Westview Press. Versión en español: Filosofía de la biología, Madrid, Alianza,1996. Sober, E., (1994a), “Evolution, population thinking, and essentialism”, en Sober (edit), 1994. Sokal, A., (1996), "Experiment with Cultural Studies", en Lingua franca, 6, 4. Sokal, A., (1998), "Transgressing the Boundaries: an afterword", Dissent Nº 43, 268280. Sokal, A. y Bricmont, J., (1999), Imposturas intelectuales, Barcelona, Paidós. Spengler, O., (1999), La decadencia de Occidente. Madrid, Espasa Calpe. Spinoza, B., (1990), Tratado teológico político, México, Porrúa. Stark, W. (1962), The fundamental forms of social thought, Londres, Routledge and Keegan Paul. Stroud, B., (1984), The Significance of Philosophical Scepticism, Oxford, Oxford University Press. Versión en español: El escepticismo filosófico y su significación, México, FCE, 1991. Suppe, F., (1974), The Structure of Scientific Theories, Illinois, University of Illinois Press. La estructura de las teorías científicas, Madrid, Edit. Nacional, 1979. Suppes, P., (1969), Studies in Methodology and Foundations of Science, Dordrecht, Reidel. Suppes, P. (1969a), "Models of Data" en Suppes, 1969. Taylor, H., (1980), The IQ Game: A Methodological Inquiry into the Heredity-Environment Controversy, New Jersey, Rutgers University Press. Versión en español: El juego del Cociente intelectual. Una investigación metodológica sobre la controversia herencia-medio, Madrid, Alianza,1983. Thagard, P., (1997), “En contra de la epistemología evolucionista”, en Martínez y Olivé (comp.) 1997. Thom, R., (1987), “Epistemology of evolutionary theories”, en Callebaut y Pinxten (edit) (1987). Thom, R., (1993), “La ciencia y el sentido”, en Preta (edit), 1993. Thuillier, P., (1988), D’Archiméde á Eisntein.Les faces cahées de l’invention scientifique, París, Librairie Arthéme Fayard. Versión en español: De Arquímedes a Einstein, Madrid, Alianza. Thuillier, P., (1983), Les savoirs ventriloques. Ou comment la culture parle á travers la science, París, Editions du Seuil. Versión en español: El saber ventrílocuo, México, FCE, 1990. Timasheff, N., (1955), Sociological Theory.Its Nature and Growth, Nueva York, Random House. Versión en español: La teoría sociológica, México, FCE,1977. Todorov, T., (1989), Nous et les autres. La réflexion française sur la diversité humaine, Éditions du Seuil. Versión en español: Nosotros y los otros, México, Siglo XXI, 1991. Toulmin, S., (1961), Foresight and understanding, Nueva York, Harper Torchbooks. Toulmin, S., (1970), Human Understanding, Princeton, Princeton University Press. Versión en español: La comprensión humana, Madrid, Alianza, 1977. Toulmin, S., (1974), ”Rationality and Scientific Discovery”, en Scaffner y Cohen (comps.), Boston Studies in the Philosophy of Science, Dordrecht, Reidel, 402-3. Toulmin, S., (1975), “La distinción entre ciencia normal y ciencia revolucionaria, ¿resiste un examen?, en Lakatos y Musgrave, (edit.), 1975. Turbayne, C., (1962), The Myth of Metaphor. Versión en español: El mito de la metáfora, México, FCE, 1974. Ursúa, N., (1993), Cerebro y conocimiento: un enfoque evolucionista, Barcelona, Anthropos. van Fraassen, B. C., (1987) “The Semantic Approach to Scientific Theories”, en Nersessian (ed.) 1987, 107-124. Vandamme, F., (1987), “Language and evolutionary or dynamic epistemology”, en Callebaut y Pinxten, 1987. Veblen, Th., (1965), A theoria da classe ociosa: um estudo economico das institucioes, Sao Paulo, Pioneira. Vianu,T., (1967), Los problemas de la metáfora, Buenos Aires, Eudeba Vollmer, G., (1984), “Mesocosmos y conocimiento objetivo”, en Lorenz y Wuketits, 1984. Vollmer, G., (1987), “On supossed circularities in an empirically oriented epistemology”, en Radnitzky y Bartley, (edit), 1987. Vollmer, G., (1987a), “What evolutionary epistemology is not?”, en Callebaut y Pinxten, 1987. Waddington, C., (1966), “Teorías de la evolución”, en Barnett et al, 1966. Wagensberg, J. Y Agustí, J., (edit) (1998), El progreso, Barcelona, Tusquets. Wagner, G., (1984), “Sobre los fundamentos lógicos de la teoría evolutiva del conocimiento”, en Lorenz y Wuketits, 1984. Wallace, A., (1864), “El desarrollo de las razas humanas según las leyes de la selección natural”. Wartofsky, M. (1968), Conceptual Foundations of Scientific Thought. Versión en español: Introducción a la filosofía de la ciencia 1, Madrid, Alianza, 1973. Watson, J., (1968), The Double Helix, Middlesex, Penguin Books. Versión en español: La doble hélice, Barcelona, Salvat, 1993. Webster, Ch., (1982), From paracelso to Newton. Magic and the Making of Modern Science, Cambridge, cambridge University Press. Versión en español: De Paracelso a Newton. La magia en la creación de la ciencia, México, FCE, 1993. Westfall, R. (1971), The Construction of Modern Science: Mechanism and Mechanic, Nueva York, Londres, J. Wiley and Sons Whewell, W., (1847), Philosophy of the Inductive Sciences, Londres, Parker. Whitehead, A., (1925), Science an the Modern world, Nueva York, Macmillan Co. Versión en español: La ciencia y el mundo moderno, Buenos Aires, Losada, 1949. Wimsatt, W. (1974), “Reductive Explanation: A Functional Account”, PSA. Wittgenstein, L., (1921), Tractatus lógico-philosophicus, Londres, Routledge and Kegan Paul. Versión en español: Tractatus lógico-philosophicus, Barcelona, Altaya, 1994. Woolgar, S., (1988), Science: the Very Idea, Londres, Tavistock. Versión en español: Ciencia: abriendo la caja negra, Barcelona, Anthropos, 1993. Wuketits, F., (1984), “Gnoseologia evolutiva: el nuevo desafío”, en Lorenz y Wuketits, 1984. Wuketits, F., (1999), ”The history of the concept of life: a game of mind”, en Gutierrez Lombardo et al 1999. Ziman, J., (1986), Introducción al estudio de las ciencias, Barcelona, Ariel.