MATERIAL DIDACTICO PSICOLOGÍA Y CRIMINOLOGÍA FILOSOFÍA DE LAS CIENCIAS UNIDAD I: EL DEBATE EN TORNO AL MÉTODO Y LA RACIONALIDAD CIENTÍFICA EN LA FILOSOFÍA DE LA CIENCIA 1.1 El origen de la idea de las dos culturas: Ciencia y Humanismo. La fractura social y académica entre las "dos culturas", Ciencia y Humanidades, que CP Snow diagnosticara en 1959 en su célebre conferencia Rede de Cambridge, dista de haberse cerrado. Aunque tal vez el foso no es hoy tan ancho como en época del físico y novelista inglés, no puede todavía hablarse ni de lejos de un regreso a una unidad del conocimiento, a una integración de estas dos grandes esferas del saber humano. En efecto, a día de hoy continua habiendo no pocos desencuentros entre lo que llamamos Ciencia, es decir las ciencias naturales (física, química, biología y afines) identificada con planteamientos realistas, y las humanidades, en las que incluiríamos también a las ciencias sociales, y en las que dominan puntos de vista relativistas. Podemos decir que, al menos hasta ese XVII en el que suele datarse históricamente el comienzo de la revolución científica, no existía todavía ninguna fisura epistemológica entre dos tipos de saberes. Evidentemente, el saber estaba parcelado en disciplinas, pero formaban parte de un marco intelectual común. Así por ejemplo, lo que hoy llamamos Ciencia (la palabra científico no se acuña hasta 1840) se la llamaba entonces Filosofía Natural, y era considerada una rama, y más bien menor, del gran árbol de la Filosofía, la disciplina madre. Quizá no tanto como en la época medieval, pero en el XVI y XVII, la Teología, por ejemplo, gozaba todavía de un rango académico e intelectual superior al de la filosofía natural. Siglo XVII. Empieza a desarrollarse la ciencia moderna El cambio que iba a colocar a la Ciencia no solo como entidad autónoma sino en el centro mismo de la civilización humana, empezó a operarse en ese XVII, o tal vez en el siglo anterior. Galileo, Kepler o Newton serían algunos de los protagonistas. Isaac Newton (1642-1727) iba a dejar la Física convertida en un sistema de acabado perfectísimo, que parecía dar cuenta de todo fenómeno físico observable y que no se empezaría a cuestionar seriamente hasta finales del XIX, en los inicios de la revolución cuántica de Planck. El libro de Newton Principia Mathematica (Principios matemáticos de Filosofía Natural), publicado por primera vez en 1687, en latín, iba a convertirse en una autoridad tan rotunda como en otro tiempo las obras de Aristóteles. El método científico, un método muy riguroso de indagación del mundo natural, fue afinándose a lo largo del XVII y el XVIII, con los aportes fundamentales (Galileo y Newton aparte) de gentes como Descartes, con su Discurso del Método, o del empirista Francis Bacon. Lo que hoy llamamos Ciencia fue dibujando sus contornos con más y más precisión. El hombre europeo iba a salir al fin del laberinto especulativo de siglos pasados. Una sola cultura (todavía) Pero esta Filosofía Natural todavía era considerada, al menos hasta comienzos del siglo XIX, como parte de la Filosofía, del saber general. Aún no se había producido ninguna verdadera ruptura. Podríamos decir que cultura solo había una, y era la humanística. Y obras que hoy día forman parte de los clásicos de la historia de la ciencia, se consideraban parte del gran caudal literario (o filosófico) de la cultura. Así, un libro como el Discurso del Método de Descartes, podemos verlo hoy día como uno de los textos fundacionales de lo que más tarde iría conformándose como método científico, pero en el momento de su escritura (1637) era un texto de filosofía. Blaise Pascal, físico y matemático según lo vemos hoy, sin duda se veía a sí mismo en su XVII, como un filósofo o incluso un teólogo. Isaac Newton iba a dejar la Física convertida en un majestuoso edificio que no iba a empezar a resquebrajarse (y solo parcialmente) hasta la revolución cuántica que echó a andar en el período 1895-1900. El XVIII iba a constituirse como la edad heroica de la ciencia moderna. El arquetipo sería el acaudalado y sociofóbico Henry Cavendish (1731-1810), que hizo aportes fundamentales en Física y Química, simplemente por prurito intelectual. El clima de la Ilustración y su proyecto de “desencantar el mundo”, es decir eliminar toda idea de ente sobrenatural al margen del mundo físico, iba a consolidar a la nueva Ciencia como gran fuerza social. Siglo XIX: Institucionalización de la Ciencia El siglo siguiente, el XIX, iba a ser no solo el del “bautismo” de la Ciencia y los científicos, sino de su fuerte institucionalización e impacto económico e industrial, sobre todo en la Alemania de la segunda mitad del siglo. Así, y en buena parte gracias a la Ciencia y la Tecnología, Alemania iba a convertirse en una potencia política y económica, en contraste con el pigmeo que había sido hasta entonces (segunda mitad del XIX) en todos los ámbitos, salvo en el cultural. El XIX iba a ser también el siglo de la Biología. La idea de la evolución de las especies fue anterior a Charles Darwin, ya que no dejaba de tener una fuerte lógica. Pero el biólogo inglés fue el que supo dar con el mecanismo de dicha evolución: la Selección Natural. La Selección Natural, la supervivencia de los más aptos, iba a tener un impacto increíble en la cultura occidental. El origen y diversidad de las criaturas podía explicarse de una manera mecánica, sin necesidad de intervenciones divinas, lo cual era un duro golpe a la Religión. Y además, la noción de supervivencia de los más aptos desbordaría la Biología e invadiría otras áreas, como la Sociedad o la Economía. La Ciencia aumentaba su vigor e influencia. Siglo XX, la gran fisura intelectual A lo largo de la segunda mitad del XIX y la primera mitad del XX, iba a continuar ensanchándose la brecha entre las dos culturas, la ciencia y las humanidades. Los humanistas seguirían conservando la primacía entre las élites dirigentes y las clases altas. Y la química o la física a pesar de su importancia práctica y económica seguirían siendo saberes de segunda, sobre todo en Inglaterra. Allí, un alumno brillante sería enviado a Oxbridge a estudiar a los clásicos; sino no lo era tanto, se le invitaría a optar por las profesiones científico-técnicas. Esta mentalidad se mantuvo hasta muy avanzado el siglo XX. El primer toque de atención y un primer intento para superar la brecha llegaría en 1959 en Cambridge con la mencionada conferencia de CP Snow. En la actualidad existe una grave incomunicación entre ciencias y letras. Mientras la cultura va por sus propios derroteros, la visión que la mayoría de la gente tiene de la ciencia y la tecnología depende de los mensajes que reciben a través de los múltiples canales de comunicación: catástrofes, accidentes derivados de las tecnologías más avanzadas, nuevas opciones para el control de la reproducción (Nelkin: 1991,18). Según Nelkin: No es en los ámbitos académicos donde hay que resolver el problema de las dos culturas sino en el espacio de la comunicación pública. La ciencia, la hacen los especialistas y la cultura humanista se hace en las facultades pero el público la necesita incluso para participar en el propio espectáculo de la ciencia. Para Carl Sagan: Cuando la investigación científica proporciona unos poderes formidables son ciertamente terribles para naciones y líderes políticos falibles. Aparecen muchos peligros: los científicos, por ejemplo, pueden perder la objetividad. La única protección contra un mal uso de la ciencia y la tecnología suele ser el debate abierto y vigoroso. Puede ser que la pieza crítica de la argumentación sea obvia y muchos científicos o profanos la podrían aportar siempre que no hubieran represalias por ello. El apoyo a gran escala a la ciencia es relativamente reciente, a partir de la II guerra mundial, aunque el mecanismo de algunos científicos por parte de ricos y poderosos es mucho más antiguo. Los verdaderos científicos tienen una puerta abierta al humanismo. Educar para la libertad es enseñar en las escuelas, no solo derechos humanos sino métodos científicos. 1. Posiciones al respecto La ciencia en sí misma una palabra talismán. Existe una creencia generalizada de que hay algo especial en la ciencia, en los métodos que utiliza. Cuando a alguna afirmación, investigación o razonamiento se pretende dar a entender que tiene algún tipo de mérito o alguna clase especial de fiabilidad. Pero ¿qué hay de especial en la ciencia, si es que hay algo? ¿Cuál es el método científico que según se afirma conduce a resultados especialmente meritorios o fiables? El gran respeto que se tiene por la ciencia no se limita a la vida cotidiana y a los medios de comunicación populares. Resulta evidente también en el mundo académico y universitario. Según Chalmers muchas de las llamadas ciencias sociales o humanas suscriben el siguiente razonamiento: Se puede atribuir el éxito indiscutible de la física en los últimos tres siglos a la aplicación especial de un método científico. Por consiguiente para que las ciencias sociales y humana puedan emular el éxito de la física será preciso primero comprender y emular este método y aplicarlo después a ellas. Este razonamiento suscita dos preguntas fundamentales: ¿Qué es este método científico que supone ser la clave de este éxito de la física? ¿Es posible transferir este método de la física y aplicarlo a otros campos? a. Kuhn Autores como afirman que las concepciones tradicionales de la ciencia ya fueran indicativitas o falsacionistas, no resistían una comparación con las pruebas históricas. Un rasgo característico de su teoría histórica es la importancia atribuida al carácter revolucionario del progreso científico en el que una revolución supone el abandono de una estructura teórica y su reemplazo por otra compatible con la anterior. Para Kuhn analizar las características de un periodo de crisis en la ciencia exige tanto la competencia de un psicólogo como de un historiador. Cuando se llega a considerar que las anomalías plantean al paradigma serios problemas comienza un periodo de inseguridad profesional marcada. Cuando un paradigma ha sido debilitado hasta el punto que sus defensores pierden la confianza en él, ha llegado el momento de la revolución científica. b. Feyerabend Para Feyerabend el elevado respeto por la ciencia es considerado como religión moderna. Insinúa que la elección entre distintas teorías se reduce a una elección determinada por los valores y deseos subjetivos de los individuos. c. Hume Hume rebate a Feyerabend diciendo que: los individuos nacen en una sociedad que preexiste y que en cierta medida tiene características que ellos no eligen ni están en posición de elegir. Las opciones que les están abiertos estarán determinadas por el acceso que puedan tener en la práctica los recursos necesarios para varias opciones. Los científicos serán libres de seguir sus deseos solos en la medida que puedan elegir entre una serie restringida de opciones que les son posible. 2. Propuesta de un canon científico ¿Qué ideas científicas debemos integrar en nuestra cultura humanística, para lograr un mejor entendimiento y comprensión del mundo?. La pregunta es pertinente en esta época compleja en la que es cada vez más difícil, pero también más necesario, derribar las barreras que dividen las especialidades para mirar al mundo en su globalidad. Necesitamos disponer de alguna ayuda orientadora, algún criterio para establecer ese canon porque la tradición se ha escindido aquí en compartimentos casi estancos a partir de mediados del siglo XIX. Para A. Fernández, la evidencia de que la ciencia actúe tanto sobre las ideas como sobre las cosas, nos sugiere una hipótesis: el canon sería el conjunto de conceptos, teorías o procedimientos científicos que nos servirían para dos fines: entender el mundo y valorar las consecuencias de la técnica. Esta formulación se hace operativa cuando nos fijamos en una de las revelaciones más interesantes de la ciencia actual: el mundo es un complejísimo proceso, un ingente conglomerado de evoluciones adaptativas, donde todo está sometido, desde el universo en su totalidad hasta cada persona, pasando por las galaxias, las estrellas y los planetas, las especies biológicas o la cultura humana. Y en esta esencia que cambia, a cuyo sentido sólo podemos acercarnos combinando el azar y la necesidad -la antinomia descubierta por Demócrito- encontramos un terreno común a ámbitos tan distintos pero complementarios como lo científico y lo técnico, y lo literario: lo humanístico. Todas ellas, entre otras, son motores de la proyectividad humana y de la evolución cultural. Y además, promueven nuevos modos de actuar, de pensar y de decir, esto es, de vivir. El canon literario no sirve sólo para disfrutar de la belleza del lenguaje o para evadirse de las penalidades y la frustración cotidiana, más allá de eso, nos ayuda a entender mejor nuestras mentes, pasiones y sentimientos, las complejidades de las relaciones humanas o la sintonía entre fantasía y realidad, gracias a autores como Shakespeare, Cervantes, Balzac, Kafka o Borges. Así, un canon científico debe servirnos para acercarnos al mundo y sus interrogantes. Y es en este acercamiento donde observaremos las cosas del mundo, desde una objetividad pura y simple de los astros, hasta la compleja y subjetiva visión de nuestros yoes, porque los humanos no podemos renunciar a hacernos preguntas sobre lo que vemos y sentimos. Esta reflexión nos sugiere una pregunta en tres apartados ante la propuesta del canon científico: 1. Los orígenes El origen del universo , con la cosmetología del Big Bang y la idea del cosmos histórico y evolutivo, incluyendo la manera en que nacieron las estrellas, las galaxias, el sistema solar y la Tierra; el origen de la vida en este planeta, con la idea de evolución prebiótica y la necesidad de entender cómo surgieron el metabolismo y la replicación, o cómo funcionan la evolución de las especies, la herencia biológica o el genoma; el origen del hombre y la evolución del cerebro hasta la inteligencia humana en particular, y el nacimiento del lenguaje y lo que llamamos cultura en especial. 2. De qué están hechas las cosas Cómo son los constituyentes de la materia inerte- desde los átomos hasta las partículas elementales- y de los seres vivos- desde lo que hay dentro de la célula hasta los grandes organismos y sociedades. 3. La articulación del azar y la necesidad, apartado que intentamos entender desde que fuera descubierto por Demócrito como compromiso entre las visiones antagónicas de Heráclito y Parménides, es decir, entre lo que cambia y lo que permanece. La reflexión nos acercará hasta una posible articulación de las distintas aproximaciones a la realidad, que son las distintas maneras en que los humanos intentamos salir de la caverna de Platón. La construcción de modelos teóricos, la investigación en disciplinas básicas y la aplicación práctica de los avances tecnológicos gozan, hoy más que nunca, de una gran influencia en todos los órdenes de la vida y en la opinión pública. Este ascenso de las ciencias y de la tecnología en nuestras sociedades, es uno de los grandes retos que plantea el siglo XXI. Esos avances ayudan al desarrollo de los pueblos y de los Estados. Y al mismo tiempo constituyen un desafío armónico y equilibrado de los avances científicos y tecnológicos, con la herencia cultural de Occidente. Según Víctor Weisskopt el científico tiene la obligación de ser el guardián, el colaborador y defensor del conocimiento y de la visión científica. Este gran edificio de ideas no debe descuidarse durante un tiempo de crisis. Tenemos necesidad de la ciencia no sólo para la solución de problemas prácticos, sino también para mantener vivo el espíritu de ese gran esfuerzo humano. Tenemos que conseguir que este mundo sea un mundo bueno y habitable, pero también tenemos que crear valores e ideas por las que la gente pueda vivir y pueda luchar. 3. En el s. XXI: nuevos comunicadores Martín Redfern, periodista científico de la BBC de Londres, nos ha recordado la mejor razón de ser del periodismo científico: "Los periodistas son lo único que tiene el público para poder comprender un aspecto de las cosas". Para Manuel Calvo: La obligación de quienes hemos elegido esta sugestiva y arriesgada especialización de divulgar la ciencia es transformar el periodismo en instrumento positivo y creador al servicio de la educación popular y del desarrollo integral del ser humano, en un sistema de ayudas para que el hombre de nuestra era aprenda a responder al más gigantesco e impresionante desafío de todos los tiempos, el desafío de la adaptación. 1.2 El enfoque neopositivista en torno a la unidad de la ciencia Hay voces que anuncian que la filosofía analítica está en crisis y que nos encontramos ya en un periodo decididamente post-analítico. Aunque no todos coincidirían en esta afirmación, todo el mundo sí está de acuerdo en que la filosofía analítica, nacida de los trabajos de Frege, Russell y Wittgenstein en las últimas décadas del siglo pasado y en las primeras de éste, ha sido la tradición dominante en el ámbito angloamericano en el siglo que ahora termina. En esa situación han influido múltiples factores sociológicos y culturales, y muy en particular, el liderazgo que la filosofía que se hace en los departamentos universitarios de los Estados Unidos —mal que nos pese a veces a los europeos— ha asumido de hecho en el contexto mundial. Más aún, puede decirse que la historia de la filosofía norteamericana en la segunda mitad de este siglo ha sido sobre todo la historia de la filosofía analítica y de sus sucesivas transformaciones desde el más estricto positivismo lógico del Círculo de Viena hasta sus más recientes versiones pragmatistas. Dar cuenta del desarrollo de la filosofía analítica durante los últimos cien años para discernir qué queda de ella para el nuevo siglo o el nuevo milenio no es en absoluto una tarea sencilla, más aún cuando la tradición analítica es un abigarrado mundo en el que sus representantes no comparten más que un vago aire de familia. En los últimos años asistimos a resultados tan dispares dentro del ámbito analítico como el "marxismo analítico" o el "tomismo analítico" de Geach, Haldane o Kenny. Por mi parte, para hacer ese balance de la filosofía analítica he optado por un enfoque histórico de nuestro siglo, pues pienso —en palabras de Gordon Baker— que "la comprensión en filosofía es esencialmente histórica". Precisamente, uno de los rasgos que más llaman la atención en la filosofía analítica de las dos últimas décadas es el creciente interés en la propia comprensión histórica del movimiento analítico. Willard V. Quine caracterizó — no totalmente en broma— como dos actividades distintas la filosofía y la historia de la filosofía, y de hecho la filosofía analítica constituyó durante décadas un área de saber casi totalmente ahistórica. Este desinterés por la historia tiene su origen también en la autocomprensión que la filosofía analítica tuvo de sí misma como una ampliación de la ciencia o una explicación del conocimiento científico. Como para esta tradición la filosofía venía a ser una continuación de la actividad científica, puso siempre un gran empeño en no parecer una disciplina humanística mediante el rechazo de la aproximación histórica típica de las humanidades y la ocultación de sus diferencias respecto de las ciencias. Por el contrario, hoy en día, desde dentro de la tradición analítica se sostiene mayoritariamente —en particular gracias a los trabajos de Hilary Putnam y Charles Taylor— que sólo una comprensión histórica del movimiento analítico está cabalmente legitimada para dar cuenta de su efectivo progreso. Así como los resultados de las ciencias naturales se juzgan a fin de cuentas en función de la historia de esas ciencias, los logros de la filosofía se juzgan en última instancia en función de su historia: la historia de la filosofía sería en este sentido la parte de la filosofía que manda sobre el conjunto de las diversas áreas que la componen. El creciente interés de muchos filósofos analíticos por reconstruir los diversos capítulos de la historia de la filosofía analítica se orienta precisamente en esta dirección: se desea llamar la atención sobre la brecha abierta entre la imagen que la filosofía analítica elaboró de sí misma a modo de pariente cercano de la ciencia y su desarrollo efectivo en la práctica. De esta manera la filosofía analítica ha comenzado a reconocer abiertamente sus diferencias con la ciencia —durante décadas por completo reprimidas— para reconocerse "como una disciplina humanística, y a ver sus temas y problemas como los temas y problemas comunes a las humanidades". Para la tradición analítica la inserción de la filosofía en el marco general de las humanidades supone un punto de inflexión de importancia. Los filósofos que se consideran analíticos no se ven ya a sí mismos como la culminación del proceso por el que la actividad filosófica se ha convertido en ciencia, sino que, en particular a través del estudio de la historia de la filosofía, tienden a insertar su discurso en la conversación general de la humanidad: incluso puede decirse que sólo en estos últimos años y gracias a esta aproximación expresamente histórica la filosofía analítica ha llegado a reconocerse a sí misma plenamente como filosofía. De acuerdo con este enfoque histórico, el presente balance está organizado en tres secciones distintas: una primera dedicada al neopositivismo o positivismo lógico de las primeras décadas de nuestro siglo, la segunda y central destinada a hacer una rápida historia de la filosofía analítica, y finalmente en la tercera parte se hace un balance de los resultados mejores de esta tradición de pensamiento para el nuevo siglo. Muchos aspectos importantes de la tradición analítica quedarán fuera de este estudio, en particular la investigación analítica en filosofía moral y en filosofía de la religión que —quizá sorprendentemente para algunos— ha adquirido cierto relieve y personalidad propia en los últimos años. 2. El neopositivismo o positivismo lógico El movimiento filosófico desarrollado en torno al Círculo de Viena ha recibido habitualmente la denominación de positivismo lógico en el mundo angloamericano, mientras que en el ámbito académico en lengua alemana ha sido identificado más frecuentemente como neopositivismo. Con este prefijo "neo-" se alude a una cierta continuación del positivismo del siglo XIX, desarrollado por Auguste Comte, John Stuart Mill, Richard Avenarius y Ernst Mach, mientras que con el adjetivo "lógico" se destacaría más el genuino rasgo diferencial de los miembros del Círculo de Viena, pues aspiraban a resolver de una vez por todas mediante la clarificación lógica del lenguaje los atolladeros de la filosofía hasta lograr su encaminamiento científico. En Italia, quizá por influencia del libro de Francesco Barone Il neopositivismo lógico se difundió esa denominación sintética todavía más compleja. La cuestión terminológica no es importante en estos momentos, aunque quizá sea más acertada la denominación inglesa "positivismo lógico" o también "empirismo lógico", porque destaca con nitidez la tesis nuclear del Círculo de Viena acerca de la significatividad del lenguaje: sólo son significativas las proposiciones empíricas y las proposiciones lógicas. En una filosofía científica todas las proposiciones que no sean casos de fórmulas lógicas o que no sean reducibles por caminos lógicos a proposiciones empíricamente verificables han de ser descartadas como no significativas, pues no tienen valor cognitivo alguno, sino, por ejemplo, simplemente un valor emotivo. Aunque el manifiesto del Círculo de Viena de 1929 reconocía el papel de sus predecesores, se presentaban a sí mismos como un movimiento decididamente revolucionario respecto de la filosofía académica tradicional. Aspiraban a reformar la filosofía —o incluso a sustituirla del todo— para ponerla en consonancia con la nueva ciencia, que de hecho era casi por completo ignorada por la escuela fenomenológica en Alemania y Austria. Los miembros del Círculo de Viena eran científicos de profesión y eran bien conscientes de los recientes avances en la física moderna (Planck, Einstein, Bohr): pretendían sustituir la estéril disputa entre las escuelas filosóficas por un método riguroso que permitiera una fundamentación científica de los saberes. Merece la pena transcribir algunas líneas de la introducción programática de Reichenbach con la que se inauguraba en 1930 la nueva etapa de los Annalen der Philosophie, rebautizada ahora como Erkenntnis: "... los actuales editores han considerado siempre como su tarea el practicar la filosofía en el sentido de crítica de la ciencia, y, mediante métodos científicoanalíticos, ganar aquel discernimiento en el sentido y significado del conocimiento humano que la filosofía de las escuelas históricas, fundada sobre la supuesta legalidad propia de la razón, ha buscado sin éxito. (...) del objetivo que nos hemos impuesto se deduce que el núcleo de la revista está en aquellos trabajos que tengan sus fuentes en el productivo suelo de la experiencia. (...) Pedimos a todos aquellos que se dedican a las ciencias particulares (...) que colaboren con nosotros en la edificación de una filosofía de la ciencia. Es convicción nuestra que con ello, la misma filosofía recibirá una nueva fundamentación como ciencia. (...) Hasta tal punto nos hemos acostumbrado en filosofía a las escisiones en las direcciones y sistemas que casi se ha renunciado a pensar en una ciencia filosófica unitaria, y se ha intentado establecer como particularidad de la filosofía el que en ella haya opiniones y no doctrina, el que haya puntos de vista pero no conocimiento. (...) Sin embargo, si se mira a lo que ya se sabe, se advierte también en el ámbito de la filosofía un amplio acuerdo. (...) Nuestra revista no quiere opiniones, ni sistemas preconcebidos, ni poesía conceptual: quiere conocimiento". Los miembros del Círculo de Viena encontraron el instrumento para el encaminamiento científico de la filosofía en la nueva lógica desarrollada en las décadas precedentes por Peano, Frege, Schröder, Russell, Whitehead y Wittgenstein. Merece la pena recordar cómo Moritz Schlick en su artículo programático "Die Wende der Philosophie" (1930) anunciaba "estoy convencido de que nos encontramos en un punto de viraje definitivo de la filosofía, y que estamos objetivamente justificados para considerar como concluido el estéril conflicto entre los sistemas". Las sendas para este encaminamiento científico se encuentran en la lógica, concretamente —proseguía Schlick— en el análisis lógico del lenguaje propuesto en el Tractatus Logico-Philosophicus de Ludwig Wittgenstein de 1922. Una de las causas principales del permanente atractivo del Círculo de Viena se encuentra muy probablemente en su decidido apoyo del carácter cooperativo del trabajo en filosofía: creyeron que la filosofía era una empresa colectiva como las ciencias naturales en la que era posible progresar. "El tema principal de este libro —escribe Alberto Coffa en el arranque de su To the Vienna Station— es una década de lo que en filosofía podría llamarse Viena. Entre 1925 y 1935 en la vecindad de Viena, el paso usualmente lento del Espíritu se aceleró de repente cuando algunas de sus más ilustres voces comenzaron a hablarse unas a otras. Wittgenstein, Tarski, Carnap, Schlick, Popper y Reichenbach no eran quizá más sabios que sus contemporáneos, pero las circunstancias les llevaron a influirse recíprocamente en aquella década, y el resultado de aquel diálogo merece todavía nuestra atención". En efecto, en torno a la figura de Schlick, catedrático de Filosofía de las Ciencias Inductivas en la Universidad de Viena se reunió un valioso grupo de científicos como Reichenbach, Carnap, Neurath, Gödel y Waismann, que comenzaron a escucharse unos a otros y comenzaron a hablar con quienes en Berlín, Praga y Varsovia estaban movidas por esos mismos ideales científicos. Además del afán cooperativo, aúna también a los miembros del Círculo un decidido talante común antimetafísico. "La concepción científica del mundo rechaza la filosofía metafísica" escriben Hahn, Neurath y Carnap en el Manifiesto del Círculo de Viena de 1929. La metafísica es la especulación filosófica que se considera a sí misma como ciencia. La metafísica — explican— es una aberración del pensamiento causada principalmente por dos errores lógicos básicos: la confusión entre los sentidos diversos de las palabras en las lenguas ordinarias y la concepción apriorística del pensamiento puro: "el análisis lógico barre no sólo la metafísica en el sentido clásico propio de esa palabra, especialmente la metafísica escolástica y la de los sistemas del idealismo alemán, sino también la metafísica escondida del apriorismo kantiano y moderno". Alfred J. Ayer, el gran divulgador del Círculo en Inglaterra, participaba también de este furor antimetafísico en su Language, Truth and Logic de 193617, pero no así el propio Moritz Schlick o, por supuesto, Ludwig Wittgenstein. El Manifiesto había sido pensado y escrito como un homenaje a Schlick, que se encontraba en 1929 de profesor visitante en Stanford, y a su regreso a Viena mostró su disgusto por ese sesgo panfletario antimetafísico del documento. El rechazo frontal del discurso metafísico está en el núcleo dogmático del Círculo de Viena. La caricatura más gráfica de esta actitud es quizá la lectura de Was ist Metaphysik? de Heidegger por parte de Carnap en su Überwindung der Metaphysik durch logische Analyse der Sprache, y la imposibilidad de conferir un sentido empírico, factual, un control experimental a afirmaciones como la de "la Nada misma nadea". Para el Círculo de Viena una proposición es significativa sólo cuando puede determinarse qué circunstancias en el mundo la hacen verdadera y qué circunstancias la harían falsa. La concepción metafísica a la que se oponen los miembros del Círculo es aquella que sostiene que puede legítimamente hacer afirmaciones fácticas y al mismo tiempo afirma que esos hechos están más allá de toda experiencia posible. Se trata de una concepción de la metafísica —sugiere Blasco— basada en el modelo de las ciencias naturales: la metafísica vendría a ser una presunta 'física de lo no sensible', una presunta ciencia de noúmenos y de totalidades inaccesibles a la experiencia. Sin embargo, como escribió Ayer, "la originalidad de los positivistas lógicos radica en que hacen depender la imposibilidad de la metafísica no en la naturaleza de lo que se puede conocer, sino en la naturaleza de lo que se puede decir". Al disolverse el Círculo en 1938 tras la anexión de Austria a Alemania por parte de Hitler, sus miembros huyeron a Inglaterra y Estados Unidos, donde a lo largo de los años cuarenta y cincuenta lograrían un extraordinario influjo en el ámbito de la filosofía académica. Sin embargo, la desaparición del positivismo lógico no se debió sólo a la disgregación de los miembros del Círculo, sino también al reconocimiento general de los defectos de esta concepción, particularmente su pretensión de eliminación de la metafísica. El golpe de gracia definitivo del movimiento sería asestado por Quine con su denuncia de la distinción entre lo analítico y lo sintético en "Dos dogmas del empirismo" (1951) y una década después por Kuhn con La estructura de las revoluciones científicas (1962). Sesenta años después de la disgregación del Círculo de Viena puede afirmarse que el legado del positivismo lógico se encuentra —más que en aquel talante antimetafísico que ha dominado una parte considerable de la filosofía analítica angloamericana— en el empeño por la atención a la experiencia y en el rigor lógico y la claridad conceptual, que por otra parte han sido siempre rasgos distintivos de la mejor filosofía. En todo caso, cabe afirmar también que el resurgimiento en los años ochenta y los noventa del interés por el Círculo de Viena ha puesto de manifiesto tanto la conexión de este movimiento con la tradición filosófica general como el genuino talante filosófico que animaba a sus miembros. Para muchos de nuestros contemporáneos resulta mucho más atractivo el estudio del positivismo lógico, e incluso de sus errores, que las veleidades postmodernas del pensamiento débil en sus múltiples formulaciones. 3. El giro lingüístico de la filosofía y la tradición analítica Suele considerarse que uno de los rasgos más característicos del siglo XX ha sido lo que Gustav Bergmann denominó el giro lingüístico de la filosofía. Aunque a lo largo de toda la historia quienes se dedicaron a la filosofía siempre prestaron una gran atención a las palabras, asistimos en este siglo a una expansión sin precedentes de la investigación filosófica sobre el lenguaje, hasta el punto de que el conjunto de problemas constituido por las conexiones entre lenguaje, pensamiento y mundo ha venido a constituir el eje de la reflexión y el debate filosóficos. Si esto puede decirse de la mayor parte de las tradiciones filosóficas de nuestro siglo, ha de afirmarse por antonomasia de la tradición analítica, en la que la atención a la significatividad del lenguaje, heredada tanto del Círculo de Viena como de Ludwig Wittgenstein, ha sido el 'motor' de la investigación filosófica. El giro lingüístico de la filosofía se caracterizó tanto por la concentración de la atención en el lenguaje como por la tendencia a abordar los problemas filosóficos a partir de la forma en que aparecen en el lenguaje. Los filósofos analíticos no se preguntaron por la posibilidad o legitimidad del conocimiento, por la malicia o bondad de las conductas humanas o los atributos de Dios, sino que trataron más bien de hacerse cargo, de esclarecer, el significado o alcance del lenguaje cognitivo, ético o religioso. Es cierto que el replanteamiento en términos lingüísticos de algunos de los problemas tradicionales de la filosofía con la pretensión de aclararlos o incluso de disolverlos, llevaba implícito en bastantes casos la convicción de que buena parte de aquellos problemas eran espejismos o engaños tendidos por las propias palabras. Sin embargo, vale la pena resaltar que los filósofos analíticos no creyeron ingenuamente que los problemas que desde siempre habían preocupado a los seres humanos fueran "problemas de palabras", sino que más bien pensaron que la causa de que hasta entonces no hubieran podido ser resueltos se encontraba en buena medida en que no habían podido ser formulados con exactitud y claridad. Así como la física no avanzó decisivamente hasta el descubrimiento de los métodos matemáticos, pensaron que la filosofía no progresaría hasta que no se esclareciera de una vez por toda la estructura lógica y significativa del lenguaje humano. Siguiendo la certera caracterización de Alejandro Llano, resulta muy luminoso entender la filosofía analítica no sólo como la última transformación de la filosofía trascendental kantiana, sino también como una forma más rica, es decir, con mayor sensibilidad epistemológica, de reflexión filosófica que recupera los mejores resultados de la tradición metafísica realista. La clave de esta inflexión de la filosofía —el paso de la filosofía de la conciencia al realismo— se sitúa nítidamente en la crítica del representacionismo, en el rechazo de la primacía epistemológica del concepto como imagen mental, que aparece tan vivamente descrito en los trabajos de Richard Rorty. Las raíces históricas de ese rechazo se encuentran en la crítica del psicologismo acometida por Frege, pero también en la crítica sistemática del cartesianismo desarrollada por Peirce y el pragmatismo. En este sentido, Peirce —según von Wright— podría ser contado junto con Frege, Russell y Wittgenstein, como uno de los "padres fundadores de la filosofía analítica". Identificar la filosofía analítica—como hace Dummett— con la filosofía postfregeana, es quizás una simplificación excesiva. Sin embargo, resulta certero buscar el origen de este giro lingüístico de la filosofía de nuestro siglo en los trabajos del matemático alemán Gottlob Frege. Frege aspiraba a encontrar un lenguaje conceptual que expresara perfectamente la estructura de los razonamientos de la matemática. Estaba persuadido de que hay un paralelismo entre pensamiento y lenguaje, de que el lenguaje es, por así decir, la expresión sensible del pensamiento. A Frege le interesaba el pensamiento, no tanto el lenguaje en sí mismo; se preocupó del lenguaje en la medida en que afecta a la expresión del pensamiento para eliminar todos aquellos elementos del lenguaje que resultaban irrelevantes o incluso eran engañosos para la expresión genuina del pensamiento. Su estrategia para analizar el pensamiento fue la de analizar las formas de su expresión lingüística y fue aquella estrategia la que finalmente se convirtió en la marca distintiva de la filosofía analítica. Una de las características de la filosofía analítica en cuanto movimiento es la de convertir la relación entre lenguaje y pensamiento en una de las cuestiones centrales —para algunos la cuestión central— de la filosofía. De hecho la relación entre lógica y lenguaje fue el resorte problemático de la producción filosófica del Círculo de Viena y del positivismo lógico. Esta característica de la filosofía analítica es la que Dummett encuentra plenamente anticipada en Frege: "El principio básico de la filosofía analítica, común a tan distantes filósofos como Schlick, el primer y el segundo Wittgenstein, Carnap, Ryle, Ayer, Austin, Quine y Davidson, podría definirse como la tesis de que la filosofía del pensamiento es equivalente a la filosofía del lenguaje: o más exactamente, (i) que una explicación del lenguaje no presupone una explicación del pensamiento; (ii) que una explicación del lenguaje proporciona una explicación del pensamiento, y (iii) que no hay otra manera adecuada por la que pueda darse una explicación del pensamiento". Esta definición sirve a Dummett como aval de la influencia decisiva de Frege en el giro lingüístico de la filosofía contemporánea, y sirve también para dudar del acierto de quienes caracterizan la filosofía analítica como una reducción de los problemas filosóficos a problemas lingüísticos. La filosofía analítica contemporánea —deudora de su origen fregeano y de su "alta traición" representada por Russell, Carnap y el Círculo de Viena— se interesa por el lenguaje porque le interesa el pensamiento, y está movida además por un afán de integración sistemática semejante al que ha caracterizado siempre a la mejor tradición filosófica. 3.1. El desarrollo de la filosofía analítica La denominación "filosofía analítica" a pesar de su extraordinaria difusión y de su indudable éxito, es un nombre vago e impreciso, pues no están establecidas las condiciones necesarias y suficientes para ser un filósofo analítico. Sin embargo, esta denominación conforma con toda claridad una tradición de investigación contemporánea en filosofía, desarrollada predominantemente en inglés, que remonta su origen inmediato a los trabajos de Frege, Russell, Wittgenstein y el positivismo lógico del Círculo de Viena. Suele decirse que el común denominador de los filósofos analíticos es una peculiar concepción acerca de la naturaleza y los métodos de la filosofía. Para la tradición analítica muchos problemas filosóficos vendrían a ser problemas básicamente lingüísticos, esto es, cuestiones que en muchos casos se disuelven, aclarando los enredos conceptuales que nos han tendido nuestras propias palabras. Los seres humanos estamos sometidos a la tiranía de las palabras, tanto porque disfrazan el pensamiento como porque sólo por mediación de las palabras nos hacemos con el mundo. Es tarea de la filosofía —afirmó Frege con solemnidad en el prólogo del Begriffsschrift— liberar a la mente humana de esa servidumbre descubriendo las ilusiones que aparecen casi de modo inevitable en el uso del lenguaje. La tarea de la filosofía es concebida, por tanto, como una tarea de análisis, esto es, de comprensión de los problemas complejos mediante su descomposición en sus elementos más simples. "Una cosa se torna inteligible primeramente cuando es analizada en sus conceptos constituyentes", escribió G. E. Moore en 1899 al exponer su programa filosófico. Como Russell reconoció siempre, esta concepción de Moore fue la que inspiró desde los comienzos su propio programa analítico. Baldwin ha señalado que esta actitud analítica, reacción a los excesos del idealismo de finales del siglo XIX, puede detectarse también en otros filósofos muy relevantes de principios de nuestro siglo. No sólo la psicología de Brentano y la fenomenología de Husserl eran programas expresamente analíticos, sino que también el pragmatismo de Peirce puede ser considerado cabalmente analítico. En este sentido, es relevante destacar —como ha hecho Dummett— la fuente común de la fenomenología y la filosofía analítica que se encuentra en la filosofía del XIX escrita en alemán. Aunque el término "análisis" se encuentre ya entre los griegos aplicado a la explicación de estructuras complejas mediante la identificación de sus elementos simples, la tesis fundamental del análisis filosófico de nuestro siglo tiene un sentido bastante más preciso: el análisis es primordialmente un análisis lógico, esto es, consiste en el esclarecimiento de la forma lógica, de la estructura lógica subyacente al lenguaje. El ejemplo paradigmático de análisis sería el del Tractatus Logico-Philosophicus de Wittgenstein, discípulo de Russell y de Moore, que se basaba en el supuesto de que "Una proposición tiene uno y sólo un análisis completo". Poco después los miembros del Círculo tratarían de aplicar los análisis de Russell y Wittgenstein como soporte metodológico de la concepción científica del mundo. Para ellos la filosofía es un método, es una actividad mediante la cual se esclarecen las proposiciones de la ciencia. La filosofía no tiene como resultado unas proposiciones filosóficas, la filosofía no es un sistema de proposiciones, no es una ciencia. La filosofía es una actividad por medio de la cual se descubre o determina el sentido de los enunciados: "Por medio de la filosofía se aclaran las proposiciones, por medio de la ciencia se verifican". De esta forma se configura el papel asignado a la filosofía: "Estoy convencido de que nuestra concepción de la naturaleza de la filosofía recibirá en el futuro general aceptación; y la consecuencia ha de ser que ya no se intentará enseñar la filosofía como un sistema. Enseñaremos las ciencias especiales y su historia con el espíritu verdaderamente filosófico de búsqueda de la claridad, y, al hacer esto, desarrollaremos la mente filosófica de las generaciones futuras. Eso es todo lo que podemos hacer, pero ello constituirá un gran paso en el progreso mental del género humano". Baldwin señala que es en este contexto explícitamente antimetafísico del positivismo lógico donde acontece la transición del "análisis filosófico", concebido como un método importante de investigación, a la "filosofía analítica", que reduce toda genuina filosofía a análisis lógico-lingüístico. En este proceso la figura y el pensamiento de Wittgenstein tienen una importancia decisiva. 3. 2. La influencia de Wittgenstein La influencia ejercida por Ludwig Wittgenstein en la difusión de la filosofía analítica fue impresionante. Para muchos, Wittgenstein ha sido simplemente "el pensador más profundo de este siglo". Así como el Tractatus se convirtió en el libro de cabecera del Círculo de Viena en su aspiración de encaminar científicamente la filosofía mediante el análisis lógico del lenguaje, las enseñanzas de Wittgenstein en torno al lenguaje ordinario a su regreso a Cambridge y su actitud personal del todo opuesta a las ciencias, los sistemas de filosofía y las escuelas de pensamiento, supusieron una segunda oleada de influencia que llega hasta nuestros días y que en parte es opuesta a la primera. Mientras que el positivismo y el atomismo lógicos denunciaron que el origen de los problemas filosóficos, en especial los metafísicos, se encontraba en la imperfección del lenguaje como instrumento natural para la expresión de los pensamientos, la filosofía analítica británica consideró con Wittgenstein que el lenguaje está bien como está y que la fuente de las confusiones filosóficas se encontraba más bien en la transposición de los métodos científicos a la filosofía. Mientras para Carnap y el Círculo de Viena la filosofía había de ser científica y la tarea del filósofo consistía en el análisis del lenguaje y su reforma para mostrar con claridad su estructura lógica, el segundo Wittgenstein rechaza abiertamente esta concepción: "Los filósofos han tenido ante sus ojos constantemente el método de la ciencia, y han sido tentados irremisiblemente a plantearse cuestiones y a responderlas como lo hace la ciencia. Esta tendencia es la fuente real de la metafísica y lleva al filósofo a una completa oscuridad". Para Wittgenstein la filosofía no ha de aspirar ya a explicar nada, sino tan sólo a aclarar nuestro pensamiento, pues el lenguaje ordinario penetra toda nuestra vida y continuamente tiende nuevos lazos a nuestro pensamiento. Los problemas filosóficos no se resuelven, sino que se disuelven mediante el análisis crítico del uso que tienen los términos en el lenguaje ordinario. Escribe Wittgenstein: "Debemos dejar de lado toda explicación, y sólo la descripción ocupará su lugar. Y esta descripción se ilumina, es decir, dice su propósito, a partir de los problemas filosóficos. Estos no son, por supuesto, problemas empíricos. Se solucionan más bien mirando cómo funciona nuestro lenguaje, y esto de tal modo que nos haga reconocer su funcionamiento: a pesar de la tendencia a comprenderlos mal. Los problemas se solucionan no dando nueva información, sino reorganizando lo que ya sabíamos. La filosofía es una batalla contra el embrujamiento de nuestra inteligencia por el lenguaje". Los escritos de Wittgenstein aparecen al lector contemporáneo parágrafo a parágrafo como una penetración reflexiva e intuitiva, de extraordinaria perspicacia habitualmente, en los problemas más insolubles de la filosofía. Por así decir ha renunciado a las soluciones simplistas y rápidas del positivismo lógico para enfrentarse una y otra vez con los problemas relativos a la interrelación de lenguaje, conocimiento y mundo. "La filosofía es una herramienta que sólo es útil contra los filósofos y contra el filósofo que llevamos dentro", dejó escrito Wittgenstein en un manuscrito. No es la búsqueda de soluciones a los viejos problemas lo que mueve su reflexión, sino que es la propia investigación filosófica la que le seduce y son las respuestas simplistas lo que rechaza. La importancia de Wittgenstein no ha dejado de crecer después de su muerte en 1951. A mi entender, su legado más permanente está constituido por dos aspectos muy distintos: de una parte, la comprensión del lenguaje como una conducta comunicativa y, de otra, su concepción del trabajo filosófico. Respecto de lo primero, como ha señalado Donald Davidson46, Wittgenstein nos puso en el camino real para encontrar en la comunicación interpersonal el origen de la noción de verdad objetiva. Si se sostiene que el lenguaje es esencial al pensamiento y se está de acuerdo con Wittgenstein en que no puede haber lenguaje privado y en que sólo la comunicación con los demás nos proporciona el uso correcto de las palabras, entonces, de la misma manera y con la misma rotundidad, ha de afirmarse que no puede haber pensamiento privado y que es la comunicación interpersonal la que proporciona también la pauta de objetividad en el ámbito cognoscitivo. La objetividad de la verdad está mezclada con el carácter público del pensamiento, con el carácter solidario, social, del lenguaje y con el carácter razonable de la realidad. Los tres elementos —pensamiento, lenguaje y realidad— que intervienen en la discusión filosófica acerca de la verdad se confieren sentido respectivamente en su interrelación y es la comunicación interpersonal la que establece esa constelación de sentido. Respecto de lo segundo, en los escritos de Wittgenstein puede advertirse — siguiendo a Kenny— una doble concepción de la filosofía: por un lado, la asimilación de la filosofía a una técnica terapéutica de disolución de los problemas filosóficos mediante la clarificación del uso de nuestro lenguaje y, por otro lado, su consideración de la filosofía como aquella actividad humana que nos proporciona una comprensión global, una visión más clara del mundo. Esta concepción más optimista de la filosofía se manifiesta, por ejemplo, en su metáfora de la filosofía como guía del funcionamiento del lenguaje, entendido éste como una ciudad. La ciudad de los lenguajes tiene muchas partes diferentes: está el casco viejo con sus antiguos edificios, apretujados en poco espacio, pero muy interesante y atractivo, y están más allá los nuevos edificios de las afueras, las ciencias, ordenadas y reglamentadas. De la misma forma que hay nuevos barrios, hay nuevas áreas para la exploración propia del filósofo. Los problemas filosóficos son en última instancia insolubles, pero cabe avance en filosofía mediante el progreso en la comprensión de los problemas, de modo semejante a como el visitante que explora las diferentes zonas de la ciudad, las conoce cada vez mejor y conoce la mayor o menor precisión de la guía que utiliza: "¿Por qué es tan complicada la filosofía? Después de todo, debería ser completamente simple. —La filosofía desata los nudos de nuestro pensamiento, que hemos liado de manera absurda; pero para deshacerlos, ha de hacer precisamente unos movimientos tan complicados como los nudos. Aunque el resultado de la filosofía sea sencillo, sus métodos para llegar allí no pueden serlo". Para Wittgenstein, como para Kant, la filosofía es el nombre de esa inevitable forma de enredo racional que es síntoma natural de nuestro pulso intelectual, pero, al mismo tiempo, es el nombre de nuestro afán, igualmente natural, de claridad intelectual que nos consuela en nuestras recurrentes crisis de confusión. Enterrar el impulso que nos mueve a filosofar dentro de nosotros para descansar de una vez por todas sería tanto como renunciar a nuestra capacidad de pensar. 3.3. La filosofía analítica en la segunda mitad del siglo XX Como muestra la propia figura de Wittgenstein, en el giro lingüístico de la filosofía que tuvo su foco en los años cincuenta en Cambridge y Oxford confluyeron —ha señalado Burge— dos tradiciones muy distintas: de una parte la tradición del positivismo lógico, que tenía su antecedente en el intento de Frege de encontrar un simbolismo perfecto para expresar la estructura del razonamiento matemático, y de otra la tradición procedente de G. E. Moore que otorgaba primacía a los juicios de sentido común y a las prácticas ordinarias para abordar los problemas filosóficos. Ambas tradiciones consideraban la filosofía del lenguaje como el punto de partida de la filosofía y ambas mostraban un notable desdén hacia la historia de la filosofía. La actitud respecto de la ciencia y el lenguaje ordinario separaba, en cambio, a estas dos tradiciones: mientras la tradición de origen fregeano tomaba la ciencia, la lógica o las matemáticas como la fuente de inspiración para la investigación filosófica, la tradición que procedía de Moore consideraba las prácticas ordinarias como la piedra de toque del juicio filosófico y lingüístico. En el pensamiento de Wittgenstein —que fue discípulo de ambos— se encuentran encarnadas ambas tradiciones en sus dos épocas sucesivas. Bajo la influencia de John L. Austin floreció en Oxford en los años cincuenta y sesenta la denominada "filosofía del lenguaje ordinario", que aspiraba a disolver los puzzles filosóficos atendiendo a los usos efectivos del lenguaje y a las distinciones conceptuales que estos atesoran. Figuras destacadas en este ámbito fueron Gilbert Ryle y Peter Strawson. Aunque el rendimiento filosófico de estas investigaciones fue más bien escaso, ha supuesto un espaldarazo para el estudio de la dimensión pragmática del lenguaje y la comunicación humanos, que tendían a ser obviados en los análisis lógico-lingüísticos o gramaticales precedentes. Las nociones de actos de habla y de implicaturas conversacionales desarrolladas en esta dirección por Searle y Grice han pasado ya a engrosar la sabiduría lingüística común de nuestro siglo. La filosofía de corte analítico llegó tímidamente a los Estados Unidos a principios de los años cuarenta por mediación de Willard Quine y de Rudolf Carnap, pero a lo largo de la década de los cincuenta, de la mano de los grandes emigrados europeos —Carnap, Hempel, Feigl, Reichenbach, Bergmann, Tarski— se hizo con el control de los más prestigiosos departamentos de filosofía de los Estados Unidos hasta convertirse desde los sesenta hasta nuestros días en la filosofía dominante. Puede decirse de modo general que, aun habiendo grandes diferencias entre los autores y entre las tendencias dominantes en Inglaterra y en los Estados Unidos, se difunde en estos años un modo de hacer filosofía en el que el estudio de la lógica y la filosofía del lenguaje vino a sustituir casi por completo al estudio sistemático de la historia de la filosofía. A finales de los sesenta la mayor parte de los profesionales de la filosofía en los países de habla inglesa y en Escandinavia se consideraban filósofos analíticos. Su dominio cuantitativo coincidió además con la explosión de la enseñanza universitaria y la creciente especialización profesional de la filosofía. Durante esas décadas en gran parte del mundo angloparlante, "un filósofo — describe Brian Magee— debía compartir el enfoque analítico si quería que sus colegas le consideraran como filósofo. Aunque había batallas fieras y sin perdón entre los filósofos analíticos, todos estaban de acuerdo en que los filósofos continentales (como se les apodaba en Inglaterra) no eran propiamente filósofos, sino más bien charlatanes con los que no convenía relacionarse". El éxito además de la filosofía analítica en los países de habla inglesa se tradujo también en su expansión a otras áreas culturales como Europa continental o Sudamérica y también a otras disciplinas como el derecho o incluso la geografía. La figura más influyente en los últimos cincuenta años de la filosofía norteamericana ha sido Willard V. O. Quine, que aun considerándose del todo afín al positivismo lógico vienés fue su principal contradictor al cuestionar no sólo la distinción humeana analítico-sintético que los positivistas habían empleado contra la metafísica, sino también la tesis empirista de la justificación observacional de los enunciados simples y la reducibilidad de los enunciados abstractos a enunciados básicos de contenido empírico. De hecho, el pensamiento del segundo Wittgenstein y el pragmatismo de Dewey han tenido un creciente papel en la defensa quineana del holismo semántico: las palabras no derivan su significado de las ideas mentales de sus hablantes, sino más bien de las prácticas sociales en las que se insertan. En realidad, desde finales de los setenta y principios de los ochenta la filosofía del lenguaje dejó de ser considerada el saber propedéutico para abordar las cuestiones centrales de la filosofía, y pasó a ser considerada más bien como una disciplina metodológica o instrumental de la reflexión filosófica. De hecho, en las últimas décadas el centro del escenario del debate analítico ha pasado a estar ocupado por la filosofía de lo mental y en años más recientes por las llamadas ciencias cognitivas, que confían —con una dosis renovada del cientismo vienés— en que la integración de las aportaciones de neurólogos y psicólogos, junto con las herramientas y los conceptos desarrollados por los informáticos y los teóricos de la comunicación, dará luz definitiva sobre qué son la información y comunicación humanas, cómo se almacena la información en las estructuras cerebrales, cómo se recupera luego y se transmite lingüísticamente. Sin embargo, los autores de la ciencia cognitiva ya no se consideran filósofos, sino más bien científicos que anuncian de nuevo que van a solucionar pronto y de una vez por todas la mayor parte de los problemas que han venido ocupando a los filósofos y a los lingüistas durante tantos años: en cierto sentido esta tendencia se alía con aquellos que anuncian el final de la filosofía analítica. Efectivamente, quizás el hecho más llamativo en el desarrollo de la filosofía analítica a fines de este siglo es que aquella filosofía que pretendía resolver todos los problemas genuinamente filosóficos, ya no se define ni por un conjunto de problemas sistemáticamente estudiado ni por unos métodos comunes para abordarlos. Aunque la mayor parte de los departamentos de filosofía del área geográfica angloamericana sigan siendo todavía más o menos analíticos, el entusiasmo original del Círculo de Viena ha desaparecido y se ha generalizado en muchos casos una sensación de cansancio, de desorientación o de pérdida de la dirección general. La filosofía analítica —escribía Rorty a principios de los ochenta— se ha institucionalizado académicamente en la Universidad norteamericana, quedando solamente de su espíritu fundacional una cierta unidad de estilo y una cierta unidad sociológica totalmente semejante a la de los demás departamentos de humanidades, aunque quizás en estos la pretensión de rigor y de estatus científico sea menor. Posiblemente el único rasgo característico de los departamentos de filosofía sea la especial habilidad de sus miembros para la argumentación: la filosofía científica que Reichenbach propugnaba no es ahora más que filosofía argumentativa, esto es, capaz de introducir sus términos por definición y de explicitar las premisas de sus razonamientos. "Pienso que esto es lo que ha sucedido con la filosofía analítica al pasar en el curso de los últimos treinta años de su estadio positivista al estadio postpositivista. Pero no considero esto una observación denigratoria. No pretende sugerir que los filósofos estén haciendo algo que no deban hacer. Si, como yo creo, se considera que la filosofía no es de la clase de cosas que tengan una esencia o misión históricas, se entenderá que no estoy diciendo que el movimiento analítico haya abandonado el camino verdadero. 'Filosofía' en un sentido estricto y profesional es justamente todo lo que hagamos los profesores de filosofía. Tener un estilo común y un lugar habitual entre los departamentos académicos, es suficiente para hacer a nuestra disciplina tan identificable y respetable como cualquier otra". El examen que hace Rorty de la filosofía analítica culmina en la constatación de que la imagen actual del filósofo es la del abogado capaz de construir hábiles argumentos en defensa de una posición para que parezca la mejor, de triturar mediante un razonamiento inteligente la posición opuesta o de encontrar precedentes relevantes, y no es ya la del científico, ni la del historiador de las ideas o la del pensador. La causa de este cambio cultural ha de buscarse en la carencia de un paradigma de la actividad filosófica que reemplazara al fracasado programa positivista que aspiraba a proporcionar una fundamentación científica del conocimiento. El estudiante de filosofía en los Estados Unidos no se siente involucrado en la solución de los problemas que afectan al desarrollo de la ciencia ni tampoco en el estudio de las graves cuestiones culturales y sociales que atañen a la sociedad que le rodea, sino que simplemente es entrenado —sostiene Rorty— en una mera habilidad dialéctica. Esta imagen cuadra bien con el final de la filosofía en cuanto disciplina académica con unos problemas específicos y unos métodos propios, y su disolución en la conversación general de la humanidad, pero deja como legado un agresivo relativismo cultural que se manifiesta en amplias áreas de la filosofía académica norteamericana. 3.4. Actualidad de la tradición analítica En estos últimos años no sólo han arreciado las críticas hacia la filosofía analítica desde muy diversas ópticas, sino que son muchos los que incluso han expedido el certificado de defunción de este movimiento. Por ejemplo, Juan José Acero, buen conocedor de la tradición analítica, escribía "la Filosofía Analítica es ya un movimiento filosófico finalizado y, por tanto, agua pasada. Las razones por las que pueda hoy instalarse a un filósofo en esa línea filosófica son muy distintas de las que nos llevan a juzgar a Frege, Russell, Wittgenstein o Austin como representantes del Análisis". Sin embargo, desde un punto de vista sociológico la filosofía de cuño analítico sigue siendo la tradición dominante en el mundo académico de habla inglesa, hasta el punto de que John Perry hace escasos meses podía hablar en Stanford de "The Many Deaths of Analytic Philosophy" al mismo tiempo que constataba su buen estado de salud. Por el momento, haciendo eco a la conocida frase de Gilson, cabe decir con Putnam que la filosofía —también la de estirpe analítica— acaba enterrando siempre a sus sepultureros. Para poder dar una respuesta a la pregunta acerca de la vigencia de la filosofía analítica en el ámbito de la cultura académica angloamericana sería necesario poner límites entre qué es filosofía analítica y qué es filosofía a secas. Por una parte, el examen de los programas de los encuentros anuales de la American Philosophical Association muestra con claridad que, aun cuando muchas de las ponencias y comunicaciones tienen un marcado carácter típicamente analítico, se abordan todo tipo de temas y problemas pertenecientes a las tradiciones más diversas. Por otra, el congreso celebrado en Southampton en abril de 1999 con el título "The Crisis in Analytic Philosophy" terminaba así su convocatoria: "El objetivo de este congreso es explorar los diagnósticos acerca del sentido de crisis en la filosofía analítica y ofrecer pronósticos acerca de las futuras direcciones de la investigación filosófica: ¿Cuál podría ser el carácter de una 'filosofía post-analítica'?". La reciente difusión de este marbete "filosofía post-analítica" para referirse a las últimas inflexiones de la tradición analítica no facilita tampoco esa delimitación, más aún cuando a lo que se alude es precisamente a la confluencia de las tradiciones hermenéutica y fenomenológica en el ámbito de la filosofía angloamericana. Por lo que se refiere al ámbito académico continental en el que conviven quizá más pacíficamente la filosofía analítica con otras corrientes de pensamiento, la creación en 1992 de la Sociedad Europea de Filosofía Analítica para aglutinar los esfuerzos de los pensadores analíticos europeos, aspira a superar la división de la filosofía occidental en "analítica" y "continental". Esta división es inexacta y borrosa en sus límites, pero ha resultado efectiva y operativa en la vida real. Su origen se encuentra en Moore y Russell y su rechazo del idealismo a principios del siglo, pero el auge del nazismo y la contienda bélica subsiguiente consagraron aquella división. Ahora, los intentos de superarla aportan dos razones para justificar su inadecuación: la primera, una cuestión fáctica como es la efectiva existencia de filósofos analíticos en el continente y de filósofos hermeneutas y fenomenólogos en el ámbito angloamericano; la segunda, el reconocimiento de que los valores de la filosofía analítica son universales o aspiran a serlo. La filosofía analítica se caracteriza —declara con solemnidad la presentación de la Sociedad Europea de Filosofía Analítica— por su afán de claridad, su insistencia en la argumentación explícita y su exigencia de que toda opinión se someta al rigor de la discusión y evaluación críticas por parte de los iguales. Para poder dilucidar esta cuestión de la vigencia o, por el contrario, del acabamiento de la filosofía analítica resulta indispensable precisar un poco la situación presente y sus componentes históricos. Por mi parte, estoy convencido de que asistimos a un declive de la filosofía analítica que puede ser atribuido a su aplastante triunfo académico en el área angloamericana y a la estéril escolástica que ha seguido no pocas veces a ese triunfo, junto a una cierta abdicación de la peculiar responsabilidad que en tiempos precedentes correspondió siempre al filósofo. Al mismo tiempo, pienso que dentro de ese declive general se advierten síntomas de una recuperación que adopta crecientemente un marcado carácter pragmatista, tanto por el redescubrimiento de la tradición clásica norteamericana como por la inserción de la filosofía en el ámbito de las humanidades. Cuando en 1990 Wolfgang Spohn se hizo cargo como editor de la mítica revista Erkenntnis en su nueva época, se refería a aquellos ocho primeros volúmenes (1930-1940) en los que se publicaron los trabajos del Círculo de Viena como "un singular monumento histórico, que marcó una nueva era de entusiasmo y optimismo en la filosofía", pero setenta años después de la fundación de Erkenntnis parece difícil mantener aquel entusiasmo y optimismo. Ha habido cambios fundamentales en la escena analítica, entre los que no es el menos importante el declinar del empirismo lógico. Además se advierte por doquier una extraordinaria especialización y ramificación de la discusión filosófica, así como un distanciamiento respecto de las ciencias. Spohn detectaba incluso una mayor desintegración en la filosofía analítica que, por ejemplo, diez años antes. Consideraba este proceso como una consecuencia inevitable de la diversificación del diálogo filosófico en temas cada vez más especializados, pero también como una consecuencia del difuso desacuerdo entre los filósofos analíticos acerca de la viabilidad del tratamiento de los problemas perennes con métodos formales, entendiendo por estos no sólo la efectiva formalización lógica, sino cualquier tipo de conceptualización y argumentación rigurosas. A juicio de Spohn hay pocas razones materiales para tal desacuerdo: "Algunas respuestas a los problemas filosóficos desarrolladas con un espíritu ampliamente formal pueden haberse tornado dudosas, o incluso algunas otras totalmente inadecuadas, pero hay también ejemplos positivos que muestran que las cuestiones perennes son accesibles con toda profundidad a la claridad y la precisión, y por tanto que ni los métodos son inútiles ni los problemas incomprensibles. El proyecto analítico, tal como Reichenbach y Carnap lo concibieron, no está en un callejón sin salida ni en una encrucijada; es un empeño prometedor que sigue adelante y que merece todavía optimismo y entusiasmo y que, si se prosigue con habilidad y tenacidad, producirá una rica y abundante cosecha". Sin embargo, muchos filósofos analíticos piensan que la filosofía analítica ha llegado a su punto final por haber agotado su propio proyecto, y desde fuera de esta tradición se advierte de manera creciente "una crítica externa a la filosofía analítica consistente en que sus problemas y soluciones o bien ya no interesan o bien conducen a callejones sin salida y en que, en cualquiera de ambos casos, han dejado de tener sentido". Para entender ambas posiciones hay que tener en cuenta que —siguiendo a Putnam— el 'motor' de la filosofía analítica era el positivismo lógico, y antes el atomismo lógico. La causa de esto no se encontraba en que todos los filósofos analíticos fueran positivistas, sino en que los argumentos en favor o en contra del positivismo eran los que mantenían en movimiento a la filosofía analítica. Al desaparecer la fuerte corriente ideológica que estaba en el centro del debate analítico éste se estancó y la filosofía analítica comenzó a perder forma en cuanto movimiento: ese estancamiento es lo que muchos han detectado como el final o el acabamiento de la filosofía analítica. La filosofía analítica se entiende mejor si se la inserta como parte del fenómeno más amplio de la modernidad. Lo que la filosofía analítica tenía en común con el modernismo de los años treinta era especialmente la forma extrema de rechazo de la tradición tan característica del modernismo en sus comienzos, y que todavía pervive ocasionalmente en el lenguaje de los filósofos analíticos contemporáneos cuando hablan de un enemigo llamado la "filosofía tradicional". El modernismo no era un movimiento unificado, pero las tensiones y conflictos de la filosofía analítica reflejan las tensiones y conflictos del modernismo en general. Por eso, así como asistimos a un postmodernismo en las artes, resulta razonable pensar en un postmodernismo en filosofía que —a juicio de Putnam— "no tendrá la forma ni del cientismo ni del quietismo wittgensteiniano, pues tanto el cientismo como el quietismo son un peligro para la filosofía, como lo son para la vida del espíritu en general". A mi modo de ver, la filosofía analítica postmoderna guardará relación con aquella idea kantiana del filósofo como un cierto ideal de maestro, que busca promover los fines esenciales de la humanidad. Aquel ideal lleva a concebir la filosofía como una forma de vida más que como una disciplina técnica y está relacionada con la idea de la responsabilidad de la filosofía y del filósofo en su actividad profesional. La recuperación de este sentido de responsabilidad en algunos de los representantes de la filosofía analítica es quizá la mejor reacción a la crítica frecuente de que la filosofía analítica ha limitado sus aspiraciones y se ha encerrado escolásticamente en una serie de polémicas especializadas que resultan a fin de cuentas irrelevantes para la vida de las personas concretas: "Quizá lo más importante que trato de defender —explicaba Putnam— sea la idea de que los aspectos teóricos y prácticos de la filosofía dependen unos de otros. Dewey escribió en Reconstruction in Philosophy que 'la filosofía se recupera a sí misma cuando cesa de ser un recurso para ocuparse de los problemas de los filósofos y se convierte en un método, cultivado por filósofos, para ocuparse de los problemas de los hombres'. Pienso que los problemas de los filósofos y los problemas de los hombres y las mujeres están conectados, y que es parte de la tarea de una filosofía responsable extraer la conexión"69. Con toda seguridad, una de las causas del declive de la filosofía analítica se encuentra en el hecho de que siempre se concibió a sí misma como una filosofía fragmentaria, renunciando —o diciendo que renunciaba— al sueño de una concepción integrada que era precisamente lo más característico de la llamada filosofía continental. Realmente esto no era más que una pretensión, pues tanto los positivistas lógicos del Círculo de Viena como sus herederos americanos —Quine, por ejemplo— presentaron una concepción muy integrada de su trabajo y de su orientación general. Tal como veo yo las cosas, la tradición analítica en el final del siglo XX se regenera y toma nuevo vigor al tratar de insertar la reflexión filosófica en los problemas de los hombres, acortando así la enorme distancia existente entre la filosofía como disciplina académica y las más profundas aspiraciones de los seres humanos. 3.5. La transformación pragmatista de la filosofía analítica El pragmatismo ha sido considerado habitualmente como una peculiar tradición americana, muy alejada de las corrientes de pensamiento que constituyen el centro de la reflexión filosófica occidental. Entre los filósofos europeos se le considera como un "modo americano" de abordar los problemas del conocimiento y la verdad, pero, en última instancia, como algo más bien ajeno a la discusión general. Como señaló Rorty, aunque los filósofos en Europa estudien a Quine y a Davidson "tienden a quitar importancia a la sugerencia de que estos filósofos actuales compartan unas mismas perspectivas básicas con los filósofos americanos que escribieron antes del denominado giro lingüístico". Sin embargo, entre las causas que dan razón del éxito del trasplante del Círculo de Viena a los Estados Unidos ha de asignarse un papel decisivo a la base común que la orientación pragmatista general de la filosofía académica americana había asentado en las décadas precedentes. Con escasas excepciones, esta profunda afinidad entre la filosofía analítica y la tradición pragmatista ha sido pasada por alto, pero no sólo eran comunes muchos de sus temas e ideas básicos, sino que ambos movimientos compartían en líneas generales unos objetivos similares y tenían opiniones parecidas acerca de las relaciones entre ciencia y filosofía y acerca de cómo debía llevarse a cabo el trabajo filosófico. De una manera creciente en los últimos años se ha tratado de comprender el pragmatismo y la filosofía analítica como dos aspectos diferentes de una misma actitud filosófica general. Una fuente clave para el desarrollo de un estudio integrado de ambas corrientes se encuentra en Charles S. Peirce (1839-1914), el fundador del pragmatismo, que Karl-Otto Apel caracterizó como la piedra miliar de la transformación de la filosofía trascendental en filosofía analítica angloamericana contemporánea. En este proceso retrospectivo, puede reconocerse incluso una tradición continuada en el pensamiento americano, que tiene sus raíces en la obra de Peirce, James y Dewey y que florece en Quine, Putnam y Rorty. Pero quizá lo más llamativo es que en la última década —como ha señalado Bernstein brillantemente— asistimos a un resurgimiento del pragmatismo en amplios estratos de nuestra cultura. Con toda seguridad las causas de este proceso de resurgimiento del pragmatismo son muchas, pero me gusta destacar, frente a la tesis del agotamiento de la filosofía analítica —diagnosticada en particular por los deconstruccionistas y por los defensores postmodernos del pensamiento débil—, que en el seno de la tradición analítica se está produciendo una profunda renovación de signo pragmatista. En lugar de considerar al movimiento analítico como una abrupta ruptura con el pragmatismo, el resurgimiento más reciente del pragmatismo parece avalar, por el contrario, una profunda continuidad entre ambos movimientos: el último puede entenderse como un refinamiento, como un genuino desarrollo del movimiento precedente. Así el redescubrimiento del pragmatismo en el seno de la más reciente filosofía analítica angloamericana puede ser entendido como señal de una radical renovación. Frente a las dicotomías simplistas entre hechos y valores, entre hechos y teorías, entre hechos e interpretaciones, la aproximación pragmatista sostiene la interpenetración de todas esas conceptualizaciones con nuestros objetivos y nuestras prácticas. Aun a riesgo de ser descalificada como "pensamiento blando" desde los cuarteles del cientismo o de la ortodoxia analítica, la aproximación pragmatista avala un acercamiento del pensamiento a la vida, de forma que el rigor del pensamiento gane la hondura, la relevancia humana que es condición indispensable de fecundidad. Por esto, la renovación pragmatista de la filosofía analítica avala el pluralismo, pero rechaza el relativismo comúnmente asociado con el "pragmatismo vulgar" de Richard Rorty. Con esto lo que se quiere decir es que la imagen rortyana del final de la filosofía no es la única descripción posible en nuestra cultura de la postmodernidad. El giro pragmatista de la filosofía analítica es probablemente capaz de hacer frente tanto a ese relativismo escéptico como a aquellas acusaciones de escolasticismo estéril, pues recupera tanto la aspiración a una visión integral de la realidad como la comprensión del carácter esencialmente comunicativo y conversacional del lenguaje. 4. Resultados para el nuevo milenio El extraordinario atractivo que el positivismo lógico del Círculo de Viena ha ejercido —y en cierto modo sigue todavía ejerciendo— en la filosofía y en toda la cultura occidental se debe, en buena medida, a que prometía resolver los problemas filosóficos construyendo una imagen más científica del mundo. A estas alturas del siglo XX el proyecto del positivismo lógico ha naufragado, pero ha dejado como legado una manera de entender la filosofía y la actividad misma del filósofo como la del pensador que mediante su reflexión —en estrecho contacto con los resultados más avanzados de las ciencias positivas— anticipa cómo la ciencia resolverá nuestros problemas filosóficos. Se trata de un "pancientismo" ingenuo que piensa que el progreso de la ciencia acabará resolviendo finalmente todos los problemas, que en los últimos años se manifiesta particularmente en "la avalancha de libros sobre 'Inteligencia Artificial' y 'Ciencia Cognitiva' que llegan todos los días de ultramar" —ha escrito Alejandro Llano— cuyo "contenido, además de ser frecuentemente dogmático, también es no pocas veces trivial". En este sentido, puede afirmarse que la filosofía analítica es la filosofía de una era marcada ante todo por la ciencia y la técnica y, por eso, en una perspectiva más amplia es una genuina heredera de la Ilustración. Cuando en la segunda mitad de este siglo la filosofía analítica se institucionalizó en el ámbito angloamericano, adoptó los rasgos típicos de una corriente filosófica académica, perdiendo su perfil revolucionario y encerrándose muchas veces en una estéril escolástica. Pero en las dos últimas décadas del siglo ha cambiado el clima intelectual de la época, y la ciencia y la técnica se han tornado problemáticas por sus repercusiones en las vidas de los seres humanos78. Algunos filósofos de la tradición analítica han reconocido abiertamente el peligro del cientismo y han volcado decididamente su atención hacia todas las dimensiones de lo humano, apelando a la mejor herencia de Wittgenstein y de la tradición pragmatista y abriéndose a la denominada filosofía continental. En este proceso el filósofo de Harvard Hilary Putnam ocupa un puesto muy singular. En cierta medida en su biografía intelectual —como escribió Stegmüller— compendia buena parte de la historia de la filosofía de nuestro siglo. Por esta razón ha sido el autor más veces citado a lo largo de este trabajo y querría cerrar mi exposición con unas declaraciones suyo respecto al futuro de la filosofía analítica bajo el título Should Analytic Philosophy Continue: "Si 'filosofía analítica' significa simplemente una filosofía que esté informada por un conocimiento de la ciencia, un conocimiento de los logros de la lógica moderna y un conocimiento de las grandes obras de los filósofos analíticos pasados desde Russell, Frege, Reichenbach y Carnap hasta el presente, con seguridad no estoy pidiendo su terminación. Lo que me preocupa son determinadas tendencias de la filosofía analítica —la tendencia al cientismo, la tendencia a 'utilizar' la historia de la filosofía, el rechazo a oír otros tipos de filosofía—, pero luchar contra estas tendencias no es lo mismo que luchar contra la filosofía analítica. Como filósofo cuyos escritos están llenos de referencias a Frege, Russell, Wittgenstein, Quine, Davidson, Kripke, David Lewis y otros, me considero a mí mismo en ese sentido un 'filósofo analítico'. Pero, para mencionar una última tendencia que desapruebo, me parece una mala cosa la tendencia a considerar la filosofía analítica como un 'movimiento' (tendencia que ha llevado a la creación de nuevas —y excluyentes— asociaciones de filósofos analíticos en varios países europeos). Desde mi punto de vista, la única función legítima de los 'movimientos' en filosofía es la de ganar la atención y el reconocimiento en favor de ideas que no han sido todavía recibidas o que han sido desatendidas o marginalizadas. La filosofía analítica lleva mucho tiempo y es con seguridad una de las corrientes dominantes en la filosofía mundial. No es necesario convertirla en un movimiento y eso sólo preserva los rasgos que lamento. Así como podemos aprender de Kant sin llamarnos a nosotros mismos kantianos, y de James y de Dewey sin llamarnos pragmatistas, y de Wittgenstein sin llamarnos wittgensteinianos, de la misma manera podemos aprender de Frege, Russell, Carnap, Quine y Davidson sin llamarnos a nosotros mismos 'filósofos analíticos'. ¿Por qué no ser simplemente 'filósofos' sin adjetivo alguno?". Estas palabras de Hilary Putnam permiten poner punto final a la apretada exposición histórico-crítica del neopositivismo y la filosofía analítica a lo largo de nuestro siglo desarrollada en estas páginas. Sólo resta ya extraer algunas conclusiones, algunos resultados, que sean por así decir los mejores frutos que esta tradición ofrece para la filosofía del nuevo milenio. La mayor parte de ellos han sido explicados ya en las páginas precedentes, por lo que ahora simplemente se enuncian con una brevísima descripción. A juicio de quien escribe este trabajo, puede considerarse que los cinco resultados más fructíferos de este siglo de neopositivismo y filosofía analítica son los siguientes: 1. Atención a la experiencia y a los resultados de las ciencias naturales Frente a otras corrientes, la filosofía analítica defiende con el realismo clásico que nuestro conocimiento comienza siempre con la experiencia. El trabajo filosófico se torna especulación estéril si no se atiene en primer lugar a la experiencia y, por tanto, a los mejores resultados de las ciencias naturales a las que aporta su capacidad de discernimiento crítico. La capacidad teórica típica del trabajo filosófico requiere el permanente contraste con la experiencia disponible, de forma que teoría y experiencia se potencien mutuamente para lograr progresar en la comprensión de los problemas que suscitan la atención del filósofo y en algunas ocasiones en su efectiva solución. 2. Defensa de la claridad lógica, de la argumentación explícita y del sometimiento de la propia opinión a la crítica de los iguales El fruto más conocido de la tradición analítica es el papel central asignado en la formación filosófica a la lógica y a la filosofía del lenguaje, que han visto en nuestro siglo el mayor desarrollo de su historia. Además, frente a la imagen cartesiana del pensador solitario, la filosofía analítica encarece la necesidad de argumentar explícitamente la propia posición, presentando las razones y los datos que la avalan, para someterla al escrutinio de los iguales. Esta manera científica de hacer filosofía destaca el carácter cooperativo y discursivo de la búsqueda de la verdad: la confrontación con la evidencia empírica y con las opiniones opuestas son la mejor garantía disponible para el acierto en el trabajo filosófico. Frente a los excesos del formalismo, conviene recordar con Kripke que "no ha de suponerse que el formalismo pueda producir resultados filosóficos de tipo superior a la capacidad del razonamiento filosófico ordinario. No hay un sustituto matemático para la filosofía". 3. Denuncia del cientismo e inserción de la filosofía en el ámbito de las humanidades La tradición analítica ha renunciado al programa del positivismo lógico que encuadraba la filosofía junto con las ciencias, pasando ahora a insertar la filosofía entre los saberes humanísticos. La autoridad de la filosofía no radica en otorgar un fundamento al conocimiento científico, sino que ha de ganársela línea a línea: "Si estoy de acuerdo en algo con Derrida —afirma Putnam— es en esto: que la filosofía es escritura, y que debe aprender ahora a ser una escritura cuya autoridad ha de conquistarse siempre de nuevo, porque no la tiene heredada o regalada por ser filosofía". La filosofía analítica puso en sus primeras décadas gran empeño en reprimir sus diferencias respecto de la ciencia para no parecer una disciplina humanística, sino más bien algo así como una ampliación de la ciencia o una explicación del conocimiento científico. La insistencia ahora en su carácter humanístico implica que la filosofía ha de plantearse de nuevo la pregunta acerca de cuáles son sus aspiraciones y cuál es la mejor manera de alcanzarlas. En este sentido, la autoridad de la filosofía analítica para el nuevo siglo pende muy probablemente de que sus proponentes logren aunar en un mismo campo de actividad intelectual el rigor lógico y la relevancia humana, que durante décadas constituyeron los rasgos distintivos de dos modos opuestos de concebir la filosofía. Articular el rigor de la filosofía académica con los más profundos anhelos de los seres humanos viene a ser lograr una genuina "forma de vida" filosófica en el sentido wittgensteiniano. 4. Necesidad de una comprensión histórica de la filosofía y de la propia evolución del movimiento analítico La inserción de la filosofía entre las humanidades entraña una comprensión histórica de la propia disciplina que la distancia del paradigma científico dominante en las décadas precedentes. En las últimas décadas la tradición analítica ha descubierto que la comprensión en filosofía es esencialmente histórica y sus componentes han comenzado a considerar la historia del propio movimiento analítico en el contexto de la historia general de la filosofía83. De esta manera el estudio de los aciertos y los errores de esta corriente y de su inserción en la tradición general de la filosofía alimenta el florecimiento de la racionalidad humana, al tiempo que lleva a descartar las formas postmodernas del escepticismo. 5. Defensa del pluralismo y afán de integración Frente a la acusación de relativismo que una comprensión histórica de la filosofía puede suscitar, la renovación pragmatista de la filosofía analítica alza la bandera del pluralismo como vía para ganar en la cabal comprensión de los problemas. Como la realidad es multilateral, como tiene una ilimitada multiplicidad de aspectos, la verdad no puede ser agotada por ningún conocimiento humano, sino que queda siempre abierta a nuevas formulaciones. La defensa del pluralismo no implica una renuncia a la verdad o su subordinación a un perspectivismo culturalista. Al contrario, el pluralismo estriba no sólo en afirmar que hay diversas maneras de pensar acerca de las cosas, sino además en sostener que entre ellas hay —en expresión de Stanley Cavell— maneras mejores y peores, y que mediante el contraste con la experiencia y el diálogo racional somos capaces de reconocer la superioridad de un parecer sobre otro. El pluralismo no relativista sostiene que la búsqueda de la verdad es enriquecedora, porque la verdad es perfeccionamiento (Putnam). Por el contrario, la posición relativista que afirma que sólo hay diálogo, que sólo hay diversidad de perspectivas radicalmente inconmensurables (Rorty), no solo se autorrefuta en la propia formulación, sino que sacrifica la noción de humanidad al negar la capacidad de perfeccionamiento real y de progreso humano. Este es el foco actual del debate en el seno de la filosofía analítica. No sabemos cuál será el resultado. El deseo de integración ha sido siempre central en la reflexión filosófica; sin embargo, hay que ser conscientes de que todos los intentos de integración excesivamente ambiciosos se han colapsado. Entre los últimos intentos, los fracasos más clamorosos —escribe Putnam— han sido el del "realismo científico" en la cultura norteamericana y el de la dialéctica marxista en el continente europeo: "Como filósofos nos encontramos atrapados entre nuestros deseos de integración y nuestro reconocimiento de la dificultad. No sé cuál será la solución de esta tensión" 1.3 El problema de la aplicabilidad del método de las ciencias naturales en ciencias humanas y sociales En las ciencias humanas y sociales se han utilizado de forma profusa términos que han sido acuñados desde el tratamiento de las ciencias naturales y de la Física como ciencia natural por excelencia. La economía no ha sido ajena a este tratamiento, por ende la contabilidad como disciplina científico-económica en su afán por adquirir un grado de rigor científico, ha utilizado de forma prolija en la construcción y reconstrucción de su estructura conceptual los elementos que han permitido el avance teórico de las ciencias naturales. Así, se aborda el estudio de las teorías contables que han utilizado para su elaboración las teorías de Popper, y en su evolución o crítica han abordado de igual forma criterios que hacen referencia a Tomas Samuel Kuhn, Imre Lakatos y Paúl Feyerabend. Entendiendo las construcciones de estos autores desarrolladas en dialogo continuo, que permite descubrir un problema central común pero con soluciones lógicas en el primero, histórico-sociológicas en el segundo, histórico-logicismo en el tercero y pluralistas metodológicas en el tercero. Epistemología y contabilidad Si en el estudio de la contabilidad se utilizan instrumentos propios de las ciencias naturales, se podría estar frente a tres elementos que permitirían o no tal transferencia: - El primero que la contabilidad no sea una ciencia y por ende este utilizando un lenguaje propio de otra categoría del saber. - El segundo que la contabilidad es una ciencia, pero estaría clasificada en las ciencias sociales, en este sentido estaría utilizando para una ciencia un instrumental propio de un conocimiento con características diametralmente opuestas. - Una tercera opción es que la contabilidad es una ciencia social, y permite la utilización del instrumental metodológico que utiliza la ciencia natural, porque el método no es propio de la ciencia natural, sino de todas las ciencias, lo que se puede denominar un monismo metodológico. Para ampliar los elementos de juicio, se presenta unas consideraciones específicas en cuanto a los términos. Karl Popper en su obra “la lógica de la investigación científica” publicada originalmente en Viena en 1934. aborda el problema de la demarcación y el problema de la inducción; estas consideraciones y las posteriores del autor permiten calificar su teoría como un “racionalismo crítico” Considera Popper “el hombre de ciencia ya sea teórico o experimental, propone enunciados y los contrasta paso a paso”; se opone radicalmente a los “métodos inductivos”, entendido como “inferencia que pasa de enunciados singulares –observaciones y experimentos- a enunciados universales – hipótesis o teorías-“, esta crítica es tratada con elementos que ya había formulado David Hume conocido como el “problema de la inducción”. Hume arguye “incluso después de observar que se da frecuentemente una conjunción constante de objetos, carecemos de razones para extraer inferencia alguna acerca de ningún objeto que trascienda aquellos de los que hemos tenido experiencia”, “¿por qué a partir de dicha experiencia formamos conclusión alguna que vaya más allá de los casos de que hemos tenido experiencia?”. Kant intento resolver el “problema de la inducción” (Popper, 1982, p.29), a través de lo que él llamaba el “principio de causación universal”, era “valido a priori”, pero Popper concluye que “no tuvo éxito en su ingeniosa tentativa”. La solución Kantiana la desarrolla en “la crítica de la razón pura y prolegómenos a toda metafísica del porvenir”. Popper se opone a todo tipo de inducción, aún a la probabilística, que plantea que las teorías (Lakatos, 1983, p.12) “pueden alcanzar cierto grado de seguridad o de probabilidad”, pues dice” que la probabilidad matemática de todas las teorías científicas o deudo-científicas, para cualquier magnitud de evidencia es cero”. En el apéndice “probabilidad nula y estructura fina de la probabilidad y del contenido, (Popper, 1982a, pp. 338-351), sostiene que y desarrolla “la teoría probabilística de la inducción – o idea de una probabilidad inductiva es insostenible”. Frente a la inducción, Popper propone “la teoría del método deductivo de contrastar” – método que surge fruto de un problema que formuló en los siguientes términos “yo quería distinguir entre la ciencia y la seudo-ciencia, sabiendo muy bien que la ciencia a menudo se equivoca y que la seudo-ciencia a veces da con la verdad”. El camino de contrastación es presentado en cuatro etapas, (Popper, 1982, p. 32) “podemos distinguir cuatro procedimientos de llevar a cabo la contrastación de una teoría: la comparación lógica de las conclusiones unas con otras..., estudio lógico de la teoría..., comparación con otras teorías... y contrastar por medio de la aplicación empírica de las conclusiones que pueden deducirse de ella” Bajo estos criterios, los contables han utilizado el leguaje de Popper para desarrollo de teorías en la contabilidad; el profesor Richard Mattessich ha presentado la propuesta de la Teoría General Contable como el marco universal de orientación conceptual de los diferentes sistemas contables existentes, esta Teoría General, es validada a partir de un criterio de falsacionismo popperiano en sentido clásico, mientras que las interpretaciones de esta Teoría General tendrá una validación de carácter teleológico, es decir en función utilitarista. (¿Qué pertinencia tiene la aplicación de este criterio?) El profesor Tua Pereda señala “los supuestos básicos de la teoría general son proposiciones eminentemente positivas, cuyo origen es la búsqueda de puntos comunes entre los diferentes sistemas contables en presencia y el medio que operan... la comprobación de una teoría general de la contabilidad tiene que estar invariablemente unida a proposiciones específicas que rigen sistemas contables particulares; utilizando el criterio popperiano de la falsación o verificación negativa”. Tua haciendo cita de Mattessich indica “en la práctica real pueden encontrarse sistemas distintos a los caracterizados en la teoría general, los cuales, evidentemente constituyen una refutación potencial. Si estos sistemas defectuosos cumplieran sus propósitos correctamente, constituirían una refutación de nuestra teoría, pero si no es así, lo único que queda claro es su exclusión de la anterior teoría”... Bajo este criterio se evidencian las consecuencias de la transferencia de instrumental de una ciencia – la física- a una disciplina –la contabilidad-, cuando esta última tiene consideración muy particulares, (Tua, 1983, 605) “el carácter universal de las leyes nomológicas ha de ser entendido en términos relativos en la contabilidad, una ley contable o mejor una asunción contable, es universal en tanto cumple en todos los sistemas contables, pero al ser estos mutables, la ley universal está sujeta a cambio”. Evaluemos el tema de la demarcación, abordado también por Popper en “La lógica de la investigación científica”, “el problema de la demacración consiste en encontrar un criterio que nos permita distinguir entre ciencias empíricas y sistemas metafísicos”, el problema de la demarcación es esencial y como afirma Lakatos “tiene serias implicaciones éticas y políticas” Pero qué es para Popper la ciencia y qué determina el rigor científico de las teorías, el criterio propuesto por este autor es el de la falsabilidad de los sistemas, apuntando que las teorías no son nunca verificadas empíricamente, por el contrario el sistema científico se caracteriza por que “ha de ser posible refutar por la experiencia un sistema un sistema científico empírico”. Para poder aplicar la falsación debe de tenerse un conjunto de enunciados singulares, que sirvan de premisas en las inferencias falsadoras; El contable José María Requena en su libro “Epistemología de la contabilidad como teoría científica” en referencia a los “enunciados singulares” dice “... obtendremos dos subclases no vacías: la que incluye el conjunto de los enunciados que la referida teoría excluye o prohíbe y el conjunto de los que no se hallan en contradicción con la misma” El problema de la base empírica concierne al carácter empírico de enunciados singulares y a su contrastación; en las ciencias naturales, este problema ha generado gran discusión, encontrando sólo respuestas provisionales, es decir paradigmas en el sentido de Kuhn, en la acepción más sociológica del término. Si se presenta ésta discusión sin solución única en las llamadas ciencias duras, con mayor énfasis se presentarán alternativas múltiples de solución a la justificación de la base empírica en las ciencias sociales, pues como dice Kuhn “me asombré el número y el alcance de los desacuerdos patentes entre los científicos sociales, sobre la naturaleza de problemas y métodos científicos aceptados” En contabilidad la posibilidad de aprehensión de conceptos propios, a través del lenguaje de la epistémico-metodológica de las ciencias sociales es altamente inapropiada. En la base empírica la referencia a la “percepción sensorial” como alternativa de solución no da una salida concluyente; pues los contables no tratan de determinar “si esta mesa es roja o azul”, sino que intentan determinar el “valor” de la misma. Concepto de “valor” que genera una disimilitud de apreciaciones en la determinación cuantitativa específica del valor de un bien y/o servicio, con las técnicas utilizadas y permitidas dentro de la contabilidad para calcularlo, además del mayúsculo problema de la orientación que desde la economía se adopte de este término “valor”, si es que la contabilidad no llega a contar con su propia orientación. Para Popper la solución del problema de la base empírica, no está en la “percepción sensorial” –para la contabilidad tampoco-, ni en la regresión infinita, de justificación de enunciados a través de enunciados, ni en el psicologismo, donde los enunciados se justifican por enunciados y por experiencia perceptiva. En contabilidad se aproximan a este concepto de rechazo de las justificaciones no aceptadas por Popper, enfocado en la construcción de Mattessich donde se comparte el teorema de incompletitud de Goëdel, por tornarse hacia el infinito. En ese sentido el racionalismo crítico propone las características que los enunciados básicos deben satisfacer: (Popper, 1982, p.96) 1. No se podrá deducir enunciado básico alguno a partir de un enunciado universal no acompañado de condiciones iniciales. 2. Un enunciado universal y un enunciado básico han de poder contradecirse mutuamente. Un enunciado básico tiene la forma de un enunciado existencial singular como “hay un cuervo en la región espacio temporal K”. El elemento al que se refiere el enunciado básico ha de ser “observable”, es decir, contrastable intersubjetivamente por “observación”. En Contabilidad la formulación de las premisas básicas formuladas por Mattessich en los veintiún asunciones, están referidas a fenómenos empíricos, en ese sentido son contrastables con la realidad; Entendiendo que si existe un sistema contable con características diferentes a las formuladas en la Teoría General polivalente y que cumple satisfactoriamente los objetivos del sistema, es un sistema que cumple las funciones de un enunciado falsador. Esta orientación hace énfasis a los objetivos para los cuales fue diseñado un sistema contable, consideración no compatible con Popper, donde el “hecho crucial” es un elemento del conjunto no vacío de enunciados falsadores, que se contrastan con la realidad empírica objetivizada por la no-intervención subjetiva del investigador y no un criterio de validación teleológica, como el sistema contable. Tua en el acápite de Epistemología y Principios contables (Tua, 1983, pp. 637634), “la epistemología contable presenta unas peculiaridades específicas derivadas del objeto material de la misma... hay que insistir una vez más en la distinción entre los dos planos posibles de la epistemología contable: las vertientes cognoscitiva y deóntica”, es decir Tua reconoce para la contabilidad una estructura positiva y una teleológica, reconociendo la derivación de principios desde la teoría general como una orientación teleológica y olvidando que la teoría general, se construye sobre la base de unas características comunes y universales a los sistemas contables, con justificación en su utilidad técnica y metodológica y no por referencia a una realidad existente de forma aséptica, donde el hombre es un simple observador cómo calificaría el positivismo el conocimiento como tal. El traslado de herramientas propias de las ciencias duras, a otros tipos de conocimientos, como es el caso de la economía y la contabilidad no las hace unas ciencias duras, muy por el contrario, obstaculiza su desarrollo y no les permite el cumplimiento de objetivos específicos –razón de su existencia- peor aun cuando pretenden seguir el camino de la neutralidad de las ciencias naturales en su estadio más abstracto, abandonando por completo las exigencias que la sociedad hace y debe hacer a los conocimientos que tienen la función clara y determinada de responder a los problemas que se plantean a diario y en condiciones singulares y regionales y no en generalizaciones universalistas, trabajo propio de la ciencia, para los deterministas, defensores de lo absoluto. En la falsación el proceso debe aceptar un enunciado básico, como punto de partida, la defensa de este acuerdo Intersubjetivo por parte de los científicos es una respuesta no lógica en sentido riguroso que ofrece Popper al problema al problema de la justificación de los enunciados, tal como él mismo lo reconoce “es un tipo de dogmatismo inocuo”. La preferencia de una teoría obedece a la capacidad de competencia de las existentes, “la que por selección natural muestra ser más apta para sobrevivir”, además afirma (Popper, 1982, 104) “la elección viene determinada, en parte, por consideraciones de utilidad”; éste último criterio permitiría un acercamiento con el conocimiento económico-contable, donde la referencia a la verdad es desplazada por la preferencia hacia las teorías más útiles. Si se comparte este principio convencionalista las hipótesis instrumentales de la contabilidad, entendidas como macro-reglas para la acción, siguen un método científico en su criterio de validación teleológica, en la contrastación del cumplimiento de los objetivos, para la cual es aplicada; además su inferencia obedece a una estructura lógica, en la derivación de enunciados de más bajo nivel, a partir de un itinerario lógico deductivo en la construcción de principios contables. Lo que Popper pretende es alcanzar un alto grado de “objetividad”, el término objetivo y subjetivo de utilizado por éste racionalista crítico con una acepción muy cercana al utilizado por Kant; pero difiere en el criterio de certeza diferente que ambos manejan, es decir mientras Kant cree en la posibilidad de la ciencia absoluta y verificable completamente –inspirado en la ciencia de Newton-, Popper es un defensor del provisionalismo teórico y en la verificación negativa con la utilización del Tollendo Tollens: “la negación del consecuente es la negación del antecedente”; y concluye en que “la objetividad de los enunciados científicos descansa en el hecho que pueden ser contrastados intersubjetivamente”. Llegando a la siguiente conclusión “los sistemas teóricos se contrastan deduciendo de ellos enunciados de un nivel más bajo”. En esta línea Mattessich resume la validación para las proposiciones contables en tres puntos (Tua, 1995, 350). 1. Las proposiciones de alto grado de abstracción, correspondientes a la teoría general contable, se verifican en relación con la gama completa de los sistemas que emplean la doble clasificación. 2. Las proposiciones del más bajo grado de abstracción, las últimas hipótesis específicas de cada sistema contable, deben verificarse asegurando la utilidad neta positiva en relación con los objetivos perseguidos y no menor que la utilidad neta de la mejor alternativa no elegida. 3. Cada proposición de los niveles intermedios de abstracción debe estar en conformidad, por un lado, con la proposición superior más próxima y por otro, con todas las proposiciones inferiores que se deriven dela misma. Esta orientación de Mattessich con respecto a la doble validación en la contabilidad (cognoscitiva y teleológica), es particular de las ciencias aplicadas. Además advierte el profesor Romero[9] en el acápite “es científica la teoría contable”, “para que una teoría se considere científica debe reunir una serie de requisitos mínimos y antes de eso se constituye como una sistematización de leyes o fórmulas legaliformes, mediante la cual se puede prever acontecimientos... esta concepción de teorías queda descartada para la contabilidad, primero porque es formulada para las ciencias factuales, las que estudian hechos, y la contabilidad no se ocupa de hechos”. La propuesta de Durkheim –en desarrollo de la idea de Augusto Comte de aplicar el positivismo al análisis de los hechos sociales- es una potencial respuesta a Romero León, propuesta que consiste en: entender que las cosas sociales cobran realidad sólo a través de los hombres, son un producto de la realidad humana y su estudio exige, tal como lo formularon Bacon y Descartes, prescindir de todo tipo de ídolos y nociones preliminares, que nos entrega el sentido el común, para abordar el hecho social como una cosa que es para nosotros totalmente desconocido; se formula así la regla de la “ignorancia metódica” y el necesario criterio para “desechar sistemáticamente todas las prenociones”en buena medida tomando como fuente la consideración de Descartes. Descartes formula en esta dirección la primera regla del método “el primero consistía en no recibir nunca cosa alguna como verdadera que yo no conociese evidentemente como tal; es decir evitar cuidadosamente la precipitación y la prevención; y en no incluir en mis juicios nada más que aquello que se presentase a mi espíritu tan clara y tan distintamente, que no tuviese ocasión alguna de ponerlo en duda” Formula Durkheim que “los hechos sociales se deben tratar como cosas”, “todo objeto de la ciencia es una cosa, salvo, acaso, los objetos matemáticos”, es en este sentido que reconoce que su método no tiene nada de revolucionario y es esencialmente conservador, además afirma (Mardones, 1991, p.148) “los hechos sociales son cosas cuya naturaleza, aunque flexible y maleable, de todos modos no puede modificarse a voluntad”. El tratamiento que los autores como Mattessich, Cañibano, Tua Pereda, Requena y Montesinos, entre otros han dado a la contabilidad es el de ciencia, además coinciden en utilizar la metodología –separada y/o conjuntamente- de Popper, Kuhn, Lakatos, Laudan, Balzer, Bunge y Stegmüller, como instrumental para su estudio y validación; lo que exige determinar cuáles son las teorías de la contabilidad, sus hipótesis y enunciados y criterios de contrastación. Mauricio Nieto (Universidad de los Andes, Colombia) dice con respecto al traslado de este tipo de metodologías: “la propuesta de la filosofía de la ciencia tradicional del positivismo lógico o los trabajos de Karl Popper y sus criterios formales y a-históricos, eran inapropiados para describir el desarrollo del conocimiento científico” y resalta la orientación historicista “la ciencia debe ser susceptible de un estudio sociológico de idéntica manera que cualquier otro tipo de conocimiento o cultura” –hace referencia a Kuhn, Lakatos y Feyerabend-. “La ciencia occidental ha sido tradicionalmente vista como benevolente, apolítica y neutral; y su extensión como una incuestionable contribución al progreso material y a la civilidad”, este enjuiciamiento permite pensar en sí lo más acorde con el conocimiento es su transferencia irreflexiva o el estudio y la construcción de nuestra propia historia científica –me refiero a Latinoamérica-; además afirma el Nieto “la ciencia occidental también ha contribuido al estancamiento de otros”, “la implantación de la ciencia y la tecnología occidentales pueden también contribuir al despojo de los nativos del control de sus propios recursos, restándoles poder de forma sistemática”. Finaliza Nieto “la historia y la filosofía de la ciencia, en demasiadas ocasiones, han sido un poderoso instrumento para quienes se interesan en legitimar el presente, quienes quieren ofrecernos un futuro determinado por “fuerzas históricas inquebrantables”[13], pero es categórico Nieto “no hay razón que nos impida pensar las cosas diferentes y no estamos obligados a embarcarnos en una carrera de modernización y competitividad científica cuyas reglas de juego están determinadas por los intereses de grupos sociales específicos”. Este análisis crítico de la filosofía y la historia de la ciencia, se podría aplicar casi textualmente al debate actual del modelo económico único impuesto y desarrollado en Colombia en la década del noventa y la implementación de las Normas Internacionales de Contabilidad a partir del 1 de enero de 2005. No es sólo el método el que da la categoría de ciencia a un conocimiento, cuando un conocimiento que no tenga el rango de ciencia –de mayor aplicación el análisis para los conocimientos sociales y humanos- y utiliza los métodos y herramientas propios de la ciencia natural –ciencias duras-, no sólo no alcanza su pretendido rango científico, sino que además puede estar alejándose de su verdadera razón de ser, como para los conocimientos sociales es la resolución satisfactoria de los problemas concretos de la sociedad; que se pueden alcanzar con un rigor instrumental, finalista y participativo; mientras las ciencias naturales tienen un estatuto de neutralidad, objetividad no teleológica. Con respecto a la ciencia dice (Kant, 1985, p. 29), “si se quiere representar un conocimiento como ciencia, debe ante todo, poder determinar exactamente lo diferenciado, lo que en ella no es común a alguna otra y constituye peculiaridad...” esta afirmación hay que entenderla en el sentido de necesaria, pero no suficiente. (Requena, 1981, p.157) da respuesta a este criterio de la contabilidad “es la ciencia empírica, que con respecto a una unidad económica, nos permite en todo momento el conocimiento cualitativo y cuantitativo de su realidad económica con el fin genérico de poner de relieve la situación de dicha unidad y su evolución en el tiempo”... (Requena, 1981, p.149) “la contabilidad posee un objeto material común a la economía “la realidad económica”, pero un objeto formal propio el conocimiento cualitativo y cuantitativo de esta realidad”. Este concepto se cita como ejemplo de la preocupación por la identificación del objeto de estudio de la contabilidad, pero al mismo tiempo hay que entenderlo como reduccionista del radio de acción, función y alcance de la contabilidad. Se abordó el problema del objeto de estudio de la contabilidad, término que se transfiere de las ciencias naturales; Popper aborda un problema que dará luces a la pertinencia de utilización del mencionado término, este análisis se abordó en su texto “Conocimiento objetivo”, en el capítulo V “el objeto de la ciencia”. Parte de la afirmación “la propia ciencia carece de metas”, paro acepta que la actividad científica como racional ha de tener metas, así, “el objeto de la ciencia consiste en dar explicaciones satisfactorias de todo aquello que nos parece precisar una explicación” y “explicación es un conjunto de enunciados mediante los cuales se describe el estado de la cuestión a explicar” y en este sentido se prefieren “teorías que tengan un contenido cada vez más rico, un grado de universalidad cada vez más elevado y un grado de precisión cada vez mayor”. Desarrolla Popper, la tesis de la existencia de sistemas físicos que son altamente regulares y los sistemas biológicos y sociales que son altamente irregulares, desordenados –en contraposición al término clásico de orden- y más o menos imprevisibles. Los sistemas físicos regulares, ordenados y de comportamiento similar en el tiempo los relaciona con los relojes de predicción –reloj de péndulo- los sistemas imprevisibles, los relaciona con las nubes. No indica esta analogía que unos sistemas sean más perfectos y mejores que otros, sino que muestra dos naturalezas diferentes, que requieren unas condiciones específicas y particulares de estudio, esta afirmación es contraria a la línea propuesta por Popper con respecto al monismo metodológico- el falsacionismo- que no hace distinción metodológica entre un sistema y otro, ni entre la ciencia natural y las humanas. (Popper, 1982, 195) “Como ejemplo típico e interesante de nube recurrirá a una nube o enjambre de moscas o mosquitos. Los mosquitos individuales que como moléculas de un gas, forman todos un enjambre se mueve de un modo asombrosamente irregular). El sistema contable estaría clasificado dentro de la analogía de las nubes; en su parte científica y cercano a los relojes en su parte técnica. “La contabilidad, como ciencia encaminada al conocimiento de las unidades económicas es distinta de la técnica de la contabilidad, pudiendo decir que aquella es a ésta lo que el pensamiento a la acción. La ciencia es principio, la técnica normas de aplicación” Si la ciencia contable tiene como “objeto de estudio formal” “la realidad económica en cuanto a sus características cualitativas y cuantitativas”, ésta frente a un objeto dinámico, evolutivo y en constante movimiento, difícilmente predictible. Pero el determinismo físico, que formula que “todas las nubes son relojes”, indicaría que el hecho de que no conozcamos las leyes que rigen ciertos movimientos aparentemente irregulares, es sólo “un acuerdo de nuestra ignorancia”, pero que un día podremos llegar a determinar esas regularidades. En contabilidad aceptan los algunos contables que la técnica tiene el funcionamiento de un reloj de péndulo, de lo contrario no podrían formular la ecuación patrimonial A = C + P, Activo es igual a pasivo más patrimonio, esta es una consecuencia de la aceptación de una teoría del valor y unos criterios de medición y valoración, que son altamente falibles y de fácil refutación empírica. Con esto se demuestra que el funcionamiento lineal y preciso es fruto de acomodar la realidad a la teoría, pero no existe una explicación satisfactoria, contrastable y contrastada de la realidad, que es la razón de la ciencia. Como una nube funcionaría en la contabilidad las interpretaciones o aplicaciones de la teoría general contable que dependen de las condiciones de los entornos, de los objetivos específicos de los sistemas donde se instalan y en buena medida de los juicios de valor de quien diseña e implementa el sistema, en una clara orientación interdisciplinaria, tal como en la misma línea popperiana con respecto a que los problemas no logran una solución desde una sola disciplina del conocimiento sino que requieren el concurso activo de diferentes parcelas del saber. El físico americano Pierce formuló “todos los relojes son nubes” es decir “sólo existen nubes”, lo que lo lleva a precisar un determinismo en el conocimiento; para Compton el indeterminismo físico “resolvía no sólo problemas físicos, sin también biológicos y filosóficos”. Esta influencia de la física es evidente en las distintas épocas, para los diferentes autores de filosofía que asumen posición en el determinismo o el indeterminismo, como lo muestra Kant en su obra, bajo el predominio de la ciencia clásica de Newton, escribió con criterio de absolutista sobre ciencia, ética y estética. – es de anotar que este absolutismo es parcial, pues el noúmeno, permanece incognoscible-. ¿Qué es la contabilidad?, una “ciencia social” –responden algunos autores- y en este sentido, la ética constituye un fundamento del desarrollo y aun de la validación de la misma y en la definición de la estructura en la que ha de sustentar sus bases, aún con la posibilidad de hacer un paralelo de equivalencia entre hipótesis auxiliares en un programa de investigación científico –lenguaje de Lakatos- y una hipótesis instrumental en la interpretación de una teoría general contable con una orientación teleológica. Para considerar la contabilidad como una ciencia, ésta debe determinar sus “enunciados” y/o “teoría explicativa”, “enunciados observacionales” o “enunciados contrastadores” y la “justificación de la pretensión de que una teoría es verdadera”; pues estos elementos (Popper, 1982b, p.19), resuelve tentativamente el problema de traducir los términos subjetivos en términos objetivos; los términos subjetivos o sicológicos eran “creencias” “impresión”, “justificación de una creencia”. El problema de la demarcación entre lo que es ciencia y seudo-científico, incluye el término “experimento crucial”, entendido como el experimento riguroso que pueda o intente falsar una teoría, a través, de un hecho de un genuino test falseador; es decir un enunciado singular observable, que lleve a la falsación de la teoría. En contabilidad, para cumplir este requisito se debe establecer el número de teorías aceptadas, (excluyentes e incluyentes- pues en términos kuhnianos, Hendriksen, hablo de la contabilidad, como disciplina multiparadigmática), al igual que el conjunto de enunciados singulares falsadores de las teorías vigentes, rivales o monopólicas. ¿Cómo entender entonces la contabilidad?, el determinismo de los sistemas físicos, sociales o políticos, es otra variable a tener en cuenta; la economía no puede entenderse como un sistema cerrado –es posible que no existan sistemas cerrados-. (Popper, 1982b, p. 204) “por sistema físicamente cerrado entiendo un conjunto o sistema de entidades físicas como átomos, partículas elementales, fuerzas físicas o campos de fuerza que interactúan entre sí- y sólo entre sí- de acuerdo con leyes definidas de interacción que no dejan lugar a interacciones o interferencias con nada externo a ese conjunto o sistema cerrado de entidades físicas”. Si la economía y la contabilidad están analizando un objeto de estudio en un sistema abierto, cada situación requiere una descripción y una explicación, independiente; desde esta visión se invalida cualquier intento de universalizar las condiciones diferentes a partir de la estandarización de técnicas que busquen dar cuenta de una realidad; es utilizar instrumentos de “relojes” para abordar “las nubes” en el sentido de sistemas precisos –si existen- y sistemas caóticos –si existe lo irregular-. La “doctrina de la necesidad” según la cual “causas semejantes producen siempre efectos semejantes”, es una doctrina psicológica de seguidores de Hume, que la reformularon de la siguiente forma: (Popper, 1982b, p. 285) “nuestras acciones, voliciones, gustos o preferencias son causadas psicológicamente por experiencias anteriores y en última instancia por nuestra experiencia y nuestro medio”; esta apreciación final de los seguidores de Hume, es tan vaga –dice Popper- que es perfectamente compatible con el indeterminismo físico y no es comparable con determinismo físico. En continuación de la idea afirma Popper “no todos los acontecimientos del mundo físico están predeterminados con absoluta precisión en todos sus detalles infinitesimales”. Este criterio se puede pensar en las ciencias sociales, aun con mayor posibilidad de percepción, aceptando como lo plantea el indeterminismo físico que no se pueden negar muchos acontecimientos que siguen y tienen un grado de regularidad; pero de la aceptación singular y relativa no se pasa a la aceptación universal y absoluta del determinismo. La creencia en un determinismo físico y su traslado en la aplicación en las ciencias sociales, no es un tema, de interés epistemológico exclusivamente, sino que tiene fuertes implicaciones de carácter social, político y económico. Pues el intento de buscar objetivos –situaciones ideales- a partir de la determinación mono-causal o bi-causal o con un reducido número de variables, que se confía que se comportarán de manera mecánica y absolutamente precisa, puede llevar a excesos, dogmatismos y consecuencias con altos costos para la humanidad; -en otra línea aún más rigurosa, se dice, que la ciencia es neutral y en este sentido no puede buscar objetivos, -un positivismo puro- aplicado a la economía.La pregunta se puede formular en particular para las ciencias del hombre, (Popper, 1982b, p. 213) “lo que queremos es comprender de qué modo las cosas no físicas, como los propósitos, deliberaciones, plantes, decisiones, teorías, intenciones y valores pueden tomar parte en la introducción de cambios físicos en el mundo”. Se responde que no es posible explicarlos en términos absolutos de una teoría física determinista, o una teoría estocástica. La contabilidad bajo este criterio no puede pensarse como una ciencia aséptica, libre de juicios de valor e intencionalidades, más cuando su existencia obedece a los propósitos específicos de las fuerzas que actúan en un mercado y su técnica está reglamentada y tiende a mayor normalización no ingenua cada día. -¿cuál es el interés de la Norma Internacional Contable?- y como lo plante Foucault “cada fuerza tiene un poder de afectar (a otras) y de ser afectada (por otras)”, esta consideración no justifica la defensa del puro azar, donde todo y cualquier cosa puede ocurrir, pues no todo y de cualquier forma emerge. El método popperiano es el método del ensayo y supresión de errores, que determina los enunciados a partir de los cuales se falsearán las teorías por erradas, ¿qué pasa en las ciencias sociales? Que están más orientadas a la construcción de situaciones ideales, que a la explicación neutral de las situaciones pasadas. Una vez que el sustento de la explicación está condicionado por el marco teleológico del modelo posible y provisional con que cuenta un determinado grupo- varios grupos en lenguaje de Kuhn pueden tener diferentes lenguajes en diferentes modelos paradigmáticos y no necesariamente conmensurables-. La contabilidad en oposición a un positivismo neutral puede ser evaluada desde un instrumentalismo que evalué teleológicamente las herramientas más útiles; en ese sentido el pensamiento filosófico lo expresa el profesor Jaramillo “los instrumentalistas, miraron las teorías científicas de una manera pragmática, vale decir, como útiles instrumentos de cálculo, al punto de que el problema de la verdad de las teorías pasó a ser un problema secundario” Según Popper, ¿qué intencionalidad tiene la ciencia?, (Popper, 1982b, p. 238) “no partimos de observaciones, sino siempre de problemas... el aumento del conocimiento va de viejos a nuevos problemas mediante conjuras y refutaciones”, cita a Darwin y manifiesta “es extraño que hay quien no vea que toda observación tiene que estar a favor o en contra de algún punto de vista”; lo que muestra que la observación no es independiente o neutral, por el contrario está sujeta a unos condicionantes. En las ciencias económicas las observaciones están determinadas por unas orientaciones teóricas que nos permiten describir una realidad económico-social; se ha formulado que “todas las observaciones son teóricas”. –Hanson, desarrolla un concepto al respecto-. La objetividad va reduciendo su pretensión de neutralidad universal y va quedando reducida a una cuestión de grado y es posible de convencionalismo Intersubjetivo entre los miembros de una comunidad científica. Así mismo se debe entender la observación, Popper se orienta por una observación que está determinada y supeditada primero a la formulación previa de la hipótesis o problema y estará supeditada a condicionantes de endógenos y exógenos en la captura del dato observado. Se refleja este caso en una situación propia de las ciencias sociales, como es el análisis de la situación económica de un país; un humanista estudia –el término observar es más complejo- el nivel de desarrollo de un país X en Latinoamérica, en los datos de la observación o estudio, estará viendo las consecuencias nefastas de implementación de un modelo enajenante, generador de miseria y pobreza. La misma situación es estudiada por un analista neoliberal, éste encontrará en los datos observados el cumplimento de las leyes del mercado libre y las bondades de la competencia, reflejando en los datos la eficacia, la eficiencia y la derrota de los no competitivos; en una orientación del pensamiento de Darwin a la ciencia social, en defensa de la supervivencia de los individuos más aptos para sobrevivir a la competencia del mercado. La disertación cobra fuerza además desde la sociología del conocimiento científico, frente a las alternativas múltiples de estudiar el quehacer científico y su estrecha relación con mecanismos de poder. Así se puede formular que las teorías universalistas no son las más adecuadas para pensar los hechos sociales y que estos requieren una orientación cada día más singular; en contraposición con la característica tan aceptada de la universalidad de la ciencia; pues cada hecho requiere un análisis individual y único. 1.4 La aproximación pragmática a la racionalidad en ciencia El paradigma tríadico en el campo de los sistemas jurídicos La cultura de la humanidad es producto del modo cómo el hombre ha usado su mente, es decir, cómo ha usado sus procesos mentales a lo largo de la historia. En cada momento histórico hubo hegemonía de una cultura inherente a un conjunto de procesos mentales propios. Primero fueron hegemónicos los procesos prácticos, inherentes a una cultura operativa y pragmática, con carácter de agresividad y fuerza, adecuado a un “estado de guerra de todos contra todos”, según el modelo presentado por Hobbes. Conforme a la teoría de la evolución, esto es lo que sigue ocurriendo entre los animales de la selva. Ultrapasada esa cultura de la guerra, emergieron los procesos creadores de lo sagrado con sus doctrinas civilizadoras, sus corolarios morales, mandamientos y códigos sagrados. Por otra parte, con la ilustración, comienzo de la edad moderna, del protestantismo y de la expansión de la cultura anglosajona, tuvieron hegemonía los procesos lógicos inherentes a la cultura de la razón, con carácter investigador y ordenador de las leyes científicas y jurídicas. En cambio, al final de la edad moderna, reaparecieron y recobraron hegemonía los procesos mentales o modos de ser inherentes a la cultura pragmática, con su tradicional modo de imponer un orden social dado por medio de la violencia e irracionalidad, independiente de la ley o ética. Estos procesos y respectivas culturas pueden representarse Por otra parte, debe considerarse que el pensamiento humano, en general, y la ciencia, en particular, son productos de la experiencia humana acumulada, dependientes de muchos hechos accidentales, actitudes equivocadas y actitudes críticas o planeadas, que permiten aprender de los errores, corregirlos y superarlos según nuevas hipótesis4 y paradigmas. Sobre todo su evolución es cíclica y recurrente, y está sometida a determinaciones externas de la cultura, de la sociedad, de la historia, etc., y especialmente sometida a determinaciones intrínsecas al propio pensamiento y a la ciencia, que son sus principios organizadores, sus paradigmas, sus creencias, sus modelos explicativos del mundo, que gobiernan y controlan, de forma imperativa y prohibitiva, la lógica de los discursos, pensamientos, teorías y prácticas. En esta perspectiva, el hombre es parte del universo y de la ciencia, razón por la que no es neutral y objetivo en sus investigaciones. No es él un observador o actor externo que ordena y sistematiza datos inconexos, sino que construye modelos y paradigmas sobre restricciones, extrapolaciones e hipótesis con sus tres procesos mentales cargados de elementos subjetivos y de modos de percepción e interpretación del mundo que le sean más favorables. Por otro lado, del mismo modo que elabora la racionalidad científica también construye y estructura las racionalidades morales y pragmáticas alrededor de determinados paradigmas. En cuanto a la multiplicidad de perspectivas, en torno a las que los paradigmas se estructuran, se encuentran fundamentalmente tres, que son, en sentido amplio, las que corresponden a las percepciones o visiones de mundo inherentes a los procesos de la cultura: pragmática, mística y racional. Según el modo de conjugarlas - o si se considera una de esas aislada -, se estructuran los principales paradigmas o las principales cosmovisiones, que delimitan y balizan los modos de percepción, comprensión y actuación del hombre en el mundo, o bien estructura su modo de sentir, pensar y actuar en el mundo. En la hipótesis de única perspectiva de percepción, que además viene aislada y sin cualquier interacción con otras, se obtiene una visión monádica, que es la que percibe, teoriza y actúa en la realidad desde un enfoque unidimensional, o a partir de una referencia única, de la cual resulta una percepción, una explicación o una experiencia excluyente de otras posibilidades simultáneas en competencia o en cooperación. Si se enfoca desde la perspectiva racional, científica, sólo se considera lo que pasa por los criterios y cánones de los métodos y lógicas oficiales9. Según este enfoque, no se admiten otros conocimientos que no sean adquiridos por los métodos racionales. En esta perspectiva, el conocimiento se resume a lo que proviene de la ciencia, pertinente a los procesamientos mentales lógicos, y niega la existencia o la posibilidad de conocer todo lo que no esté bajo su dominio. Por esto pone al margen todo el conocimiento y la toda realidad que no se encaje en su estructura lógica o que no cumpla sus criterios. Sus más expresivas defensas se encuentran en las escuelas del positivismo o neopositivismo, en contra especialmente de todo lo que tiene carácter metafísico. Por estos cánones se representan los paradigmas de las ciencias positivas, de la física clásica, de las especializaciones del conocimiento, etc. En este sentido, también resulta unidimensional o monádica la perspectiva funcional, pragmática o utilitaria, cuando se abstiene de reflexiones abstractas y de fundamentos morales para la consecución de sus fines. Será unilateral o monádica si sus fundamentos se reducen a uno de estos aspectos, o bien si sus criterios se resumen al interés por resultados o por la utilidad. Lo práctico, en general, se refiere a lo que efectivamente se lleva o puede llevarse a cabo en el terreno de la realidad, o aquello cuyo fin es llegar a ser en el orden de lo real y no algo meramente ideal; sin embargo, en este campo, a veces, también se juega con lo útil, y se habla de la inutilidad de las teorías, de la ética, de la moral, etc. De la misma manera, resulta monádica la perspectiva de percepción de la realidad desde un enfoque exclusivamente intuicionista, sentimental, moral o místico, alejada de suficientes razonamientos y praxis. Así, también resulta reduccionista y unidimensional. En la visión monádica, resultante del enfoque unidimensional, la percepción de la realidad suele presentarse con carácter de universalidad y necesidad, independiente de variaciones de contextos. Como se trata de enfoque unidimensional, de ahí resulta una única percepción posible, que se impone como excluyente, inmutable y verdad absoluta. Se fundamenta en la razón, en la creencia (mito, fe) o en la práctica (procesos). Cualquier de estos fundamentos, cuando se adopta excluyendo otras posibilidades, rechaza todo lo que no satisfaga a los criterios establecidos en su perspectiva. Por esto limita, arbitrariamente, el conocimiento y la acción a sus dominios y establece orden único, excluyente y sectario. Se trata de un enfoque que representa parte de la realidad como si fuera la totalidad, por esto la distorsiona y la reduce. El conocimiento en perspectiva monádica resulta del pensamiento lineal y se realiza en plano único, independientemente de las interconexiones necesarias en otros planos. Establece vínculos exclusivos y necesarios como los de causa-efecto, sujeto-objeto, etc. Su carácter lineal le impide abarcar estructuras complejas. Por su condición de pensamiento unidimensional, excluyente y reduccionista, las diferencias o variaciones de percepción, interpretación o conducta deben ser rechazadas, puesto que en otras dimensiones, planos o perspectivas son patológicos y contrarios a sus criterios. Ante esto, se concluye que se trata de un paradigma que no tiene estructura y complejidad suficiente para percibir, interpretar y actuar en realidades con más de una dimensión. Con un enfoque así, cuando una dimensión de la realidad se revela, las demás se ocultan, puesto que no se permite que diferentes perspectivas coexistan. El orden conocido se desvanece si se cambia de perspectiva, puesto que la verdad reside en único plano o dimensión y se sostiene en la creencia de que las cosas son absolutas en el mundo objetivo y que se las conoce directamente y en su totalidad si son aisladas o separadas de las relaciones con las demás. Se encuadra exclusivamente en la lógica clásica, donde cada proposición sólo tiene un valor: verdadero o falso, sin posibilidad de relacionar o agregar elementos de otras dimensiones del mismo sistema que permitirían respuestas diferentes. Así pues, desde una percepción e interpretación monádica de la naturaleza del orden natural de las cosas - y del orden social, en un ambiente cultural del subgrupo social dominante, se crearon innumerables variantes del Derecho natural, del derecho positivo o bien del derecho consuetudinario, con absoluta unilateralidad y parcialidad de la responsabilidad o imputabilidad del sujeto individual o colectivo; todas las demás circunstancias y relaciones complementarias no son más que efectos o atenuantes colaterales. Por otro lado, en la segunda perspectiva, está la percepción diádica, la que, alejándose de la supremacía del orden estático, inmutable y absoluto, se vuelve al dinámico, al cambio y al transitorio, y se apoya en la contradicción o complementariedad de las partes, a pares, que van en confrontación o separadas en polos opuestos. En esta perspectiva, la dimensión operativa o la de relación de partes reciben más énfasis. Así, desde las grandes esferas de la realidad, la espiritual y la material, hasta las más diminutas, todo tiene su par: ricos y pobres, capital y trabajo, ciencia y religión, buenos y malos, epistemología y fe, forma y contenido, ciencia y tecnología, teórico y práctico, subjetivo y objetivo, productor y consumidor, público y privado, etc. Y todo se desarrolla hacía un lado o, al revés, hacia su negación, según el modo de percepción diádico que se adopte. Hay siempre dos valores y dos fuerzas que bajo diversos matices determinan la identidad del ser. Para Bachelard, que comenta la epistemología no-cartesiana, el hombre, en su esfuerzo de cultura científica, se apoya en dos actitudes filosóficas fundamentales, asociadas al espíritu científico moderno. Son dos metafísicas contradictorias, a las que, bajo las etiquetas clásicas, se denomina racionalismo y realismo. Ellas presentan dos aspectos igualmente necesarios, uno subjetivo y otro objetivo, dado que no es posible prescindir o cambiar las leyes del espíritu o las leyes del mundo natural. Con esto se debe respetar la extraña ambigüedad que exige que todo el pensamiento científico se interprete a la vez en el lenguaje racionalista y en el lenguaje realista. Con este nuevo espíritu científico se sustituye la intuición de la doctrina de las naturalezas simples y absolutas por un estudio discursivo que realiza una especie de dualidad fundamental. Así, todas las nociones de base pueden de algún modo ser desdobladas y marginadas por nociones complementarias, que llevan por tanto a una especie de ambigüedad esencial en la base de la descripción científica. Esta epistemología perturba el carácter inmediato de la evidencia cartesiana, puesto que ningún método unidimensional, sea racional sea experimental, garantiza la fecundidad del proceso científico. Ya no se puede ser realista o racionalista. Para el sabio, el Ser no se capta en un bloque ni por la experiencia ni por la razón. Es preciso, pues, que la epistemología se encargue de la síntesis más o menos móvil de la razón y de la experiencia. Por otro lado, para Lefebvre, la lógica dialéctica (refiriéndose a la dialéctica diádica) añade a la antigua lógica la idea de las transiciones, de los desarrollos, del “enlace interno y necesario” de las partes en el todo. Muestra, a la vez, el enlace, su necesidad y “el origen inmanente de las diferencias”. Afirma, con Lenin, que la dialéctica muestra “la lógica interna objetiva” del desarrollo y la “lucha de las diferencias polarizadas”. Así, de la lógica formal dependen las relaciones abstractas y generales, como ‘inclusión-exclusión’, y de la lógica dialéctica dependen las relaciones duales y más concretas, como reciprocidad, complementariedad, doble determinación, y también recurrencia, simetría, repetición y diferencia, etc. Aunque la humanidad se haya dado cuenta del día de, de la interdependencia, la complementariedad mínima de dos lados, partes o actores, las nociones de Justicia y de Derecho aún no han asimilado eso en su filosofía y en su práctica legislativa o judiciaria. Todo sigue monádico, a excepción de las conciliaciones con o sin mediación; ahí las dos partes desisten de llevar la disputa hasta el extremo de “todo o nada” y aceptan un acuerdo en que las dos partes pierden y ganan dentro de los límites de proporcionalidad. Sin embargo, en la percepción de la realidad conforme los cánones o procesos inherentes a las tres culturas, simultáneamente, o en la perspectiva que la considera con tres partes y tres fuerzas elementales entrelazadas y posicionadas o en cooperación y oposición, “jugando dos contra una”, es decir, dos en cooperación y una en oposición o dos en oposición y una en cooperación, se tiene una dinámica tríadica. Esas tríadas componen estructuras, sistemas y cadenas de sistemas que se repiten en distintos niveles de complejidad. En la física cuántica se adopta un paradigma tríadico. Gell-mann, en sus planteamientos, lo plantea todo en “tríadas”23. En el marco del paradigma de la física cuántica, la realidad se define como momentos de estructuras triádicas de partículas interconectadas componiendo un conjunto estructural superior, según el principio de la incertidumbre y ante la presencia de la ley de convertibilidad de la energía, según la cual la materia, como masa, puede transformarse en energía y viceversa a lo largo de cualquier escala o cadena sistémica24. Así, v.g., se tiene una cadena como la de los quarks, protones, neutrones, átomos, moléculas, células, organismos o materias más complejas que convierten en sistemas menos complejos de energía “líquida” o desmaterializada etc. Así, la energía tríadica, como sustancia básica de la materia, de las cosas y del todo, en su estructura y movimiento, es tomada como paradigma para la interpretación de toda la realidad. Las ciencias han estado reflexionando durante la última mitad del siglo XIX y todo el siglo XX sobre la interpretación de la realidad según esos dos principios: - todo está en permanente co-evolución sistémica; - todo obedece a un patrón o molde tríadico en su composición e interacciones de supervivencia, reproducción y convivencia. Por eso se han integrado, cada vez más, la Física con la Química y la Biología, bajo el título general de Teoría de los Sistemas Dinámicos, conocida también como Teoría del Caos, cuya aplicación práctica se presenta en la ecología, ambientalismo, economía, sicología, etc. Con fundamento en estos nuevos descubrimientos, también las corrientes de la ciencia jurídica y de la filosofía del derecho tendrán que revisar sus fundamentos. En el caso que ahora se presenta, se trata de un paradigma que unifica y relaciona tríadicamente aspectos o elementos de la realidad antes tratados separadamente, tanto con relación a los aspectos de la estructura, como del movimiento y del fin de las cosas. En este supuesto, se afirma que en los debates éticos, por ende en los debates jurídicos, las ciencias positivas también pueden presentar valiosos elementos de percepción, interpretación y actuación, especialmente modelos de coherencia para sus paradigmas, que “no sólo pueden aclarar, sino que hoy no se concibe un debate ético que no se apoye en resultados científicos”. En el debate sobre el orden jurídico-social vigente predomina el paradigma monádico, donde reinan disociados e irreconciliables los imperios del racionalismo, del realismo y del iusnaturalismo, cada cual intentando argumentar, respectivamente, por medio de la razón, de la fuerza o de la creencia y mito, y excluir los demás aspectos de las diversas esferas de los ordenamientos nacionales o internacionales. La escasa distribución y garantía de bienes satisfactorios y condiciones elementales en el campo de las tres culturas (educación, ciencia y ley; bienes materiales; espiritualidad, disfrute y felicidad) entre los partícipes de una sociedad indica que la ordenación y ejecución del ordenamiento jurídico se orientan por un modelo monádico, que representa el pensamiento y las demandas dominantes (y excluyentes) de un grupo, en detrimento del pensamiento y de las demandas sociales de los demás. Las consecuencias de la adopción de un ordenamiento jurídico según un paradigma monádico, basado en la percepción unilateral de la realidad, son, entre otras, la intolerancia, la segregación, el fundamentalismo religioso o político, el totalitarismo y el despotismo, el imperialismo, el monopolio económico, la concentración de riqueza y poder para unos y la miseria para otros, etc. Como alternativa al paradigma monádico concentrador de poder y riqueza, especialmente en contraposición al pensamiento único y a favor de la diversidad de posiciones y de conocimiento, análisis y crítica del sistema social, o para dividir el poder, el siglo XX había adoptado el paradigma diádico o marxista para gran parte de la humanidad. Pero tampoco ha traído respuestas adecuadas a las necesidades sociales. Las altas tensiones entre las partes antagónicas no permiten síntesis aceptables, por eso se vuelve al monismo y a la exclusión de una de las partes y a la posición o verdad del más fuerte. Conlleva, entonces, el dualismo a una dicotomía insuperable, que divide la realidad en dos partes antagónicas, irreconciliables e incapaces de cooperación, donde la síntesis es la sumisión máxima para una y el poder máximo para la otra. Además de que sigue siendo un paradigma excluyente, reduccionista y mutilante, por no admitir en un mismo contexto o nivel de realidad otra afirmación que no sea la oficial y su negación. Le falta, por lo menos, otro elemento que pueda ejercer la función de mediador. Por otro lado, la realidad, ya se sabe, en diferentes momentos de su estructura comporta antagonismos complementarios que no se pueden traducir por contradicción. Más bien es una invitación al pensamiento complejo, capaz de absorber las aparentes contradicciones e incertidumbres. “No se trata de tolerar blandamente la contradicción, ni siquiera de esperar que un nuevo progreso cognitivo la haga desaparecer, se trata de servirse de ella para reactivar y complejizar el pensamiento. Hace falta un pensamiento que sepa tratar, interrogar, eliminar, salvaguardar las contradicciones. Esa es la tarea del pensamiento complejo”. Por esto se afirma la necesidad de un paradigma capaz de romper los estrechos límites monádico del objeto jurídico y reubicarlo e integrarlo en la dinámica tríadica efectiva de la realidad con su correspondiente representación formal tríadica, sin mutilarlo en su naturaleza racional, trascendente y pragmática, puesto que el Derecho lleva en sí una estructura cognoscible, una esencia trascendente y una relación constitutiva en el espacio/tiempo. Con referencia al pensamiento lógico/analítico, más identificado con el cerebro izquierdo, lo que precisamente lo constituye son los vínculos que relacionan las cosas con todo lo demás, por el principio de la no-contradicción y por el principio de la identidad. Según el primero, puesto que “A es A”, “A es no-B”; o conforme el segundo, A es más A, cuanto más se identifica consigo mismo. Por el primero solo se puede identificar algo si se consigue diferenciarlo de todo lo demás; por el segundo sólo se puede diferenciarlo si se consigue identificarlo mostrando que no es como todos los demás28. Pero la identificación implica la relación y la diferenciación. Se identifica relacionando y diferenciando elementos de una misma o diferente categoría o sistema. Así, el tercer elemento no es propiamente excluido sino mediata o inmediatamente relacionado. Según el orden o las relaciones establecidas, factores componentes adquieren mayor o menor (o ningún) peso en la identidad, calificando o descalificando un ente para determinados fines en un contexto. Son las funciones elementales del pensamiento lógico. Los conceptos, razones, juicios, resultan de este proceso recurrente de identificación, relación y diferenciación. Por su parte, la historia del pensamiento sintético/intuitivo, más relacionado con el cerebro derecho, en la comunicación de las experiencias humanas al margen de las leyes físicas, lógicas, y del mundo visible y material, está llena de registros del pensamiento apoyado en la percepción tridimensional de la realidad. Esa intuición se manifiesta con toda claridad en las más expresivas doctrinas religiosas, que retratan la constitución ternaria del hombre (cuerpo, alma y espíritu) y del universo (mundo divino, humano y natural) y revelan lo absoluto en su naturaleza unitriádica. En la encíclica “Fides et Ratio - La fe y la Razón”29, por ejemplo, el Sumo Pontífice Juan Pablo II enseña que en el camino de la doctrina cristiana, “la fe y la razón (fides et ratio) son como las dos alas con las cuales el espíritu humano se eleva hacia la contemplación de la verdad... El fin último de la existencia personal, pues, es objeto de estudio tanto de la filosofía como de la teología. Ambos, aunque con medios y contenidos diversos, miran hacia este ´sendero de la vida` (Sal 16[15]11), que, como nos dice la fe, tiene su meta última en el gozo pleno y duradero de la contemplación del Dios Uno y Trino”. En esta doctrina, se ve, con claridad, rasgos del pensamiento tríadico. También la lógica de la ciencia y tecnología de este nuevo siglo exige un pensamiento complejo. En las palabras de Hawking, en la mecánica cuántica “se basa casi toda la ciencia y la tecnología modernas. Gobierna el comportamiento de los transistores y de los circuitos integrados, que son los componentes esenciales de los aparatos electrónicos, tales como televisores y ordenadores, y también es la base de la química y la biología modernas”30. Para Gregori, según el paradigma dialéctico tríadico, la realidad es una red de siste­mas en la que se efectúan permanentemente transformaciones energéticas, de la cual todos participan. Se trata de una transformación evolutiva recurrente y diferen­ciadora (como entre hijos, padres y ancestros), en ciclos plausibles o probabilís­ticos, que pueden moverse en cualquier dirección y en secuencias regula­res o caóticas. Es una red que tiene automovimiento tríadico, formando ciclos y secuencias de juegos unitriádicos diversos y con diferentes apariencias, como manifestaciones de un gran juego tríadico universal. Cada sistema y toda la red tienen capacidad de feedback, que es la capacidad de informarse intuitiva y lógicamente para conseguir autorregulación y autoconducción en la búsqueda por supervivencia y reproducción, entre otras metas específicas, según el grado de complejidad de cada sistema. En este sentido, según distintos puntos de vista y en todos los niveles de la realidad, la energía se manifiesta siempre en una triple estructura o unidad tríadica, sea cuando se manifiesta en forma pura (energía cuántica), material (minerales, vegetales y animales), noónica (mental: conciencia, pensamientos y emociones), económico-social (productos, monedas, servicios), como también en forma gregaria (organizaciones, instituciones, política) o teleológica (ideales, metas, utopías), etc. De hecho, la realidad no es una unidad perfecta, ni se compone de unidades perfectas, o tampoco una pluralidad aleatoria e incomunicable, por eso el paradigma dialéctico tríadico permite comprenderla con amplitud y profundidad. Es pues, la realidad, según este paradigma, una relación constitutiva de sistemas que componen nuevas unidades en la diversidad y en otros niveles. Cada sistema se constituye en un nudo de una red de relaciones de varios nudos que en la tríada componen nuevos sistemas en una dinámica de probabilidad. La conformación e interacción de las tres fuerzas de un sistema en competencia y cooperación constituye una realidad unitriádica. Su estructura se manifiesta ya desde la naturaleza tripartita de la energía, conforme a la teoría de los quark-lepton, y se hace presente en todos los niveles de la organización de los sistemas. Son tres tendencias, tres fuerzas o tres cargas de energía que componen la unidad. De ahí el unitriádico. En cuanto a las cargas, se denominan: positiva, negativa y neutra; en cuanto a las direcciones: derecha, izquierda y centro; o bien: neguentropía, entropía y homeóstasis; con relación a los quarks: up, down y strange, y aún top, bottom y charm. En el fondo, todo sistema resulta de la interacción o tensión de tres componentes; por esto se le llama también juego tríadico. Es un concepto más amplio que el de dialéctica de dos lados o juego diádico, que a su vez es más amplio que el concepto monádico, en el cual ocurre la percepción de una sola cosa cada vez. Cuando se toman dos lados a la vez, en contradicción o competencia, se está usando un paradigma diádico. Y cuando se toma un sólo lado o aspecto cada vez, sin relacionarlo con sus complementarios (concurrente y cooperativo), se tiene un “paradigma monádico”. El juego tríadico resulta del estado de tensión entre los componentes de un sistema, y puede ser en el sentido de interacción, composición, cooperación, neguentropía, choque, competencia, entropía, movimiento pendular, circulatorio u ondulatorio, para transformar, extinguir o perfeccionar el sistema. Es una relación constitutiva de partes entrelazadas en un sistema en evolución o involución. La relación puede ser interna, entre sus componentes, o externa con otros sistemas. El movimiento puede ser hacia el grado más alto de organización y complejidad o en dirección a la desintegración del sistema. Cuando es en dirección ascendente, hacia el perfeccionamiento, lo absoluto, se debe a la fuerza neguentrópica y cuando es en dirección descendente, hacia la destrucción, la negación o muerte del sistema, se debe a la fuerza entrópica. La oscilación alrededor del punto medio, resultante de la atracción de los polos opuestos, es la homeóstasis o porporcionalidad entre los extremos. Esto significa que las partes están en permanente movimiento oscilatorio adaptativo, pero siempre dentro de los límites y proporciones que garanticen las identidades y las diferenciaciones. Informa Gregori que la homeóstasis no significa igualdad entre masas, fuerzas, cargas, velocidades, etc. de los elementos integrantes de un sistema. Más bien significa proporcionalidad (que supone la diferenciación y la jerarquización) entre los elementos que se equilibran en todo momento entre sí y con el medio ambiente. En su trabajo de sistematización del lenguaje tríadico, preexistente en diferentes campos de conocimientos, Gregori propone, como denominador común de las tres fuerzas, clases, o subgrupos interactuantes en todas las ciencias sociales y humanas, las siguientes denominaciones: - lado o subgrupo oficial para el que está en la posición superior, de dominio, de mando y dirección; es el dueño de la situación y está direccionado por la inteligencia operacional, buscando primacía para la riqueza y el poder. - lado o subgrupo anti-oficial para el que está en contra del primero, en posición divergente, digresiva, transgresora; manteniéndolo de esa forma despierto, actuante, renovado; es el competidor, el crítico y está direccionado por la inteligencia racional, buscando primacía para la razón y la verdad,. - y lado o subgrupo oscilante para el que está disponible para cualquiera de los anteriores, porque es neutral, centrista, subordinado, con poca auto conducción pero que sirve de equilibrio y base de subsistencia de los subgrupos oficial y anti oficial, cooperando a veces con uno, otras veces con otro, según sus conveniencias; está dirigido por la inteligencia emocional del cerebro derecho buscando primacía para el amor, el reconocimiento, el goce. El lado oficial es el que domina el sistema. Es el organizador y coordinador interno; es el conductor del sistema para la neguentropía o para la entropía. El lado anti oficial representa sentido y fuerza divergentes, creando o manteniendo la tensión necesaria al sistema para renovarse. El lado oscilante es el que se adhiere tanto al oficial como al anti oficial, según las leyes de gravedad tríadica; es el estabilizador o moderador de las tendencias opuestas de los otros dos lados. Para el paradigma dialéctico tríadico, la interacción ocurre siempre entre los tres lados en su búsqueda incesante de bienes satisfactorios de sus necesidades de supervivencia, reproducción, información y convivencia. Una representación sumaria de las necesidades y sus satisfactorios se pueden hacer alrededor de los tres cerebros: El forcejeo por la búsqueda de satisfactorios entre los subgrupos humanos (en la familia, en la empresa, en la sociedad nacional e internacional) además de incesante es maximocrático, es decir, con carácter de concentración monopolístico, insaciable, infinito... En las teorías tradicionales del derecho, de la política, de la economía, etc., ese carácter se interpreta, eufemisticamente, como escasez. En realidad, cada subgrupo maneja un arsenal de medios para imponerse al máximo a sus competidores, con innumerables estrategias y tácticas para maximizar sus ganancias. Este fenómeno se reduce a los juegos de competencia/cooperación. La competencia puede darse entre el antioficial y el oficial ante la cooperación del oscilante con el oficial, produciendo así la estabilidad del sistema; o puede darse la cooperación del oscilante con el subgrupo antioficial, en contra del oficial, produciendo así las huelgas, revoluciones o medios de presión contra el sistema; o también puede darse la cooperación (o complicidad) entre el antioficial y el oficial, en las escasas ocasiones en que el oscilante se ponga en contra de los otros dos, convirtiéndose en antioficial, fenómeno conocido como desobediencia civil o anarquismo (negación del poder y del orden establecido), mientras no sea reprimido. Lo peor y lo mejor - negativo/positivo del juego de los tres subgrupos - se puede presentar como en el cuadro siguiente. SUBGRUPO ANTIOFICIAL: SUBGRUPO OFICIAL: Dominante, hegemónico - sa- cro, socialista o neoliberal político y económico. Revolucionario, disidente, hereje, invasor o competidor económico. META: cambio, renovación, substitución del oficial con ayuda de los oscilantes. COMUNICACION táctica VERBAL Y NO-VERBAL (estrategia de despiste): Concientización, crítica, de- nuncia, duplipensar, retórica brillante y virulenta, pasión por el debate sin fin, predicación mesiánica a favor de los pobres y de la justicia. COMUNICACION FACTUAL(estrategias para ganar): Asociación, sindicatos, reivindicaciones, marchas, Huelgas, tumultos, Clandestinidad, terrorismo, Guerrilla, revolución. META: mantenerse en el poder, liberarse de los antioficiales y depredar a los oscilantes. COMUNICACION táctica SUBGRUPO OSCILANTE populacho socialista (fieles). capitalista, y sacro META: unidad, amor, paz. COMUNICACION táctica VERBAL Y NOVERBAL: (despiste): explicaciones mitológicas, mágicas, sagradas, familiares. Uso de slogans y proverbios. COMUNICACIÓN FACTUAL (estrategias para ganar): Inconsciencia y conformismo de víctima aliada su verdugo. Traficar pequeñas ventajas, suavizar los extremos. Centrismo político. VERBAL Y NOVERBAL (despiste): simular virtudes de civismo y bien común. Autocanonización, solemnidad. Fuente exclusiva de la verdad monádica (unipensar). Ritualísmo del poder y discursos despistadores con maña sin fin. COMUNICACION FACTUAL (estrategias para ganar): Uso de la burocracia, la ley, la cooptación, el control de la información, del dinero, de los empleos, de los favores notariales. Clientelismo. Alian zas de países hegemónicos. Por otro lado, a continuación se presentan las características inherentes a los subgrupos positivos o proporcionales. En cambio, la supervivencia de cualquier sistema u organismo depende de encontrar, conservar o mantenerse conectado a fuentes de energía que les abastezcan. Cualquier amenaza al suministro de lo que necesita para renovarse permanentemente y mantener su estructura u organismo vivo, o en funcionamiento, conforme a sus fines, será prontamente rechazada38. Cada parte dentro del mismo sistema u organismo a la vez que interactúa con las demás también disputa con ellas los satisfactorios de sus necesidades, aparte de que también interactúan intensamente con el ambiente a su alrededor39. En medio a la complejidad de tantas acciones, interacciones y retroacciones, surge entonces la necesidad de mecanismos de regulación de estos procesos, para que se establezcan límites de tensión y relajación a los sistemas u organismos. Se trata, pues, de la homeóstasis, que se constituye con los mecanismos necesarios a la manutención de relativa estabilidad de sus estados internos. En los sistemas sociales, los límites de tensión y forcejeo incesante por satisfactorios necesarios a la supervivencia giran en torno a la proporcionalidad del punto de oro40. En sus proximidades se produce la homeostasis, el equilibrio del sistema. Sin embargo, cualquier desviación hacia los extremos tiende a producir reacción y entropía, sea hacia la desigualdad (90% y 10%) sea hacia la igualdad (50% y 50%). A cada intervalo de distanciamiento del “punto de oro” impuesto por un lado corresponde a un grado de esfuerzo, energía y tiempo de reacción por parte del agredido para retornar al dominio del 62% y del 38 %. Cuanto más lejos uno logra desviar los límites de la proporcionalidad, en cualquier sistema o sector de la vida, sea por ley (dictadura, imperialismo, trapacería, etc.) sea por la fuerza (saqueo, expolio, etc.), más fuerte y violenta será la reacción de los demás para restablecerlos. La proporcionalidad, en estos términos, crea condiciones e incentivos para intercambios de bienes, servicios, afectos, etc., en la sociedad, permitiendo movimiento y equilibrio en las relaciones de grupo, empresarial, nacional e internacional. El panorama puede representarse como a seguir (90/10%, léase: xx% de las personas con xx% de los bienes satisfactorios): El movimiento o juego es a veces sutil, sólo perceptible a ojos bien entrenados; otras veces es escandaloso, poniéndose de manifiesto a los ojos de cualquiera. Pero está siempre presente en todos los sistemas sociales. Lo que hay de nuevo, sin embargo, en el análisis por medio del juego triádico, es que los límites y gradaciones del orden y desorden, del justo e injusto, de la violencia y de la paz, del bienestar y malestar social, etc., queden patentes, porque toma como punto de referencia el principio del proporcionalismo sección áurea o punto de oro - y no sólo los extremos “negativo/positivo”. Así, se considera como esencia del Derecho la formulación y aplicación de reglas para mantener el juego de los tres subgrupos, ante los bienes satisfactorios de sus necesidades e intereses, dentro de los límites de proporcionalidad; y que sean lo más cercanas posible a las proporciones del punto de oro, con aplicación de penas según el grado de alejamiento de estas proporciones, para restablecimiento de la proporcionalidad del sistema. Con estas proporciones, también, se debe estructurar el juego de los componentes del sistema jurídico, en sus dimensiones analítico/lógica, sintético/intuitiva y pragmático/operativa, así como en los contenidos de lo privado a lo público, y viceversa, o de las tres culturas y de los tres poderes que las promueven y las controlan. Así, establecido un fundamento y un paradigma para la estructuración del fenómeno jurídico, se trata, pues, de buscar un cuadro de referencia para clasificar, ordenar e integrar los diferentes factores operacionales que lo componen y convertirlo en un sistema ordenado, coherente y funcional. UNIDAD II: ESTRATEGIAS DE DESCUBRIMIENTO EN LA METODOLOGIA DE LA CIENCIA 2.1 La filosofía inductiva de la ciencia desde la Antigüedad hasta los albores de la ciencia moderna La historia de la filosofía tiene sus comienzos hace dos mil quinientos años, pero antes de ella existía una forma de pensar pre-filosófica: el pensamiento mítico, es decir las primeras explicaciones que el hombre dio de la realidad fueron de tipo religioso. Ante fenómenos como el rayo, el movimiento de los astros, la vida de los animales y las plantas o la muerte de los miembros de la propia tribu, el hombre primitivo carecía de explicaciones racionales. Y al no disponer de respuestas naturales para sus interrogantes, se refugió en respuestas que aludían a fuerzas o seres sobrenaturales: un Dios airado lanzaba sus rayos contra quienes le habían ofendido; el Sol, la Luna y otros astros eran los dioses que movían el firmamento. A raíz de estas primitivas respuestas religiosas fueron apareciendo otras, más refinadas y complejas, que han llegado a nuestros días como doctrinas más o menos fundamentadas en la filosofía griega. También en el II milenio antes de nuestra era, los hebreos crearon una religión que por primera vez en la historia incluía la idea de un Dios único, un Dios que se les había revelado a ellos como pueblo. La fase del pensamiento científico constituye, sin duda, la etapa más positiva de la historia de pensamiento. El científico es menos ambicioso que el filósofo: al científico no le preocupan los grandes problemas especulativos de los filósofos; solo se ocupan de los hechos de la experiencia. Pero el científico es mucho más riguroso: explica esos hechos elaborando leyes científicas, es decir, leyes generales que determinan las relaciones existentes entre los hechos observados. Además, relacionando varias leyes entre sí, pueden llegar a elaborar teorías científicas, mediante las cuales da explicaciones más amplias y acertadas de la realidad. Aunque los babilonios y los egipcios tenían ciertos conocimientos de astronomía y de matemática, simplemente se limitaban a coleccionar los datos observados; no elaboraban leyes que los explicasen, ni por supuesto teorías. Quienes hicieron esto por primera vez fueron los griegos, por lo que, además de ser los primeros filósofos, fueron también los primeros científicos. Para poder dar inicio a la historia de la filosofía tuvieron que haber personas con grandes incógnitas y que su sentido de curiosidad lo hayan hecho explorar, estudiar e investigar respecto a eventos curiosos que han hecho que se plantearse interrogantes, es por ello que dentro de todas las fases que ha vivido la filosofía se han destacado personajes que de alguna manera plantearon sus hipótesis formulando su propia teoría y que a través del tiempo han permanecido en la historia, algunas vigentes en la actualidad, otras han servido de fundamento para inspirar a otros y seguir en la búsqueda de la verdad o de alguna explicación lógica que logre complacer a la religión y a la ciencia. Cabe destacar que cada uno de estos personajes a los que se les hacen referencia en este trabajo han marcado de una manera muy peculiar la mayoría de las ciencias (física, química, matemática, trigonometría, geometría, biología, psicología, entre otras) contribuyendo así al progreso de la filosofía. Los avances científicos de todos los géneros son numerosos, radicales, decisivos y apabullantes que nos vemos obligados a recordar la frase de Russell "Con respecto a lo desconocido, pueden adoptarse dos actitudes. Una consiente en aceptar la afirmación de gentes que dicen que saben, sobre la base de libros, misterios u otras fuentes de inspiración. La otra consiente en examinar las cosas por sí mismo, y este es el camino de la ciencia y la filosofía" y a pensar que el hombre, enfrentando a la realidad, seguirá siempre planteándose nuevas preguntas, que respuestas nuevas abrirán nuevas interrogantes, que las nuevas respuestas no impulsaran al pensador genuino a adoptar una actitud dogmática sino, antes bien, una postura crítica, libre y cada vez más racional ante la realidad. ORIGEN Y DIVISIÓN DE LA FILOSOFÍA Antes del s. VII a.C. nos encontramos el mito como forma de pensamiento en la antigua Grecia. El mito puede ser definido como un conjunto de leyendas imaginativas y fantásticas que narran el origen del universo, la situación del hombre y el final de los tiempos en los que volverá a existir la felicidad perdida al comienzo de éstos; pero del mismo modo, el mito es una actitud intelectual en la que se produce una personificación de las fuerzas de la naturaleza, es decir, se dota de voluntad y personalidad a los elementos naturales. Así por ejemplo, en la mitología griega hay un Dios del mar, otro del Viento,... Estos dioses actúan según su voluntad y capricho. A finales del s. VI a.C. se produce el nacimiento del pensamiento racional. Hay quién lo atribuye a la genialidad griega. Sin embargo, tuvieron lugar una serie de cambios sociales, económicos e ideológicos que motivaron este nacimiento. CAMBIOS SOCIOECONÓMICOS: La sociedad griega era en principio una sociedad aristocrática y guerrera, sociedad donde la nobleza poseía la tierra, dirigía los ejércitos, La economía estaba basada en la agricultura, existiendo el trueque como única forma económica de intercambio, esta sociedad está regida por unos valores propios de la sociedad aristocrática como el linaje, el éxito y la fama. Alrededor del siglo VII a. C. se produce una revolución sin precedentes en el desarrollo de las técnicas de navegación, lo cual propicia que se forme el comercio. El poder económico es arrebatado a la nobleza por los comerciantes (sustituyéndose la aristocracia por la democracia), se reemplaza el trueque por el dinero y aparecen las primeras ciudades o polis. CAMBIOS IDEOLÓGICOS: La sociedad griega carecía de libros sagrados y de un sistema de enseñanza organizada, por lo cual es fácil de transformar ideológicamente. Hasta esa época cada tribu poseía su propia mitología diferente (e incluso se descubrieron nuevas mitologías a medida que se colonizaban nuevas ideas), que se intentaron unificar en una mitología general en libros como la Ilíada o la Odisea de Homero. Así se llegó a un escepticismo en la mentalidad popular, ya que si existían tantas mitologías diferentes es muy probable que todas fuesen falsas, creándose un vacío ideológico. Además, existe otro elemento que sólo aparece en la mitología griega: la idea de destino (fuerza superior a la voluntad de los hombres y de los dioses y que determina aquello que necesariamente tiene que ocurrir). El paso del mito al logos se produce, junto a todos los elementos que hemos visto anteriormente, cuando se convierte o transforma la idea de mito en la idea de necesidad lógica o ley natural. Tanto la idea de destino como la idea de necesidad lógica constituyen la fuerza mayor de la naturaleza, ya que no pueden ser cambiadas por nada. Sin embargo, mientras que la idea de destino es algo incognoscible, la idea de ley natural es cognoscible. El pensamiento mítico está basado en lo aparente, cambiante y múltiple, mientras que el pensamiento racional está basado en lo que realmente son las cosas, la permanencia y la unidad. Los presocráticos Se conoce como filósofos presocráticos a un complejo grupo de pensadores griegos cronológicamente anteriores a Sócrates, y que están repartidos en varias escuelas (jonios, efesios, pitagóricos y pluralistas). Son los precursores, la prehistoria del pensamiento griego. Antes de la aparición de los presocráticos existió en Grecia una forma de pensamiento orgánico: la mitología. Los filósofos presocráticos desarrollaron un vocabulario más original, y a medida que fueron forjando nuevos conceptos para referirse a la totalidad del mundo (Physis u Naturaleza), inventaron una nueva racionalidad que les fue diferenciando de los mitólogos. El fenómeno cultural de la filosofía presocrática nació en los límites fronterizos del área helénica, en las zonas de su colonización bélica o comercial, precisamente allí donde los griegos están en contacto con el mundo oriental. Este contacto les permitió conocer los desarrollos del conocimiento egipcio y babilónico en el campo de la astronomía, geometría y la aritmética. Los presocráticos adoptaron sus métodos, pero los despojaron de su finalidad práctica. Les interesaban los secretos de los astros, de las figuras y de los números por su belleza y por la excitación y satisfacción intelectual que provoca su comprensión. La preocupación presocrática fue eminentemente científica; pretendían explicar fenómenos y comportamientos de la naturaleza, y comunicarlos a un público aún inmerso en un mundo tradicional mítico-religioso; de ahí la forma sacralizada de muchos de sus fragmentos filosóficos. Los modelos de pensamiento desarrollados por los presocráticos fueron imaginativos y fantasiosos: no se circunscribían estrechamente dentro de los límites de la lógica y el sentido común, sino que evidenciaban independencia de criterio, así como una gran capacidad creativa. El pensamiento presocrático representó el primer esfuerzo fructífero del hombre frente al problema del conocimiento del mundo. En aquel momento histórico todavía no se había delimitado el campo de la filosofía respecto del de la ciencia, y ambas constituían una misma cosa. El problema fundamental era un problema físico, naturalista; ¿Está el mundo hecho de una sustancia fundamental única? ¿Cuál es esa sustancia o material? Los primeros filósofos no eran antropólogos (del griego anthropos, hombre), pues su preocupación no era humanista. Aristóteles les llamó oi fisiologoi (los físicos). La mayoría de las obras de los presocráticos presentan el mismo título: Peri fiseos (Acerca de la naturaleza). Así el problema fundamental de estos primeros filósofos fue averiguar cuál era la sustancia primera (argé) de la que están hechas todas las cosas de la naturaleza (physis). La historia del pensamiento presocrático fue la sucesión de respuestas distintas a este mismo problema. La escuela Jonio-Milesia Tales de Mileto (624-548 a, de C.) La historia considera a Tales como uno de los siete sabios clásicos de Grecia. Se ganó la vida como comerciante, vendiendo aceitunas. Una anécdota de su vida nos narra que cuando iba por la calle mirando los astros se cayó en un pozo, lo que provocó las burlas de sus conciudadanos. El primer filósofo de la historia fue. Pues, ya ridiculizado por sus preocupaciones filosóficas, alejadas del sentido común de la vida cotidiana. Sin embargo, Tales no careció de sentido práctico: dirigió en Mileto una escuela de náutica, construyó un canal y tuvo veleidades políticas, entre las que se cuenta la elaboración de una constitución para la ciudad de Teos. Predijo un eclipse de sol que le dio fama de semidiós en un momento en que la ciencia estaba en embrión, y que permite saber exactamente que el filósofo vivía el día 28 de mayo del año 585 a. de C.. Fecha en que se produjo el eclipse, según los astrónomos. Los griegos distinguían dos tipos distintos de realidades: una natural, que se desarrollaba por sí misma (la physis o naturaleza) y otra artificial, producto de la actividad humana y que no tenía en sí misma poder de auto desarrollarse (la techné o técnica). Se ha dicho ya que el problema presocrático fue averiguar cuál era el principio material último de la physis. Este principio material o argé sería la esencia misma de las cosas, aquello de que están hechas todas las cosas del mundo, su sustancia material (en griego, su ousia). Tales creyó que el primer principio era el agua, y quizá llegó a esta conclusión al observar que todos los seres vivos precisan del elemento húmedo para seguir viviendo: las semillas precisan ser regadas para generar las plantas; los animales y el hombre precisan el agua para vivir o mueren de sed. Esta idea de Tales no era absolutamente original: los poetas Hornero y Hesíodo habían afirmado que el dios Océano (que puede interpretarse como e! elemento húmedo) era el padre de todas las cosas; también en la mitología oriental se habla a menudo de un caos acuoso como fundamento del que todo surge. Por otra parte, la importancia concedida al agua pudiera ser un reflejo inconsciente de la importancia sociológica del mar como elemento esencial de la vida de Mileto, ciudad que basaba su subsistencia material en la pesca y en el comercio marítimo. El principal mérito filosófico de Tales fue el de acuñar el concepto de «principio originario del que proviene todo ser», aunque la palabra urge que expresa exactamente este concepto sea de época posterior. Tales tenía una visión antropomórfica del mundo. Utilizó su conocimiento del hombre como punto de referencia para su conocimiento de lo real (proyección antropomórfica). Así, creyó que todo lo que se mueve tiene un alma, lo que le indujo a creer que el hierro tenía alma, puesto que era atraído por el imán. Esta doctrina se conoce con el nombre de hilozoísmo (de hyie, materia y zoé, vida); es decir, es aquella concepción que cree que toda la materia natural es, en cierto sentido, materia viva. También se la puede denominar animismo. Anaximandro (611-546 a. de C.) También era habitante de Mileto. Suyo es e! Primer escrito filosófico de Occidente, ya que de Tales no se conserva nada escrito: ferifiseos o Sobre la Naturaleza. Lo mismo que Tales, no fue sólo un teórico especulativo, sino que demostró un cierto saber práctico: construyó un mapa de las tierras conocidas en su época, un globo celeste y un reloj solar. Anaximandro creía que la respuesta de Tales al problema del argé. O sustancia primera de la que provienen todas las cosas, era ilógica: es absurdo suponer que las cosas de naturaleza seca (el fuego, por ejemplo) provienen del elemento húmedo, que es su contrario. Así, pues, para solucionar este problema imaginó que todas las cosas provenían de una sustancia eterna, completamente indeterminada, es decir, que no tenía ninguna cualidad definida, y que, por tal razón, podría llegar a adquirir cualquier determinación, podría convertirse en cualquiera de las cosas de este mundo. A esta sustancia indeterminada le llamó apeirón. Los primeros intérpretes concibieron el apeirón como el fondo infinito e inagotable del que todo se nutre. La concepción de Anaximandro se conoce en filosofía con el nombre de monismo (de monos, uno) porque imagina que todas las cosas de este mundo provienen de una única realidad de fondo: el apeirón. Para Anaximandro, las cosas del mundo se engendran a partir del apeirón y, cuando mueren, vuelven al apeirón. Ahora bien, este continuo engendrarse y perecer hace que algunas cosas dominen sobre otras, lo que, para Anaximandro, es una injusticia cósmica (una adikía). Además de esto, creyó que, como compensación, existe una justicia cósmica (una dike) que restablecerá tarde o temprano el equilibrio, con lo que desaparecerá la injusticia. Esta noción de la justicia cósmica prefigura la idea de que la naturaleza está dominada por leyes, idea que tendrá fructíferas consecuencias para el pensamiento científico. Intuyó también, adelantándose a su época, una de las ideas básicas de la filosofía del siglo XIX: la de que la especie humana procede por evolución de otras especies inferiores. En efecto, Anaximandro considero que los antepasados de los hombres fueron peces y, en consecuencia, poco a poco, éstos se acostumbraron a vivir en tierra. Anaxímenes (588-534 a. de C.) Era discípulo de Anaximandro y también ciudadano de Mileto. Para Anaxímenes, el principio de todas las cusas naturales era el aire. Opinó esto al concebir que el aire es aquello que permite existir a todos los seres vivos. Para él, el aire era el fluido vivificador. El aire es lo que da origen a la vida, lo que hace que tenga un alma (alma viene del latín anima, que. a su vez, proviene del griego uñemos, aire), La escuela de Éfeso Heráclito (536-470 a. de C.) Nació en Éfeso (Jonia). Se saben muy pocas cosas de su vida. Parece ser que era de familia acomodada, incluso aristocrática. De carácter retraído, se retiró a vivir solo a las montañas, donde se dedicó a la meditación, alimentándose de hierbas. Se le atribuye un libro, que lleva el mismo título que los de la mayoría de presocráticos (Sobre la naturaleza), escrito en un estilo premeditadamente enrevesado, de oráculo o adivino, hecho en forma de aforismos o refranes breves. La dificultad de la comprensión de esta obra le valió el sobrenombre de «el oscuro». Heráclito consideraba la realidad como algo esencialmente móvil y fluyente, en devenir. Expresó esta idea metafóricamente: «No podemos bañarnos dos veces en el mismo río porque sus aguas fluyen constantemente y el río deja de ser el mismo que era antes». Todo pasa constantemente de un estado a su contrario, de la vida a la muerte, de lo seco a lo húmedo, etcétera. Todo cambia, pero no de forma anárquica, sino siguiendo un orden que impone la Ley (Logos). Para Heráclito, el origen de esta realidad en flujo continuo es el fuego. («Este cosmos no fue hecho por dioses o por hombres, sino que siempre fue, es y será, al modo de un fuego eternamente viviente, que se enciende y se apaga con medida».) De este fuego surgen los cuatro elementos básicos (aire, agua, fuego y tierra) que combinados constituyen todas las cosas del cosmos. La combinación de los cuatro elementos se produce mediante un enfrentamiento, una lucha. Así, para Heráclito, la lucha era una idea necesaria para la creación de la realidad. Esto le indujo a alabar el concepto de la guerra, y no sólo en un plano filosófico, sino también en un plano sociológico: en la sociedad, la guerra es buena porque decide qué hombres son los hombres superiores y qué hombres deben ser tratados como esclavos. La escuela de Elea Jenófanes (570-480 a. de C.) Nació en Colofón (Jonia) y llevó una vida errante, de rapsoda y poeta, hasta establecerse en Elea, donde fundó una escuela filosófica. Era un hombre de mentalidad independiente; sus viajes le enseñaron a pensar por cuenta propia, con un sentido crítico y antidogmático. Jenófanes fue el primer teólogo de la historia de la cultura, el primero que trató el problema de Dios. Criticó a los dioses de la mitología griega porque estaban cortados en patrón humano, pareciéndose demasiado a los hombres. Y, si bien no llegó a una concepción monoteísta (creencia en la existencia de un solo Dios), sí creyó en una especie de politeísmo jerarquizado (hay varios dioses, pero uno de ellos es superior a todos los demás). Jenófanes se rebeló contra la concepción de la cultura como un don de la divinidad y dijo: «Los hombres lo han conseguido todo mediante sus esfuerzos inquisidores». También se enfrentó con la escala de valores tradicionales que daban lugar preeminente a la fuerza; afirmó que la sabiduría es superior a la fuerza, la belleza y la destreza. Parménides (540-470 a. de C.) Era de la misma ciudad de Elea. Parece ser que fue discípulo de Jenófanes, pero como filósofo puede considerársele como muy superior. Se dedicó a cuestiones políticas, dando leyes civiles a su ciudad natal. Lo que se conserva de su obra se halla en un extenso poema titulado Sobre la Naturaleza. La preocupación de Parménides no fue tan naturalista o física como la de sus predecesores. Con él, nace una nueva disciplina filosófica: la Metafísica, o ciencia que estudia el ser. El ser es la única cualidad que tienen en común todos los objetos del mundo; unos son blancos, otros negros; unos suaves, otros rugosos; unos circulares, otros rectos, pero todos los objetos son, todos poseen la cualidad de ser. Las características especiales que según Parménides tiene e! ser (el ser es único, inmóvil, eterno, continuo etcétera) hacen que el concepto de ser se aproxime al concepto de Dios. Zenón de Elea (siglo V a. de C.) También era de Elea. Parece ser que fue el Discípulo predilecto de Parménides. Gracias a él, la escuela eleática recibió aquella forma típica que se ha conocido con el nombre de erística o dialéctica. La erística (de éris, lucha) es el arte del diálogo, de la disputa filosófica, de la argumentación. En la escuela eleática se dio más importancia a los resultados de la argumentación abstracta que a tos testimonios de los sentidos (racionalismo epistemológico). Así, por ejemplo, Zenón negó la existencia del movimiento porque conceptualmente, mentalmente, es imposible imaginárselo, dado que el espacio es divisible en un número infinito de puntos, y para moverse de un punto a otro habría que atravesar infinitos puntos, lo cual es imposible. La escuela Pitagórica El primer problema que se presenta al estudiar esta escuela es la verosimilitud de la existencia de un personaje llamado Pitágoras. Algunos estudiosos consideran que fue un individuo realmente existente, que nació en Samos (¿570-496 a. de C.?), ciudad de la que emigró por las dificultades que le causaba el gobernante Polícrates, estableciéndose en Cretona (Italia) cuando tenía 40 años. En esta ciudad desplegó su principal actividad matemática y filosófica, fundando una escuela. Parece ser que Pitágoras no escribió nada, pero supo reunir a un grupo de hombres sabios, con los que realizó investigaciones filosóficas, a la vez que fundó una especie de comunidad con una estructura religioso-científica, fuertemente impregnada de ascetismo y misticismo. El estudio de la matemática fue considerado como un medio de perfeccionamiento espiritual. La sociedad pitagórica fue un movimiento continuador de una religión primitiva; el orfismo, una religión pagana en la que se rendía culto al dios Dionisos (Baco), dios del vino y de la sangre, en cuyo honor se realizaban frecuentes orgías. Históricamente cabe distinguir dos corrientes pitagóricas distintas: el círculo pitagórico antiguo y el círculo pitagórico nuevo. El Antiguo Círculo Pitagórico es el grupo que el mismo Pitágoras fundó en Cretona. A este grupo pertenecieron una serie de sabios, entre los que podemos destacar a Alcmeón de Crótona, descubridor del cerebro como órgano central de la vida psíquica, y a Filolao, que supo, anticipándose a su época, que la tierra no ocupa el lugar central del cosmos. Esta primitiva secta se deshizo en la segunda mitad del siglo V a. De C. por razones políticas: los demócratas en el poder los expulsaron por sus ideas aristocratizantes y autoritarias. Una vez expulsados de Cretona, los pitagóricos se establecieron en Tárente, formando el Nuevo Círculo Pitagórico. Este se subdividió en dos grupos: los acusmáticos, ascetas pordioseros que seguían al pie de la letra los supersticiosos preceptos prácticos, y los matemáticos, interesados por las ciencias y las artes, particularmente la música, la geometría, la medicina y la astronomía. En la sociedad pitagórica se admitían en plena igualdad de derechos a hombres y mujeres; la estructura de la propiedad era comunitaria, lo mismo que la forma de vida. Cuando la secta realizaba algún descubrimiento científico o matemático, se consideraba como un hallazgo colectivo o se le atribuía a Pitágoras, aún después de su muerte. Estos descubrimientos eran propiedad de la escuela y no podían ser revelados al vulgo. La importancia de los números Para los pitagóricos, los números eran la esencia misma de realidades tan heterogéneas como el cielo, el matrimonio y la justicia. Anteriormente, los griegos habían representado los números con letras del alfabeto. Los pitagóricos los representaron con puntos, estableciendo una estrecha relación entre matemáticas y geometría. El 1 era el punto, el 2 la línea, el 3 el plano o el triángulo y el 4 el cuadro o el sólido. La teoría pitagórica del número implicó que se considerase que la naturaleza es un todo bien organizado y estructurado, que existía una legalidad cósmica subyacente a los fenómenos naturales. Dos ideas que, a partir de esta teoría, adquirieron plena importancia, son las ideas de armonía y proporción, que influyeron en múltiples aspectos de la vida griega: la poesía, la retórica, la arquitectura, la religión, la ética, etcétera. La influencia del pitagorismo ha sido inmensa. En Platón, San Agustín, Santo Tomás de Aquino, Descartes, Spinoza, Leibniz, Hegel, etc., aparece esa mezcla de religión y razonamiento, de misticismo y lógica. Esta mezcla dio origen a la teología intelectualizada de Occidente, distanciándole del profundo misticismo contemplativo, metafísico e introspectivo de las civilizaciones orientales. Los pluralistas A esta escuela se la denominó así para distinguirla de las anteriores, que eran monistas (del griego monos, uno). Los pluralistas creían a diferencia de los monistas, que la realidad se origina a partir de la conjunción de varios principios y no a partir de un solo principio o argé. Los principales pensadores pluralistas fueron: Empédocles, Anaxágoras, Leucipo y Demócrito. Empédocles de Agrígento (492-430 a. de C.) Fue un personaje muy extraño, mezcla de poeta, adivino y filósofo. Ejerció entre sus contemporáneos una fascinación enigmática. Creyéndose inmortal, se arrojó al cráter del volcán Etna, muriendo abrasado. Sus dos obras conocidas son Las Purificaciones y Perifiseos, escritas en verso y de las que sólo se conservan algunos fragmentos. Para Empédocles, todo lo que existe se ha formado por combinación y mezcla, en determinadas proporciones. De las cuatro sustancias fundamentales: agua, aire, tierra y fuego, que son los cuatro elementos de que se compone toda realidad y que a su vez están compuestos de partículas inmutables. El mérito de Empédocles radicó en anticipar la idea científica de «elemento químico» (o «constituyente último cualitativo de la realidad»). Así, un objeto concreto del mundo empieza a ser (unión de partículas) o deja de ser (disgregación), pero las partículas básicas ni empiezan a ser ni dejan de ser; son eternas e indestructibles. De esta forma prefiguró otra idea científica que más tarde se tradujo como Ley de conservación de la materia (la materia no se crea ni se destruye; sólo se transforma), elaborada por Lavoisier. Junto a estos cuatro elementos, y para explicar el origen del movimiento que los pone en contacto y Justifica su combinación, Empédocles introdujo la idea de «fuerza», pero con una envoltura religiosa. Hay dos tipos de fuerzas divinas: una agregadora o Filia (el amor) y otra disgregadora o Neikos (el odio). Estas dos fuerzas dominan alternativamente, sucediéndose una a otra en un proceso cíclico, y así el mundo se va formando (dominio del amor) y destruyendo (dominio del odio) en un movimiento eternamente repetido. La evolución del cosmos sería un eterno retorno. Para Empédocles, en el origen de los tiempos, en el albor de la formación del mundo, el predominio del amor hizo que las cosas se unieran indiscriminadamente unas con otras y así se formaron multitud de seres monstruosos y deformes, de los que sólo sobrevivieron los más aptos, que son las especies existentes en la actualidad. Los seres humanos eran ambiguos, hermafroditas y estériles; en ellos cohabitaban dos principios: uno masculino y otro femenino; el odio separó estos dos principios y el amor humano emprendió una búsqueda desesperada de la otra mitad de uno mismo para retornar a la unidad primigenia, en la que hombre y mujer eran una y la misma cosa. Anaxágoras de Klazomenes (500-428 a. de C.) Expuso sus doctrinas en la Atenas de Pericles, de donde tuvo que huir a la muerte de éste, acusado por el vulgo de ateísmo y de falta de respeto a la religión tradicional. Para Anaxágoras, la realidad no se compone tan sólo de cuatro elementos, sino de infinitos elementos cualitativamente distintos, de las partes pequeñísimas de que están hechas todas las cosas a las que llamó homeomerías o spérmata (gérmenes). En cada cosa material hay infinitas spérmata, pero la cosa toma aspecto exterior de la spérmata más abundante en ella. La formación de las diversas cosas las explicó por la unión de las homeomerías y el cambio de una cosa en otra por una reestructuración de las homeomerías que la componen. Las cosas, pues, aunque estén formadas por los mismos constituyentes últimos, eran para Anaxágoras diferentes entre sí, porque estos constituyentes se agrupan en distintas formas, según la posición que ocupan. ¿Y así, la diferencia entre toda? las cosas no es una diferencia material cualitativa, sino una diferencia formal cuantitativa. Las cosas son distintas porque es distinta su disposición o estructura interna. Anaxágoras introdujo la idea del Nous o Mente Universal, que es una especie de sustancia espiritual, un principio divino que combina las infinitas homeomerías causando la multiforme variedad de lo existente. Los atomistas: Leucipo y Demócrito El fundador de la escuela atomista fue Leucipo (460-370 a. de C.), pero su obra está mezclada con la de su discípulo y continuador Demócrito (460-370 a. de C.) hasta un punto en que es difícil deducir cuál es la aportación personal de cada uno. Normalmente, se estudian sus ideas como si fueran expresión de un solo pensador. La concepción del mundo de los atomistas es profundamente materialista: no admiten ningún principio espiritual, todo es materia, incluso el alma humana, Para los atomistas, los principios últimos de todas las cosas eran los átomos (los indivisibles). Los átomos se diferencian de las homeomerías en que no son sustancias con cualidades distintas, sino sustancias homogéneas; lo que diferencia unos de otros es una serie de aspectos cuantitativos, como la forma, el tamaño, el peso, etcétera. Los átomos son impenetrables, pesados, eternos, indestructibles, ocupan un lugar del espacio en el seno de una especie de no ser o nada relativa que es el vacío. Los átomos son infinitos en número: no tienen cualidades materiales de ninguna clase que los distingan entre sí: todos son de la misma naturaleza, pero con una enorme variedad de formas distintas, que les hacen aptos para engarzarse, para complementarse unos a otros formando las múltiples formas aparentes de lo real. Los aspectos cualitativos de las otras realidades no atómicas, tales como el sabor, el color, el calor, etc., constituyen algo que, según los atomistas, pertenece no tanto al objeto físico cuanto al sujeto que los percibe. Esta opinión de que la apariencia de las cosas se ve afectada por la subjetividad humana se conoce en filosofía con el nombre de subjetivismo. Para explicar el movimiento de los átomos, Leucipo y Demócrito no recurrieron a principios espirituales exteriores a la materia (como Filia, Neikos, Nous, etc.), sino que su explicación es puramente materialista. Los átomos se mueven porque son pesados y están en el vacío; es decir, su movimiento es una caída, y en esta caída a distintas velocidades se produce la unión de unos con otros, formándose así la totalidad de lo existente. Los sofistas Con el término «sofistas» se designa a un grupo de eminentes personalidades de la cultura y la filosofía griegas que vivieron en el siglo V a. de C. En la actualidad el término «sofista» tiene un valor semántico esencialmente negativo, debido a la tradición iniciada por los tres grandes clásicos de la filosofía griega (Sócrates, Platón y Aristóteles). En realidad, en su origen, el término sofista significaba sabio, hábil, competente, y era en este sentido que lo usaban quienes lo ostentaban. Los orígenes del movimiento sofístico están estrechamente relacionados con el vasto cambio político y social que, después de vencer a los persas, implantó en Grecia regímenes democráticos (salvo Esparta). La democracia ateniense era una democracia directa, no representativa (como las actuales); es decir, todos los ciudadanos tenían la posibilidad de participar directamente en las decisiones públicas, a través de las frecuentes asambleas populares y tribunales públicos convocados. En estas intervenciones públicas, la posibilidad de hacer prevalecer las propias tesis dependía única y exclusivamente de la capacidad expresiva, retórica. Y aquí intervinieron los sofistas: su principal función (función que realizaban en forma de profesores ambulantes y cobrando un sueldo) consistía en enseñar un nuevo arte: la erística (de eris, lucha), concebida como el arte de persuadir y argumentar en forma dialéctica; la erística era un procedimiento retórico, discursivo, que enseñaba la capacidad de sostener indiferentemente el pro y el contra de cualquier tesis, sin preocuparse de la verdad o la falsedad de lo defendido. Aunque los sofistas explicaban sus técnicas y procedimientos a todo aquel que tuviera dinero para pagarlo, su objetivo pedagógico primario no era tanto formar al pueblo como educar a los que debían ser caudillos de ese pueblo. Para conseguir sus objetivos, los sofistas se dedicaron a estudiar profundamente toda una serie de cuestiones gramaticales y lingüísticas. El lenguaje adquirió con ellos el carácter de instrumento. Enseñaron a los jóvenes atenienses a considerarlo como si fuese un arma, con un objetivo casi agresivo, que consistía en la mayoría de los casos en convencer a los demás para ocupar uno mismo puestos sociales de responsabilidad. En política, los sofistas fueron los fundadores de la demagogia (conducción del pueblo) y la psicagogia (conducción de almas); en teoría del conocimiento fueron los fundadores del escepticismo (doctrina que niega la posibilidad del conocimiento). Con los sofistas, el hombre y las cosas humanas pasaron al primer plano de la problemática filosófica. Eran humanistas; creían que el único saber que merece realmente tal nombre es el saber práctico, útil para el hombre. Desde esta perspectiva, rechazaban la filosofía de la naturaleza de los primeros presocráticos. A partir de sus críticas, los sofistas fundaron el subjetivismo o relativismo («la verdad de la cosa conocida es relativa al sujeto que la conoce»). Este relativismo subjetivista lo expresó perfectamente Protegerás (480- 410 a. de C.): «El hombre es la medida de todas las cosas». Los sofistas fueron individuos cosmopolitas, apartidas, que viajaron frecuentemente por todo el mundo conocido. En este continuo viajar conocieron gran cantidad de costumbres y leyes, lo que les llevó a rechazar la idea imperante de que la ley era algo eterno y universalmente válido. Los sofistas fueron, en este punto, convencionalistas, no naturalistas. Sócrates, Platón y Aristóteles fueron unos declarados antisofístas. Aristóteles ni siquiera los consideró en sus escritos y Platón habló siempre de ellos como hombres prácticos, como activistas políticos, pero no como pensadores teóricos, como filósofos, tratándoles siempre despectivamente. LA FILOSOFÍA CLÁSICA GRIEGA Sócrates (469-399 a. de C.) Nacido de padre escultor y madre comadrona, fue un buen ciudadano de su patria natal, Atenas, a la que sirvió como soldado en varias batallas de la guerra del Peloponeso. Sin embargo, jamás quiso participar en actividades políticas, por impedírselo sus convicciones filosóficas. Al final de su vida se presentó contra él la acusación de no creer en los dioses de la ciudad y corromper a la Juventud; fue considerado culpable y se le condenó a suicidarse bebiendo cicuta. Su discípulo Platón haría más tarde, la apología del sereno comportamiento de Sócrates frente a la muerte. Los restos conservados de las obras que nos hablan de Sócrates (los diálogos de Platón, Antístenes y Esquines) difieren en muchos aspectos concretos, pero todos ellos están orientados a ensalzar la personalidad del maestro. El punto de partida de la filosofía socrática es el problema moral, la autoconciencia ("conócete a ti mismo»). Desarrollando esta idea. Sócrates se preocupó fundamentalmente por problemas éticos y procuró investigar conceptualmente la esencia permanente de lo justo, lo bueno, lo bello, etc. Sus investigaciones revisten la forma de preguntas sobre conceptos generales de carácter moral: ¿Qué es la piedad?, ¿qué es el valor?, ¿qué es el autodominio? Sócrates conoció muy a fondo las obras de los antiguos filósofos de la naturaleza, pero trasladó su interés del universo al ser humano. El conocimiento, auténtico para Sócrates, no era el saber por el saber, el saber teórico, sino la techne o saber práctico, que tiene una utilidad para el hombre; y enceste sentido la medicina era el saber por excelencia. Sócrates pretendió fundamentar un conocimiento riguroso, hacer de la filosofía una ciencia. Para ello defendió el método inductivo y condenó el método deductivo de los presocráticos: no hay que partir de afirmaciones sobre la totalidad del mundo, como hacen los primeros filósofos, sino observar empíricamente, experimentalmente, la realidad concreta y. en todo caso, inducir de aquí leyes o principios generales. Platón (428-347 a. de C.) Nació en Atenas. Su verdadero nombre era Aristocles; el de Platón, con que ha pasado a la posteridad, era un mote que significaba «ancho de espaldas». Perteneció a una clase social acomodada, lo que le permitió recibir una educación esmerada en diversas materias: literatura, gimnasia, músicapintura, poesía, etc. Inició sus estudios filosóficos con Cratilo, discípulo de Heráclito y los perfeccionó, a partir de los 20 años. Con Sócrates- Fue discípulo de éste y recibió su influencia hasta un punto tal que ha sido difícil decidir cuáles de sus aportaciones filosóficas son originales y cuáles son obra de su maestro. Tras la muerte de Sócrates. Platón se dedicó a viajar por el mundo conocido: en Egipto y Cirené entró en contacto con el saber matemático y astronómico de su tiempo: en la Magna Grecia pasó algún tiempo con una secta de pitagóricos, y en sus tres viajes a Sicilia trató de crear un régimen político en el que experimentar sus teorías sobre el Estado, expuestas en su obra La República, pero sin conseguir resultados positivos. A los 40 años de edad fundó la Academia, primera escuela filosófica organizada en plan pedagógico. Enseñó en ella durante veinte años los más diversos temas: filosofía, matemática, astronomía, zoología, etcétera. Los años de la Academia fueron los de su madurez creadora y durante ellos escribió sus obras más importantes: una Apología de Sócrates, 34 diálogos y 13 cartas (quizás apócrifas). La obra platónica es una de las primeras obras verdaderamente filosóficas por lo que tiene de saber totalizador y universal, ya que trata de los más diversos aspectos de la cultura: político, ético, físico, astronómico, teológico, etcétera. Platón sufrió la influencia de cuatro grandes filósofos: de Pitágoras adoptó elementos del orfismo: la tendencia religiosa, la creencia en la inmortalidad del alma humana, el tono sacerdotal: de Parménides aprendió que la auténtica realidad es eterna, inmutable e intemporal, y que el cambio que parecen captar nuestros sentidos corporales no es más que eso: apariencia, ilusión; de Heráclito extrajo la visión crítica del inmovilismo parmenídeo: el dinamismo heraclíteo afirma que nada es permanente («todo fluye») en el mundo sensible; de Sócrates, la preocupación por problemas éticos y sus ideas políticas aristocráticas y antidemócratas. Platón expuso su doctrina en forma de diálogos, tal vez porque en su época era preponderante la forma de comunicación oral y porque el diálogo es la forma de escribir que más se asemeja a la de hablar. Para Platón, el mundo inteligible es el único mundo que se merece verdaderamente el nombre de realidad. Pues él es quien proporciona las formas, tas ideas, los modelos, de los cuales el mundo natural no es más que mera copia, reflejos, imitación. Por otra parte, la distinción platónica entre un mundo sensible y un mundo inteligible lleva aparejada la distinción entre conocimiento empírico (sensitivo) y conocimiento intelectivo. Platón fue el autor de la primera utopía política de la historia de la cultura. Una utopía es la descripción de una imaginaria sociedad perfecta, con un carácter programático (es decir, con la intención de que la sociedad existente se rija, en un plazo mayor o menor de tiempo, por los principios políticos enunciados en la utopía). La utopía de Platón se encuentra en su obra más conocida: La República. Su planteamiento político es muy original. Se basa en su propia teoría de que la sociedad no será perfecta hasta que los filósofos se hagan reyes o los reyes se conviertan en filósofos. En términos actuales, diríamos que lo que nos propone Platón es una especie de régimen de dictadura de los intelectuales (Política). Aristóteles (384-322 a. de C.) Nació en Estagira (región de Tracia). Fue hijo del médico de cabecera del rey Amintas de Macedonia. A los 18 años entró en la Academia platónica, y en ella permaneció durante dos décadas, hasta la muerte de Platón, por quien siempre sintió una gran admiración. En el año 342 a. de C. fue llamado por el rey Filipo de Macedonia para que se encargara de la educación de su hijo Alejandro Magno. En el año 335 a. de C. regresó a Atenas y fundó su propia escuela: el Liceo (así llamado por estar en la plaza de Apolo Licio), que al principio tuvo características similares a las de la Academia, pero que con los años se convirtió en un círculo de investigación científica y cultural. Los peripatéticos (que así fueron llamados los componentes de la escuela aristotélica) realizaron estudios de diversas materias y acumularon sus conocimientos enciclopédicos en una especie de archivos. Aristóteles dividió sus escritos en dos grandes familias: Exotéricos: destinados a la publicidad (la mayoría se han perdido). Esotéricos o acromáticos: usados como apuntes de clases en el Liceo, fueron publicados casi todos tres siglos después de su muerte. La primera época de Aristóteles es puramente platónica, tanto en la forma como en el contenido. En su época de transición se enfrentó con algunas de las ideas del maestro, especialmente con su teoría de las ideas, aunque siempre con mucho respeto («Siendo Platón y la verdad igual de amigos míos, siento el imperioso deber de colocar a la verdad por delante»). Y, por fin, ya en su época de madurez, en el Liceo, elaboró sus propias teorías filosóficas. La obra de este período de esplendor puede dividirse así; Escritos lógicos: Categorías. Predicamentos, Analíticos, Tópicos, agrupados más tarde bajo el nombre de Organon (o Instrumento). Escritos metafísicas: ocho libros de la filosofía natural y catorce libros de la filosofía primera o metafísica. Escritos físicos: Sobre el cielo. Generación y corrupción, Meteorología, Historia de los animales, del alma, De la sensibilidad. De la memoria, del sueño y la vigilia, De la respiración, etcétera. Escritos ético-políticos: Ética a Nicómaco. Política, Ética a Eudemo, Gran ética, Constitución de Atenas. Escritos estéticos: Poética, y Retórica. La lógica, como ciencia formal del saber, nació con Aristóteles. Y con él quedó perfectamente constituida en su forma clásica. Las ideas lógicas más relevantes de Aristóteles se encuentran en su obra Analíticos. En ella concibe a la lógica como un análisis, y en este sentido la compara con la anatomía. La lógica Mientras la ciencia anatómica sería un análisis de los cuerpos, la ciencia lógica sería un análisis del pensamiento o del medio con el que se expresa este pensamiento: el lenguaje. Aristóteles descubrió que el espíritu (el pensamiento, el lenguaje) posee una estructura interna similar a la de la materia. Así, desmenuzó el espíritu humano y extrajo tres elementos fundamentales: el concepto, el juicio, y el raciocinio. El concepto es la representación intelectual abstracta de un objeto. El hombre conoce las cosas que le rodean de una manera sensible (este monte, esta silla, este hombre), pero tiene una facultad (abstracción) que le permite prescindir de las características concretas y accidentales de los objetos y referirse a sus aspectos esenciales, es decir, le permite saber qué es el monte, la silla, el hombre, etcétera, Estos aspectos esenciales constituyen la idea, el concepto o, en términos aristotélicos, el universal. Aristóteles clasificó los conceptos en 10 grupos distintos: una sustancia y nueve accidentales (cualidad, cantidad, relación, tiempo, lugar, acción, pasión, estado, posición). Cuando se unen dos o más conceptos para obtener un enunciado acerca de la realidad, se forma un juicio. Un juicio es verdadero cuando se adecua con la realidad, es decir, cuando los dos conceptos que se unen en el juicio se refieren a dos objetos efectivamente relacionados en la realidad. El raciocinio es aquella forma lógica que consiste en inferir un juicio desconocido a partir de otros conocidos. Hay dos clases de raciocinios: los deductivos (que a partir de una afirmación universal deducen una afirmación particular). Y los inductivos (que siguen el camino inverso: van de la recolección de datos particulares a la afirmación de una verdad universal). Para Aristóteles, la forma perfecta de raciocinio es el deductivo, al que llamó silogismo. La teoría de los silogismos (descripción de su forma, de su empleo, de sus leyes, etcétera) constituye el núcleo de la lógica aristotélica. La metafísica Aristóteles es también el fundador de una nueva disciplina filosófica: la metafísica. El objeto fundamental de estudio metafísico es el ser de las cosas. Las distintas ciencias particulares estudian los objetos de este mundo ateniéndose a características específicas de ellos; así, la física estudia los objetos en cuanto móviles, la química, en cuanto mutables y reorganizables, la biología, en cuanto vivos, etcétera. La metafísica estudiará a los objetos en cuanto existentes y la definió así: «Es la ciencia del ser en cuanto ser». Ahora bien, Aristóteles no dedicó su atención a todos los seres, sino a aquel ser modélico, arquetípico que es Dios, el más perfecto de todos los seres. Así, la Metafísica se convirtió en una especie de teología. Las concepciones éticas de Aristóteles no son muy originales, limitándose a ser la formulación en términos filosóficos de las ideas dominantes sobre el ethos (comportamiento, conducta) en la sociedad de su tiempo. La política La obra política de Aristóteles es una de las primeras grandes sistematizaciones de la política de los pueblos. En ella partió de un enorme cúmulo de material empírico (el estudio de las constituciones políticas de la mayoría de las ciudades conocidas de su época). Para él, el Estado es la forma superior de las comunidades humanas. La primera institución natural es la familia (basada en dos tipos de relaciones: marido-mujer, amo-esclavo). La unión de varias familias constituye una aldea y la unión de varias aldeas autónomas y autosuficientes constituye un Estado, una polis. Según Aristóteles el hombre sólo puede realizarse plenamente en el interior de una comunidad política. Lo definió como zoon politíkón, o sea, «animal político». En cuanto a las formas de gobierno, delineó especulativamente un cuadro de regímenes políticos posibles, considerando tres formas de gobierno aceptables y tres formas condenables: Monarquía: Gobierno de uno solo. Aristocracia: Gobierno de los mejores Democracia: Gobierno de la multitud Todos estos sistemas deben buscar el bien y la felicidad de todos. Cuando esto no ocurre aparecen perversiones o degeneraciones: La Monarquía da lugar a la Tiranía La Aristocracia da lugar a la Oligarquía La Democracia da lugar a la Demagogia Aristóteles insinúa que el gobierno ideal puede ser el de una clase intermedia. De cualquier forma, afirma que cualquier forma de gobierno es buena si respeta la felicidad, el bien y utilidad de todos. Un gobierno que actúe correctamente ha de cumplir: Esté de acuerdo con la naturaleza humana. Esté de acuerdo con las condiciones históricas concretas que se dan. EL PENSAMIENTO FILOSÓFICO CRISTIANO El cristianismo no es una filosofía propiamente dicha, sino una religión que, tal como queda expresado en los dogmas de la Iglesia católica, «fue fundada por Jesucristo, hijo de Dios, enviado por Dios Padre como Mesías, para salvar a los hombres según habían anunciado los profetas hebreos». La designación de cristianos se dio por primera vez a los habitantes de Antioquía que profesaban la fe predicada por San Pablo. La religión cristiana se convirtió en menos de tres siglos en la religión oficial del Imperio romano y se arraigó tan profundamente a los más esenciales aspectos de la cultura occidental que logró sobrevivir a la caída del propio imperio y convertirse en el substrato básico de la civilización occidental. Los pensadores que aportaron los elementos decisivos para permitir que el cristianismo se configurara como religión oficial del Estado fueron los apologetas, así llamados porque en sus escritos se dedicaron a hacer la apología del cristianismo. La esencia definitoria del cristianismo como religión es su monoteísmo trascendente (la creencia en la existencia de un solo Dios, que es algo completamente distinto del hombre y del mundo, algo que los trasciende a ambos). Esta concepción monoteísta, cuya proyección actual es casi universal entre todos los creyentes, fue en un principio elaborada exclusivamente por la civilización israelita, que la consideraba verdad exclusiva y revelada directamente por Dios. En la historia sagrada del pueblo judío se encuentra el núcleo básico de la gestación del cristianismo. Los filósofos cristianos adoptaron muchas ideas del pensamiento griego pagano. De los escépticos epicúreos adoptaron argumentos contra el politeísmo. Aristóteles les prestó una serie de conceptos filosóficos (como los de sustancia, causa, materia) que eran imprescindibles para tratar los delicados y sutiles temas de la teología cristiana (la creación del mundo a partir de la nada. la Santísima Trinidad, etc.). La moral estoica aportó algunos elementos a la ética cristiana. El platonismo, con su desprecio del mundo sensible, su creencia en la inmortalidad del alma humana y la afirmación de la existencia de un mundo celestial fue una prefiguración del cristianismo, refiriéndose a Platón dijo San Agustín: «Nadie se ha acercado tanto a nosotros». Podemos dividir la filosofía cristiana medieval en dos grandes periodos: la Patrística y la Escolástica. LA PATRÍSTICA: Es el conjunto de dogmas elaborados por los Padres de la Iglesia y los concilios. San Justino fue el primero que trató de conciliar la fe reveladora y el conocimiento filosófico racional. Para él, la filosofía era el don más precioso que Dios había hecho a los hombres, por lo tanto no podía haber contradicción entre filosofía y religión. Tertuliano (siglos II y III) dio una respuesta menos sensata, más fideista y religiosa, al anunciar Credo quia absurdum («Solo creo lo que es absurdo, lo que repugna a la razón»). Lactancio fue un ecléctico: consideraba que tomando las verdades parciales que se contenían en las especulaciones de los filósofos griegos se obtendría un corpus doctrinal filosófico racional equiparable con la verdad teológica revelada. El gnosticismo fue una fusión de elementos escriturísticos y cristianos, griegos y orientales (pitagorismo, platonismo, judaísmo y teosofía esotérica se entremezclaban). Trataron los mismos temas que la ortodoxia cristiana, pero cayeron en la herejía. Sus principales aportaciones fueron: sustitución de la fe por una forma de conocimiento racional llamada gnosis afirmación de un dualismo entre Dios y la materia, posteriormente mejor desarrollado por otra herejía: el maniqueísmo desarrollo de la noción de Dios desconocido (el Dios del Antiguo Testamento no es el verdadero Dios, pues ha creado la materia, origen del mal). Orígenes (184-253) abogó por la utilización de pruebas filosóficas en la especulación teológica; como Parménides. Creía que la esférica era la forma perfecta y en un texto, afirma que los bienaventurados entrarán en el cielo rodando porque habrán resucitado en la más perfecta de las formas, la esférica. El Concilio de Nicea, celebrado el año 325, estableció las verdades de la religión cristiana en forma dogmática e indiscutible. A partir de este momento, la especulación de los Padres de la Iglesia fue limitada, no pudiendo enfrentarse a ninguno de los dogmas y verdades oficialmente decretadas, salvo riesgo de excomunión. Esta intangibilidad del dogma impuso la definición de la filosofía como ancilla theologiae, es decir, como esclava de la filosofía de Dios, como sierva de la teología. San Agustín (354-430) San Agustín nació en Tagaste, una ciudad del norte de África, de padre pagano y madre cristiana (Santa Ménica). Durante su juventud llevó una vida turbulenta, entregado a diversiones y placeres de carácter pagano. El problema filosófico que impulsó a San Agustín hacia el cristianismo es un problema que ha movido a grandes sabios de todas las épocas: la búsqueda de la felicidad. El opinó que la verdadera felicidad consiste en la sabiduría, por lo que toda su vida consistió en una larga investigación de la verdad. Fue un escritor sorprendentemente prolífico: parece ser que escribió casi 500 obras, de las que las más importantes entre las conservadas son: Las confesiones, La verdadera religión, La ciudad de Dios, La inmortalidad del alma y La ciencia cristiana. En la filosofía agustiniana, el punto de partida de toda reflexión filosófica es la existencia indudable de un Yo filosofante. No se puede ser un escéptico consecuente, no se puede dudar de todo, pues para dudar siempre hay que presuponer que existe un sujeto que duda. En la duda y el error encuentra San Agustín la seguridad de la propia existencia- La siguiente frase expresa estas ideas: si enim fallor, sum (si yerro, existo). La filosofía agustiniana no es más que la formulación cristiana del pensamiento platónico. Para Platón existían dos clases de realidades: la sensible y la ideal, y las cosas naturales participaban de la realidad superior de las Ideas; para San Agustín, las verdades particulares que adquiere el hombre mediante la ciencia participan de las verdades absolutas divinas. San Agustín fue uno de los fundadores de la disciplina filosófica llamada filosofía de la historia, germen de lo que en la actualidad es la sociología. Cuando Roma fue saqueada por los bárbaros de Alarico, los paganos atribuyeron el desastre al abandono de los antiguos dioses y dieron la culpa al cristianismo; decían los paganos que mientras Júpiter fue venerado, Roma fue poderosa, pero que al ser abandonado por los emperadores cristianos, Júpiter dejó de protegerla. San Agustín intentó responder a este ataque escribiendo su más monumental obra: La ciudad de Dios, que poco a poco fue superando el proyecto original hasta convertirse en una completa concepción cristiana de la historia. La idea fundamental de La ciudad de Dioses que la historia tiene un sentido, se dirige hacia una meta, señalada por la providencia divina. Los pueblos pueden rebelarse contra este destino que les impone la providencia divina y formar una «ciudad terrena», pero pueden también acatar esta ley histórica que les señala Dios y constituir así la «ciudad divina». Estos dos esquemas intuitivos (la ciudad terrena y la ciudad divina) le sirvieron a San Agustín para señalar la oposición política entre el Estado y la Iglesia. Durante toda la Edad Media, gracias a la influencia de la Iglesia y a la debilidad de los monarcas y emperadores. los sistemas políticos dominantes fueron teocracias (gobiernos de inspiración divina), pero con la llegada de la reforma protestante pasó a primer plano la doctrina contraria: el erastianismo, que predicaba el dominio y la superioridad temporal del Estado sobre la Iglesia. LA FILOSOFÍA MEDIEVAL: LA ESCOLÁSTICA Por escolástica se entiende aquella parte de la filosofía de la Edad Media europea que abarca desde la época del Imperio de Carlomagno (siglo VIII) hasta el Renacimiento (siglo XV). El nombre de escolástica proviene del hecho de que esta filosofía se elaboró en las instituciones eclesiásticas, especialmente las escuelas conventuales, catedralicias o palatinas, de las que surgieron las primeras universidades. En aquellas escuelas se enseñaron las siete artes medievales: el trivium (las llamadas materias literarias: dialéctica, gramática y retórica) y el quadrivium (las llamadas materias científicas: aritmética, astronomía, geometría y música). Revelación y Razón Antes de la aparición de las primeras universidades las escuelas medievales estaban divididas en dos secciones: la schola externa (que se ocupaba de las ciencias «humanas» y estaba especializada en la formación cultural de los seglares) y la schola interna (que se ocupaba de la teología y se especializaba en la educación de los clérigos). Tanto en una como en otra, las enseñanzas se impartían en dos formas: la lectio (la lección), consistente ei una clase magistral, y la disputado (la polémica), que era una controversia entre el maestro y los discípulos acerca de un tema filosófico. Las dos bases fundamentales del conocimiento escolástico eran la autoridad o revelación y la razón. La revelación se fundaba en las Sagradas Escrituras, en las conclusiones de los concilios, en el pensamiento de los Padres de la Iglesia y, en definitiva, en la tradición. La razón operaba en discusiones que no pusieran en cuestión la premisa de la omnipotencia y omnipresencia divinas, así como la elaboración de conceptos filosóficos, buscando la conciliación entre las tesis opuestas que a veces se hallaban en el campo de la revelación. Esta era considerada jerárquicamente superior a la razón. Hasta San Agustín la filosofía cristiana estaba influida por el pensamiento de Platón. Después se inició una etapa en la que la influencia de Aristóteles fue Fundamental Santo Tomás de Aquino (1224-1274) También llamado Doctor Angélico, nació en el castillo de Rocasecca, en Lombardía, cursó sus primeros estudios en la abadía de Montecassino, ampliándolos en la universidad de Napóles, en donde conoció a San Alberto Magno, quedando profundamente impresionado por el pensamiento de éste. Ingresó en la orden dominica y enseñó teología en París, y posteriormente, en numerosas ciudades italianas (Agnani, Orbicto, Roma). Falleció cuando se dirigía al concilio de Lyon, al que había sido invitado por el Papa Gregorio X. A pesar de que el tomismo es presentado general mente como una vía filosófica absolutamente distinta del pensamiento de San Agustín, ello no es correcto, pues ambos parten del mismo fundamento común, es decir, las bases del cristianismo. Lo que sí cabe señalar es que mientras San Agustín considera como predominante el «orden del corazón». Santo Tomás coloca como prioritario el «orden del intelecto». Resumiendo: en el primero, domina el sentimiento; en el segundo, la razón, pero siempre aceptando la superioridad de la revelación providencial. Por otra parte, en Santo Tomás hay un gran esfuerzo por asimilar las ideas de Aristóteles, presente en toda su obra, aunque mezcladas con las aportaciones filosóficas de los antiguos Padres de la Iglesia y recogiendo incluso alguna influencia de los filósofos árabes. Puede añadirse que la obra tomista no fue excesivamente original, pero sí un gran esfuerzo de sistematización del saber que hasta entonces permanecía disperso. FILOSOFÍA MODERNA Comprende todas las manifestaciones del pensamiento cronológicamente situadas entre el final de la filosofía cristiana medieval y el pensamiento final de la Ilustración. Este periodo se define especialmente por oposición al escolasticismo. Su fuerza radica en su capacidad crítica, que puso en cuestión las tesis de la escolástica. Frente al rígido esquema medieval, el pensamiento moderno se definió a través de las características que se resumen a continuación. Autonomía del pensar Los filósofos modernos se resistieron progresivamente a solicitar el tutelaje y el dictamen de los dirigentes de la Iglesia respecto a sus tesis y especulaciones. Comenzó una auténtica lucha para liberarse del dictado del dogma teológico. Los filósofos modernos abandonaron las reglas tenidas por indiscutibles y los métodos universalmente aceptados, para establecer sus propias normal: de verificación: coherencia racional, comprobación empírica, duda metódica, etc., rompiendo con la fidelidad a lo establecido. Libertad de razonar La filosofía moderna intentó forjar una nueva concepción del mundo y de la sociedad y, aunque inicialmente no prescindió absolutamente de la influencia religiosa, postuló la resolución de los problemas mediante la libertad de razonamiento. Abandonó así progresivamente las verdades absolutas o reveladas, intentando sustituir lo sobrenatural por lo natural, lo divino por lo humano, lo celeste por lo terrenal, resolviendo zanjar definitivamente la polémica entre la fe y la razón en favor de esta última. Liberación individual La nueva filosofía contribuyó a la liberación de la individualidad, de un modo que antes sólo se produjo en la Grecia clásica. Esta contribución fue casi simultánea a la lucha por la liberación de los grupos nacionales que pugnaban por quebrar el imperialismo medieval. De algún modo, la filosofía moderna se vincula al surgimiento de las nacionalidades. La formulación científica Otro rasgo del pensamiento moderno fue la intención de aproximar la filosofía y la ciencia. Fue en esta época de la historia cuando comenzaron a estructurarse las ciencias naturales, entendidas como un sistema de conocimientos rigurosamente clasificado y verificado. El pensamiento moderno acabó convirtiendo a la filosofía en colaboradora de la ciencia. A partir de esta época fue frecuente que una misma persona reuniera la doble condición de científico y filósofo. Galileo y Newton son grandes ejemplos de este cambio. que alcanzó hasta la época contemporánea, como lo demuestra Bertrand Russell. En esta perspectiva, los dos factores más importantes de la ciencia moderna (utilización concreta de la experiencia del investigador y mentalidad matemática) fueron también dos de los temas filosóficos más apasionadamente discutidos, hasta tal punto que dio lugar a dos de las más destacadas escuelas filosóficas de la Edad Moderna: el racionalismo, que se fundó en tos aspectos lógico-racionales del conocimiento, y el empirismo, que afirmó la validez absoluta de la experiencia en el ámbito del conocimiento científico-filosófico. Laicización La nueva filosofía planteó tres condiciones importantes que a largo plazo resultaron decisivas: la laicización (liberalización de las costumbres respecto a la influencia religiosa), la extra oficialidad (liberación e independencia de los comportamientos respecto de la tutela imperial) y la sustitución del latín por los idiomas de las distintas nacionalidades. Los filósofos importantes dejaron de ser clérigos y sus enseñanzas dejaron de estar respaldadas por las instituciones políticas y por la Iglesia, penetrando hacia el pueblo a través del idioma nacional. En general, se acostumbra a dividir la filosofía moderna en tres grandes periodos: el Renacimiento, el Racionalismo, el Empirismo y la Ilustración. Las disciplinas filosóficas que gozaron de mayor importancia en la Edad Media eran la teología y la metafísica. La Edad Moderna no prescindió totalmente de ellas e incluso se llegaron a proponer nuevas elaboraciones metafísicas como el panteísmo de Spinoza, pero su campo de interés primordial lo constituyó la problemática en torno a la teoría del conocimiento. RACIONALISMO Y EMPIRISMO El Renacimiento: ciencia y humanismo en el origen de la modernidad. El Renacimiento hemos de entenderlo como consecuencia de la crisis del siglo XIV que significa el fin del feudalismo y el comienzo del mundo burgués. Le Golf afirma que esta crisis se debe al límite de la tecnología medieval (artesanía) para responder a las nuevas necesidades que se le plantean. Hacia 1300 o 1350 surge una crisis social por las epidemias de peste: las gentes se refugian en los burgos produciéndose una concentración de la población. Se estanca y paraliza la agricultura debido a esta reducción de la mano de obra por las epidemias y las migraciones. Ante esta situación, el régimen feudal (basado en el pacto entre el señor y el vasallo por el cuál éste le trabaja la tierra y el señor le defiende) cae y el señor feudal se ve obligado a comprar la mano de obra. Surge entonces la burguesía, concepto que en un principio se refiere a los habitantes de los burgos - ciudades- venidos del campo, que pasó a designar una nueva clase social que, frente a la aristocracia, busca la fuente de riqueza en el trabajo, bajo la afirmación de que el hombre vale lo que produce. Con los finales de la crisis, la población demuestra una actitud de búsqueda y desarrollo de los deseos de vivir. En este clima surgen una serie de fenómenos: Fenómeno de movilización social: el hombre comienza a pensar que la condición social es un producto que hay que ganar. Fenómeno vertical social: la nobleza pierde paulatinamente valor, ganándolo la burguesía. (Marx afirmó que es en esta época cuando surge el capitalismo. ) Las naciones modernas surgen con la burguesía y son un fenómeno burgués. El poder de los reyes va creciendo en las ciudades, estando las monarquías amparadas por el capital burgués. La transformación del poder y el régimen feudal monárquico trae como consecuencia la unificación de las leyes, que hasta entonces eran múltiples. Un fenómeno fundamental de ésta época, y que se da preferentemente en el s XV, es la revolución tecnológica, que tiene unas consecuencias que cambian la historia: El invento de la brújula, que supone una nueva posibilidad de arriesgarse más allá del espacio conocido, abriéndose las posibilidades de los descubrimientos y de las colonizaciones. El telescopio, invención de Galileo, contribuye de una forma decisiva el cambio de la concepción del mundo. El hombre se da cuenta de la infinitud del mundo y cambia su visión geocentrista por la heliocentrista. La pólvora, que supone la revolución militar y la muerte de las costumbres caballerescas. Los nuevos ejércitos, basados en el poder de la artillería y tácticas de guerra y no en el potencial de caballería, son mucho más costosos y sólo los reyes pueden mantener ejércitos poderosos, siendo éste un factor más que explica la pérdida de poder de los señores feudales. La imprenta, de Gütemberg, permite el comienzo de la cultura escrita, que hasta ahora había estado restringida a los monasterios. Se desarrollan las Universidades, que pronto adquieren una especial importancia para la secularización de la cultura. El elemento que más vigorizó a la economía fue el descubrimiento de nuevos mercados y la creación de nuevas industrias, posibilitado en parte por la caída de los turcos. Se crean ligas comerciales en los Países Bajos y las primeras colonias. Se crea el mercado de África y concluye el descubrimiento de América, entrando nuevos productos y metales preciosos. Se comienza a implantar la industria metalúrgica, relojera y cristalería, que desbancan el predominio textil. Todos estos cambios tecnológicos poseen una serie de consecuencias económicas, políticas e ideológicas; pero, especialmente, un cambio profundo de la actitud del hombre frente al mundo. Con el Renacimiento aparece el naturalismo, que valora la naturaleza y la vida sensible; esto hace que se dinamice el trabajo para poder gozar posteriormente de la naturaleza. Esta actitud naturalista aumenta la curiosidad intelectual, la valoración del lujo, los viajes, las exploraciones y todo lo que represente contacto con lo natural. Se comienza a valorar el paisaje y a humanizar el arte. La cultura se va haciendo progresivamente laica e independiente de la autoridad eclesiástica y de los dogmas religiosos. Las pruebas de este naturalismo y de su cultura laica son: El cambio de la actitud respecto de la muerte. El sentido laico de la muerte iguala a todos los hombres. La muerte se suele ver como un castigo, o un final o tránsito, de ahí que haya que activar la energía para gozar lo máximo posible de la vida. El tema de la fama es la solución laica a la supervivencia. El hombre medieval creía en el otro mundo; la fama, en cambio, será la forma de sobrevivir tras la muerte en el Renacimiento. Aparece el tema de la fortuna. El hombre medieval cree en la intencionalidad y providencia de Dios en el mundo. En el Renacimiento la cultura se descristianiza y aparece las ideas de fortuna y predeterminación; la suerte guía al hombre y el azar vuelve a ocupar un papel importante. Hay una valoración ética de la persona. El ideal de la vida no es ya seguir un modelo -como los sabios helenísticos o los santos del cristianismo-, sino afirmar la propia personalidad y el propio modelo de vida. Comienza la independencia del poder político frente a los Papas, como consecuencia del refuerzo del poder de los reyes tras la caída del régimen político feudal. Los pensadores más importantes toman partido por la independencia de ambos poderes; no con la intención de reforzar el poder de los reyes, sino porque piensan en el poder de la Iglesia como espiritual y no concreto, y, por lo tanto, independiente del Estado. El núcleo ideológico del Renacimiento es el Humanismo, que podemos definir como la nueva cultura que surge a partir del s XV que se centra en el hombre (antropocéntrico) y que tiene como finalidad al hombre (antropotélico). Los temas más importantes que desarrolla el humanismo son: El tema del sujeto y de su libertad, la relación del sujeto con Dios, y la relación del sujeto con el mundo y la naturaleza. El Renacimiento se va a destacar por la vuelta a los ideales grecolatinos y por la interpretación libre de la Biblia. Como grandes humanistas podemos destacar: Leonardo da Vinci, Tomas Moro y Pico della Mirandola. A ellos, sobre todo Pico, se debe la ruptura con la filosofía medieval. Así destacamos los planteamientos: El hombre es capaz de hacer el bien por sí mismo, frente a la naturaleza humana corrompida de la filosofía medieval, que afirmaba que el hombre tiene tendencia al mal. El hombre se considera un ser autónomo, que elige libremente su destino y acepta las consecuencias de sus actos, frente a la filosofía medieval que afirma que el hombre sólo puede salvarse por la gracia y fe divino. Los problemas mecánicos planteados por la nueva astronomía no podían ser resueltos por la mecánica de Aristóteles. Los aristotélicos vieron en este hecho una argumentación contra la nueva astronomía, pero Galileo y Newton demolieron sus objeciones con una mecánica científica moderna y ordenada. Rene Descartes (1596-1650) Descartes es el padre de la filosofía moderna. Sus obras más importantes son: Reglas para la dirección del espíritu. Principio de Filosofía Meditaciones metafísicas Discurso del método Su filosofía surge en el siguiente contexto: Se ha producido ya una cierta ruptura con la filosofía medieval, pero no se había planteado aún una nueva forma de entender la verdad. Esta filosofía se va a basar en la confianza en la razón y la consideración de esta como algo interno del individuo. Se encuentra con el pensamiento religioso medieval, aunque ya sumido en una gran crisis. Para Descartes la seguridad no proviene en principio de la seguridad que nos da el pensamiento divino, ni es algo externo como el pensamiento griego, sino que deriva de la certeza de la mente humana. Circunstancias de carácter social-político. En esta época aparecen nuevas clases sociales y se produce cambios muy profundos en la sociedad. Se tiene que crear pues una forma de conocimiento acorde a los nuevos tiempos y las necesidades de las nuevas clases sociales. Intenta superar los 2 grandes prejuicios medievales en el tema del conocimiento: Autoridad de Aristóteles, cuya forma de pensamiento se basa en los silogismos; consiste en aplicar teorías generales a casos concretos: a partir de 2 premisas (una mayor o general y otra menor) vamos obteniendo conclusiones y ampliando el conocimiento: El hombre es un ser racional; Luis es un hombre. Luego Luis es un ser racional. Descartes se plantea la necesidad de un nuevo método ya que los silogismos no nos permiten avanzar, crear, ... Unión fe-razón, es decir, la verdad obtenida a través de la razón y de la fe coinciden. Razón y método: el criterio de verdad. Para Aristóteles había diversidad de ciencias, y cada una de ellas se diferenciaba de las demás por un objeto formal propio y un método específico; esto originaba distintos géneros del saber que, según Aristóteles eran incomunicables. Por ejemplo: la aritmética y la geometría; la primera tiene por objeto formal propio lo discontinuo; y la segunda, lo continuo; ambas eran incomunicables. Sin embargo, Descartes rechaza tal principio de incomunicabilidad de los géneros, por considerar que el saber humano no se diversifica por la distinción de objetos formales, pues siendo la razón una, el saber del hombre es uno sin admitir límites interiores. En el caso de la aritmética y la geometría, la comunicación que genialmente estableció Descartes, por medio de la geometría analítica, hizo posible la liberación de la matemática del sometimiento a los sentidos motivado por los planteamientos intuicioncitas de Aristóteles. La comunicación de todos los conocimientos, fundamentados todos en los mismos principios, supuso el surgir de toda una forma nueva de hacer ciencia, la ciencia moderna, y de un método único. Además, la comunicación de los conocimientos permitió que algunos ámbitos del saber estancados por su sometimiento al método de observación sensorial (como la física), fuesen fecundados por procedimientos más exactos y rigurosos. Así, la geometría analítica sustituye una concepción empírica del espacio, por una concepción algebraica, es decir, meramente intelectual, que propicia la liberación del pensamiento de su vinculación con lo concreto y particular. Esta es la esencia del racionalismo cartesiano, el pensamiento separado e independiente de lo corpóreo. Para Aristóteles hubiera sido absurdo hablar de un espacio real no observable por los sentidos, o, al menos, no imaginable. Una de las premisas del pensamiento de Descartes es la sumisión a un método cuidadosamente elegido, aunque esto no es original, pues ya en Platón hay una gran preocupación por los asuntos de método. En Descartes nos encontramos con 3 momentos del método: 1. El método como camino de búsqueda de la verdad: la duda metódica. En primer lugar hemos de decir que Descartes no es un escéptico, no considera la duda como un estado definitivo sino como una situación transitoria para alcanzar la verdad: es una duda metódica y constructiva, es decir, como instrumento para superar la duda misma. Naturalmente no se propone dudar de cada una de las ideas, algo imposible, sino que cuestiona cada uno de los fundamentos de estas ideas. Para Descartes solamente podremos llegar a la verdad cuando se llegue a una realidad de la que no podamos dudar, algo de lo que tengamos absoluta certeza. Descartes comienza dudando de los sentidos, por un hecho patente: éstos me engañan alguna vez, luego he de pensar que pueden engañarme siempre. Cuando sueño siento la existencia de las cosas igual que en la vigilia y, sin embargo, no existen. La dificultad para distinguir el sueño de la vigilia presta la posibilidad de dudar también de la existencia de las cosas. Sin embargo es cierto que, aún fuera del estado de vigilia, hay verdades que prevalecen, las matemáticas: "Pues, duerma yo o esté despierto, dos más tres serán siempre cinco, y el cuadrado no tendrá más que cuatro lados". Descartes introduce un nuevo motivo de duda: la hipótesis de que puede que Dios haya puesto en mi mente estas ideas con la intención de engañarme. Pero existiría una posible objeción a esta hipótesis: podría repugnar a la voluntad divina el querer engañarme. Para evitar equívocos con la fe, Descartes sustituye la denominación de Dios engañador por Genio maligno, un ser todopoderoso que tiene la voluntad de engañarme en todo lo que pienso. Con esta hipótesis ahora parece que no puedo tener nada por cierto sin correr el riesgo de ser engañado; incluso con las verdades matemáticas puede ocurrir que "haya querido que me engañe cuantas veces sumo dos más tres, o cuando enumero los lados de un cuadrado". Con todo este proceso de duda, desarrollado en la 1ª Meditación Metafísica, Descartes persigue, como hemos dicho, llegar a una verdad absoluta, eliminando los prejuicios (algo parecido a la ironía socrática). Llegado a este punto, en la 2ª Meditación Metafísica, Descartes aplica la duda a la propia duda. Y es entonces cuando encuentra un elemento que prevalece a la duda. Si dudo que dudo es indudable que sigo dudando. El hecho de dudar, aunque me esté engañando, siempre puedo tener la certeza de que estoy dudando. Y dudar o engañarse implica necesariamente que estoy pensando; y si estoy pensando es indudable que estoy existiendo. Por tanto estamos ante la primera verdad indubitable, la de mi propia existencia como verdad pensante, a partir de la cual va a construir todo el conocimiento: Pienso, luego existo (Cogito, ergo sum) Ya en su tiempo Descartes recibió la objeción de que el cogito era la conclusión de un silogismo -a los que precisamente Descartes quiere evitar en su intento de ruptura con la filosofía medieval- cuya premisa mayor (sobreentendida) sería "todo lo que piensa existe", la premisa menor "yo pienso", y la conclusión "yo existo". Pero Descartes no aceptó este planteamiento, ya que, según él, "cuando alguien dice pienso, luego existo, no infiere su existencia del pensamiento como si fuese la conclusión de un silogismo, sino como algo notorio por sí mismo, contemplado por simple inspección de espíritu. Ello es evidente, pues, si la dedujese mediante un silogismo, tendría que haber establecido antes esta premisa mayor: todo lo que piensa es o existe. Y, muy al contrario, a esto último llega por sentir él mismo en su interior que es imposible que piense si no existe." Conviene resaltar como aquí Descartes señala que la idea de existencia es verdadera porque se le manifiesta al espíritu "como algo notorio por sí mismo". Este va a ser, como veremos en el siguiente apartado, el criterio de verdad defendido por Descartes. 2. El método como criterio de verdad: la evidencia (claridad y distinción). Es en la 2ª parte del discurso del método donde Descartes establece su criterio de certeza. Una vez establecida una verdad indubitable, a partir de la cual va a construir todo el conocimiento, Descartes realiza una profunda meditación analítica del cógito: por él la duda desemboca en la evidencia de la realidad del pensamiento. El contenido inmediato del cógito es la realidad existencial del sujeto pensante: la duda puede afectar a todos los contenidos del pensamiento, pero no puede afectar al yo donde estos contenidos están. Intuimos la existencia de un yo cuya esencia es ser pensamiento. En esto precisamente consiste intuir, en percibir conexiones necesarias, evidentes. Para poder intuir conexiones necesarias entre ideas, es preciso que éstas sean simples, pues sólo la relación entre ideas simples puede ser también simple. Y sólo de lo simple hay verdadera intuición. El resto del conocimiento es deducción. Por tanto, se tiene certeza de toda verdad que se obtenga por medio de una intuición clara y, además, distinta. Precisemos las nociones de claro y distinto para Descartes: - Una idea clara es aquella que se presenta de forma manifiesta a un espíritu atento. - Una idea distinta es aquella tan precisa y diferente a toda la demás que sólo comprende lo que manifiestamente aparece al que la considera como es debido. Para Descartes las ideas constituyen los elementos básicos del conocimiento: no conocemos sino ideas. Y al considerarlas como dotadas de realidad, puede plantearse la cuestión de la causa de tal realidad, planteamiento que permitirá, como veremos resolver la cuestión de la existencia de Dios. 3. El método como crecimiento orgánico de la verdad: reglas de crecimiento de la razón. Las reglas del método de crecimiento de la razón las compendia Descartes en sus famosos cuatro preceptos del correcto pensar, expuestos en el Discurso del Método. El primero expresa la necesidad de precaución, de decir, partir de intuiciones claras y distintas para efectuar las posteriores deducciones, para garantizar así la fiabilidad del conocimiento. El segundo y el cuarto representan lo más genuino del método matemático, pues indican la necesidad de proceder por análisis y síntesis; para tener garantía de la verdad de nuestras síntesis, hemos de asegurarnos que la unión de una naturaleza simple con otra sea necesaria. El tercer precepto es una apelación a la necesidad de proceder ordenadamente, un orden desde lo simple a lo compuesto. La novedad de Descartes y su época está en la entronización del método matemático. No es que la filosofía extrapole para sí el método matemático, sino que la metafísica tiene el derecho a hacer propio el método más apto para el conocimiento humano. Y este método es, precisamente, el matemático. Pero entendiendo la matemática no reducida a meros problemas matemáticos, sino la matemática como aplicación a la razón (Mathesis Universalis, como dijo Descartes) y no al revés. Pero, ¿en qué estriba la superioridad del método matemático? La superioridad proviene de la simplicidad de su objeto, dado que para Descartes el fundamento de evidencia y certeza, está, en que el conocimiento intuitivo es absoluto -pues de lo simple, que es conocido por sí en su totalidad, no puede obtenerse falsedad alguna, pues el error proviene de la composición, es decir, del juicio. A partir de la intuición de lo simple, se inducededuce todo lo demás. Está patente pues la renuncia de Descartes a la lógica clásica (silogismos aristotélicos), por considerarla como meramente explicativa de lo sabido, no inventiva. John Locke (1630-1704) Cursó estudios de teología, química y medicina en Oxford. Allí entró en contacto con la doctrina escolástica y la teoría de Descartes. Es la formulación clásica del empirismo inglés. Parte del principio de que todo conocimiento, incluso el abstracto es adquirido, y se basa en la experiencia, rechazando las ideas innatas. El objeto de conocimiento son las ideas, definidas como contenido del entendimiento y sin ningún carácter ontológico, ya que son el resultado directo de la sensación o la reflexión (ideas simples), o el resultado de la actividad asociativa de la inteligencia humana (ideas compuestas). No representa un empirismo radical y acepta el conocimiento por demostración, no fundamentado en la experiencia, (como la demostración de la existencia de Dios por el argumento cosmológico o teleológico), y la validez de conceptos originados por el sujeto (como los matemáticos o geométricos). Sus obras más importantes son: Ensayo sobre el entendimiento humano Tratado sobre el gobierno civil La racionalidad del cristianismo David Hume (1711-1776) Estudió en un primer momento Derecho, pero pronto se dedicó a la Filosofía. Su filosofía proviene a la vez del empirismo de Locke y del idealismo de Berkeley. Trata de reducir los principios racionales (entre otros la casualidad) a asociaciones de ideas que el hábito y la repetición van reforzando progresivamente., hasta llegar, algunas de ellas, a adquirir una aparente necesidad. Por lo tanto, las leyes científicas sólo son para los casos en que la experiencia ha probado su certeza. No tienen, pues, carácter universal, ni es posible la previsibilidad a partir de ellas. La sustancia, material o espiritual no existe. Los cuerpos no son más que grupos de sensaciones; el yo no es sino una colección de estados de conciencia. Es el fenomenismo. Sus principales obras son: Tratado sobre la naturaleza humana. Investigación sobre el entendimiento humano Investigación sobre los principios de la moral Se dice que antes del siglo VI a.C. las leyendas imaginadas por los pobladores de la antigua Grecia explicaban todos los fenómenos naturales, es decir utilizaban la personificación de dichos fenómenos, pero a partir del siglo VII a.C. el hombre empieza a utilizar la racionalidad, esto se lo atribuyen a los cambios socioeconómicos e ideológicos que ocurrieron para el momento. Para esta etapa en la historia de la filosofía a los pensadores se le denominaron como Pre-Socráticos y todos ellos coincidían en distinguir en la naturaleza un "kosmo" (orden en oposición al caos), que es dinámica y que presenta leyes propias. De estas ideas, se crea la primera escuela filosófica que es la de los milesios en el siglo VII a.C. y es donde se destacan: Anaxímenes (su arjé el aire) y Anaximandro (su arjé el Apeiron), siguiendo la historia en el siglo VI a. de C. se presenta la escuela de Pitágoras, que se dedica a explicar todo a través de las matemáticas y números, según los pitagóricos los números aparecen en pareja, por lo que afirma que la naturaleza es algo dualista (díanoche, hembra-macho) todo se organiza por parejas de la que destacan par e impar; entre los siglos VI y V a.C. aparece Heráclito de Efeso quien parte del dinamismo y movimiento del universo, pero también aparece Parmenides quien sostiene una teoría contraria a la de Heráclito. Parmenides tuvo dos discípulos Zenón de Elea y Milesso de Samos quienes demostraron racionalmente la imposibilidad del movimiento ya que dijeron "de la unidad no puede surgir el pluralismo, porque supondría el paso del ser al no ser" es entonces cuando los filósofos admiten un pluralidad de realidades que existen desde siempre y que por lo tanto son eternas; ya en el siglo V a.C. Anaxágoras parte de la teoría de Zenón y Milesso y concluyó que: "todo esta en todo y participa de todo". En el mismo siglo tiene lugar Demócrito de Abdera. A mediados del siglo V a. de C. en Grecia sobre todo en Atenas se empieza a producir la llamada Ilustración Griega, dentro de estas circunstancias nos encontramos a los Sofistas quienes partían del escepticismo (la verdad absoluta no existe) y que a través de la palabra no se puede llegar a la verdad. Para el mismo momento los razonamientos de Gorgias engloban los llamados sofismas (razonamientos que parten de una idea y de su contrario, por lo que forzosamente han de ser verdaderos). Todos estos planteamientos son los que se encuentra Sócrates, quien desarrolló la Mayéutica y abordó problemas sociales y humanísticos, lamentablemente este personaje no dejó ningún escrito pero lo que se sabe de el es gracias a uno de sus discípulos Platón quien crea su escuela en Atenas y quien tomó como su arjé el alma, Platón afirma que el hombre posee tres almas que son las que dominan al cuerpo (el alma racional –razón-, alma irascible –fortaleza-, y el alma concupiscible – apetito-): de este mismo fundamento parte Aristóteles (discípulo de Platón) solo que este evalúa más la parte gubernamental y el comportamiento del hombre ante el poder llevando paralelamente sus estudios físicos, lógicos y matemáticos. Aproximadamente en el año 1.300 ó 1.350 surge una crisis social, que lleva nuevamente a otro cambio ideológico causado por el descubrimiento de nuevos mercados y la creación de nuevas industrias, ya que surge el capitalismo, pero también en ese momento hay un gran avance tecnológico puesto que se crea: la brújula, el telescopio, la pólvora y la imprenta. Ya en la filosofía moderna se encuentra René Descartes quien intenta superar los prejuicios medievales (la autoridad de Aristóteles y la unión fe-razón) e hizo avances matemáticos, pero también tenemos en el siglo XVII y XVIII a John Locke y David Hume quienes tratan la filosofía con más racionalidad. Como se observó anteriormente, la filosofía juega un papel muy importante dentro de nuestras vidas, ya que la tecnología, los avances médicos-científicos, y la psicología que hoy en día manejamos, se lo debemos a las personas que hace siglos se dedicaron a buscar un por qué, a plantear hipótesis y con el tiempo las más acertadas se convertirían en teorías. 2.2 Las raíces de la probabilidad inversa: Bernoulli, Bayes y Laplace Siglo XIX La característica fundamental son sus fuertes cambios. Cambios anunciados y gestados en el pasado pero que se efectuarían, de hecho, en el siglo. Cambios en todos los ámbitos de la vida y el conocimiento. Revoluciones de todas las índoles tendrían su lugar. La ciencia y la economía se retroalimentarían, el término “científico”, acuñado en 1833 por William Whewell,1 2sería parte fundamental del lenguaje de la época 1800-1830 Este periodo se encuentra dominado por las figuras de Laplace y Gauss. Laplace cubrió todo el rondó de la probabilidad y la estadística; Gauss se enfocó solamente en la teoría de los errores. El trabajo en la teoría de los errores alcanzó un clímax con la introducción del método de los mínimos cuadrados que fue publicado Legendre en 1805. Durante veinte años hubo tres razonamientos basados en la teoría de la probabilidad: El argumento bayesiano de Gauss (con una distribución a priori uniforme), el argumento de Laplace basado en el teorema central del límite y el argumento de Gauss que se basó en el teorema de Gauss-Markov. El trabajo de investigación continúo a través del siglo 19 con la ayuda y contribución de numerosos astrónomos y matemáticos; entre ellos, Cauchy, Poisson, Fourier, Bessel, Encke, Chauvenet y Newcomb. (Aparece la distribución de Cauchy como un caso poco elegante de la teoría de los errores.) Pearson, Fisher y Jeffreys aprenden la teoría de los errores desde la perspectiva de los astrónomos. Gauss encontró una segunda aplicación de los mínimos cuadrados en la geodesia. Los geodesistas hicieron importantes contribuciones a los mínimos cuadrados, particularmente desde la perspectiva computacional. Los epónimos, Gauss-Jordan y Cholesky, son puestos en honor a posteriores geodesistas. Helmert (la transformada de Helmert) fue un geodesista que contribuyó a la teoría de los errores. Nótese que el topógrafo Frank Yates contribuyó enormemente a la estadística siendo colega y sucesor de Fisher en Rothamsted. En Gran Bretaña se llevó a cabo el primer censo poblacional en 1801. Éste terminó la controversia acerca del tamaño de la población que empezó con Price, amigo de Bayes, quien argumentaba que la población había decrecido en el siglo 18. Numerosos escritores lanzaron estimaciones, incluyendo a Eden. William Playfair encontró nuevas formas de representación gráfica de los datos. Sin embargo, nadie le prestó atención. La teoría estadística que ganó terreno en los siguientes 150 años no tuvo en cuenta la idea de la graficación de los datos. Esta idea es reciente y se asocia con Tukey. Concluye la era de las academias y los mayores avances se dan en las universidades. El sistema de educación francesa fue transformado gracias a la revolución y el siglo 19 vio el surgimiento de la universidad alemana. 1830-1860 Este periodo vio el surgimiento de la sociedad estadística, la cual ha estado active en la escena científica desde entonces. Aunque el significado de la palabra “Estadística” ha cambiado desde el principio de la literatura filosófica de la probabilidad. En este periodo, también se dio la más glamorosa rama del análisis empírico de las series temporales, el llamado “ciclo de las manchas solares”. Desde 1830 han habido varias sociedades estadísticas, incluyendo la London (Royal) Statistical Society y la American Statistical Association (ahora la más grande del mundo). El International Statistical Institute fue fundado en 1885 aunque ha organizado congresos internacionales desde 1853. Las estadísticas estuvieron basadas en las poblaciones humanas y en Francia André-Michel Guerry mapeó una clase de estadísticas morales. Quetelet fue un catalizador en la formación de la London Society. Desde 1840, existe la literatura filosófica de probabilidad. La literatura inglesa empieza con la discusión de probabilidad de John Stuart Mill (1843). Este fue seguido por John Venn, W. Stanley Jevons y Karl Pearson. Hubo un traslape en la literatura de lógica y de probabilidad. De Morgan y Boole también aportaron exhaustivas y largas discusiones acerca de la probabilidad. En 1843 Schwabe observe que la actividad de las manchas solares (sunspot) era periódica. Seguido de décadas de investigación, no solo en la física solar sino en el magnetismo terrestre, meteorología e incluso economía, donde se examinaban las series para ver si su periodicidad coincidía con la de las manchas solares. Incluso antes de la manía o moda de las manchas solares hubo un interés intense en la periodicidad en la meteorología, en el estudio de las mareas y otras ramas de la física observacional. Juntos, Laplace y Quetelet, habían analizado datos meteorológicos y Herschel había escrito un libro al respecto. Las técnicas en uso variaban desde las más simples, como la tabla de Buys Ballot, a formas más sofisticadas como el análisis armónico. Al final del siglo, el físico Arthur Schuster introdujo el periodograma. Sin embargo, por ese entonces, una forma rival del análisis de series temporales, basada en la correlación y promovida por Pearson, Yule, Hooker y otros, fue tomando forma. 1860-1880 Dos importantes campos de aplicación se abrieron en este periodo. La probabilidad encontró una aplicación más profunda en la física, particularmente en la teoría de gases, naciendo así la mecánica estadística. Los problemas de la mecánica estadística estaban detrás del alcance de los avances de la probabilidad a comienzos del siglo 20. El estudio estadístico de la herencia, desarrollado dentro de la biometría, tuvo lugar. Al mismo tiempo el mundo sufrió importantes cambios geográficos. Un trabajo importante en la teoría de la probabilidad venía desarrollándose en Rusia mientras que el trabajo estadístico venía de Inglaterra. En 1860 James Clerk Maxwell usó la curva del error (distribución normal) en la teoría de los gases; parece que él estaba influenciado por Quetelet. Boltzmann y Gibbs desarrollaron la teoría de gases dentro de la mecánica estadística. Galton inaugural el estudio estadístico de la herencia, trabajo continuado en el siglo 20 por Pearson and Fisher. La correlación fue una de las más distintivas contribuciones de la escuela inglesa. En contraste, la llamada “dirección continental” investigaba que tan apropiado era el uso de los modelos para el tratamiento de las tasas de nacimientos y defunciones por considerar la estabilidad de las series sobre el tiempo. Hubo una mayor penetración de la estadística en la psicología y en la economía. Se tuvo en cuenta el trabajo de los políticos aritméticos de 1650. El trabajo de Jevons sobre números índice fue inspirado por la teoría de los errores. La investigación en series temporales económicas fue inspirada por el trabajo de los meteorólogos acerca de la variación estacional de los ciclos solares y sus correlaciones en la tierra. 1880-1900 En este periodo la escuela inglesa estadística tomó forma. Pearson fue el personaje dominante hasta que Fisher lo desplazó en la década de 1920s. Galton introdujo la correlación y una teoría basada en el anterior concepto fue rápidamente desarrollada por Pearson, Edgeworth, Sheppard y Yule. La correlación fue la mayor salida desde el trabajo estadístico de Laplace y Gauss. Empezó a ser ampliamente aplicada en biología, psicología y ciencias sociales. En economía Edgeworth siguió algunas ideas de Jevons, sobre números índice. Sin embargo, en Inglaterra la economía estadística era más cercana al trabajo en estadísticas oficiales o periodismo financiero. En Italia Vilfredo Pareto descubrió una regularidad estadística en la distribución del ingreso. 2.3 Abducción y la probabilidad de las teorías 1. Introducción Hace unas pocas semanas leía con vivo interés la necrológica de Jon Barwise en la última Newsletter de la American Philosophical Association. En unas líneas emotivas, Jon Dorbolo recordaba cómo Barwise insistía en que la lógica no es jugar con símbolos, sino que es la ciencia del razonamiento válido. Quienes han enseñado lógica en cualquiera de sus niveles con seguridad han advertido lo difícil que es para un profesor de lógica —en contra de lo que en principio cabría esperar— articular unitariamente en su disciplina el pensamiento y la vida, y lograr así que sus alumnos descubran que lo que se enseña en el aula guarda alguna relación con su manera ordinaria de pensar. Las causas de este fenómeno son muy complejas y no son reductibles sólo al temor al psicologismo y a la matematización de la lógica moderna a partir de Frege. Como es bien conocido, ya los humanistas acusaban a los lógicos tardo medievales de haber perdido en sus discusiones escolásticas el contacto con la realidad vital, con los problemas reales: "Hay que transformar la lógica —venía a decir Juan Luis Vives— en un instrumento práctico y útil, porque las disciplinas que tratan del lenguaje están necesariamente unidas a la experiencia vital y concreta". Efectivamente, buena parte del interés por la filosofía del lenguaje en la segunda mitad del siglo XX tiene que ver directamente con esta preocupación por contextualizar la lógica, pero —todos lo advertimos— no es suficiente con prestar más atención al lenguaje para llenar de vida a la lógica. Es preciso también ensanchar el horizonte de la investigación para atender a los procesos efectivos mediante los que los seres humanos —profesionales de la lógica o ciudadanos de a pie— llegamos a nuevas ideas, a nuevos conocimientos. En este sentido, centraré mi atención en el lógico americano, científico y filósofo a la vez, Charles S. Peirce (1839-1914) que, aunque hizo relevantes contribuciones a la lógica deductiva, se interesó sobre todo por la lógica de la ciencia y más especialmente por el proceso inferencial que llamó "abducción" (en cuanto opuesto a deducción y a inducción). La abducción es el proceso mediante el que generamos hipótesis para dar cuenta de aquellos hechos que nos sorprenden. Peirce consideró que la abducción estaba en el corazón no sólo de la actividad científica, sino también de todas las actividades humanas ordinarias¨. Sin embargo, a pesar del trabajo y los escritos de Peirce en este campo de la metodología de la investigación, en los cien años siguientes, que han visto un formidable desarrollo tanto de la producción científica como de la lógica, no se ha prestado —a mi juicio— suficiente atención a la lógica del descubrimiento. Mi exposición estará dividida en cinco partes: 1º) una breve presentación de Peirce destacando su condición de científico; 2º) una exposición de la clasificación de las inferencias en el joven Peirce: deducción, inducción e hipótesis; 3º) una presentación de la noción de abducción en el Peirce maduro; 4º) una exposición de la lógica de la sorpresa; y finalmente a modo de conclusión, 5º) una presentación de esta peculiar facultad de adivinar que puede ser denominada el instinto racional como elemento central de la creatividad humana. 2. Peirce, científico y filósofo Durante décadas la figura y el pensamiento de Charles S. Peirce han estado prácticamente relegados al olvido, pero desde finales de los 70 hay un estallido de interés en torno al científico y filósofo norteamericano. "La mayoría de la gente jamás ha oído hablar de él, pero lo oirán", dejó escrito el novelista norteamericano Walker Percy, y parece que aquella profecía está comenzando a cumplirse. Efectivamente, en estos últimos años la figura de Charles S. Peirce está adquiriendo una relevancia creciente en muy distintas áreas del saber y su influencia sigue todavía aumentando,: en astronomía, metrología, geodesia, matemáticas, lógica, filosofía, teoría e historia de la ciencia, semiótica, lingüística, econometría y psicología. En todos estos campos Peirce es considerado un pionero, un precursor o incluso como un "padre" o "fundador" (de la semiótica, del pragmatismo). Es muy común encontrar evaluaciones generales como la de Russell: "sin duda alguna (...) fue una de las mentes más originales de fines del siglo XIX y ciertamente el mayor pensador norteamericano de todos los tiempos", la de Popper que lo describió como "uno de los más grandes filósofos de todos los tiempos" o la de Putnam que le ha llamado "un gigante encumbrado sobre los filósofos americanos". Algunos factores que aumentan el interés por el pensamiento de Peirce son su participación personal en la comunidad científica de su tiempo, su valiosa contribución al desarrollo de la lógica de las relaciones, y su sólido conocimiento de la filosofía de Kant y de la tradición escolástica, en particular de Duns Escoto. La interpretación del pensamiento de Peirce ha sido objeto durante años de un amplio desacuerdo, debido en parte a la presentación fragmentaria de su obra en los Collected Papers, pero en años más recientes ha ido ganando aceptación una comprensión más profunda del carácter arquitectónico de su pensamiento y de su evolución desde los primeros escritos de 1865 hasta su muerte en 1914. En la última década todos los estudiosos peirceanos han reconocido claramente la coherencia básica y la innegable sistematización del pensamiento de Peirce. Christopher Hookway ha caracterizado a Peirce como un filósofo tradicional y sistemático, pero que, al mismo tiempo, aborda los problemas modernos de la ciencia, la verdad y el conocimiento desde una valiosa experiencia personal como lógico e investigador experimental en el seno de la comunidad científica internacional. Más aún, Hookway ha sostenido que la mejor aproximación para la comprensión de Peirce es considerarlo como un filósofo analítico avant la lettre, que con su teoría general de los signos anticipa el "giro lingüístico" de la filosofía. Me parece ésta una interpretación válida, pero me parece todavía más certero considerar a Peirce sobre todo como un filósofo que, después de mucho tiempo de trabajo tedioso de observación e investigación científicas y de un concienzudo estudio de la historia de la ciencia y de la filosofía, se propone desentrañar cuál es realmente la lógica de la ciencia, la lógica de la práctica científica efectiva. 3. Deducción, inducción e hipótesis Desde sus primeros trabajos en lógica Peirce se ocupó de la clasificación de los argumentos (1867), de los diversos modos de inferencia, esto es, de los diversos modos en que una conclusión verdadera puede seguirse de unas premisas, sea de modo necesario o sea sólo con alguna probabilidad. En 1878, dentro de la serie "Illustrations of the Logic of Science", publica en el Popular Science Monthly el artículo "Deducción, inducción, hipótesis", que contiene una exposición ya clásica entre los estudiosos de Peirce de los tres modos de inferencia a la que ahora voy a prestar atención. Según Peirce, toda deducción no es más que la aplicación de una regla a un caso para establecer un resultado: "La llamada premisa mayor formula una regla; como, por ejemplo, todos los hombres son mortales. La otra premisa, la menor, enuncia un caso sometido a la regla; como Enoch era hombre. La conclusión aplica la regla al caso y enuncia el resultado: Enoch es mortal. Toda deducción tiene este carácter; es meramente la aplicación de reglas generales a casos particulares" (CP 2.620, 1878) Como es obvio, no todas las formas de razonamiento son reducibles a una deducción ni, por lo tanto, pueden expresarse con un silogismo de este tipo. Más aún, el razonamiento inductivo nunca puede ser reducido a esta forma, pues "es algo más que la mera aplicación de una regla general a un caso particular" (CP 2.620, 1878). Para mostrar el contraste entre los diversos tipos de razonamiento, Peirce emplea el famoso ejemplo de las judías (beans) que no siempre ha sido bien explicado ni bien entendido (CP 2.621-623, 1878): Imaginemos que entramos en una habitación en la que hay varias bolsas con judías. Nos acercamos a una bolsa sabiendo que contiene solamente judías blancas, extraemos un puñado y, antes de mirarlo, podemos afirmar con toda seguridad que todas las judías del puñado serán blancas. Esto ha sido una deducción necesaria, la aplicación de una regla a un caso para establecer un resultado. Si la regla es verdadera, podemos inferir que el puñado de judías son blancas sin necesidad de mirarlo. Esquemáticamente: Regla: Todas las judías de esa bolsa son blancas. Caso: Estas judías estaban en esa bolsa. Resultado: Estas judías son blancas. Imaginemos ahora que, sin saber cómo son las judías que hay en la bolsa, extraemos un puñado, miramos y vemos que todas son rojas. Espontáneamente inferimos que todos las demás judías de la bolsa serán rojas. En este caso, la inferencia no tiene un carácter necesario, pero de ordinario actuamos así. Esquemáticamente: Caso: Estas judías son de esa bolsa. Resultado: Estas judías son rojas. Regla: Todos las judías de esa bolsa son rojas. Este razonamiento es una inducción, es decir, es la inferencia de una regla general a partir de un caso y un resultado y es una inversión del razonamiento deductivo. El razonamiento deductivo es analítico o explicativo, en cuanto que la conclusión no añade nada a lo que ya está en las premisas. En cambio, el razonamiento inductivo es sintético o ampliativo, puesto que lo que se dice en la conclusión no estaba previamente en las premisas. Pero hay una segunda forma de invertir el razonamiento deductivo para producir un razonamiento sintético. Supongamos una nueva situación, en la que, entrando en una habitación, encontramos varias bolsas con judías y un puñado de judías, todas blancas, sobre la mesa. Después de examinar las bolsas encontramos que una de ellas contiene sólo judías blancas. Entonces inferimos que probablemente ese puñado de judías proviene de esa bolsa. Esquemáticamente: Regla: Todas las judías de esa bolsa son blancas Resultado: Estas judías son blancas. Caso: Estas judías provienen de esa bolsa. Este razonamiento es una hipótesis, es decir, la inferencia de un caso a partir de una regla general y un resultado. Como en el caso de la inducción, la inferencia hipotética no tiene carácter necesario sino meramente probable, y es también un tipo de razonamiento sintético o ampliativo. Las hipótesis pueden ser muy variadas, pero tienen en común el que son formulados para explicar un fenómeno observado. Peirce ilustra su exposición con ejemplos de las ciencias naturales (de la presencia de fósiles marinos en un determinado lugar inferimos que antes allí hubo un mar) y de las ciencias humanas (de los documentos que hacen referencia a Napoleón inferimos que Napoleón existió), y con una experiencia personal que resulta muy gráfica y quizá merezca la pena evocar: "En una ocasión desembarqué en un puerto de una provincia turca; y, al acercarme a la casa que tenía que visitar, me topé con un hombre a caballo, rodeado de otros cuatro jinetes que sostenían un dosel sobre su cabeza. Como el gobernador de la provincia era el único personaje de quien podía pensar que fuera tan honrado, inferí que era él. Esto era una hipótesis” (CP 2.625, 1878). 4. La lógica de la abducción En el pensamiento del Peirce maduro la abducción es un tipo de inferencia que se caracteriza por su probabilidad: la conclusión que se alcanza es siempre conjetural, es sólo probable, pero al investigador le parece del todo plausible. Es esa plausibilidad, ese carácter intuitivo donde radica su validez y no en su efectiva probabilidad que tiene sólo una influencia indirecta (CP 2.102, 1903). En esta etapa de madurez Peirce acuña los términos "retroducción" o razonamiento hacia atrás y "abducción" para referirse al proceso de adopción de hipótesis y dedica muchos escritos —buena parte de ellos todavía inéditos— al estudio de esta operación. El estudio de la abducción llega a tener tanta importancia para él que no duda en escribir que la cuestión del pragmatismo es la cuestión de la lógica de la abducción. Como los textos ilustrativos de su concepción de la abducción podrían multiplicarse casi indefinidamente, he preferido traer uno solo, extenso, y hasta ahora inédito: "La Abducción es aquella clase de operación que sugiere un enunciado que no está en modo alguno contenido en los datos de los que procede. Hay un nombre más familiar para ella que el de abducción, pues no es ni más ni menos que adivinar (guessing). Un determinado objeto presenta una combinación extraordinaria de caracteres para la que nos gustaría una explicación. El que haya uninación? Pues el número de nombres del directorio ni se acerca siquiera a la multitud de posibles leyes de atracción que hubieran dado cuenta de las leyes de Kepler del movimiento de los planetas y que, por delante de la verificación mediante la predicción de perturbaciones, etc., las habrían explicado a la perfección. Newton, se dirá, supuso que la ley sería una sola y simple. Pero, ¿cómo llegó a esto sino acumulando adivinación sobre adivinación? Con seguridad, son muchísimos más los fenómenos de la naturaleza complejos que los simples. (...) Cualquier novato en lógica puede sorprenderse de que llame inferencia a una adivinación. Es igual de fácil definir la inferencia de modo que excluya o de modo que incluya a la abducción. Pero todos los objetos de estudio lógico han de ser clasificados y no hay otra clase mejor en la que poner la abducción que la de las inferencias. Muchos lógicos, sin embargo, la dejan sin clasificar, a modo de un supernumerario lógico, como si su importancia fuera demasiado pequeña para tener derecho a un lugar propio. Ellos evidentemente olvidan que ni la deducción ni la inducción pueden jamás añadir lo más mínimo a los datos de la percepción" (MS 692, 1901). El fenómeno que a Peirce le impresiona es el de la introducción de ideas nuevas en el trabajo científico, que resulta simplemente inexplicable mediante el cálculo de probabilidades. Se trata del fenómeno de la creatividad científica en el que para Peirce se articulan abducción, deducción e inducción. "A la abducción —explica Génova— le corresponde el papel de introducir nuevas ideas en la ciencia: la creatividad, en una palabra. La deducción extrae las consecuencias necesarias y verificables que deberían seguirse de ser cierta la hipótesis, y la inducción confirma experimentalmente la hipótesis en una determinada proporción de casos. Son tres clases de razonamiento que no discurren de modo independiente o paralelo, sino integrados y cooperando en las fases sucesivas del método científico". El inicio de la investigación es siempre la abducción. Es la hipótesis la que indica qué experimentos hay que hacer, adónde hay que mirar. El científico, si no tiene una hipótesis previa, no puede determinar qué tipo de experimento debe realizar para proseguir su investigación. Por eso, —advierte sagazmente Génova— resulta cuando menos llamativo que la mayoría de los filósofos de la ciencia que analizan el método hipotético-deductivo, ignoren por completo el problema lógico del origen de las hipótesis o teorías científicas. Para ellos el método científico comienza en el momento en que ya se dispone de una teoría, que será confirmada o refutada según el resultado de los experimentos, pero el origen mismo de las nuevas ideas es una cuestión propia de la psicología o de la sociología del conocimiento, en todo caso es ajena a la lógica; es para ellos, como decía Peirce, un supernumerario lógico. Tengo para mí que en la comprensión de la creatividad se encierra una de las claves para superar el materialismo cientista todavía dominante en nuestra cultura que relega al ámbito de lo acientífico aquellas dimensiones de la actividad humana no reductibles a un lenguaje fisicalista o a un algoritmo matemático. Si comprendiéramos un poco mejor el proceso de generación de nuevas ideas probablemente entenderíamos un poco mejor en qué consiste realmente la racionalidad humana. En este sentido, resulta comprensible que algunos tratamientos contemporáneos de la abducción —por ejemplo, el de los Josephson en Abductive Inference— que han intentado formalizar este proceso inferencial hayan obviado por completo este aspecto. Con esto, llegamos ya al fondo de la cuestión que quería abordar en esta sesión, ¿por qué abducimos?, ¿por qué generamos hipótesis?, o —me gusta más esta expresión— ¿de dónde brota la abducción? Esta es la lógica de la sorpresa a la que quiero destinar la última parte de mi exposición. 5. La lógica de la sorpresa Ya los clásicos dijeron que el principio de toda investigación era la admiración. Aristóteles en aquel conocido pasaje de la Metafísica afirma que los seres humanos tanto ahora como al principio comenzaron a filosofar movidos por la admiración ante los fenómenos sorprendentes. En esta dirección llamaba mi atención recientemente cómo William Shea, director de la European Science Fundation, advertía también que donde realmente nace cualquier investigación es en nuestra admiración y que no hay recurso tecnológico alguno por sofisticado que sea que pueda reemplazarla. Sin duda es cierta esta afirmación, pero debe ser complementada con la tesis de Peirce de que el detonante de cualquier genuina investigación es la sorpresa. No es la simple admiración la que nos mueve a investigar, sino aquella que nos sorprende y que demanda nuestra comprensión. Si buscamos en los Collected Papers de Peirce advertiremos que la sorpresa (surprise y sus derivados) aparece en 127 ocasiones sobre todo en textos posteriores a 1901. La sorpresa nace de la ruptura de un hábito, de la quiebra de una expectativa. Nuestra actividad investigadora se pone en marcha porque descubrimos que teníamos una expectativa errónea, de la que quizá incluso nosotros mismos apenas éramos siquiera conscientes. "Cada rama de la ciencia comienza con un nuevo fenómeno que viola algún tipo de expectativa negativa subsconsciente" (CP 7.188, 1901). Nuestras creencias son hábitos y en cuanto tales fuerzan al hombre a creer hasta que algo sorprendente, alguna nueva experiencia externa o interna, rompe ese hábito. El fenómeno sorprendente requiere una racionalización, una regularización que haga desaparecer la sorpresa mediante la creación de un nuevo hábito. La investigación se inicia por el choque con un hecho sorprendente, con una anomalía. ¿Qué es lo que hace sorprendente a un fenómeno? No es la mera irregularidad: nadie se sorprende —escribe Peirce (CP 7.189, 1901) — de que los árboles en un bosque no formen una pauta regular. La mera irregularidad no provoca nuestra sorpresa, pues la irregularidad en nuestra vida es de ordinario lo normal. Lo que nos sorprende es más bien la regularidad inesperada, o bien la rotura de una regularidad esperada, incluso tal vez sólo inconscientemente esperada. Un acontecimiento al que se pueda responder de la manera habitual no causa ninguna sorpresa. Por el contrario, el hecho sorprendente requiere un cambio en el hábito racional, es decir, una explicación. La explicación racionaliza los hechos, esto es, lleva a la formación de un nuevo hábito que dé cuenta de aquel hecho y lo torne razonable: por esa razón el fenómeno deja ya de ser sorprendente. Con palabras de Peirce: "Lo que hace la explicación de un fenómeno es proporcionar una proposición que, si se hubiera sabido que era verdadera antes de que el fenómeno se presentase, hubiera hecho el fenómeno predecible, si no con certeza, al menos como algo muy probable. Así pues, hace el fenómeno racional, es decir, lo convierte en una consecuencia lógica, ya sea necesaria o probable" (CP 7.192, 1901) El fenómeno de la sorpresa no tiene nada que ver con la duda cartesiana, que es para Peirce una mera duda de papel (paper-doubt) (CP 5.445, 1905; 5.416, 1905). La duda genuina tiene siempre un origen externo, de ordinario procede de la sorpresa, y no es fruto de un acto de voluntad, pues nadie puede sorprenderse a sí mismo voluntariamente (CP 5443, 1905). La sorpresa produce una cierta irritación y demanda una hipótesis, una abducción, que haga normal, que haga razonable, el fenómeno sorprendente. Déjenme que traiga a colación el simpático relato de Davidson contando la historia de un malentendido inferencial que todos comprendemos bien, pues de una manera u otra hemos padecido experiencias similares: "Era un día cálido, las puertas estaban abiertas. Yo vivía en una de las casas adosadas en las que vivían los miembros del profesorado. Entré por la puerta. No me sorprendió encontrar a la esposa de mi vecino en la casa: ella y mi esposa a menudo se visitaban. Pero me sorprendí un poco cuando, mientras me acomodaba en una silla, me ofreció una bebida. Mientras estaba en la cocina preparando la bebida noté que los muebles habían sido reacomodados, algo que mi esposa hacía de tiempo en tiempo. Y entonces me di cuenta de que los muebles no sólo habían sido reacomodados, sino que muchos eran nuevos o nuevos para mí. La verdadera revelación comenzó cuando lentamente me vino a la mente que la habitación en la que estaba era una imagen invertida de aquélla que me era familiar; escaleras y chimenea habían intercambiado lugares. Había entrado en la casa de al lado". Davidson explica que su mala interpretación fue un error en el proceso de la adopción de hipótesis, ya que logró acomodar la evidencia creciente contra su suposición de que estaba en su propia casa "fabricando más y más explicaciones absurdas o improbables". Todos tenemos experiencia personal de este fenómeno cuando conduciendo hemos perdido el buen camino en un cruce sin darnos cuenta, y tratamos de hacernos ilusiones —decimos en España— de que todavía seguimos en él interpretando lo que vemos de acuerdo con nuestras expectativas. Estamos ahora en condiciones de entender mejor la estructura lógica de la abducción. Es la siguiente, tal como la explica Peirce en la séptima de sus Lecciones sobre el pragmatismo (CP 5.189, 1903): Se observa un hecho sorprendente C; pero si A fuese verdadero, C sería una cosa corriente (matter of course) luego hay razones para sospechar que A es verdadero. Esta es la estructura lógica de toda abducción. Como se advierte la clave de su comprensión se encierra en el carácter sorprendente del hecho referido en la primera premisa y en el trabajo de la imaginación en la segunda cuando descubre que si determinada hipótesis fuera verdadera convertiría el hecho sorprendente en un acontecimiento normal, razonable, y por tanto no sorprendente. Si esto es así es razonable pensar que A es verdadera. No sólo todas las historias de detectives están llenas de este tipo de razonamientos, sino que el propio diagnóstico médico a partir de unos síntomas sorprendentes y unos cuadros de enfermedades que hacen razonables esos síntomas son ejemplos excelentes de la efectiva práctica abductiva en nuestras vidas. La creatividad consiste esencialmente en el modo en que el sujeto relaciona los elementos de que dispone en los diversos ámbitos de su experiencia. Esto no es sólo un proceso inferencial, sino que a menudo es una intuición (insight), tiene el carácter de una iluminación repentina: "es la idea de relacionar lo que nunca antes habíamos soñado relacionar lo que ilumina de repente la nueva sugerencia ante nuestra contemplación" (CP 5.181, 1903). Esto —ha argumentado lúcidamente Fontrodona— es lo que hacen los directivos en las empresas: combinar los elementos de forma que donde había problemas descubren oportunidades. 6. El instinto racional Sin embargo, la cuestión realmente intrigante no es que a menudo nuestras abducciones sean equivocadas como en el caso de Davidson o cuando nos equivocamos de camino, o tantas otras veces en que nuestras "intuiciones" o "corazonadas" fallan. Lo que para la mentalidad positivista de nuestro tiempo no resulta fácilmente comprensible es la frecuencia con la que acertamos en nuestra vida ordinaria o en la investigación científica. Lo sorprendente de la actividad científica —afirma Génova— es que llegue a alcanzar la explicación verdadera tras un pequeño número de intentos. Así lo ilustra Peirce con cierto dramatismo en la sexta de las Lecciones sobre el pragmatismo de 1903 (CP 5.172): "Considérese la multitud de teorías que habrían podido ser sugeridas. Un físico se topa con un fenómeno nuevo en su laboratorio. ¿Cómo sabe si las conjunciones de los planetas nada tienen que ver con él o si no es quizás porque la emperatriz viuda de China ha pronunciado por casualidad hace un año, en ese mismo momento, alguna palabra de poder místico, o si estaba presente un genio invisible? Piensen en los trillones de trillones de hipótesis que habrían podido hacerse, de las cuales sólo una es verdadera; y sin embargo, al cabo de dos o tres conjeturas, o a lo sumo una docena, el físico atina muy de cerca con la hipótesis correcta. Por azar no habría sido verosímil que lo hiciera en todo el tiempo que ha transcurrido desde que se solidificó la tierra". Esta es la cuestión realmente relevante que se encuentra en la base de todo el edificio científico: ¿por qué acertamos y por qué lo hacemos de forma relativamente tan fácil? Peirce acude con frecuencia a la expresión que atribuye a Galileo de il lume naturale para dar cuenta de nuestra formidable capacidad para seleccionar de entre esa infinidad de hipótesis posible aquella más simple, aquella a la que nuestra razón se inclina instintivamente (<biblio>). La capacidad de conjeturar no es ni ciega ni infalible, pero es una capacidad instintiva, análoga a los instintos animales que capacitan a un pájaro o a una avispa para volar (CP 6.476, 1908). Los seres humanos estamos dotados de un guessing instinct, de un instinto para adivinar las leyes de la naturaleza. Ayim sugiere que como la abducción es un tipo de inferencia instintiva y racional a la vez podría denominarse a esta capacidad instinto racional, resultado tanto del desarrollo de nuestros instintos animales innatos como del proceso de adaptación racional al entorno. También podría denominarse quizá creatividad. La explicación de la eficacia de nuestra creatividad científica ha de encontrarse para Peirce en una peculiar afinidad entre nuestras capacidades cognoscitivas y la naturaleza, que remite en última instancia a la creación divina del universo y de los seres humanos. Peirce acude a esta con naturalidad entre la mente y el universo para explicar el formidable desarrollo de la mecánica clásica con un escaso apoyo experimental: "Como nuestras mentes se han formado bajo la influencia de fenómenos regidos por las leyes de la mecánica, determinadas concepciones que entran en estas leyes quedaron implantadas en nuestras mentes; de ahí que nosotros fácilmente adivinemos cuáles son esas leyes. Sin tal inclinación natural, teniendo que buscar a ciegas una ley que se ajuste a los fenómenos, nuestra probabilidad de encontrarla sería infinita" (CP 6.10, 1891). Pero en última instancia, la razón de la eficacia de nuestra creatividad científica, de nuestras abducciones, la encuentra Peirce en Dios y la prueba de ello es a su vez otra abducción. Se trata de su Neglected Argument for the Reality of God de 1908, en el que —con palabras mías— viene a expresar Peirce la siguiente argumentación: es un hecho del todo sorprendente que seamos capaces de inventar hipótesis que explican efectivamente los fenómenos naturales que observamos; esto sería lo corriente si Dios fuera la causa de nuestras capacidades cognitivas y de la naturaleza; por tanto, hay razones para sospechar que la razón de la eficacia de nuestra creatividad científica, la conexión entre mente y naturaleza, ha de encontrarse en Dios, creador de ambas. A esto podría añadirse que para Peirce no sólo la ciencia es prueba de la realidad de Dios, sino también nuestra creatividad artística y ética, pero esa es otra historia. 2.4 Producción teórica en la metodología de la ciencia El siguiente trabajo tiene como propósito presentar una reflexión de algunas cuestiones epistemológicas que inciden en las metodologías cuantitativa y cualitativa, que se han desarrollado en el campo de la investigación de las ciencias sociales, y a la vez caracterizar el método etnográfico desde los aportes de una perspectiva epistemológica de carácter cualitativo. Dicha reflexión apunta a realizar un aporte significativo, desde una mirada crítica reflexiva, de una forma diferente de abordar la investigación y reconstrucción del conocimiento en el campo de la educación. b) Abordaje de la Metodología Cualitativa en el campo de la Investigación: algunas cuestiones epistemológicas. Es importante aclarar que el término cualitativo se ha enmarcado en la investigación desde dos perspectivas: por un lado como forma diferente de hacer ciencia en relación al paradigma positivista, con las implicancias teóricas y epistemológicas que esta conlleva; y otra que toma de lo cualitativo sólo su aspecto instrumental, manteniendo de esta manera los aspectos esenciales de la epistemología cuantitativa en la construcción del conocimiento. Podemos ver como a lo largo de la historia del quehacer científico, destacados investigadores que han adherido a esta última perspectiva han sido, entre otros, Becker, Glaser, Taylor y Bogdan, Hughes y Strauss. Este abordaje cuantitativo nos hace reflexionar que muchos han sido los autores que han mantenido sus investigaciones en parámetros empiristas, aún dentro de la investigación cualitativa, y por ende basadas en una epistemología positivista. La dependencia a un paradigma empirista o racionalista conduce a la construcción teórica en relación a la inducción o a la deducción como forma de producir información, lo que significa desde un punto de vista epistemológico mantener las técnicas cualitativas en los mismos marcos en que son utilizadas las cuantitativas. El paradigma positivista y neopositivista los cuales han sido dominantes en el uso de los instrumentos- nos muestran lo difícil que ha sido producir una ruptura a nivel epistemológico y en las representaciones dominantes sobre las que hemos aprendido a producir conocimientos. Lo planteado hasta aquí nos lleva a centrarnos en algunas características básicas del abordaje de una metodología cualitativa, que permitiría hacer ciencia desde un lugar diferente. Una de las potencialidades de la metodología cualitativa es permitir la construcción de un conocimiento diferenciado a través de los sentidos subjetivos diversos sobre los que se configura la subjetividad en cada una de sus formas concretas: social o individual; esta potencialidad exigiría asumir el objeto de estudio, desde una representación compleja. Desde la perspectiva cualitativa, lo cualitativo caracteriza el proceso de producción de conocimientos, sin definirse por el uso exclusivo de métodos de esta clase. Esta perspectiva se orienta a legitimar el aspecto procesual de la construcción del conocimiento que lo ha definido como una expresión directa de los instrumentos utilizados. Los métodos cuantitativos y cualitativos pueden resultar compatibles sólo dentro de una epistemología alternativa al positivismo, donde no sean considerados como un fin en sí mismos, en abstracto, sino como indicadores de un proceso de construcción del conocimiento. Ahora bien, la epistemología cualitativa se basa en tres principios que tienen profundas consecuencias a nivel metodológico. Estos son: El conocimiento es una producción constructivista- interpretativa: es decir, el conocimiento no representa una suma de hechos definidos por constataciones inmediatas del momento empírico. La interpretación es un proceso en el cual el investigador integra, reconstruye y representa en diversos indicadores producidos durante la investigación, los cuales no tendrían ningún sentido si fueran tomados de una forma aislada como constataciones empíricas. El sujeto, como sujeto, produce ideas a todo lo largo de la investigación, en un proceso permanente logrando momentos de integración y continuidad dentro de su propio pensamiento sin referentes identificables en el momento empírico. Este nivel teórico de la producción científica ha sido prácticamente ignorado dentro de la epistemología positivista, en la cual el escenario de la ciencia se define en lo empírico. Carácter interactivo del proceso de producción del conocimiento: lo interactivo es una dimensión crucial del proceso mismo de producción de conocimientos, en el estudio de los fenómenos humanos. Este carácter reivindica la importancia del contexto. Significación de la singularidad como nivel legítimo de la producción del conocimiento: la singularidad en la investigación de la subjetividad implica una importante significación cualitativa, que impide identificarla con el concepto de individualidad. La singularidad se constituye como realidad diferenciada en la historia de la constitución del individuo. La investigación cualitativa es un proceso permanente de producción de conocimiento, donde los resultados son momentos parciales, que de manera continua se integran dando lugar a nuevos interrogantes, abriendo nuevos caminos a la producción del conocimiento. c) Génesis del desarrollo de las investigaciones cualitativas etnográficas Desde finales del siglo pasado hubo ciertos intentos de sistematización de investigaciones de carácter cualitativo llevadas a cabo por autores como Bogdan y Binker. Dichas investigaciones se realizaron en Estados Unidos, estando asociadas a una perspectiva sociológica. Podríamos rastrear que sólo es a principios del siglo XX que las investigaciones cualitativas se sistematizaron en los trabajos de campo de Malinowski, Bateson, Mead, Benedict, etc., los cuales sitúan la investigación referida al estudio de las culturas humanas, como una investigación participativa, en la que el investigador formaba parte del campo de la investigación. Es importante comprender que la etnografía, en sus inicios, a pesar del cambio que representó el considerar la presencia del investigador en el campo, siguió colocando en el centro de la investigación la preocupación por la objetividad y la neutralidad, atributos esenciales de la epistemología positivista. De esta manera, la investigación etnográfica mantuvo su énfasis en la fidelidad de los datos obtenidos en el momento empírico. La propia complejidad de la presencia del investigador en el campo y lo que este transmitió a lo estudiado, condujo a otras reflexiones que entraron en contradicción con los principios generales asumidos por estos autores, por ejemplo: Malinowsky, se enmarca dentro de definiciones empiristas en lo relativo a la neutralidad del investigador, pero aporta su creatividad en cuanto a las vías. Esto lo lleva a superar las formas instrumentalistas y despersonalizadas de obtener información en la investigación positivista tradicional. Ahora bien, en este marco se debe destacar otro aspecto, que tiene que ver con el culto al dato, este aspecto conduce a la etnografía a un callejón sin salida, puesto que la recogida de datos condujo a los investigadores al desarrollo de una gran cantidad de registros que resultaban imposibles de ser elaborados a nivel teórico. Esta acumulación de datos orientada por un set descriptivo y objetivo por parte del investigador, dificultó el desarrollo de las ideas, que son las verdaderas responsables de la construcción del conocimiento. En el desarrollo histórico de la investigación cualitativa, autores como Denzin y Guba (1994), reconocen cinco periodos de este movimiento: El período tradicional: en este prevalece la influencia del paradigma científico positivista, la objetividad, la validez y la confiabilidad del conocimiento producido (se destacan Mead, Malinowsky, Brown y otros) La fase modernista: transcurre durante los años de la postguerra hasta la década del sesenta. Se intenta formalizar los métodos cualitativos (se destacan Taylor, Strauss, Becker, etc.) El período de la indiferencia de géneros: entre 1970 y 1986. Complementación de paradigmas. Las estrategias de investigación iban desde los estudios de casos hasta los métodos biográficos y la investigación clínica. Esta perspectiva toma las representaciones culturales y sus significaciones como punto de partida (se destacan Geerzt, quien sostenía que la frontera entre las ciencias sociales y las humanidades no presentaba una clara definición, planteamiento que fue integrado por autores como Derrida, Barthes, etc.) Período de la crisis de representación: durante los años 80, se produce una ruptura. Se identifican con la aparición de trabajos como "la antroplogía crítica cultural". En general, este período fue cuestionador de lo que se hacía y provocó innumerables debates en la antropología, y en relación con los métodos de investigación social en general. El período de la doble crisis: este período aparece como resultado de una crisis de representación y de legitimación de los investigadores cualitativos dentro de las ciencias sociales. La crisis de representación está definida por el hecho de que el investigador social puede capturar directamente la experiencia vivida. Esta experiencia, se argumenta ahora, es creada por el texto social del investigador; lo cual nos coloca ante el problema del conocimiento como discurso socialmente construido. Esta breve caracterización histórica de la investigación cualitativa en las ciencias sociales, nos muestra la historia de otra forma de investigar que pretende especificar en sus métodos las características de su propio objeto, en este caso, sujeto de la propia investigación. d) Método etnográfico: sus características en el marco de una Perspectiva Cualitativa de la Investigación Es importante destacar que el concepto de trabajo de campo ha estado asociado históricamente con la etnografía. Dicho concepto fue clave para que el método etnográfico se destacara en el desarrollo de las investigaciones cualitativas. El trabajo de campo es primordial para muchas de las investigaciones cualitativas desarrolladas en el campo de las ciencias antroposociales. De acuerdo con Rosana Guber, cuando se habla de campo nos referimos a esa porción de lo real que se compone no sólo de los fenómenos observables, sino de la significación que los actores le asignaron a en un entorno y las tramas que éstos involucran. Ahora bien, en el trabajo de campo el investigador tendrá una presencia y una participación constante dentro de la institución, comunidad o grupo de personas que está investigando, por lo que es importante aclarar que el corazón del proceso etnográfico dentro de la antropología es el concepto de observador participante, el cual puede caracterizarse de la siguiente manera: se refiere a la práctica de vivir entre las personas que uno está estudiando, llegarlos a conocer, conocer su lengua y su forma de vida mediante la interacción intensa y continua. Esto significa que el etnógrafo debe conversar con la gente que él estudia, trabajar con ellos, atender sus funciones rituales y sociales, etc. Esta participación permite al investigador el acceso a fuentes de información informal. A diferencia de la recogida de datos, el trabajo de campo presupone la participación espontánea del investigador en el curso cotidiano de la vida de los sujetos estudiados, lo cual conduce a la formación de importantes redes de comunicación que permiten la expresión cotidiana de los sujetos estudiados. Distinto a la recogida de datos, el trabajo de campo representa un proceso permanente de establecimiento de relaciones y de construcción de ejes relevantes del conocimiento dentro del propio escenario en el que trabajamos el problema investigado. La información que se produce en el campo entra en un proceso de conceptualización y construcción, que caracteriza el desarrollo del momento empírico. El trabajo de campo consta de tres fases: Fase descriptiva: consiste en la elaboración teórica que sustenta lo práctico Fase interpretativa: aquí el investigador debe resignificar la producción teórica, ya que ahora tratará de reconocerla y ver de qué modo se especifica y resignifica en la realidad concreta. Fase reflexiva: se evidencia el propósito de cualquier proceso de investigación, que es el de producir conocimientos. En cuanto a la fase descriptiva, es necesario aclarar que dicha orientación dominó el desarrollo de los métodos etnográficos en sus inicios sólo registrando los eventos relevantes que se producían en el campo. Ahora, dentro de un marco cualitativo de investigación, el investigador debe seguir estos eventos a través de las ideas y construcciones del mismo; que generan por su presencia en la situación de campo. El trabajo de campo es una vía esencial de entrenar la iniciativa intelectual del investigador, que está obligado a elaborar sus propias ideas frente a lo que está ocurriendo en el escenario de la investigación. El trabajo de campo representa un proceso abarcador dentro del cual adquieren significación informaciones nuevas, imprevistas en el momento de definición del problema. El campo no representa un recorte estático de informaciones a seleccionar, sino un proceso activo, que de forma permanente genera informaciones que desafían los propios marcos teóricos con que el investigador se aproxima a él. El trabajo de campo sigue la ruta singular de los sujetos involucrados en sus contextos. En cuanto a las técnicas, serán las herramientas del investigador para acceder a los sujetos de estudio en su mundo social, dentro de una reflexividad. Se pueden emplear historias de vida, entrevistas, estudios sobre la documentación, grabaciones de video, etc. El análisis de las informaciones consistirá en la organización de las mismas con el modelo de la comunidad o grupo estudiado. El producto final de este proceso, que suele aparecer en forma de un artículo o de una monografía, es básicamente una síntesis de los dos modelos de la realidad social. Como propuesta al campo educativo, se pueden realizar investigaciones orientadas como microetnográficas, en el sentido de escoger como unidad un barrio y no solamente una escuela o salón de clase. La microetnografía aportaría a un estudio más adecuado en el campo educativo, un etnógrafo educativo necesita una buena teoría de la estructura social de la escuela y de la comunidad en la cual la escuela está situada. Su estudio debe ser "completo", por ejemplo, debe demostrar de qué forma la educación está ligada a la economía, al sistema político, a la estructura social local, etc. REFLEXIÓN El encuadre que nos presenta la investigación cualitativa, nos posibilita ubicarnos como sujetos protagonistas en la construcción y reconstrucción del conocimiento científico, ya que la misma implica la incorporación de la dimensión subjetiva en las ciencias sociales. La dimensión subjetiva la podríamos pensar como una ruptura de índole epistemológica ante los paradigmas de carácter positivista. La misma, condujo a continuas reelaboraciones epistemológicas y metodológicas de las distintas líneas que se han presentado en el campo de la investigación, otorgándoles significativos aportes, por lo que aquí merece como categoría una especial distinción. La investigación cualitativa es un proceso permanente de producción de conocimiento, donde los resultados serán momentos parciales que de forma permanente se integran a nuevos interrogantes, es decir, en un proceso dialéctico donde quedan implicados la confrontación del corpus teórico y el corpus empíricos, sin cortes y dentro de un determinado contexto. Estos aportes epistemológicos, desde mi punto de vista, son claves par diferenciar otras maneras de abordar las investigaciones que intentamos llevar a cabo en el campo de la educación. Ahora bien, el método etnográfico es una de las vías que se presenta desde una perspectiva cualitativa, lo que implica tener en cuenta dos instancias que serán fundamentales en el abordaje de la realidad que se intenta estudiar. Estas son: la flexibilidad del método y el observador participante. La primera, dará lugar a la construcción y reconstrucción de categorías, preguntas y repreguntas, etc., y la segunda, implica la integración de la subjetividad del investigador; la cual es fundamental en la interacción entre sujeto y realidad. También es necesario aclarar que en estas investigaciones de carácter cualitativo entrarán en juego otras técnicas, como las historias de vida, entrevistas, etc. en las que se podrá rastrear la capacidad interpretativa de los sujetos de estudio, y la interpretación que, a su vez, lleva a cabo el investigador desde los conceptos de su disciplina y las reglas de su método. Aquí es donde se pondrá en juego la doble hermenéutica como proceso de codificación y procesamiento de la información. Otro de los aspectos interesantes que debe quedar claro en esta reflexión es que en el desarrollo de un proceso de investigación cualitativa, las técnicas de carácter cuantitativo de recolección de información no son descartadas, ya que dicha información aportada pasará a ser parte de un proceso de construcción del conocimiento con carácter cualitativo. Por último, creo necesario explicitar el aporte del concepto de triangulación en el campo de la investigación, ya que el mismo puede definirse desde Denzin como "la combinación de metodologías en el estudio del mismo fenómeno", Este autor dio lugar a que el análisis cualitativo tuviera un papel central en la triangulación, lo que supone que el investigador es llevado a sostener una cercanía a la situación desde una mayor sensibilidad a la cantidad de información. Entonces, información cualitativa y análisis funcionarían como base que une la interpretación de resultados de muchos métodos. Pienso que estos aportes teóricos- epistemológicos realizados desde varios autores, nos motivan a seguir reflexionando y construyendo desde nuestros lugares nuevos aportes al campo de la investigación, que nos permitan hacer ciencia desde un lugar diferente. UNIDAD III: EL PROGRAMA NEOPOSITIVISTA DE FUNDAMENTACION DEL CONOCIMIENTO CIENTIFICO Y LA REACCION ANTIINDUCTIVISTA 3.1 Fenomenalismo y fisicalismo en la filosofía de la ciencia del círculo de Viena A principios del siglo XX, Moritz Schilick (fue uno de los primeros pensadores ocupados en discutir la física relativista en la concepción del mundo y particularmente el concepto de “causalidad”) asumiría de la cátedra de filosofia en la Universidad de Viena y bajo su influencia surgirá una escuela integrada por personalidades como Rudolf Carnnap, Otto Neurath, Fredrich Waismann, Otto Neurath, Kurt Gödel y Hans Han. El círculo de Viena, tenía pues, afinidad por el positivismo lógico, inspirado en el empirismo histórico y los recientes aportes de la lógica matemática. La consecuencia más notable de esta escuela, fue que desde entonces, las ciencias quedaron divididas entre “formales” (la lógica la matemática), las cuales son esencialmente analíticas y las fácticas, es decir, orientadas a la realidad física (ej: biología, psicología, sociología), que se fundan directa o indirectamente en la percepción. Las líneas internas del Círculo de Viena, se dividían en función de las interpretaciones de las “clausulas protocolarias” (enunciados que se corresponden con una base empírica que permite su confirmación o refutación): 1. Fenomenalismo Las “clausulas protocolarias” serían enunciados elementales, registros de experiencias inmediatas del sujeto (datos sensoriales) 2. Fisicalismo Las “clausulas protocolarias” serían descripciones de objetos físicos y fue esta opinión la que prevaleció finalmente. El positivismo lógico fue criticado por su carácter reduccionista. Además, su visión del progreso científico supone que las teorías ampliamente confirmadas son inmunes a una disconfirmación futura, porque los resultados de la investigación científica serían meramente acumulativos. Por otra parte, se sentarán dudas sobre la dicotomía analítico-sintética y se buscarán argumentos en contra de la distinción entre términos teóricos y observacionales (a fin de negar la existencia de una base empírica neutral). Mucho del cuerpo crítico de esta perspectiva, supone enfatizar los aspectos sociológicos e históricos por sobre los meramente lógicos. 3.2 La fundamentación del conocimiento: el ídolo con pies de barro Hume fue uno de los máximos representantes del empirismo británico. Sus críticas claras y profundas al racionalismo despertaron a Kant de su "sueño dogmático". Hume aplicó el método científico al estudio del espíritu humano, analizando los procesos psíquicos con un modelo similar o equiparable al utilizado por Newton para el análisis de los fenómenos físicos. Los elementos básicos o "átomos" son aquí las percepciones (impresiones e ideas simples) que se relacionan espontáneamente entre sí según las leyes de asociación de ideas (semejanza, contigüidad espacial y temporal, y causalidad). Como todas las ideas derivan de las impresiones, no cabe hablar, como hacían los racionalistas, de "ideas innatas". A continuación se presenta un esquema del proceso de conocimiento tal como lo entienda Hume, acompañado de una breve descripción de los elementos que lo componen. : Según Hume, las impresiones provienen de causas desconocidas. Percepciones: son los elementos básicos o primigenios de la actividad del espíritu, la cual consiste precisamente en relacionarlos. Impresiones: son percepciones vivaces e intensas y pueden provenir de la sensación externa, también llamada simplemente "sensación" (oír, ver, etc.); o de la sensación interna, también denominada "sentimiento" (desear, odiar, etc.). Ideas simples: son percepciones débiles y oscuras. Se trata de copias de las impresiones y provienen de ellas (recuerdos, fantasías de la imaginación, etc.). Razonamientos: a partir de las ideas simples, el espíritu razona y construye proposiciones e ideas complejas. Ideas complejas: el espíritu tiende naturalmente a asociar las ideas simples conformando ideas complejas. Las ideas más generales y abstractas provienen de las ideas más simples y éstas de las impresiones. Si las ideas simples que componen una idea compleja no se dan en ella en el mismo orden en que se nos dan las impresiones de las cuales provienen, la idea compleja no responde a las impresiones sino a la imaginación. Proposiciones de razón: son proposiciones cuya verdad depende de las mismas ideas pensadas. Permiten lograr un conocimiento verdadero porque su contenido es necesario y no contingente (Matemática y Lógica). Sólo en en este plano es posible la "demostración". Proposiciones de hecho: sobre las cuestiones de hecho no hay posibilidad de alcanzar un conocimiento cierto, demostrativo, ya que allí no hay necesidad sino contingencia y, en consecuencia, siempre lo contrario puede ser pensado sin contradicción. Sin embargo, Hume sostiene que, en base a la observación regular y a la experimenación, pueden formularse "pruebas" (que no permiten una duda razonable) o "probabilidades" (que recogen experiencias con resultados variables). De todos modos, no tenemos de las cuestiones de hecho verdadera ciencia, ya que la idea de causalidad que nos permite unir los fenómenos, explicarlos y predecirlos, no se respalda en ninguna impresión y, por tanto, halla su fundamento sólo en la imaginación y la costumbre. Palabras: representan a las ideas, por lo que su significado deriva en última instancia de las impresiones de las que proceden éstas. 3.3 Argumentos lógicos y razones históricas con la teoría inductiva de descubrimiento científico I. ANTES DEL CIRCULO DE VIENA 1. Preliminares históricos Para no ir muy lejos en la historia, basta para los propósitos de este trabajo simplemente bosquejar algunas de las principales corrientes filosóficas del siglo XIX que precedieron a la formación del Círculo de Viena también llamado “positivismo lógico”. Para ello, utilizaremos como guía un estudio de J. Padrón (1992) al respecto y también tomaremos algunas orientaciones dadas por E. Bedford (1994). § El siglo XIX, precisamente, fue el gran escenario del debate entre el discurso ambiguo y el discurso exacto, entre el dogma y la crítica, entre lo "metafísico" y lo "físico" y, en fin, entre la especulación y la ciencia. Por una parte, en este siglo se aceleraron los descubrimientos generadores de tecnología; pero, por otra parte, el dogma, el escepticismo y el pensamiento ambiguo recibieron un fuerte impulso de parte del romanticismo, el cual pregonaba la desconfianza en la razón y en la capacidad sensorial a favor del sentimiento, la intuición y la emotividad. § También surgieron otras dos grandes interpretaciones del conocimiento científico: una, que sitúa la validez del conocimiento en los mecanismos de la razón (racionalismo) aunque todavía afectada por ciertas concesiones a la metafísica; otra, que sitúa esa validez en los datos de los sentidos y de la experiencia (empirismo). § La interpretación racionalista del conocimiento científico, asociada comúnmente al método deductivo de descubrimiento y comprobación. En este enfoque se destacan los filósofos y científicos de la época helenística clásica (practicamente todos), los filósofos escolásticos (Sto. Tomás, Duns Scoto...) y ciertos pensadores que conjugaron la filosofía con la lógica y la matemática (Descartes, Leibnitz y Kant, quien específicamente aplicó el término "racionalismo" a su propia posición)....” § La segunda interpretación, la empirista, privilegia el método inductivo. El empirismo fue desarrollado principalmente por los filósofos ingleses Locke, Berkeley, Hume y J. S. Mill. También los enciclopedistas franceses tomaron las ideas del empirismo. Surgió como una reacción al racionalismo. § Pero fue el empirismo inductivo, mucho más que el racionalismo deductivo, el que evidenció mayores aportes tecnológicos. De hecho, “’la tradición empirista ha sido...antagonista a la metafísica, y le ha dado a la ciencia un alto valor como medio de adquisición de conocimiento” (Bedford, 1994). También, según Bedford, “el establecimiento del empirismo puramente como una tesis sobre la estructura lógica del conocimiento ha sido un importante estímulo importante para el desarrollo de la lógica-matemática” (Ibíd.). § “De ahí que el empirismo inductivo, bajo ciertos cánones identificados con la palabra positivismo, se convirtiera en la primera y más influyente interpretación del conocimiento científico en el siglo XX, reaccionando contra el pensamiento anárquico o especulativo y propugnando el conocimiento riguroso, sometido a reglas de validación fundadas en la experiencia constatable” (Padrón 1992). 2. El asunto de los conceptos y los enunciados a priori Creemos importante introducir esta parte a fin de preparar el camino para un mejor entendimiento de las discusiones que siguen en la próxima. Nuevamente, por razones prácticas, bosquejaremos las principales ideas al respecto siguiendo a Bedford (1994). Las controversias entre los racionalistas y empiristas tuvieron al menos dos fuentes importantes relacionadas con los conceptos a priori y con los enunciados a priori: Los conceptos a priori El racionalismo. Los conceptos a priori son ideas que, según se afirma, no se derivan de la experiencia sensible sino que son producidas independientemente por la razón o por el intelecto. Los racionalistas admiten que algunos conceptos son empíricos (por ejemplo que derivamos nuestra idea de lo rojo de nuestra experiencia de ver objetos rojos), pero mantienen que el conocimiento que tenemos del mundo también implica conceptos a priori como los de causa y sustancia. El empirismo. Bajo este enfoque es fundamental negar la existencia de tales ideas. Los empiristas, por tanto, argumentan que o bien los pretendidos conceptos a priori pueden ser analizados o descompuestos en una combinación de conceptos más simples que se derivan de la experiencia, o bien en ocasiones, de manera más radical, que no son conceptos genuinos (por ejemplo, que «Sustancia», en cuanto que término metafísico, es simplemente una palabra a la que no se puede asignar ningún significado). Los enunciados a priori El empirismo. Generalmente se está de acuerdo en que todas las verdades necesarias son a priori puesto que de la experiencia lo único que podemos aprender es que ha ocurrido y que es probable que ocurra, y no que deba ser así. Los empiristas, que creen que no tenemos ningún medio de adquirir conocimiento, excepto mediante la observación de lo que ocurre realmente, afirman que las verdades necesarias son verdaderas por definición, o analíticas. El racionalismo. Los racionalistas mantienen que algunos enunciados a priori son sintéticos; esto es, que nos dicen algo acerca de la naturaleza del mundo. La aserción “todo evento debe tener una causa” por ejemplo, se ha dicho que es un principio auto evidente de este tipo: a priori porque establece una conexión necesaria, y sintético porque no es simplemente verdadero por definición (como “todo efecto tiene una causa”). Nota final: Es característico del empirismo negar que la razón pueda asegurarnos la verdad de un enunciado genuinamente sintético y, por tanto, que cualquier proposición pueda ser a la vez a priori y sintética. Como bien apunta Bedford, “como resultado de su desacuerdo en estas cuestiones de principio, racionalistas y empiristas tienen actitudes muy distintas respecto a la ciencia natural y la metafísica”. En otras palabras, Los racionalistas se han inclinado, hablando en general, a pensar que las creencias basadas en la experiencia estaban infectadas por el error. Para ellos, no se puede obtener el entendimiento del mundo mediante la percepción sensible, que es confusa, sino mediante la especulación metafísica. Pero precisamente porque la metafísica pretende proporcionar conocimiento de una realidad que trasciende la experiencia, la investigación metafísica depende de que tengamos conceptos a priori. La tradición empirista ha sido por tanto antagonista de la metafísica, y le ha dado a la ciencia un alto valor como medio de adquisición del conocimiento. 3. Matemáticas y empirismo Una aplicación típica de los principios empiristas es la efectuada en la teoría de la matemática. Siempre se había considerado a la matemática como un baluarte del racionalismo, puesto que, a primera vista, las proposiciones matemáticas son a priori y sintéticas. 7+5=12: parece cierto tanto que esto debe ser así como que es verdad con respecto a objetos que podemos conocer antes de cualquier experiencia de ellos. Los empiristas han respondido a este desafío de dos formas: o negando el carácter a priori de la matemática o bien el carácter sintético: El primer curso es el que tomó J. S. Mill que trata a la matemática como una generalización a partir de la experiencia. Según él, 7 + 5 = 12, es una ley de la naturaleza basada en la observación. Sin embargo, si la aritmética no es necesariamente verdadera y solamente es establecida por la experiencia, queda la posibilidad de que pudiera ser falsificada por la experiencia, por difícil que pueda ser imaginar cómo sería esa experiencia. Pocos empiristas han estado dispuestos a admitir esta paradoja. Generalmente han tomado la otra alternativa, la de afirmar que la matemática es analítica, y no sintética. Según este punto de vista, las proposiciones matemáticas son verdaderas por definición. 7 + 5 = 12 es una verdad necesaria sólo porque definimos «7», «+», «5», «=» y «12», de tal modo que esto sea así. Por tanto, la matemática no nos da, como pensaban los racionalistas ninguna información sobre la naturaleza del mundo. El positivismo lógico del Círculo de Viena endosaría esta tesis. II. EL POSITIVISMO LÓGICO DEL CIRCULO DE VIENA 1. Sus principales pensadores De acuerdo con Urmson “El Círculo de Viena se originó a comienzos de los años veinte como un grupo de discusión informal en la Universidad de Viena, presidido por Moritz Schlick. Entre los miembros más prominentes se contaban Rudolf Carnap, Otto Neurath, Friedrich Waismann, Philipp Frank, Hans Hahn, Herbert Feigl, Victor Kraft, Felix Kaufmann y Kurt Godel. Otros asociados, más o menos remotos en la distancia, en el tiempo o en la opinión, fueron Hans Reichenbach, Carl Hempel, Karl Menger, Richard von Mises, Joergen Joergensen, Charles W. Morris y A. J. Ayer. Muchos componentes del círculo original no eran filósofos, sino matemáticos, físicos y científicos sociales, que compartían un interés común por la filosofía de la ciencia y un disgusto común por la metafísica académica que entonces prevalecía en Alemania y en Europa Central” (Urmson, 1994). Estos pensadores seguían la tradición positivista de D. Hume y se “puso el epíteto de “lógico”, porque ellos pretendían añadir los descubrimientos de la lógica moderna; en particular creían que simbolismo lógico que ha sido desarrollado por Frege, Peano y Russell les sería útil” (Ayer, 1959). 2. Sus raíces y fuentes de inspiración 2.1. Las raíces del Empirismo Lógico. El Empirismo Lógico del Círculo de Viena hunde sus raíces en dos elementos fundamentales: la concepción de la verdad de Aristóteles y el positivismo o empirismo clásico de D. Hume y A. Comte. La teoría de la verdad de Aristóteles: La concepción clásica de la verdad formulada por Aristóteles enunciaba una correspondencia entre el decir y el ser: decir las cosas como son era sinónimo de discurso verdadero. El Círculo de Viena reformuló esta concepción, y estableció ahora que la concepción de la verdad era una correspondencia entre proposiciones y hechos. Es decir, los enunciados científicos pueden ser verificados en la medida que se correspondan con los hechos o que las observaciones empíricas han de concordar con las predicciones de la ciencia. El empirismo: La tesis fundamental de todo empirismo, antes y después de Hume y Comte, es que la única fuente de conocimiento es la experiencia sensible. El positivismo lógico es un desarrollo ligado a la gran corriente de los filósofos empiristas ingleses como Francis Bacon (1561-1626), T. Hobbes (1588-1679), J. Locke (1632-1704), Berkeley (1685-1753), D. Hume (17111776), J. S. Mill (1806-1873). 2.2. Las fuentes de inspiración. Padrón (1992) señala que “las posiciones del Círculo de Viena estuvieron directamente influenciadas por cuatro antecedentes básicos, los primeros dos de carácter filosófico, el tercero de carácter histórico y el otro de carácter instrumental. En primer lugar, el "empirio-criticismo" del físico austríaco Ernst Mach....con fuertes implicaciones neopositivistas, el cual sólo reconocía como datos válidos de conocimiento aquellos elementos ubicados en la experiencia y traducidos en señales de captación sensorial, excluyendo todo enunciado `a priori' y todo juicio que no pudiera ser confrontado con datos sensoriales. En segundo lugar, las posiciones de Viena se apoyaron en el "análisis lógico del conocimiento" de Wittgenstein... así como en sus tesis sobre la naturaleza "analítica" de la Lógica y la Matemática y en sus críticas a la filosofía especulativa. En tercer lugar, y como influencia de tipo histórico, la revolución de la Física Cuántica fue interpretada como demostración del carácter analítico de la ciencia y de la fuerza del pensamiento riguroso orientado hacia los hechos observables y hacia los mecanismos de comprobación....[En cuarto lugar], como antecedente de carácter instrumental, las herramientas de la lógica matemática, consolidada unos veinte años antes en los "Principia Mathematica" de Russell y Whitehead y profundizada por los lógicos polacos y los trabajos de Hilbert, ofrecieron al Círculo de Viena un importante aparato para traducir datos de conocimiento empírico a un lenguaje preciso, riguroso e inequívoco que concibieron como modelo del lenguaje científico: de allí las célebres expresiones "empirismo lógico" y "atomismo lógico" con que se identificó el Círculo (la Lógica de Bertrand Russell había distinguido entre hechos/ proposiciones "atómicos" y hechos/proposiciones "moleculares")”. En resumen: Dos antecedentes de carácter filosófico: Neopositivismo de E. Mach: En esta postura se negaba todo tipo de elementos a priori en las ciencias empíricas. El Tractatus de Wittgenstein: En su obra, Wittgenstein, discípulo de Russell, vinculaba la tradición empirista con la nueva lógica-matemática. Antecedentes de carácter histórico e instrumental: Carácter histórico: La revolución de la física a comienzos del siglo XX. Las contribuciones de Einstein para la compresión de la estructura del espaciotiempo y de la gravitación, y la de la Mecánica Cuántica para la comprensión de la estructura atómica y nuclear. Carácter instrumental: La lógica-matemática: La creación de la lógicamatemática por B. Russell y A. Whitehead en 1905. También las investigaciones de G. Frege y el mismo Russell sobre la naturaleza de la representación lingüística. Estos aportes propiciaron la construcción de un lenguaje lógico, principalmente por R. Carnap, elaborado a partir de ciertas proposiciones que permitirían “el análisis de los conceptos científicos y la clarificación de los problemas filosóficos” (Carnap, 1992). Así que el positivismo lógico “como una forma más extrema y sofisticada del positivismo, es una teoría de la ciencia que plantea que el único tipo de conocimiento no analítico válido es el conocimiento científico; este conocimiento consiste en la descripción precisa de modelos teóricos invariantes en el tiempo y en el espacio elaborados a partir de los fenómenos observados” (Damiani, 1997). 3. Su proyecto El proyecto del Círculo de Viena estribaba “en conformar una filosofía científica. Las matemáticas y la lógica, así como la física, son los grandes modelos a los que deben toda forma de discurso científico. El programa positivista de Comte en el Siglo XIX debía ser culminado, convirtiendo la biología, la psicología y la sociología en ciencias positivas. La unificación de la ciencia debe llevarse a cabo reduciendo todas las proposiciones observacionales a lenguaje fiscalista, con lo cual se mostraría que existe un núcleo común a todas las ciencias positivas” (Echeverría, 1989). Y su proyecto institucional era la elaboración de la Enciclopedia para la Ciencia Unificada (Ibíd.). 4. Sus principales características 4.1. El llamado giro lingüístico. El Círculo de Viena desplazó el foco de observación desde la conciencia individual (la orientación seguida desde Descartes, en Kant y en el idealismo alemán) al lenguaje (Bedford, 1994). Y partir de allí, junto con otros elementos ya mencionados, el empirismo o positivismo lógico construyó una doctrina sobre la estructura lógica del conocimiento científico. De esta manera, el Círculo de Viena distinguió, o al menos propuso distinguir, la ciencia de la metafísica (y de cualquier otro conocimiento) basándose en un criterio epistemológico de significatividad cognoscitiva. Esto le permitió “al positivismo lógico aplicar radicalmente la navaja de Ockham, descartando del pensamiento científico numerosos conceptos y trabajos llevados a cabo por la filosofía especulativa” (Echeverría, 1989). 4.2. Características del Círculo de Viena: (ver Urmson, 1994). 4.2.1. Características generales a) Un empirismo total. El cual se apoyaba en los recursos de la lógica moderna y en los logros de la física moderna. Desde el punto de vista metodológico las ciencias empíricas están basadas en la inducción[6]. b) Un empleo de la lógica-simbólica. Usada como un instrumento para deslindar entre distintos lenguajes y sus relaciones tanto en sus aspectos formales (sintaxis-lógica) como en su contenido o referencias a lo real (semántica). c) Un rechazo a la metafísica y a la teología. En línea con el pensamiento de la Ilustración, los pensadores del Círculo de Viena (ya formados en el escepticismo) fomentaron un repudio hacia la metafísica por estar fuera de lo que era concebido como lo “sensible” y empírico. La acusación básica contra la metafísica estaba centrada en que sus proposiciones carecían de significado. Es decir, las proposiciones de la metafísica carecen de sentido en virtud de que no tienen relación con los hechos; ya que éstas no están construidas en base de proposiciones elementales. d) Una restricción del dominio de la filosofía. El espacio de acción de la filosofía fue casi literalmente reducida a la tarea de eliminar sus propios problemas. e) Un fisicalismo: Todos los enunciados empíricos pueden ser expresados en el lenguaje de la física. Este fue el fundamento teórico a favor de la unidad de la ciencia. Esta propuesta inicial de un lenguaje fisicalista estuvo ligada a los cambios dramáticos de la física en las tres primeras décadas del siglo XX originados principalmente en las teorías de la relatividad de Einstein y en la Mecánica Cuántica. 4.2.2. Característica epistemológica esencial: El Principio de Verificación Los elementos anteriores permitían configurar el Principio de Verificación, que es la característica esencial del positivismo lógico. De hecho, el objetivo fundamental de la metodología era “formular y legitimar una regla de aceptación de los enunciados conforme a la convicción fundamental según la cual una proposición científica debe ser aceptada sólo cuando es verdadera” (Damiani, 1997). Para concretar esta norma es necesario un método, un criterio de significatividad, que permita establecer si determinada proposición es o no verdadera. En otras palabras, “de acuerdo con el neopositivismo el método de la ciencia debe ofrecernos una estrategia infalible para el hallazgo de la verdad” (Ibíd.). Se estimaba ofrecer criterios de racionalidad científica, buscaba discriminar con certeza absoluto la ciencia de la pseudo-ciencia. De modo pues que, “el concepto de significado establece una línea de demarcación entre las proposiciones significantes de las ciencias empíricas y los enunciados insensatos de la metafísica” (Damiani). En resumen, el positivismo lógico utiliza como criterio de significatividad de las ciencias fácticas el principio de verificación que sirve como criterio de demarcación del discurso científico del no científico” (Damiani). Ahora bien, el principio de verificabilidad funciona “solamente en la medida que se conceda una autoridad particular a una clase específica de proposiciones empíricas cuya certeza no puede ser cuestionada: debe establecerse una fuente segura que nos proporcione conocimiento real, como fundamento epistemológico sobre el cual construir el edificio de la ciencia...La teoría de la verificación o del significado, que es la característica definidora de la epistemología neopositivista, ofrece los medios para distinguir los enunciados con y sin significado; se entiende por verificación el procedimiento adoptado mediante el cual se comprueba la verdad o falsedad de algún enunciado” (Damiani). 4.2.2. Los Principios del Positivismo Los principios originales del positivismo lógico, y que luego se debilitarían con el transcurso del tiempo, son los siguientes: 1. El principio del Empirismo; según el cual todo conocimiento (no analítico) depende de la experiencia, y 2. El principio del significado cognoscitivo; de acuerdo con el cual la significación cognitiva de un enunciado es tal, solo si es (a) analítico o autocontradictorio (como en el caso de las ciencias formales como la lógica y las matemáticas) o (b) puede ser verificado experimentalmente. 4.3. Las cuatro tesis básicas del Círculo de Viena De acuerdo con Padrón (1992) la escuela del Círculo de Viena produjo cuatro tesis bien definidas que interpretan el conocimiento científico, a saber, el criterio de demarcación (principio de verificación), el lenguaje lógico, la unificación de la ciencia y la inducción probabilista. Las tres primeras constituyen las tesis básicas producidas por el Círculo de Viena; las cuales sufrieron un sinnúmero de revisiones y modificaciones, algunas fáciles de captar, otras, realmente difícil de entenderlas. La última tesis es un producto indirecto del Círculo de Viena y se debe a Carnap y forma parte de lo que se ha llamado la segunda fase del positivismo lógico. En la siguiente sección entraremos a una descripción sucinta de las tres primeras tesis: sus fundamentos y sus respectivas evoluciones, hasta arribar a la cuarta tesis. 5. Su objetivo El positivismo lógico estableció como meta alcanzar los siguientes objetivos fundamentales: (1) Dar a la ciencia una base positiva y (2) adoptar el análisis lógico del lenguaje, de los conceptos de la ciencia empírica (y mediante estos recursos demostrar la inutilidad de la metafísica). 6. Su metodología El neopositivismo pretendía alcanzar sus objetivos mediante su particular método científico que constaba de dos factores: la verificación empírica y el análisis lógico del lenguaje. 7. Etapas del Positivismo Lógico Primera fase: El Círculo de Viena (1929-1936). Sostenía la idea de una verificación concluyente de los enunciados científicos a partir de las proposiciones elementales. Alrededor de esta idea se articularon los argumentos y postura originales del Círculo de Viena. Segunda fase: La Concepción Heredada (1936-). Debido a la dificultad sobre este punto es preferible citar textualmente a Padrón: “A pesar de su impacto inicial y de su enorme influencia, estas tesis se vieron sometidas a crítica por otros filósofos de la ciencia que, aunque coincidían en los aspectos básicos ya planteados, disentían en otros más específicos (Quine, Putnam, Toulmin, Hanson, Nagel, etc.). Los mismos integrantes del Círculo fueron haciendo revisiones y rectificaciones propias (Carnap, especialmente, Hempel y otros). De estas críticas y revisiones nació una ulterior interpretación del conocimiento científico que respetaba las bases del Círculo, pero que imponía modificaciones y correcciones de interés. En esencia, se abandonó el "empirismo ingenuo" implícito en las tesis iniciales; se reajustó el concepto de "reglas de correspondencia" entre los planos teórico y observacional. Volviendo a Whewell, quien casi un siglo antes sostenía la relatividad de la distinción "teórico/empírico", advirtiendo...que "nuestras percepciones envuelven nuestras ideas" (lo cual Hanson parafraseó al decir que toda observación está "cargada de teoría"); se hizo más flexible el concepto de "reducción" de unas teorías a otras y se amplió el modelo de las teorías científicas para dar cabida a otras opciones válidas. Todas estas revisiones y ajustes conformaron una diferente interpretación que se divulgó bajo el término "Received View" o "Concepción Heredada" que, en pocas palabras, consistió en una versión menos radical y más reflexiva de las tesis del Círculo de Viena” (Padrón, 1992). III. LAS TESIS DEL CIRCULO DE VIENA 1. Las tesis básicas del Círculo de Viena Siguiendo a Padrón (Ibíd.) mencionaremos algunas líneas que las definen. El criterio de demarcación: · Lo que esencialmente distingue al conocimiento científico frente a otros tipos de conocimiento es su verificabilidad con respecto a los hechos constatables. · Un enunciado científico aceptable será sólo aquél que resulte verdadero al ser comparado con los hechos objetivos. Así, la verificación empírica constituye el criterio específico de demarcación entre ciencia y no-ciencia. El lenguaje lógico: · Los enunciados serán científicos sólo si pueden ser expresados a través de símbolos y si pueden ser relacionados entre sí mediante operaciones sintácticas de un lenguaje formalizado (independiente de su contenido significativo). · Los enunciados científicos estarán dotados de una expresión sintáctica, formal o simbólica, por una parte, y de una correspondencia semántica, significativa o empírica, por otra parte. · La base de esta correspondencia estará, por supuesto, en los enunciados observacionales más concretos dados por la experiencia (lenguaje "fisicalista"). La unificación de la ciencia: · Todo conocimiento científico, cualquiera sea el sector de la experiencia sobre el cual se proyecte, estará identificado (construído, expresado, verificado...) mediante un mismo y único patrón. · En un sentido epistemológico y metodológico, no se diferenciarán entre sí los conocimientos científicos adscritos a distintas áreas de la realidad. Ya que la realidad constituye globalmente una sola estructura compacta y coherente (ordenada), también el conocimiento científico de la misma debe resultar, en definitiva, una misma construcción igualmente integrada. · En virtud de ello, existe una única Filosofía de la Ciencia, es decir, un único programa de desarrollo científico para toda la humanidad. La Lógica y la Matemática serán el esquema básico para toda expresión comunicacional 'verificable' de la 'ciencia'. La inducción probabilística: · La producción de conocimiento científico comienza por los hechos evidentes susceptibles de observación, clasificación, medición y ordenamiento. Sigue con la detección de regularidades y relaciones constantes y termina con las generalizaciones universales formuladas mediante leyes y teorías. · Sin embargo, dado que el conjunto de todos los datos de una misma clase suele escapar a las circunstancias de tiempo/espacio del investigador entonces el proceso de generalización de observaciones particulares tiene que apoyarse en modelos de probabilidad, base de los tratamientos estadísticos utilizados actualmente en todas las áreas de investigación. · De acuerdo al concepto de probabilidad, es posible inferir leyes generales a partir de un subconjunto o muestra representativa de la totalidad de los casos estudiados. Esto implica que el conocimiento científico debe tomar en cuenta ciertos índices de error y ciertos márgenes de confiabilidad previamente establecidos. En otras palabras, la tesis del positivismo lógico se desplazó desde el criterio de verificación de Wittgenstein (vía deductiva a partir de proposiciones elementales cuya verdad se establece por la vía de la observación) hasta llegar a la aplicación de una lógica inductiva. Luego, el positivismo lógico de la Concepción Heredada estableció la inducción lógica como método de las ciencias empíricas. La lógica inductiva permitiría fundamentar el criterio de verificación empírica en el grado de probabilístico de confirmación de una determinada hipótesis. 2. La tesis del lenguaje lógico y sus dificultades En parte veremos como ocurrió el desplazamiento recién mencionado. Para ello, vamos a considerar a grandes rasgos dos de las principales tesis del Círculo de Viena tales como la tesis de lenguaje lógico y la del criterio de demarcación; éstas juntas logran confluir para dar forma a la cuarta tesis: la de la inducción probabilista. En sus respectivos contextos consideraremos también las modificaciones o evoluciones que experimentaron. Dejaremos fuera de análisis a la tesis de la unificación de la ciencia por la sencilla razón que ésta se modificaba y tomaba cuerpo en virtud de las modificaciones experimentadas por las tesis anteriores. Vamos a esquematizar los elementos cruciales de esta tesis y de sus dificultades inherentes. 2.1 La idea central La investigación de la teoría del conocimiento en términos de la lógica aplicada “se propone aclarar por medio del análisis lógico el contenido cognoscitivo de las proposiciones científicas, y con ello la significación de las palabras que se usan en las proposiciones, conduce a un resultado positivo y a otro negativo” (Carnap, 1931). El resultado positivo se ha elaborado en el dominio de la ciencia empírica; se aclaran los conceptos particulares de las diversas ramas de la ciencia; se hace ver su conexión formal-lógica y epistemológica. Aquí se dice que las proposiciones son significativas dado que tienen sentido en si mismas o pueden verificarse por medio de la experiencia. El análisis lógico conduce al resultado negativo de que las pretendidas proposiciones del dominio de la metafísica (incluida la filosofía de los valores y la ciencia normativa), son completamente sin sentido. Con esto se ha alcanzado una superación radical de la metafísica, que no había sido posible todavía desde los anteriores puntos de vista antimetafísicos. Aquí se dice que las proposiciones no son significativas dado que carecen de sentido. 2.2. El asunto del lenguaje lógico Un lenguaje consta de un vocabulario y una sintaxis, es decir, de una colección de palabras que tienen una significación, y de reglas de la formación de las proposiciones; esas reglas indican cómo se pueden formar las proposiciones con las diversas clases de palabras. Según eso, hay dos clases de seudo-proposiciones (que tienen lugar en la metafísica): La proposición contiene una palabra de la cual erróneamente se ha supuesto que tiene un significado, Las palabras que entran tienen significado, pero están dispuestas en una manera opuesta a la sintaxis, de suerte que no llegan a formar un sentido completo. 2.3. El asunto de las proposiciones primarias o de protocolo y su verificación Las ideas elementales son como sigue: Toda proposición puede expresarse en un lenguaje fisicalista El lenguaje fisicalista tiene como elementos constituyentes y constitutivos a las proposiciones protocolares Las proposiciones protocolares se refieren a experiencias del sujeto ya sean externas o internas. Así que la verdad de una proposición elemental podía registrarse únicamente por la persona por cuya experiencia hacía la relación. Una proposición es verificada realmente por medio de la experiencia que alguien tiene. En la mayoría de los casos la verificación consistía en la percepción de algún objeto físico. Pero se sostenía (Russell, Berkeley) que a los objetos que se perciben había que analizarlos en relación con las sensaciones que se tienen o con la percepción de los datos sensoriales (Russell). Todos los enunciados científicos y sus leyes están formulados en forma de proposiciones, las cuales a su vez están formadas por las proposiciones primarias o elementales. De modo que solo existen dos clases de proposiciones con significado: las formales y las fácticas que constituyen todo el escenario posible, según el empirismo lógico del Círculo de Viena, de la teoría del conocimiento o de la filosofía científica. Esto es, Las formales: No son proposiciones acerca de la realidad. En virtud de su forma son ya verdaderas (tautológicas o analíticas) como las de la matemática o de la lógica. También entran en esta consideración las contradicciones o negaciones de estas proposiciones. Las fácticas: Se refieren a la realidad, es el conocimiento científico por excelencia. Para estas proposiciones su verdad o falsedad radica en las proposiciones de protocolo, ya que son proposiciones de experiencia o empíricas y pertenecen al dominio de la ciencia empírica. 2.4. Las dificultades de las proposiciones de protocolo. No es difícil ver que el positivismo lógico proponía la existencia de un homomorfismo entre las proposiciones protocolares y el dato sensible. Las proposiciones en las que se expresa el conocimiento científico son reducibles a proposiciones elementales que se corresponden uno a uno con el dato sensible de la experiencia. Aquí se puede hablar de un homomorfismo entre ambas entidades. Sin embargo, la caracterización de la realidad por medio de este homomorfismo enfrentó una serie de dificultades. La objeción más fuerte tiene que ver “la condición privada de los objetos a los cuales se suponía que hacían referencia las proposiciones elementales” (Ayer, 1959). Ello condujo a su vez a un problema de comunicación. Es decir, “si cada uno de nosotros está obligado a interpretar cualquier proposición como si fuese una descripción de sus propias experiencias privadas, es difícil ver cómo podemos en modo alguno comunicarlas” (Ibid). A fin de evitar la imputación de solipsismo que esto implica y a fin de mantener el carácter intersubjetivo del conocimiento se propuso “una distinción entre el contenido de la experiencia y su estructura” (Ibíd). El “contenido de la experiencia” se refería a los pensamientos y sentimientos, los cuales eran incomunicables en el sentido de que cada uno de nosotros tiene su propia experiencia o percepción del mundo. Estas clases de experiencias no se pueden verificar ni entender. Pero, lo que sí se puede entender, verificar y comunicar es un conjunto de elementos del mundo sobre el cual para cada uno de nosotros son semejante. Esta es la estructura del mundo. “Lo que importa es que la estructura de nuestros respectivos mundos es lo suficientemente semejante para que pueda fiarme de la información que él me da. Y solo en este sentido es como tenemos un lenguaje común” (Ibid). Aun así, esta propuesta, expuesta principalmente por Schlick, fue acusada de conducir a un “solipsismo múltiple” (ver Ayer, 1959). “La facción mas radical, encabezada por Neurath y Carnap, no tendría ninguno de estos lapsus “metafísicos” y prefería asegurar la objetividad de la ciencia aun a costa de abandonar su base supuestamente sensible” (Urmson, 1994). Aquí vendría en auxilio el fisicalismo, formulado por Neurath y aceptado finalmente por Carnap. El fisicalismo estaba expresado en términos de “enunciados observacionales, que serían la base de cada uno de las ciencias positivas” (Echeverría, 1989). Así, vía la tesis del fisicalismo, se reformuló el homomorfismo ya mencionado en el sentido de que “todas las ciencias dependen, en última instancia, de protocolos expresados en términos de objetos y procesos físicos, y que por tanto, todos los enunciados empíricos pueden ser expresados en el lenguaje de la física” (Urmson, 1994). Así el homomorfismo queda reformulado en términos de una correspondencia entre las proposiciones protocolares y los enunciados observacionales. Este fue el punto de partida para una cruzada a favor de la unidad de la ciencia basada en el lenguaje lógico del Círculo de Viena. Lo que siguió fue un distanciamiento del fisicalismo del empirismo, o como dice Padrón: “En esencia, se abandonó el "empirismo ingenuo" implícito en las tesis iniciales; se reajustó el concepto de "reglas de correspondencia" entre los planos teórico y observacional” Padrón, 1992). Con todo, el distanciamiento iniciado fue ampliado por Neurath y Carnap, “al proponer que se prescindiese de la teoría de la verdad como correspondencia” (Urmson, 1994)[11]. El asunto de la teoría de la verdad también recibiría sus críticas en virtud de las debilidades inherentes al llamado principio de verificación. Con este asunto termina la próxima parte, alcanzándose así un cierre completo en los argumentos aquí esbozados. 3. La evolución de la tesis del criterio de demarcación y sus dificultades 3.1. Elementos principales Bajo este criterio es que se notan con mayor facilidad la evolución de la tesis del principio de verificabilidad en el pensamiento de Carnap. Según se ha mostrado “las tesis de Carnap fueron evolucionando, desde sus posiciones verificacionistas iniciales hacia una confirmación progresiva, e incluso de un grado de confirmación de los enunciados empíricos. En 1936 ya admitía la confirmabilidad como criterio, y a partir de 1949 va a desarrollar su teoría del grado de confirmación, que enlazará el empirismo inicial del Círculo de Viena con la lógica probabilitaria” (Echeverría, 1989). Veamos en un bosquejo la evolución del criterio de demarcación: 1929-1936: El principio o criterio de verificabilidad 1936-1948: El criterio de confirmabilidad 1949: El criterio del grado de confirmación A continuación vamos a estudiar brevemente esta evolución. Intentaremos mostrar como el criterio o principio de verificabilidad experimentó cambios en su debido contexto. Resumiendo, el Círculo de Viena propone: § Un criterio epistemológico de significatividad. Una proposición solo tiene significado si, en principio, puede ser verdadera o falsa; y ello es posible en virtud de las reglas de la lógica (como en la matemática pero que no se refiere a la realidad) o través de la experiencia sensible (como en la física y que se refiere a la realidad). En este último caso, una proposición fáctica tiene significado si la experiencia sensible basta para decidir su verdad. Esto era un criterio de significatividad empírica. § Un isomorfismo entre el criterio se significado y el método de verificación. Es obvio que si una proposición solo puede ser verificada por la experiencia entonces lo que está envuelto es una “simple identificación del significado y el método de verificación” (Urmson, 1989)[13]. A esto también se le llama principio de verificabilidad, el cual exigía que dicha verificación fuese completa y por medio de la observación. Nótese que la “regla de correspondencia” entre el plano teórico y el plano observacional quedaba expresada en el homomorfismo lógico ya mencionado; pero éste, se sustentaba a su vez en el isomorfismo lógico (Véase la nota 7), de lo cual es trivial observar que el primero se sustentaba o mantenía en pie en virtud del segundo. Estos “morfismos” constituían los elementos esencia del positivismo lógico; eran su virtud y su tragedia. La primera dificultad: Relacionada con la significatividad empíricas de los enunciados analíticos: El criterio de epistemológico de significatividad tuvo que excluir de su ámbito de definición a los enunciados analíticos por las siguientes razones: “Al depender dicho criterio de las propiedades del condicional lógico, hubo que matizarlo, dado que toda proposición analítica sería inferible a partir de un conjunto finito de oraciones cualesquiera; y asimismo oraciones observacionales contradictorias entre sí nos permitirían inferir correctamente cualquier proposición, que de esta manera tendría significación empírica” (Urmson, 1989). En otras palabras, “las expresiones y fórmulas de la lógica y de las matemáticas no han de verificarse por ser analíticas” (Urmson, 1989). La segunda dificultad: Relacionada con el asunto de la inducción y la paradoja del positivismo lógico. A pesar de la restricción del criterio empirista de significado justo ya mencionado, tal criterio “seguía presentando problemas El principal de ellos estribaba en que los enunciados universales en general [como los de la filosofía misma], y más concretamente las leyes científicas, quedaban excluidos del edificio de la ciencia” (Urmson, 1989). En otras palabras: “Si todas las proposiciones formales pertenecen a la lógica, y todas las proposiciones fácticas, en un sentido amplio, a las ciencias empíricas, no es fácil encontrar asilo para las proposiciones de la filosofía, incluido, desde luego, el principio de verificación mismo. Wittgenstein, al enfrentarse con esta dificultad, estaba dispuesto a denunciar incluso que sus propios argumentos para este fin eran «sin sentido», aunque tenían un carácter importante y aclaratorio. No queriendo aceptar tal paradoja, el positivismo lógico estaba dispuesto a garantizar la legitimidad del análisis, que se convierte así en el deber total de los filósofos. La filosofía no es una teoría, sino una actividad—la clarificación lógica de los conceptos, proposiciones y teorías propias de la ciencia empírica. El principio de verificación era interpretado de manera similar como una definición, receta o criterio del significado, y no como una afirmación que pudiera ser verdadera o falsa” (Urmson, 1989). De acuerdo con Carnap, “el análisis lógico pronuncia, pues, el veredicto sobre la carencia de sentido de todo presunto conocimiento que pretenda ir por encima a por detrás de la experiencia. Ese veredicto alcanza ante todo a toda metafísica especulativa....Vale además ese juicio para toda filosofía de los valores y de las normas, para toda ética y estética como disciplina normativa. Porque la validez objetiva de un valor o de una norma no se puede verificar ni deducir de proposiciones empíricas; no se puede, por lo tanto, enunciar o formular en absoluto (en una proposición que tenga sentido) aun según la manera de ver de los filósofos de los valores....Finalmente, el veredicto alcanza también a aquellas tendencias metafísicas que desacertadamente se suelen designar como movimientos epistemológicos, a saber, realismo (en cuanto pretende decir algo más que el resultado empírico de que los procesos muestran una cierta regularidad, que hace posible el empleo del método inductivo) y sus contrarios: el idealismo, el solipsismo, el fenomenalismo y el positivismo (en el sentido primitivo)” (Carnap, 1931). Este asunto, resumiendo, del criterio de significatividad no solo destruía a la metafísica (y ciertos “ismos”), sino que además la paradoja que surgió debilitaba ostensiblemente a la filosofía misma, la cual, según los positivistas lógicos, si “ha de constituir una rama genuina del conocimiento, tiene que emanciparse de [sus contenidos metafísicos]” (Ayer, 1959). Y peor aún, dejaba sin efecto al principio de verificabilidad, el cual, en sí mismo ya tenía problemas como en breve veremos. La tercera dificultad Relacionada con el principio de verificabilidad o criterio de demarcación En esta parte veremos las dificultades del principio de verificabilidad que indujo a los positivistas lógicos a debilitar su rigidez y moldearlo al punto que llegase a requerir de una “una proposición [que] sea capaz de ser en algún grado confirmada o refutada por la experiencia” (Ayer, 1959). Dado el isomorfismo entre la significatividad empírica y el principio de verificabilidad, éste último adolecía de las mismas limitaciones del primero. Es decir, “este criterio se reveló excesivamente estricto: no es posible inferir los enunciados generales a partir de los atómicos. Y desde el punto de vista de la metodología de la ciencia, las leyes científicas, que son proposiciones cuantificadas universalmente, constituyen componentes fundamentales en una teoría científica” (Echeverría, 1989). Debido a esta dificultad, debilitaron la “verificación” hasta convertirla en cierta clase de “confirmación”. Con ello se estaba admitiendo era que: aun cuando tales leyes no podían ser verificadas directamente “lo que si puede hacerse es extraer las consecuencias lógicas concretas de una ley o teoría y comprobar que, efectivamente, la experiencia ratifica dicho resultados” (Ibíd.). Las negritas son nuestras. Pero debe precisarse que este procedimiento, entre otras cosas, es importante para el asunto de las predicciones científicas. Es decir, cuando una predicción teórica ocurre en la realidad, “no puede decirse que la teoría haya quedado totalmente verificada, pero si tiene lugar una confirmación objetiva de dicha teoría” (Echeverría, 1989). Lo peor era lo evidente: “Una objeción obvia contra el principio de verificación, de la que pronto se apercibieron los adversarios de los positivistas, es que el principio no es verificable en por sí mismo” (Ayer, 1959). Aparte de ello, el principio de verificabilidad ni en su forma original ni en su versión “mitigada” de grado de confirmación o apoyo “nunca ha sido formalizado adecuadamente” (Ibid). Ayer criticaba el convencionalismo del Círculo de Viena en cuanto al uso del principio de verificación como una definición o receta. Lo que estaba detrás de tal convencionalismo era la voluntad de ignorar sus dificultades (Ibid). Mientras el Círculo de Viena oscilaba entre la verificación y la simple confirmación surgieron objeciones provenientes “de los defensores de otro tipo de teorías sobre la verdad científica, como la teoría de la coherencia o la concepción pragmática de la verdad”. El punto crucial era que la “cuestión de la verificación y la confirmación, por otra parte, está ligada a un tema fundamental para la filosofía: la teoría de la verdad” (Echeverría, 1989). La objeción básica consistía en lo siguiente. Aunque el positivismo lógico había despojado a la formulación original de Aristóteles de sus contenidos ontológicos y metafísicos, y los reemplazó por el dato sensible, de todos modos, “desde el punto de vista de la concepción de la verdad, siguió adherido al criterio clásico de la adequatio o correspondencia entre proposiciones y hechos” (Ibid, 1989). De esta manera se producía la ruptura, o al menos el cuestionamiento, del isomorfismo entre la significatividad empírica y el principio de verificabilidad. 3.2. El criterio de confirmabilidad y el de grado de confirmación Siguiendo a Echeverría (1989) vamos esquematizar los principales rasgos de este criterio. § La confirmación de un enunciado, según Carnap, es estrictamente lógica: los datos observacionales han de ser confrontados lógicamente con las consecuencias que se derivan de una determinada ley o teoría. § Si en un momento dado disponemos de una serie de datos, obtenidos por observación, y de una serie de hipótesis explicativas de esos datos, hemos de determinar la probabilidad de cada una de las hipótesis con respecto a las observaciones con que se cuenta en un momento dado. § La comparación entre las probabilidades respectivas, que definen el grado de confirmación de cada hipótesis, nos permite elegir como hipótesis confirmada aquella que, para unos determinados datos observados, posee mayor grado de probabilidad. § Surge así el concepto de grado de confirmación de un enunciado científico, que conlleva la previa cuantificación de la noción de confirmación: lo cual es posible apelando a la teoría de la probabilidad. § Una hipótesis posee una probabilidad inductiva, que va aumentando o disminuyendo según las nuevas observaciones confirmen o no dicha hipótesis. El valor de una hipótesis va ligado al mayor o menor número de datos empíricos conformes a dicha hipótesis. A fin de completar este panorama, la del corrimiento hacia la probabilidad empírica de las proposiciones, recurriremos a Echeverría de nuevo: “Una de las distinciones que, en etapas ulteriores, fue generalmente aceptada por los miembros del Círculo es la que diferencia verificación y verificabilidad. Una proposición es verificable cuando, al menos en principio, es posible llevar a cabo experimentos y observaciones empíricas concordes con lo dicho en la proposición. En cada momento, no todas las proposiciones empíricas han sido efectivamente verificadas, pero sí lo han sido algunas, y las demás son verificables en principio. Esta corrección, muy importante, matizaba el criterio de cientificidad inicial. Schlick habló de una comprobabilidad en principio, mientras que Carnap prefería el término de verificabilidad en principio. Asimismo Ayer introdujo otro matiz, al distinguir entre verificabilidad en sentido fuerte, cuando una proposición puede quedar establecida concluyentemente por medio de la experiencia, y verificabilidad en sentido débil, cuando la experiencia sólo permite determinar que esa proposición es probable en un grado lo suficientemente elevado. Surge así un nuevo concepto de verificación, cuyos orígenes están en Reichenbach y en el propio Carnap: el probabilístico, ligado a las investigaciones que se llevaron a cabo en esa época sobre lógica inductiva y lógica probabilitaria” (Ibid). Las negritas son nuestras. Conclusión. “Consiguientemente, el científico admite unas u otras hipótesis en función del aumento de su grado de confirmación. Hay una lógica inductiva, de base netamente probabilista, subyacente a las teorías empíricas. Lejos ya del criterio wittgensteiniano de la verificación concluyente, por vía deductiva a partir de unas proposiciones elementales cuya verdad ha sido sólidamente establecida por la vía de la observación. En los últimos desarrollos del Círculo de Viena se acaba apelando a una lógica inductiva, que a su vez Carnap intentó axiomatizar en forma de cálculo lógico. En la obra ya mencionada de Rivadulla pueden seguirse las sucesivas tentativas de Carnap en este sentido”. (Echeverría, 1989). Las negritas son nuestras. Nótese que, la introducción de la noción de un grado probabilístico de una determinada hipótesis disuelve tanto el homomorfismo como el isomorfismo lógico. Finamente, de acuerdo con Echeverría § El empirismo lógico acabó confluyendo en una afirmación de la inducción como el método principal de las ciencias empíricas. § La lógica inductiva permitiría fundamentar el criterio de significación empírica, inicialmente basado en la verificabilidad observacional, y finalmente en el grado probabilístico de confirmación de una determinada hipótesis. § Entretanto, y desde otras posturas, se hacían críticas de principio a las tesis del Círculo de Viena y de sus epígonos. Así sucedió, en particular, con Popper, quien va a orientar la metodología científica en un sentido muy distinto. 3.4 El criterio de falsabilidad de Einstein-Popper y el método hipotético deductivo en ciencia El método inductivo fue considerado, el método científico en la ciencia empírica, durante mucho tiempo como el único y verdadero, tenía una orientación verificacionista, la validación de la ciencia a través de la sumatoria de casos que apoyaban la hipótesis formulada. Popper en contraposición al método inductivo y su vía de verificación, formularía la teoría de la falsación, caracterizada por la utilización de un método deductivo, donde la verificación negativa no busca hechos que confirmen la hipótesis, sino hechos que tengan un comportamiento diferente; el buscar éstos hechos de forma sincera es parte de la honestidad intelectual, tal como lo denominaría Lakatos. La objetividad en Popper se da entonces en la actitud honesta del científico o del hombre que formula una conjetura y no acude a toda serie de argumentos para defender su propuesta, los más dogmáticos acuden a “estratagemas inmunizadoras” con el objeto de salvar su teoría del error; el espíritu crítico por el contrario, se convierte como autor de la conjetura o teoría en el principal crítico, buscando desde su génesis la forma de demostrar su falsedad, único camino que permite la evolución del conocimiento, una vez que el dogmatismo no permite el avance y desarrollo de la ciencia. Si se utiliza el lenguaje de Kuhn se diría que para Popper la ciencia está en una constante “Revolución científica”. La falsación propuesta por Popper se sustenta en el Modus Tollendo Tollens de la lógica simbólica. Conforme a lo planteado por (Suppes y Hill, 1983, p. 53-56) se define como “la regla que tiene el nombre Modus Tollendo Tollens se aplica también a las proposiciones condicionales –si... entonces... - pero en este caso, negando el consecuente, se puede negar el antecedente de la condicional” Ejemplo: Premisa 1: Si tiene luz propia, entonces el astro es una estrella Premisa 2: El astro no es una estrella Conclusión: Por tanto no tiene luz propia. Popper conecta de esta forma la teoría y la práctica; la formulación teórica de carácter hipotético busca imponer leyes a la naturaleza y no descubrirlas como es el propósito de los inductivistas, en la contrastación el mundo real le responde a través de la falsación si se encuentran hechos contrarios a la formulación hipotética o con la aceptación temporal de la teoría si la misma a pesar de tener un conjunto no vacío de posibles falsadores, no se ha llegado a falsear empíricamente. Popper tomó la consideración que el hombre impone las leyes a la naturaleza de la línea de Kant, tal como lo muestra en (Popper, 1994, p. 237) “la solución de Kant es bien conocida. Supongo –correctamente, creo yo- que el mundo tal como lo conocemos es el resultado de nuestra interpretación de los hechos observables a la luz de teorías que inventamos nosotros mismos. Para decirlo con palabras de Kant: “nuestro intelecto no extrae sus leyes de la naturaleza... sino que las impone a la naturaleza”. Aunque considero esencialmente correcta esta formulación de Kant, creo que es demasiado radical y preferiría, por lo tanto, expresarla en la siguiente forma modificada: “nuestro intelecto no extrae las leyes de la naturaleza, sino que trata –con diversos grados de éxito- de imponer a la naturaleza leyes que inventa libremente.” En el siguiente párrafo de Popper se determina la diferencia conceptual que tiene con Kant y así su orientación hacia una objetividad popperiana, que se determina no por el resultado final (pero en la teoría del mundo tres, la objetividad se determina es en las construcciones del mundo tres –mundo objetivo-), sino por la conducta frente a la ciencia, la que considera como una actitud crítica permanente, donde Kant vio una verdad, Popper propone una teoría no refutada; (Popper, 1994, p. 237-238) “la formulación de Kant no sólo implica que nuestra razón trata de imponer leyes a la naturaleza, sino también que tiene éxito invariablemente en estos intentos. Pues Kant creía que el hombre había impuesto exitosamente las leyes de Newton a la naturaleza; de lo cual concluía que debe ser verdadera a priori” La objetividad en Popper exige que las hipótesis deben ser falsables, es decir “si la clase de sus falsadores no es una clase vacía”, se exige que los enunciados tengan la propiedad en potencia de ser falsables; los enunciados que no tienen la propiedad de ser falsables no pertenecen a la ciencia y por tanto no son objetivos, así los enunciados que son lógicamente imposibles de falsar no pertenecen al campo científico. Las teorías científicas lo son por su capacidad explicativa y aún más por su capacidad predictiva, no por su capacidad de adecuar los hechos ocurridos a su formulación conceptual, lo que se puede calificar como defensa subjetiva e injustificada de una teoría. La objetividad del científico se revela en las predicciones riesgosas y refutables que hace y que ponen a prueba las hipótesis; lo que ejemplifica la honestidad intelectual del científico que no teme que su teoría entre en contradicción con la realidad y sea refutada; Tal actitud del hombre de ciencia lo califica como objetivo, a pesar de que su teoría sea refutada (pero que tenía toda la estructura lógica interna coherente, conforme a un procedimiento argumentativo deductivo). Para Moulines (1997, p. 418-419), la obra de Popper continúa desarrollando un método inductivo y presenta diversas dificultades, tal como se presenta en el siguiente párrafo, donde formula la teoría popperiana como una respuesta a los problemas del programa inductivista de Carnap fundamentalmente “... el programa inductivista de Carnap y su escuela entra a finales de los sesenta y principios de los setenta en una fase de estancamiento de la cual no se ha recuperado. Uno de los más feroces detractores del programa inductivista es K. Popper, que comanda la escuela epistemológica rival conocida como falsacionismo o refutacionismo. Este programa alternativo es iniciado por Popper en los años treinta con la publicación de la Lógica de la investigación científica (1935), pero permanece prácticamente ignorado, salvo por unos pocos, durante más de veinte años hasta que se traduce la obra al inglés a finales de los cincuenta. El falsacionismo se consolida a partir de los sesenta y constituye durante casi dos décadas la epistemología dominante en los países anglosajones y nórdicos, influencia que ha ido muchas veces más allá de la comunidad de especialistas y se ha extendido al gran público... El lema del falsacionismo de Popper es el siguiente: el método científico no es inductivo, el método de la ciencia es el de conjeturas y refutaciones. Ésta es la esencia del famoso racionalismo crítico de Popper. Sin embargo, este lema es parcialmente confuso. Es cierto que Popper niega que la ciencia proceda inductivamente, pero sólo si por “inducción” se entiende estrictamente lo que los carnapianos entienden. Como veremos, y aun a pesar de las protestas de su fundador, la metodología popperiana se puede calificar de inductiva en un sentido amplio”. El criterio de demarcación asociado directamente al método deductivo, como respuesta a las críticas del inductivismo, es expuesto por Popper como elemento fundamental para entender el concepto de “objetividad”, una vez que la demarcación pretende delimitar los enunciados científicos, de los enunciados no científicos, siendo la objetividad una característica de los enunciados de la ciencia, los cuales se distinguen por su falsabilidad, es decir, en potencia su capacidad real de ser falseados. Es de notar la línea de la falsación como se involucra en todos los elementos de la formulación de Karl Popper y que se puede contraponer a otros criterios de objetividad como el expresado por (Max Weber, 1978, p. 47) donde el criterio de ciencia se relaciona con la verificación lógica “... es y seguirá siendo cierto que una demostración científica metódicamente correcta en el ámbito de las ciencias sociales, si pretende haber alcanzado su fin, tiene que ser reconocida también como correcta por un chino (indica que en cualquier parte del mundo). Dicho con mayor precisión: debe aspirar en cualquier caso o tal meta, aun cuando ésta, por deficiencia de los materiales, no sea alcanzable. Esto significa también que el análisis lógico de un ideal en cuanto a su contenido y sus axiomas últimos, y la indicación de las consecuencias que su persecución producirá en los terrenos lógicos y prácticos, han de ser validos también para un chino, si es que deben considerarse logrados” La preocupación de Popper por la honestidad intelectual, que representa una actitud objetiva lo lleva a distanciarse de teorías donde los autores asumen una posición dogmática, tal como el mismo lo muestra en (Popper, 1994, p. 58) “durante el verano de 1919 comencé a sentirme cada vez más insatisfecho con esas teorías –la teoría marxista de la historia, el psicoanálisis de Freud y la sicología del individuo de Adler- comencé a sentir dudas sobre su carácter científico. Mis dudas tomaron al principio la siguiente forma: ¿qué es lo que no anda en el marxismo, el psicoanálisis y la sicología del individuo?, ¿Por qué son tan diferentes de las teorías físicas, de la teoría de Newton y especialmente de la relatividad?” Popper encontró que lo que tenían en común estas tres teorías era un poder explicativo todopoderoso, donde todo se podía explicar dentro de su área desde estas teorías, donde en cada hecho se confirma una vez más la teoría a lo que (Popper, 1994, p. 59) aduce “Hallé aquellos de mis amigos que eran admiradores de Marx, Freud y Adler estaban impresionados por una serie de puntos comunes a las tres teorías, en especial su aparente poder explicativo. Estas teorías parecían poder explicar prácticamente todo lo que sucedía dentro de los campos a los que se referían... se veían ejemplos confirmatorios en todas partes: el mundo estaba lleno de verificaciones de la teoría. Todo lo que ocurría la confirmaba”. Bajo esta justificación Popper rechazó las teorías verificacionistas y se acercó a la teoría de Einstein. La actitud objetiva representa que el hombre de ciencia debe asumir una actitud de expectativa frente a su propia teoría con respecto a los errores que la misma pueda tener, estar dispuestos a buscarlos, aceptarlos e intentar corregirlos, Popper admira la posición autocrítica de Kepler, que no pretende que su teoría todo lo explique y de forma concluyente y absoluta, (Popper, 1995, p. 10) expone “su gran modestia ayudo a Kepler –más que a los otros dos (Galileo y Newton) a ser conscientes una y otra vez de sus errores, pudiendo aprender así que sólo podían superarse con las mayores dificultades”. Con respecto a la teoría marxista afirma (Popper, 1994, p. 60) “Un marxista no podía abrir un periódico sin hallar en cada página pruebas confirmatorias de su interpretación de la historia; no solamente en las noticias, sino también en su presentación –que se revela en el sesgo clasista del periódico y especialmente, por su puesto en lo que el periódico no decía-, los analistas freudianos subrayaban que sus teorías eran constantemente verificadas por sus observaciones clínicas... “y con respecto a Adler dice “le informé acerca de un caso que no parecía particularmente adleriano, pero él no halló dificultad alguna para analizarlo en términos de su teoría de los sentimientos de inferioridad, aunque ni siquiera había visto al niño. Experimente una sensación un poco chocante y le pregunté cómo podía estar tan seguro, “por mi experiencia de mil casos”, respondió; a lo que no pude evitar de contestarle: y con este nuevo caso, supongo, su experiencia en mil y un casos” Con el análisis de tres teorías consideradas por Popper como no científicas, subyace una crítica al método inductivo, tal como reseña (García, 2001, p. 11) donde inicia el acápite “Popper y la solución al problema de Hume: el rechazo de los métodos inductivos” con una cita de Popper en el texto “Búsqueda sin término”, “así pues, la inducción es un mito. No existe ninguna “lógica inductiva” y aunque exista una interpretación lógica del cálculo de probabilidad, no hay ninguna buena razón para asumir que esta “lógica generalizada”... sea un sistema de lógica inductiva” El problema de la inducción es abordado por Karl Popper en varios de sus textos, en “la lógica de la investigación científica” lo desarrolla con el objeto de declararlo como un método no válido científicamente y no objetivo, por dar un salto argumentativo lógicamente no correcto, (Popper, 1982ª, p 27) define la inducción como “una inferencia cuando pasa de enunciados singulares (llamados, a veces, enunciados particulares), tales como descripciones de los resultados de observaciones o experimentos, a enunciados universales, tales como hipótesis o teorías” A renglón seguido Popper invalida tal pretensión de universalidad “desde un punto de vista lógico dista mucho de ser obvio que estemos justificados a inferir enunciados universales partiendo de enunciados singulares, por elevado que sea el número; pues cualquier conclusión que saquemos de este modo corre siempre el riesgo de algún día ser falsa: así cualquiera que sea el número de ejemplares de cisnes blancos que hayamos observado, no está justificada la conclusión de que todos los cisnes sean blancos” Define Popper el problema de la Inducción como “la cuestión acerca de si están justificadas las inferencias inductivas, o de bajo qué condiciones lo están... la cuestión sobre cómo establecer la verdad de los enunciados universales basados en la experiencia”. El problema de la inducción es interpretado por primera vez por Hume del cual toma Popper para ampliarlo; Hume encontrara en la inducción un problema de carácter lógico y otro de tipo psicológico. (Popper, 1982b, p. 17-18) “Hume estaba interesado por la condición del conocimiento humano... planteó dos preguntas una lógica HL y una psicológica HPS, con la característica importante de que sus respuestas chocan entre sí de la algún modo”: La pregunta lógica: “¿cómo se justifica que, partiendo de casos (reiterados) de los que tenemos experiencia, lleguemos mediante el razonamiento a otros casos (conclusiones) de los que no tenemos experiencia?”. La pregunta psicológica es la siguiente: “¿por qué, a pesar de todo, las personas razonables esperan y creen que los casos de los que no tienen experiencia van a ser semejantes a aquellos de los que tienen experiencia?”. Tales consideraciones de Hume, le permiten a Popper construir una propuesta deductiva como método válido para el conocimiento científico, es decir la inducción es no objetiva, la ciencia debe de ser objetiva, el método deductivo es un método objetivo, si lo que busca la ciencia es la objetividad, entonces el método de la ciencia es el método deductivo; siendo la falsación el criterio de delimitación entre la ciencia y la no ciencia. Toda demostración de Popper contra la inducción es para demostrar que carece de objetividad, en tal sentido las tres teorías de Marx, Freud y Adler, se sustentan en argumentos inductivos. A diferencia de la teoría de Einstein, donde su teoría gravitacional conducía a la conclusión que la luz debía sufrir atracción de los cuerpos de gran masa, precisamente de la misma manera en que son atraídos los cuerpos materiales, argumenta (Popper, 1994, p. 60) que “lo impresionante en el caso mencionado (Einstein) es el riesgo implicado en una predicción de este tipo. Si la observación muestra que el efecto predicho está claramente ausente, entonces la teoría queda refutada”. El concepto de objetividad en Popper se puede seguir también por medio del discernimiento sobre el método por él propuesto y adoptado para los estudios de carácter científico, sin hacer la distinción entre el método de las ciencias naturales y las ciencias sociales y/o humanas. A la propuesta de unidad de método propuesta por Karl Popper se le conoce como el “monismo metodológico”. Tal unidad de método es defendida desde la teoría unificada de la tríada “problema, conjetura y refutación”. El monismo metodológico propuesto por Karl Popper, determina un criterio de objetividad general en el estudio de las ciencias, ya sean naturales o sociales, en cuanto a la dinámica de problema, conjetura e intentos de refutación; pero no indica ello que entre las mismas no existan diferencias, por el contrario las diferencias en las mismas son de gran significado, tal como se expresa en (Popper, 1981, p. 145) “No pretendo afirmar que no existe diferencia alguna entre los métodos de las ciencias teóricas de la naturaleza y de la sociedad; tales diferencias existen claramente, incluso entre las distintas ciencias naturales, tanto como entre las distintas ciencias sociales... pero estoy de acuerdo con Comte y Mill... en que los métodos de los dos campos son fundamentalmente los mismos... el método consiste en ofrecer una explicación causal deductiva y en experimentar por medio de predicciones. Este ha sido llamado a veces el método hipotético-deductivo, o más a menudo método de hipótesis, porque no consigue certeza absoluta para ninguna de las proposiciones científicas que experimenta; por el contrario, estas proposiciones siempre retienen el carácter de hipótesis de signo tentativo, aunque este carácter pueda dejar de ser obvio después que se han superado gran número de experimentos y pruebas severas”. La actitud objetiva del científico exige que en el proceso de experimentación y validación de la teoría, se busquen elementos falsadores y no casos de confirmación que obedecen a una actitud de ceguera intelectual, la actitud del hombre de ciencia debe de ser una posición crítica. “Porque si no mantenemos una actitud crítica, siempre encontraremos lo que buscamos: buscaremos, y encontraremos confirmaciones y apartaremos la vista de cualquier cosa que pudiese ser peligrosa para nuestras teorías favoritas, y conseguiremos no verla. De esta forma es demasiado fácil conseguir lo que parecen pruebas aplastantes a favor de una teoría que, si se hubiese mirado críticamente, hubiese sido refutada; con el fin de que el método de la selección por eliminación funcione, y para asegurarse que sólo las teorías más aptas sobreviven, su lucha por la vida tiene que ser severa.” Se hace ciencia bajo la unidad de método, sin que ello lleve a decir que es una sola la ciencia, tiene las ciencias sociales sus características particulares que la distinguen de la ciencia natural, así se expresa en (Popper, 1981, p. 155) “tendemos a comparar lo que no es comparable; quiero decir, por una parte, situaciones sociales concretas, y por otra, situaciones físicas experimentales artificialmente aisladas”; se puede expresar que las situaciones artificiales aisladas de las ciencias sociales, es una situación que no se dan en los procesos de experimentación aislados, neutrales y sin consecuencias, una vez que sólo se puede experimentar en la realidad, generando consecuencias esperadas e inesperadas. Además se presentan dificultades de generalización, el individuo en condiciones de aislamiento o cautiverio, adopta comportamientos diferentes –antagónicos posiblemente- a los que adoptaría en un estado de libertad, el hecho de verse en observación genera en el un cambio de actitud; frente a tal concepción Desmon Morris, parte de estudios de etología para trasladar afirmaciones en el hombre, tal como lo expresa en “El zoo humano” y “El mono desnudo”. En “La Responsabilidad de vivir” (Popper, 1995, p. 17-41) detalla la conceptualización expuesta anteriormente, para afirmar que si bien, hay elementos distintos en las ciencias naturales y sociales, el criterio de objetividad exige para ambas el mismo tratamiento “tanto las ciencias naturales como las ciencias sociales parten siempre de problemas; de que algo despierta nuestra admiración, como decían los filósofos griegos. Las ciencias utilizan el mismo principio para resolver esos problemas, el mismo método que emplea el sano entendimiento humano: el método de ensayo y error. Expresado con más exactitud: es el método de proponer tentativamente soluciones de nuestro problema y después eliminar las falsas soluciones como erróneas. Este método presupone que trabajamos con una pluralidad de soluciones a modo de prueba. Una solución tras otra es puesta a prueba y eliminada” Se desarrolla el método en tres pasos: el problema, los intentos de solución y la eliminación; el primer paso surge para Popper en una escena de perturbación, donde las condiciones son altamente subjetivas, el problema y su ubicación o creación es un punto del individuo, donde actúa con toda su carga emocional, sin desconocer que aplica en ella de igual forma su carga lógica y teórica; el segundo paso donde surgen los intentos de solución, es decir, los ensayos para solucionar el problema, paso que requiere un mayor grado de rigurosidad y objetividad, una vez que la honestidad intelectual le exige que los constructos alternativos para la solución de problemas se sometan a los más exigentes test de contrastación; el último paso, denominado la eliminación o supresión es donde más cobra fuerza la objetividad, donde el científico se desprende del aprecio por la teoría y se convierte en su principal crítico, única lógica de la evolución del conocimiento. La teoría científica antigua planteaba que la ciencia parte de observaciones, tal como lo muestra el camino de generalizaciones: observación, sistematización de observaciones, intentos de generalizar regularidades, contrastación de las regularidades y leyes-teorías; argumenta Popper que dicho proceso es falso en la ciencia, pues en la ciencia no se da ninguna observación sin antes tener un problema o situación problemática que oriente la observación; de tal consideración parte la tríada propuesta por Popper. En la defensa del método crítico donde Popper sustenta la tríada, problema, enunciado y corrección, resalta la importancia del pensamiento objetivo, es decir el pensamiento formulado, que se somete a la contrastación a través de la verificación negativa, al pensamiento escrito preferiblemente le otorga el carácter de esencial para la ciencia; en (Popper, 1995, p. 23) expone “mi tesis es que se trata de un paso enormemente importante, un paso por así decir sobre un abismo, el que va desde mi pensamiento, no pronunciado: “hoy lloverá” al mismo pensamiento pero expresado en una proposición “hoy lloverá”. En un primer momento, este paso, la expresión de un pensamiento, no parece en absoluto un paso, tan grande. Pero la formulación lingüística significa que algo, que antes era parte de mi personalidad, de mis expectativas y quizá de mis temores, ahora se presenta objetivamente y, con ello, se hace accesible a la discusión crítica general. Y la distinción es inmensa también para mí mismo. La proposición expresada, por ejemplo, la predicción expresada, se separa de mi personalidad por medio de la formulación lingüística. Con ello se hace independiente de mis estados de ánimo, esperanzas y temores. Se hace objetiva el enunciado al expresarse y así, la pueden afirmar tentativamente otros, pero también yo mismo, al igual que se puede negar tentativamente; las razones en pro y en contra se pueden sopesar y discutir; y puede llegarse a una formulación de partido en pro y contra la predicción” Lo que Popper considera pensamiento objetivo lo desarrolla en la propuesta de los tres mundos; (Popper, 1982, p. 148) “El mundo consta al menos de tres sub-mundos antagónicamente distintos: el primero, es el mundo físico o de los estados físicos; el segundo, es el mundo mental o de los estados mentales; el tercero, es el de los inteligibles o de las ideas en sentido objetivo, el mundo de los objetos de pensamiento posibles: el mundo de las teorías en sí mismas y sus relaciones lógicas, de los argumentos y de las situaciones problemáticas tomados en sí mismos”. El desarrollo de la teoría de los tres mundos en Popper, nos muestra una distinción entre lo que es el mundo en sí, el mundo subjetivo y el mundo objetivo; el mundo en sí permanece en sí, en un lenguaje Kantiano, como el noúmeno, que es incognoscible al hombre, de él solo podemos estudiar los fenómenos; el segundo mundo de las concepciones individuales de pensamiento, mundo totalmente subjetivo, por su dependencia exclusiva de la mirada del hombre y el tercer mundo es un mundo objetivo por su validación Intersubjetiva de las concepciones inicialmente de carácter individual. En el acápite referenciado “La teoría de la ciencia desde el punto de vista teórico-evolutivo y lógico”[8], Popper presenta las siguientes tesis que fundamenta una orientación objetiva de la actividad científica. 1. Las ciencias naturales y las ciencias sociales parten siempre de problemas. 2. El esquema de tres etapas (a- el problema, b- intentos de solución y celiminación) también es aplicable a la ciencia. En (Popper, 1973, p. 145-158) se encuentra el siguiente análisis en defensa de la unidad de método: “voy a proponer la doctrina de unidad de método; es decir, la opinión de que todas las ciencias teóricas o generalizadoras usan el mismo método, ya sean ciencias naturales o ciencias sociales... este ha sido llamado a veces el método hipotético-deductivo, o más a menudo el método de hipótesis, porque no consigue certeza absoluta para ninguna de las proposiciones científicas que experimenta...” el método propuesto en la tríada problema, conjetura y refutación, es fundamentalmente doble: de un lado enfrenta a otras teorías para determinar su consistencia y la rigurosidad lógica de sus proposiciones y por otro lado una verificación negativa de la realidad, es decir, una contrastación empírica, tal como lo expone Popper “con el fin de que el método de la selección por eliminación funcione, y para asegurarse que solo las teorías más aptas sobreviven, su lucha por la vida tiene que ser severa”. La objetividad se representa por su sinceridad en la crítica a las teorías propuestas, aun a las teorías propias. El método de ensayo-error es un método objetivo porque no dogmatiza ninguna concepción teórica, no protege las construcciones intelectuales contra evidencia que revele sus inconsistencias lógicas y empíricas, por el contrario la tarea más importante del científico es buscar esas incoherencias de las teorías, para falsearlas y avanzar en el conocimiento, en la búsqueda de una hipótesis más fuerte. En (Mardones, 1991, p. 94) se encuentra en un apartado de Popper una cita de Hayek[9] en la cual se hace una defensa de la unidad de método, “el físico que quiera entender el problema de las ciencias sociales con la ayuda de la analogía tomada de su propio campo tendría que imaginar un mundo en el que conociese por observación directa el interior de los átomos y no tuviese la posibilidad de hacer experimentos con pedazos de materia, ni l oportunidad de observar nada más que las interacciones de un número comparativamente pequeño de átomos durante un período limitado. Con su conocimiento de las diferentes clases de átomos construiría modelos de las diversas formas en que estos átomos podrían combinarse en unidades más grandes, y haría que esos modelos reprodujesen más y más exactamente todas las características de los pocos casos en que pudiese observar de cerca fenómenos complejos. Pero las leyes del macrocosmos que pudiesen derivar de su conocimiento del microcosmos siempre serán deductivas; casi nunca, dado su limitado conocimiento de los datos de la compleja situación, le permitirían predecir con precisión el resultado de una determinada situación; y nunca podría verificarlas mediante experimentos controlados –aunque quizá quedasen refutadas por observación de acontecimientos que según su teoría son imposibles”. Objetividad y tercer mundo: un tema que permite entender el concepto de objetividad en Karl Popper es la “tesis de la epistemología sin sujeto cognoscente”, que parte de la teoría de los tres mundos: el mundo de los objetos físicos, el mundo de los estados de conciencia o estados mentales y el mundo de los contenidos de pensamiento objetivo, especialmente de los pensamientos científicos y de las obras de arte. Existen en la propuesta los siguientes elementos a resaltar: 1. Que el tercer mundo es el mundo objetivo 2. Que en el mundo objetivo no solo se encuentran construcciones cinéticas, sino también poéticas y artísticas. 3. Que la existencia del mundo objetivo es independiente de la existencias de los otros dos mundos, si bien requiere de los dos mundos anteriores para su construcción, después de creado es independiente y relativamente autónomo. El tercer mundo expuesto por Popper es muy amplio y su delimitación es un tanto ambigua, como elementos de tercer mundo hacen parte del conocimiento objetivo, entre ellos se pueden encontrar, (Popper, 1982b, p. 107) “entre los inquilinos de mi tercer mundo se encuentran especialmente los sistemas teóricos y tan importantes como ellos son los problemas y las situaciones problemáticas. Demostraré también que los inquilinos más importantes de este mundo son los argumentos críticos y lo que podríamos llamar –por semejanza con los estados físicos o los estados de conciencia- el estado de discusión o el estado de un argumento crítico, así como los contenidos de las revistas, libros y bibliotecas” La anterior afirmación puede conducir a una ambigüedad (parece dar un doble significado al término), en la determinación del concepto de objetividad, una vez que se puede entender como una actitud del científico en el proceso de desarrollo del conocimiento y también como una construcción no sólo de los hombres de ciencia, sino una creación humana, independiente perteneciente al tercer mundo. Lo que puede ampliar la discusión del mundo objetivo o tercer mundo es la inclusión en el mismo de las obras poéticas y las obras de arte, una vez que la validación por objetividad científica sería posible en la tal caso a partir la capacidad-potencia de la obra de ser interpretada. Popper defiende la existencia y autonomía del tercer mundo con la ayuda del siguiente ejemplo “todas las máquinas y herramientas han sido destruidas, junto con todo nuestro aprendizaje subjetivo, incluyendo el conocimiento subjetivo sobre las máquinas, las herramientas y como usarlas. Sin embargo, sobreviven las bibliotecas y nuestra capacidad de aprender en ellas. Está claro que, tras muchas penalidades, nuestro mundo puede echar a andar de nuevo”. La propuesta de la existencia de un tercer mundo autónomo e independiente, le permite a Popper presentarlo como un mundo objetivo y su estudio epistemológico como una actividad de carácter objetiva, que se opone a la epistemología tradicional subjetiva centrada en el segundo mundo (las concepciones derivadas del pensamiento cartesiano son un ejemplo, donde la objetividad y búsqueda de verdad se centraba en encontrar las “ideas claras y distintas). Entiende la epistemología como “la teoría del conocimiento científico” y “el conocimiento científico pertenece al tercer mundo, al mundo de las teorías objetivas, de los problemas objetivos y de los argumentos objetivos” El sentido del conocimiento objetivo, se orienta al contenido objetivo y no a la actitud de pensar, lo que indicaría que no es la actitud del hombre de ciencia o del hombre de arte o que merece tal atributo; “el conocimiento en este sentido objetivo es totalmente independiente de su creencia o disposición a asentir o actuar. El conocimiento en sentido objetivo es conocimiento sin conocedor: es conocimiento sin sujeto cognoscente”. La propuesta de un tercer mundo objetivo se resume en seis tesis, tres básicas y tres de apoyo: Tesis básicas: 1. La irrelevancia de una epistemología subjetivista. 2. La relevancia de una epistemología objetivista 3. Una epistemología objetivista que estudia el tercer mundo contribuye a arrojar luz sobre el segundo mundo de la conciencia subjetiva, pero la conversa no es verdadera. Las tres tesis básicas, permiten evaluar la preeminencia del tercer mundo como conocimiento de carácter objetivo, la epistemología denominada por Popper como subjetivista, tiene gran relación con la sociología y la sicología del conocimiento, que él denominaría como la epistemología tradicional, que bajo su apreciación no puede recibir el nombre de epistemología. Tal análisis permite advertir que la epistemología es el estudio de los elementos del tercer mundo, sin estudiar las razones de su origen y los factores extra-lógicos que lo fomentaron, impulsaron y desarrollaron. Tesis de apoyo: 1. El tercer mundo es un producto natural del animal humano, comparable a una tela de araña. 2. El tercer mundo es autónomo en gran medida, pero los hombres actúan sobre él y él sobre los hombres. 3. Hay interacción entre el hombre y el tercer mundo, existiendo una estrecha analogía entre el crecimiento del conocimiento y el crecimiento biológico. La preocupación por el estudio del conocimiento en un sentido objetivo, llevó a Popper a marcar clara diferencia entre la sociología del conocimiento y la lógica del conocimiento; para distinguir entre ambas disciplinas y determinar la supremacía de la lógica de las estructuras cognoscitivas sustenta las siguientes tres tesis: 1. ”Deberíamos tener siempre en cuenta la distinción que hay entre los problemas relacionados con nuestras contribuciones personales a la producción del conocimiento científico, por una parte y los problemas relacionados con la estructura de los diversos productos, como teorías o argumentos científicos, por la otra”. 2. “Deberíamos constatar que el estudio de los productos es mucho más importante que el estudio de la producción, incluso para comprender la producción y sus métodos” 3. “Podemos aprender más sobre la heurística y la metodología e incluso sobre la sociología de la investigación, estudiando las teorías y los argumentos en pro y en contra que empleando un método directo conductista, psicológico o sociológico. En general, podemos aprender muchísimo sobre el comportamiento o la psicología mediante el estudio de los productos” Las tres tesis anteriores de Popper, refuerzan la importancia del tercer mundo, como un el mundo objetivo, autónomo en gran parte e independiente en gran medida. La objetividad se concentra entonces en el producto, en el conocimiento científico o en la obra artística y no en el proceso cultural humano que dio origen y desarrollo al mismo. Tal consideración permite identificar como “objetivo” al “tercer mundo” y como “subjetivo” al “segundo mundo”. La inquietud puede hacerse sobre el “primer mundo”, el cual es autónomo, independiente, pero de igual forma no perceptible en su totalidad, se puede acercar al primer mundo desde la óptica de Kant, como noúmeno, el cual permanece como la cosa en sí, tal como lo expone (Jaramillo, 2001, p. 23) “aunque nuestro conocimiento es sólo de fenómenos, sin embargo, Kant también postula –como objeto pensable, no cognoscible- una realidad nouménica, la de la “cosa en sí” como “algo” completamente independiente del sujeto”. La autonomía del tercer mundo la ilustra Popper en el siguiente ejemplo “un libro sigue siendo un libro –cierto tipo de producción- aunque no se lea nunca”, el contenido continúa siendo objetivo, aunque nunca sean consultados. Lo que nos indica que después de la producción del conocimiento, el conocimiento mismo adquiere vida propia, objetividad y autonomía; no requiriendo más del hombre para su existencia y su objetividad, una vez que esa separación del pensamiento subjetivo es lo que le da su carácter de conocimiento objetivo. Bajo este enfoque el concepto de objetividad no se relaciona de forma directa y proporcional con el de verdad; una vez que el conocimiento objetivo puede ser verdadero o falso; si se relaciona con el criterio utilitarista del conocimiento, una vez que el conocimiento puede ser útil o inútil (en el momento), así se expresa en (Popper, 1982b, p. 114) “lo que hace de algo un libro es la posibilidad o potencialidad de ser comprendido, su carácter disposicional de ser comprendido e interpretado o incomprendido y mal interpretado. Ahora bien, esta potencialidad o disposición puede existir incluso sin ser actualizada o realizada nunca”. De tales afirmaciones se desprende también, que el conocimiento objetivo no pierde su condición de objetividad por el hecho que no sea consultado, que no sea comprendido, que se haya incluso demostrado su falsedad o porque sea reemplazado por una mejor construcción. A pesar del “tercer mundo” ser una creación del hombre, la misma alcanza su propio “campo de autonomía”, cada conocimiento además creará nuevos hechos in-intencionados (espontáneos e insospechados), nuevos problemas inesperados y nuevas refutaciones. “hay también un efecto importantísimo de retroalimentación entre nuestras creaciones y nosotros mismos, entre el tercer mundo y el segundo, ya que los problemas nos impulsan a crear nuevas cosas” La interrelación entre el “segundo mundo” y el “tercer mundo” permite desarrollar el método propuesto por Karl Popper para la evolución del conocimiento enmarcado en su racionalismo crítico, así: Surge el problema, se presenta una teoría tentativa como alternativa de solución al problema, a través de la falsación se eliminan o detectan los errores, lo que da como consecuencia el surgimiento de nuevos problemas; estos nuevos problemas se pueden generar involuntariamente fruto de las relaciones entre el problema inicial y las teorías tentativas propuestas, que arrojan situaciones no planeadas y hasta inesperadas. La epistemología se convierte en la teoría de la evolución del conocimiento, la teoría del progreso del conocimiento, del aumento del conocimiento. Una vez que su función es estudiar el conocimiento objetivo, la resolución de problemas, la construcción crítica y la contrastación crítica de teorías conjeturales que compiten permanentemente (revolución científica permanente, en términos Kuhnianos). La meta del científico es conseguir que las teorías propuestas sean altamente contrastables “nuestra meta es conseguir teorías que sean no sólo interesantes intelectualmente y altamente contrastables, sino también que, de hecho, hayan salido mejor paradas que sus rivales de las contrastaciones rigurosas; que, por tanto, resuelven mejor sus problemas y que den lugar a nuevos problemas inesperados y fecundos, si su carácter conjetural se pusiese de manifiesto mediante su refutación” Para Popper el “tercer mundo” es el mundo objetivo, pero este mundo crece y evoluciona gracias fundamentalmente a la honestidad intelectual de los científicos, que “intentan eliminar sus teorías falsas, intentan dejarlas morir en su rincón. El creyente –hombre o animal- perece junto con sus creencias falsas”. Es asimilable y comprensible en el caso de la ciencia su evolución a partir de conjeturas y refutaciones. Pero como aplicar dicho método (hipotéticodeductivo) a las obras de arte y la poesía, que Popper también incluye entre los inquilinos del tercer mundo. Pero además surge un interrogante con respecto a la idea de verdad que el autor identifica como “proximidad a la verdad” y al cual le da el nombre de “verosimilitud”, a lo que se puede preguntar: ¿si la verdad no existe o el hombre no la puede alcanzar y si la alcanza no podría advertir su existencia, por qué es posible comprobar en una teoría un mayor contenido de verdad que otra teoría?, dice Popper que es posible comprobar la falsedad de una teoría pero no su verdad, ¿cómo puede decirse que una teoría es más verosímil que otras, es decir, que tiene mayor “proximidad a la verdad” si la verdad no se conoce” Se puede decir en términos popperianos que el grado de verosimilitud de una teoría se determina por su capacidad de resistir exitosamente genuinos test falsadores, es decir, que frente a los auténticos intentos de falsación, la teoría ha respondido favorablemente. Frente a tal apreciación se puede responder en términos de Kuhn, donde la permanencia de una teoría provisional no mide la rigurosidad de teoría, sino la capacidad de la comunidad científica para falsear la teoría en cuestión o de proponer una teoría mejor –con mayor contenido empírico y/o teórico. En el texto “Conocimiento objetivo” acápite “El problema de la comprensión”, Popper fundamenta la teoría de los tres mundos en relación con la comprensión, “hermenéutica”, formulada para las ciencias sociales, “partiré aquí del supuesto de que el problema central de las humanidades es la comprensión de los objetos que pertenecen al tercer mundo... la interpretación, en cuanto objeto del tercer mundo, será siempre una teoría, como por ejemplo, una explicación histórica apoyada por una cadena de razonamientos y quizá por elementos de juicio documentales”. Tal aseveración permite continuar sustentando la unidad de método, la validación a través de la falsación y la defensa de la libertad de pensamiento como criterio esencial en el progreso científico y artístico; pero ante todo sostener que en las ciencias sociales también el hombre construye conocimiento objetivo que se representa en el tercer mundo. El acto de comprender es entendido por Popper como un acto subjetivo, pero expone que el mismo sólo puede entenderse a través de las relaciones que se presenten en el “tercer mundo” que es un mundo objetivo. Para lo cual presenta las siguientes tres tesis: 1. “Todo acto subjetivo de comprensión está engarzado en gran medida con el tercer mundo” 2. “Casi todas las consideraciones que pueden hacerse en torno a dicho acto consisten en señalar sus relaciones con los objetos del tercer mundo” 3. “Dicho acto consta fundamentalmente de operaciones hechas con objetos del tercer mundo: operamos con ellos casi como si fuesen objetos físicos”. Objetividad y valoración: éste tema es abordado en detalle en el título primero “las doctrinas anti-naturalistas del historicismo” del libro “La miseria del historicismo”, donde Popper presenta los siguientes comentarios: “... cada observación está basada en un intercambio de energía entre el observador y lo observado, esto lleva a una incertidumbre, normalmente insignificante, en las predicciones físicas, que se suele describir bajo el nombre de “principio de la indeterminación”. Es posible mantener que esta incertidumbre es debida a una influencia mutua entre el objeto observado y el sujeto observante, ya que ambos pertenecen al mismo mundo físico de acción y de interacción”. Tal afirmación genera la posibilidad de concebir en Popper una línea de subjetividad en la relación sujeto-objeto, mucho más acentuada en las ciencias sociales, “nos enfrentamos en el mundo de las ciencias sociales con una plena y complicada interacción o influencia mutua entre sujeto y objeto”. La explicación, predicción y experimentación en las ciencias sociales tiene unas condiciones muy singulares, por la influencia que el hombre puede ejercer sobre el hecho u objeto “puede, en un caso extremo, incluso causar el acontecimiento que predice: el acontecimiento podría no haberse producido en absoluto de no haber sido predicho. En el otro extremo, la predicción de un suceso inminente puede llevar a ser evitado e impedido...”. Tal afirmación permite analizar la objetividad de las ciencias sociales y aún ubicarla en un puesto no garantizado de imparcialidad, frente a tal situación, Popper de forma categórica afirma “y esto no obsta para que en ambos casos observe el principio que parece garantizar la objetividad científica: es decir la verdad y nada más qué la verdad”. No se puede olvidar que tal frase puede ser contradictoria desde varios puntos de vista; primero la verdad no se puede conocer y es posible que no exista en términos absolutos, segundo, el conocimiento es objetivo independiente de la verdad que puede tener la misma y tercero la objetividad es una característica (la principal de los productos del tercer mundo) y su existencia es independiente de la de los hombres, como no parece ocurrir en las predicciones e intervención de los sujetos en las ciencias sociales. El principio de objetividad que subyace en la afirmación anterior, se asocia con el concepto de verdad, que es un concepto problemático y que Popper lo desarrolla y lo aborda utilizando el término verosimilitud; tal acepción de concepto de objetividad, ligado al concepto de verdad presenta dos problemas: el primero, que puede interpretarse como una contradicción con el concepto de objetividad entendido como “honestidad intelectual”, y a la actitud crítica del científico frente a su propia teoría y las de los demás y el segundo problema es que el concepto de verdad es un concepto problemático en obra de Popper, teniendo tal concepto diferentes acepciones, debiendo mucha de la claridad del mismo el autor a la obra de Tarski (a quien dedica su libro “Conocimiento objetivo”. El concepto de verdad desarrollado por Tarski lo aplicó Popper a su formulación teórica, en tal sentido se presentara un breve comentario de tal criterio de verdad, expuesto en el texto “la concepción semántica de la verdad y los fundamentos de la semántica” (1972); donde su principal problema es lograr una definición satisfactoria de la verdad, que sea materialmente adecuada y formalmente correcta y se fija además como objetivo, (Tarski, 1972, p. 10) “especificar las palabras o conceptos que deseamos usar al definir la noción de verdad y también debemos dar las reglas formales a que debiera someterse la definición” En el trabajo desarrolla criterios tales como: 1) Una definición satisfactoria de la verdad. Enunciado como el problema principal. 2) “La extensión del término verdadero”: orientando tal extensión a las oraciones, sin excluir secundariamente a otra clase de objetos. 3) “El significado del término verdadero”: se acerca a la concepción aristotélica clásica de la verdad “decir de lo que es que no es, o de lo que no es que es, es falso, mientras que decir de lo que es que es, o de lo que no es que no es, es verdadero”. 4) “Un criterio de adecuación material de la definición”: a lo cual expone (Tarski, 1972, p. 16) “deseamos usar el término verdadero de manera tal que pueda enunciarse todas las equivalencias de la forma (T), y llamaremos adecuada a una definición de la verdad si de ella se siguen todas estas equivalencias”; (T) dada por X es verdadera si, y sólo si, p); donde X es el nombre de la oración y p es la oración. 5) La verdad como concepto semántico: la semántica se ocupa de relaciones entre las expresiones lingüísticas y los objetos; (Tarski, 1972, p. 18) “la manera más simple y natural de obtener una definición exacta de verdad es la que acarrea el uso de otras nociones semánticas, Ej. Satisfacción”. 6) “Lenguajes con una estructura especificada”: se hace necesario especificar la estructura del lenguaje formal y el vocabulario del lenguaje en que se han de dar las definiciones. Con las orientaciones anteriores y los criterios de “incoherencia de los lenguajes semánticos” y “lenguaje, objeto y metalenguaje” logra formular una definición de verdad (Tarski, 1972, pp. 33-35) “llegamos a una definición de la verdad y de la falsedad diciendo simplemente que una oración es verdadera si es satisfecha por todos los objetos, y falsa en caso contrario... la concepción semántica de la verdad no nos da por así decir, ninguna posibilidad de elección entre diversas definiciones no equivalentes de esta noción”. La definición del concepto de verdad permite extenderse para tratar otras “nociones”, importantes tales como: satisfacción, designación y descripción. Es claro al advertir que su concepción de la verdad no es la correcta, ni la única posible; una vez que es una noción que habrá que seguir trabajando, llegado a expresar y proponer que (Tarski, 1972, p. 42) “no nos enfrentamos con un concepto sino con diversos conceptos diferentes denotados por una palabra... debiéramos convenir en usar diferentes términos para designar los diferentes conceptos”. Popper aborda su concepción de la verdad desde Tarski, al igual que en él se encuentra un fuerte aire popperiano en los criterios de aceptación de una teoría empírica. (Tarski, 1972, p. 65) “nos preguntamos si es razonable el siguiente postulado: -“una teoría aceptable no puede contener (o implicar) enunciado falso alguno”-. La respuesta a esta última pregunta es claramente negativa. Pues, ante todo, estamos prácticamente seguros –sobre la base de nuestra experiencia histórica- que toda teoría empírica aceptada hoy sería tarde o temprano rechazada o reemplazada por otra teoría”, expresa de igual forma “Tan pronto como logramos mostrar que una teoría empírica contiene (o implica) frases falsas, ya no puede considerarse aceptable” En el acápite “Teoría de la verdad objetiva: la correspondencia con los hechos”, (Popper, 1994, pp. 272-279); se resalta el gran aporte de Tarski, “ la gran realización de Tarski y la verdadera importancia de su teoría para la filosofía de las ciencias empíricas residen, creo, en el hecho de que restableció una teoría de la correspondencia de la verdad absoluta u objetiva, que se había vuelto sospechosa. Reivindicó el libre uso de la idea intuitiva de la verdad como correspondencia con los hechos. Gracias a la obra de Tarski, la idea de verdad objetiva o absoluta, esto es, de la verdad como correspondencia con los hechos; parece ser aceptada con confianza en la actualidad por todos los que la comprenden.” Le permite además a Popper hacer una distinción entre la ciencia pura y la ciencia aplicada “si deseamos dilucidar la diferencia entre ciencia pura y ciencia aplicada, entre la búsqueda de conocimientos y la búsqueda de poder o de instrumentos poderosos. Entonces no podemos prescindir de ella -noción de verdad-. Pues la diferencia es que, en la búsqueda de conocimiento, tratamos de hallar teorías verdaderas o al menos, teorías que estén más cerca de la verdad que otras, que correspondan mejor a los hechos; mientras que en la búsqueda de teorías que sean meramente instrumentos poderosos para ciertos propósitos, en muchos casos nos sirven muy bien teorías de las que sabemos que son falsas” Verdad y objetividad: para abordar el concepto de verdad en Popper, se puede lograr desde diferentes posiciones del autor, para lo cual abordaremos únicamente dos puntos: el concepto de las fuentes del conocimiento y el concepto de verosimilitud. De las fuentes del conocimiento, se expondrán las principales tesis extractadas del artículo “Fuentes del conocimiento y de la ignorancia” a saber: 1. No hay fuentes del conocimiento. Debe darse bienvenida a toda sugerencia, pero todas deben ser sometidas a un examen crítico. 2. La pregunta epistemológica correcta no se refiere a la fuente sino más bien si la afirmación hecha es verdadera. Es decir si concuerda con los hechos. 3. Un procedimiento típico es examinar si nuestras teorías son compatibles con nuestras observaciones. 4. Tanto cualitativamente como cuantitativamente la fuente de nuestro conocimiento que es, con mucho la más importante –aparte de nuestro conocimiento innato- es la tradición. 5. El punto anterior no quiere decir que se defienda la actitud tradicionalista, pues toda parte de nuestro conocimiento tradicional y aun el innato, puede y debe someterse a la crítica. 6. El conocimiento no puede partir de la nada, ni tampoco de la observación, el avance del conocimiento consiste en la modificación del pensamiento anterior. Aunque por casualidad tenga otra razón. 7. Las epistemologías pesimistas y optimistas están igualmente equivocadas. Denota que están equivocadas las posiciones de quienes niegan toda posibilidad del conocimiento por no poder justificar el mismo, como quienes creen en la posibilidad de alcanzar conocimiento verdadero y absoluto; los optimistas epistemológicos se dividen en dos corrientes los racionalistas y los empiristas; los racionalistas consideran que lo único objetivo en el conocimiento son las ideas, que la verdad está en la razón (Descartes); los empiristas por el contrario creen que la verdad está en las impresiones que se dan a través de los sentidos, donde la verdad se alcanza por medio de una lectura correcta del libro de la naturaleza (Bacon). 8. Ni la razón, ni la observación son autoridades. La intuición intelectual y la imaginación son muy importantes, pero no son confiables, pueden mostrarnos las cosas muy claras y distintas pero conducirnos a error. La mayoría de las teorías son falsas, por no decir que todas. 9. Aunque la claridad es valiosa en si misma, no sucede lo mismo con la exactitud y la precisión: puede no valer la pena tratar de ser más preciso de lo que nuestro problema requiere. La precisión lingüística es un fantasma; por lo que deben evitarse a cualquier precio los problemas verbales. 10. Toda solución de un problema plantea nuevos problemas sin resolver, y ello es tanto más así cuanto más profundo era el problema original y más audaz su solución. En la sociedad el papel que juega el hombre de ciencia es más influyente en su objeto de estudio, que la influencia que se puede ejercer en las ciencias naturales, así se expone en (Popper, 1981, p. 30) “por tanto, no debemos sorprendernos al ver que en las ciencias sociales no haya casi nada parecido a la objetividad y al ideal de búsqueda de la verdad que vemos en física. Es de esperar que nos encontremos en las ciencias sociales con tantas opiniones como se puedan encontrar en la vida social, tantos puntos de vista como hay intereses”. Aunque Popper acepte este argumento historicista, no comparte que el mismo impida la objetividad de las ciencias sociales, una vez que el análisis de los elementos no objetivos pertenece al “historicismo” o a la “sociología de la ciencia”, pero el estudio de la lógica de la ciencia conserva su posición crítica y por tanto se centra en el conocimiento objetivo. El segundo elemento en mención además de las fuentes del conocimiento, es el concepto de verosimilitud, como aproximación al concepto de verdad, representa el grado de cercanía de una teoría en comparación con otra a la verdad, lo que se determina, por medio del análisis de su “contenido de verdad” y su “contenido de falsedad”. Pero el concepto de verosimilitud ha generado gran polémica como lo muestra (Moulines, 1997, p. 426-427) “como ha reconocido el propio Popper, su definición de verosimilitudes es defectuosa, pues produce inconsistencias... el principal problema es que dicho concepto, independientemente de la medida específica que se dé, no resuelve el problema para el que el realista recurre a él... debemos elegir las hipótesis mejor corroboradas, pero tiene nada garantiza que corroboración y verosimilitud vayan de la mano. Es perfectamente posible que hipótesis cada vez más corroboradas sea cada vez menos verosímil. La verdad sigue estando ausente de la investigación científica. Que la ciencia avanza hacia la verdad es un supuesto injustificado y, por tanto gratuito. El realismo de Popper es puramente testimonial...” El profesor García, desarrolla “La paradoja de la verdad variable”, para criticar fuertemente el concepto de verdad y de verosimilitud expuesto por Popper, (García, 2001, p. 71-74) “permítanme iniciar este apartado recurriendo a un símil gráfico. El propósito de la ciencia consiste en aproximarse, tanto como sea posible a la verdad. Popper, y con él muchos otros autores, han expresado su acuerdo al respecto, pero al tiempo nos han advertido que la línea de llegada no se encuentra dibujada de manera definitiva. Como en un universo en expansión, va modificándose de manera permanente de modo que a lo único que realmente alcanzas las teorías es la verosimilitud. Es como la carrera de Aquiles y la Tortuga: el veloz corredor no consigue alcanzar a su lento adversario a pesar de sus crecientes esfuerzos; si bien con cada momento que transcurre puede acercarse más. Se parece a la zanahoria que, colgada unos centímetros adelante del hocico de un jumento recalcitrante, le sirve como acicate para no desfallecer en su camino. En una representación esquemática que Popper incluyó en su libro Conocimiento objetivo aparece una diana en cuyo centro debe clavarse los dardos disparados por las teorías. La idea, escribe el autor, “es acertar tanto como sea posible en la región de la verdad”, pero olvidó decirnos que esos enunciados que ocupan el espacio demarcado para la verdad, no permanece allí por siempre. Como resultado de un fenómeno harto difícil de explicar, la ubicación de estos enunciados en la región de la verdad es temporal. Conforme se transforman las teorías científicas y surgen nuevos hallazgos, algunos enunciados abandonan este campo y son reemplazados por otros, que pueden ser esencialmente nuevos o haber sido reputados como falsos en el pasado“. “El asunto se complica si tenemos en cuenta que Popper ha hecho de la verdad un asunto intemporal. En sus obras más recientes ha escrito que los enunciados son de una vez y para siempre verdaderos o falsos. Tal sugerencia es correcta, nuestra comprensión del mundo se vería afectada cada vez que seamos incapaces de descubrir con exactitud el valor de verdad de los enunciados... el descubrimiento de la verdad se torna en una meta que no puede alcanzarse jamás de manera efectiva... como no hay verdad definida es posible prolongar el juego para siempre, pues cuando pensemos haber acertado descubrimos que la meta se ha redefinido y que es indispensable revisar y modificar nuestras jugadas, si queremos seguir participando en él.” Se culmina esta crítica con una cita de Popper, “existen verdades inciertas – incluso enunciados verdaderos que consideramos falsos- pero no existen certezas inciertas. Como nunca podemos conocer nada con seguridad, simplemente no vale la pena buscar la certeza; pero sí vale la pena buscar la verdad; y esto lo hacemos principalmente buscando equivocaciones a fin de poder corregirlas. Por ello la ciencia, el conocimiento científico, es siempre hipotético: es conocimiento por conjetura. Y el método de la ciencia es el método crítico: el método de búsqueda y eliminación de errores al servicio de la verdad”. También descarta Popper la necesidad del conocimiento histórico como fundamental para la comprensión de la estructura lógica de las teorías, “no necesitamos saber, además, cuál de los planetas es el más viejo, o cuál entró en el sistema desde fuera: la historia de la estructura, aunque sea interesante, en nada contribuye a nuestra comprensión de su comportamiento y de su desarrollo futuro” Con respecto a la sociología o sicología del conocimiento, Popper presenta una consideración especial para las ciencias sociales y el papel que juega la historia en la comprensión de las mismas, lo que sería parte de su análisis objetivo, “es obvio que las estructuras físicas difieren grandemente en este sentido de cualquier estructura social; estas no pueden ser entendidas, ni su futuro predicho, sin un cuidadoso estudio de su historia, aunque tuviésemos un conocimiento completo de su “constelación” en este momento” Las diferencias en el estudio de la física y las ciencias sociales, se encuentra también en la posibilidad de aislar el objeto de estudio, para extraer del mismo las conclusiones “los experimentos sociológicos a gran escala nunca son experimentos en el sentido físico. No están hechos para hacer progresar el conocimiento como tal, sino para conseguir el éxito político. No son llevados a cabo en un laboratorio aislado del mundo exterior; por el contrario, el mero hecho de que sean llevados a cabo, cambia las condiciones de la sociedad. Nunca pueden ser repetidos precisamente bajo las mismas condiciones, ya que estas condiciones fueron cambiadas por su primera ejecución”, “... la situación puede haber cambiado mucho antes de que nadie haya notado el cambio”. La discusión que sostiene Popper con los historicistas, implica no solo una refutación a tal concepción, sino también un reconocimiento de muchas de las tesis por ellos defendidas, pero que encierran una concepción de objetividad particular; para delimitar la acepción del término, se transcribe la concepción del autor sobre el historicismo, (Popper, 1981, p. 17) “entiendo por historicismo un punto de vista sobre las ciencias sociales que supone que la predicción histórica es el fin principal de éstas, y que supone que este fin es alcanzable por medio del descubrimiento de los ritmos o los modelos, de las leyes o las tendencias que yacen bajo la evolución de la historia”. La disertación se agudiza con respecto a la unidad de método o a la diferencia de método que debe utilizar las ciencias naturales y las sociales; para argumentar la unidad de método Popper expone “la sociología, como la física, es una rama del conocimiento que intenta ser, al mismo tiempo empírica y teórica...” al definir qué se entiende por empírico y por empírico, se determina que la objetividad en ambas ciencias es alcanzada a través de la utilización del mismo método” “Al decir que es una disciplina teórica, entendemos que la sociología tiene que explicar y predecir acontecimientos, con la ayuda de teorías o leyes universales (que intentan descubrir); al describir la sociología como ciencia empírica, queremos decir que ha de estar corroborada por la experiencia, que los acontecimientos que explica y predice son hechos observables y que la observación es la base que acepta o rechaza cualquier teoría propuesta”. UNIDAD IV: EXPERIMENTOS CRUCIALES Y REFUTACIONES EMPIRICAS EN LA METODOLOGIA DE LAS CIENCIA 4.1 La disputa en torno a los significados de falsabilidad El problema de la demarcación se refiere, dentro de la filosofía de la ciencia, a la cuestión de definir los límites que deben configurar el concepto "ciencia". Las fronteras suelen establecerse entre lo que es conocimiento científico y no científico, entre ciencia y pseudociencia, y entre ciencia y religión. El planteamiento de este problema conocido como problema generalizado de la demarcación abarca estos tres casos. El problema generalizado, en último término, lo que intenta es encontrar criterios para poder decidir, entre dos teorías dadas, cuál de ellas es más "científica". Tras más de un siglo de diálogo entre filósofos de la ciencia y científicos en diversos campos, y a pesar de un amplio consenso acerca de las bases generales del método científico, los límites que demarcan lo que es ciencia, y lo que no lo es, continúan siendo debatidos. La importancia del problema Disponer de una solución al problema del criterio de demarcación no sólo tiene importancia en el ámbito teórico, desde una dimensión estrictamente filosófica, sino que es importante en campos prácticos y cotidianos. Distinguir lo que es ciencia de lo que no, tiene relevancia desde el punto de vista económico (a la hora de financiar proyectos de investigación), jurídico y de policía científica (a la hora de evaluar pruebas), sanitario (a la hora de prescribir tratamientos médicos), y educativo (a la hora de establecer programas de estudio), entre otros. La demarcación entre ciencia y pseudociencia tiene mucho que ver con la crítica, la censura y la intolerancia en la investigación científica. La teoría de Copérnico fue condenada al índice de ideas y obras prohibitivas por la Iglesia Católica que tenía el poder político y "científico" (1616). El Partido Comunista de la URSS declaró (1949) pseudocientífica a la genética mendeliana -por "burguesa y reaccionaria"- y mandó a sus defensores como Vavílov a morir en campos de concentración. En palabras de Lakatos, el problema de la distinción entre lo científico y lo pseudocientífico "no es un pseudoproblema para filósofos de salón, sino que tiene serias implicaciones éticas y políticas". El filósofo Karl Popper se dio cuenta de que los filósofos del Círculo de Viena (al cual él mismo estuvo muy vinculado, pero no como miembro) habían mezclado dos problemas diferentes para los que habían resuelto dar una única solución: el verificacionismo. En contraposición a este punto de vista, Popper remarcó que una teoría podría perfectamente tener significado sin ser científica, y que, como tal, un 'criterio de significación' podría no necesariamente coincidir con un 'criterio de demarcación'. Así pues, ideó su propio sistema, al que se denomina falsacionismo (cabe señalar que Popper no llama a su metodología falsacionismo, sino racionalismo crítico). Éste no sólo es interpretable como una alternativa al verificacionismo; supone también un acuerdo acerca de la distinción conceptual que habían ignorado las teorías previas. Popper vio la demarcación como un problema central en la filosofía de la ciencia. Propuso el falsacionismo como una forma de determinar si una teoría es científica o no. Simplificando, se podría decir que si una teoría es falsable, entonces es científica; si no es falsable, entonces no es ciencia.7 Algunos [cita requerida] han llevado este principio hasta el extremo de dudar de la validez científica de muchas disciplinas (tales como la Macroevolución y la Cosmología Física). La falsabilidad fue uno de los criterios utilizados por el Juez William Overton para determinar que el creacionismo no era científico y que no debería enseñarse en los colegios de Arkansas. La falsabilidad es una propiedad de los enunciados y de las teorías, y, en sí misma, es neutral. Como criterio de demarcación, Popper busca tomar esta propiedad y tomarla como base para afirmar la superioridad de teorías falsables sobre las no falsables, como parte de la ciencia, estableciendo así una posición que podría ser llamada falsacionismo con implicaciones políticas.[cita requerida] Sin embargo, muchas cosas de las que pueden ser consideradas como dotadas de significado y utilidad no son falsables. Con toda certeza, los enunciados no falsables desempeñan una función en las propias teorías científicas. Lo que el criterio Popperiano permite ser llamado científico está abierto a interpretación. Una interpretación estricta concedería muy poco, puesto que no existen teorías científicas de interés que se encuentren completamente libres de anomalías. Del mismo modo, si sólo consideramos la falsabilidad de una teoría y no la voluntad de un individuo o de un grupo para obtener o aceptar instancias falsables, entonces permitiríamos casi cualquier teoría. En cualquier caso, es muy útil conocer si un enunciado de una teoría es falsable, aunque sólo sea por el hecho de que nos proporciona un conocimiento acerca de las formas con las que alguien podría evaluar una teoría. La tesis de Duhem-Quine argumenta que no es posible probar que un enunciado ha sido falsado; en su lugar, la falsación ocurre cuando la comunidad científica se pone de acuerdo en que ha sido falsado (véase consenso científico). Esta es una crítica importante al falsacionismo, pues cualquier enunciado observacional, por inocente que parezca, presupone ciertas concepciones acerca del mundo, y resulta imposible preguntarse si esas concepciones son científicas o no. El filósofo de la ciencia William Herbert Newton-Smith, expresa así su crítica: ...para Popper, al aceptar el más modesto de los enunciados de observación estamos implícitamente aceptando alguna teoría, y no podemos sentirnos más justificados al creer en un enunciado observacional que en los enunciados teóricos pertinentes 4.2 Refutaciones y progreso científico: los modelos de Popper, Lakatos y Laudan Popper En las ciencias humanas y sociales se han utilizado de forma profusa términos que han sido acuñados desde el tratamiento de las ciencias naturales y de la Física como ciencia natural por excelencia. La economía no ha sido ajena a este tratamiento, por ende la contabilidad como disciplina científico-económica en su afán por adquirir un grado de rigor científico, ha utilizado de forma prolija en la construcción y reconstrucción de su estructura conceptual los elementos que han permitido el avance teórico de las ciencias naturales. Así, se aborda el estudio de las teorías contables que han utilizado para su elaboración las teorías de Popper, y en su evolución o crítica han abordado de igual forma criterios que hacen referencia a Tomas Samuel Kuhn, Imre Lakatos y Paúl Feyerabend. Entendiendo las construcciones de estos autores desarrolladas en dialogo continuo, que permite descubrir un problema central común pero con soluciones lógicas en el primero, histórico-sociológicas en el segundo, histórico-logicismo en el tercero y pluralistas metodológicas en el tercero. Epistemología y contabilidad Si en el estudio de la contabilidad se utilizan instrumentos propios de las ciencias naturales, se podría estar frente a tres elementos que permitirían o no tal transferencia: - El primero que la contabilidad no sea una ciencia y por ende este utilizando un lenguaje propio de otra categoría del saber. - El segundo que la contabilidad es una ciencia, pero estaría clasificada en las ciencias sociales, en este sentido estaría utilizando para una ciencia un instrumental propio de un conocimiento con características diametralmente opuestas. - Una tercera opción es que la contabilidad es una ciencia social, y permite la utilización del instrumental metodológico que utiliza la ciencia natural, porque el método no es propio de la ciencia natural, sino de todas las ciencias, lo que se puede denominar un monismo metodológico. Para ampliar los elementos de juicio, se presenta unas consideraciones específicas en cuanto a los términos. Karl Popper en su obra “la lógica de la investigación científica” publicada originalmente en Viena en 1934. aborda el problema de la demarcación y el problema de la inducción; estas consideraciones y las posteriores del autor permiten calificar su teoría como un “racionalismo crítico” Considera Popper “el hombre de ciencia ya sea teórico o experimental, propone enunciados y los contrasta paso a paso”; se opone radicalmente a los “métodos inductivos”, entendido como “inferencia que pasa de enunciados singulares –observaciones y experimentos- a enunciados universales – hipótesis o teorías-“, esta crítica es tratada con elementos que ya había formulado David Hume conocido como el “problema de la inducción”. Hume arguye “incluso después de observar que se da frecuentemente una conjunción constante de objetos, carecemos de razones para extraer inferencia alguna acerca de ningún objeto que trascienda aquellos de los que hemos tenido experiencia”, “¿por qué a partir de dicha experiencia formamos conclusión alguna que vaya más allá de los casos de que hemos tenido experiencia?”. Kant intento resolver el “problema de la inducción” (Popper, 1982, p.29), a través de lo que él llamaba el “principio de causación universal”, era “valido a priori”, pero Popper concluye que “no tuvo éxito en su ingeniosa tentativa”. La solución Kantiana la desarrolla en “la crítica de la razón pura y prolegómenos a toda metafísica del porvenir”. Popper se opone a todo tipo de inducción, aún a la probabilística, que plantea que las teorías (Lakatos, 1983,p.12) “pueden alcanzar cierto grado de seguridad o de probabilidad”, pues dice”que la probabilidad matemática de todas las teorías científicas o deudo-científicas, para cualquier magnitud de evidencia es cero”. En el apéndice “probabilidad nula y estructura fina de la probabilidad y del contenido, (Popper, 1982a, pp. 338-351), sostiene que y desarrolla “la teoría probabilística de la inducción – o idea de una probabilidad inductiva es insostenible”. Frente a la inducción, Popper propone “la teoría del método deductivo de contrastar” – método que surge fruto de un problema que formuló en los siguientes términos “yo quería distinguir entre la ciencia y la seudo-ciencia, sabiendo muy bien que la ciencia a menudo se equivoca y que la seudo-ciencia a veces da con la verdad”. El camino de contrastación es presentado en cuatro etapas, (Popper, 1982, p. 32) “podemos distinguir cuatro procedimientos de llevar a cabo la contratación de una teoría: la comparación lógica de las conclusiones unas con otras..., estudio lógico de la teoría..., comparación con otras teorías... y contrastar por medio de la aplicación empírica de las conclusiones que pueden deducirse de ella” Bajo estos criterios, los contables han utilizado el leguaje de Popper para desarrollo de teorías en la contabilidad; el profesor Richard Mattessich ha presentado la propuesta de la Teoría General Contable como el marco universal de orientación conceptual de los diferentes sistemas contables existentes, esta Teoría General, es validada a partir de un criterio de falsacionismo popperiano en sentido clásico, mientras que las interpretaciones de esta Teoría General tendrá una validación de carácter teleológico, es decir en función utilitarista. (¿Qué pertinencia tiene la aplicación de este criterio?) El profesor Tua Pereda señala “los supuestos básicos de la teoría general son proposiciones eminentemente positivas, cuyo origen es la búsqueda de puntos comunes entre los diferentes sistemas contables en presencia y el medio que operan... la comprobación de una teoría general de la contabilidad tiene que estar invariablemente unida a proposiciones específicas que rigen sistemas contables particulares; utilizando el criterio popperiano de la falsación o verificación negativa” Tua haciendo cita de Mattessich indica “en la práctica real pueden encontrarse sistemas distintos a los caracterizados en la teoría general, los cuales, evidentemente constituyen una refutación potencial. Si estos sistemas defectuosos cumplieran sus propósitos correctamente, constituirían una refutación de nuestra teoría, pero si no es así, lo único que queda claro es su exclusión de la anterior teoría”... Bajo este criterio se evidencian las consecuencias de la transferencia de instrumental de una ciencia – la física- a una disciplina –la contabilidad-, cuando esta última tiene consideración muy particulares, (Tua, 1983, 605) “el carácter universal de las leyes nomológicas ha de ser entendido en términos relativos en la contabilidad, una ley contable o mejor una asunción contable, es universal en tanto cumple en todos los sistemas contables, pero al ser estos mutables, la ley universal está sujeta a cambio”. Evaluemos el tema de la demarcación, abordado también por Popper en “La lógica de la investigación científica”, “el problema de la demacración consiste en encontrar un criterio que nos permita distinguir entre ciencias empíricas y sistemas metafísicos”, el problema de la demarcación es esencial y como afirma Lakatos “tiene serias implicaciones éticas y políticas” Pero qué es para Popper la ciencia y qué determina el rigor científico de las teorías, el criterio propuesto por este autor es el de la falsabilidad de los sistemas, apuntando que las teorías no son nunca verificadas empíricamente, por el contrario el sistema científico se caracteriza por que “ha de ser posible refutar por la experiencia un sistema un sistema científico empírico”. Para poder aplicar la falsación debe de tenerse un conjunto de enunciados singulares, que sirvan de premisas en las inferencias falsadoras; El contable José María Requena en su libro “Epistemología de la contabilidad como teoría científica” en referencia a los “enunciados singulares” dice “... obtendremos dos subclases no vacías: la que incluye el conjunto de los enunciados que la referida teoría excluye o prohíbe y el conjunto de los que no se hallan en contradicción con la misma” El problema de la base empírica concierne al carácter empírico de enunciados singulares y a su contrastación; en las ciencias naturales, este problema ha generado gran discusión, encontrando sólo respuestas provisionales, es decir paradigmas en el sentido de Kuhn, en la acepción más sociológica del término. Si se presenta ésta discusión sin solución única en las llamadas ciencias duras, con mayor énfasis se presentarán alternativas múltiples de solución a la justificación de la base empírica en las ciencias sociales, pues como dice Kuhn “me asombré el número y el alcance de los desacuerdos patentes entre los científicos sociales, sobre la naturaleza de problemas y métodos científicos aceptados” En contabilidad la posibilidad de aprehensión de conceptos propios, a través del lenguaje de la epistémico-metodológica de las ciencias sociales es altamente inapropiada. En la base empírica la referencia a la “percepción sensorial” como alternativa de solución no da una salida concluyente; pues los contables no tratan de determinar “si esta mesa es roja o azul”, sino que intentan determinar el “valor” de la misma. Concepto de “valor” que genera una disimilitud de apreciaciones en la determinación cuantitativa específica del valor de un bien y/o servicio, con las técnicas utilizadas y permitidas dentro de la contabilidad para calcularlo, además del mayúsculo problema de la orientación que desde la economía se adopte de este término “valor”, si es que la contabilidad no llega a contar con su propia orientación. Para Popper la solución del problema de la base empírica, no está en la “percepción sensorial” –para la contabilidad tampoco-, ni en la regresión infinita, de justificación de enunciados a través de enunciados, ni en el psicologismo, donde los enunciados se justifican por enunciados y por experiencia perceptiva. En contabilidad se aproximan a este concepto de rechazo de las justificaciones no aceptadas por Popper, enfocado en la construcción de Mattessich donde se comparte el teorema de incompletitud de Goëdel, por tornarse hacia el infinito. En ese sentido el racionalismo crítico propone las características que los enunciados básicos deben satisfacer: (Popper, 1982, p.96) 1. No se podrá deducir enunciado básico alguno a partir de un enunciado universal no acompañado de condiciones iniciales. 2. Un enunciado universal y un enunciado básico han de poder contradecirse mutuamente. Un enunciado básico tiene la forma de un enunciado existencial singular como “hay un cuervo en la región espacio temporal K”. El elemento al que se refiere el enunciado básico ha de ser “observable”, es decir, contrastable intersubjetivamente por “observación”. En Contabilidad la formulación de las premisas básicas formuladas por Mattessich en los veintiún asunciones, están referidas a fenómenos empíricos, en ese sentido son contrastables con la realidad; Entendiendo que si existe un sistema contable con características diferentes a las formuladas en la Teoría General polivalente y que cumple satisfactoriamente los objetivos del sistema, es un sistema que cumple las funciones de un enunciado falsador. Esta orientación hace énfasis a los objetivos para los cuales fue diseñado un sistema contable, consideración no compatible con Popper, donde el “hecho crucial” es un elemento del conjunto no vacío de enunciados falsadores, que se contrastan con la realidad empírica objetivizada por la no-intervención subjetiva del investigador y no un criterio de validación teleológica, como el sistema contable. Tua en el acápite de Epistemología y Principios contables (Tua, 1983, pp. 637634), “la epistemología contable presenta unas peculiaridades específicas derivadas del objeto material de la misma... hay que insistir una vez más en la distinción entre los dos planos posibles de la epistemología contable: las vertientes cognoscitiva y deóntica”, es decir Tua reconoce para la contabilidad una estructura positiva y una teleológica, reconociendo la derivación de principios desde la teoría general como una orientación teleológica y olvidando que la teoría general, se construye sobre la base de unas características comunes y universales a los sistemas contables, con justificación en su utilidad técnica y metodológica y no por referencia a una realidad existente de forma aséptica, donde el hombre es un simple observador cómo calificaría el positivismo el conocimiento como tal. El traslado de herramientas propias de las ciencias duras, a otros tipos de conocimientos, como es el caso de la economía y la contabilidad no las hace unas ciencias duras, muy por el contrario, obstaculiza su desarrollo y no les permite el cumplimiento de objetivos específicos –razón de su existencia- peor aún cuando pretenden seguir el camino de la neutralidad de las ciencias naturales en su estadio más abstracto, abandonando por completo las exigencias que la sociedad hace y debe hacer a los conocimientos que tienen la función clara y determinada de responder a los problemas que se plantean a diario y en condiciones singulares y regionales y no en generalizaciones universalistas, trabajo propio de la ciencia, para los deterministas, defensores de lo absoluto. En la falsación el proceso debe aceptar un enunciado básico, como punto de partida, la defensa de este acuerdo Intersubjetivo por parte de los científicos es una respuesta no lógica en sentido riguroso que ofrece Popper al problema al problema de la justificación de los enunciados, tal como él mismo lo reconoce “es un tipo de dogmatismo inocuo”. La preferencia de una teoría obedece a la capacidad de competencia de las existentes, “la que por selección natural muestra ser más apta para sobrevivir”, además afirma (Popper, 1982, 104) “la elección viene determinada, en parte, por consideraciones de utilidad”; éste último criterio permitiría un acercamiento con el conocimiento económico-contable, donde la referencia a la verdad es desplazada por la preferencia hacia las teorías más útiles. Si se comparte este principio convencionalista las hipótesis instrumentales de la contabilidad, entendidas como macro-reglas para la acción, siguen un método científico en su criterio de validación teleológica, en la contratación del cumplimiento de los objetivos, para la cual es aplicada; además su inferencia obedece a una estructura lógica, en la derivación de enunciados de más bajo nivel, a partir de un itinerario lógico deductivo en la construcción de principios contables. Lo que Popper pretende es alcanzar un alto grado de “objetividad”, el término objetivo y subjetivo de utilizado por éste racionalista crítico con una acepción muy cercana al utilizado por Kant; pero difiere en el criterio de certeza diferente que ambos manejan, es decir mientras Kant cree en la posibilidad de la ciencia absoluta y verificable completamente –inspirado en la ciencia de Newton-, Popper es un defensor del provisionalismo teórico y en la verificación negativa con la utilización del Tollendo Tollens: “la negación del consecuente es la negación del antecedente”; y concluye en que “la objetividad de los enunciados científicos descansa en el hecho que pueden ser contrastados intersubjetivamente”. Llegando a la siguiente conclusión “los sistemas teóricos se contrastan deduciendo de ellos enunciados de un nivel más bajo”. En esta línea Mattessich resume la validación para las proposiciones contables en tres puntos (Tua, 1995, 350). 1. Las proposiciones de alto grado de abstracción, correspondientes a la teoría general contable, se verifican en relación con la gama completa de los sistemas que emplean la doble clasificación. 2. Las proposiciones del más bajo grado de abstracción, las últimas hipótesis específicas de cada sistema contable, deben verificarse asegurando la utilidad neta positiva en relación con los objetivos perseguidos y no menor que la utilidad neta de la mejor alternativa no elegida. 3. Cada proposición de los niveles intermedios de abstracción debe estar en conformidad, por un lado, con la proposición superior más próxima y por otro, con todas las proposiciones inferiores que se deriven dela misma. Esta orientación de Mattessich con respecto a la doble validación en la contabilidad (cognoscitiva y teleológica), es particular de las ciencias aplicadas. Además advierte el profesor Romero en el acápite “es científica la teoría contable”, “para que una teoría se considere científica debe reunir una serie de requisitos mínimos y antes de eso se constituye como una sistematización de leyes o fórmulas legaliformes, mediante la cual se puede prever acontecimientos... esta concepción de teorías queda descartada para la contabilidad, primero porque es formulada para las ciencias factuales, las que estudian hechos, y la contabilidad no se ocupa de hechos”. La propuesta de Durkheim –en desarrollo de la idea de Augusto Comte de aplicar el positivismo al análisis de los hechos sociales- es una potencial respuesta a Romero León, propuesta que consiste en: entender que las cosas sociales cobran realidad sólo a través de los hombres, son un producto de la realidad humana y su estudio exige, tal como lo formularon Bacon y Descartes, prescindir de todo tipo de ídolos y nociones preliminares, que nos entrega el sentido el común, para abordar el hecho social como una cosa que es para nosotros totalmente desconocido; se formula así la regla de la “ignorancia metódica” y el necesario criterio para “desechar sistemáticamente todas las prenociones” en buena medida tomando como fuente la consideración de Descartes. Descartes formula en esta dirección la primera regla del método “el primero consistía en no recibir nunca cosa alguna como verdadera que yo no conociese evidentemente como tal; es decir evitar cuidadosamente la precipitación y la prevención; y en no incluir en mis juicios nada más que aquello que se presentase a mi espíritu tan clara y tan distintamente, que no tuviese ocasión alguna de ponerlo en duda” Formula Durkheim que “los hechos sociales se deben tratar como cosas”, “todo objeto de la ciencia es una cosa, salvo, acaso, los objetos matemáticos”, es en este sentido que reconoce que su método no tiene nada de revolucionario y es esencialmente conservador, además afirma (Mardones, 1991, p.148) “los hechos sociales son cosas cuya naturaleza, aunque flexible y maleable, de todos modos no puede modificarse a voluntad”. El tratamiento que los autores como Mattessich, Cañibano, Tua Pereda, Requena y Montesinos, entre otros han dado a la contabilidad es el de ciencia, además coinciden en utilizar la metodología –separada y/o conjuntamente- de Popper, Kuhn, Lakatos, Laudan, Balzer, Bunge y Stegmüller, como instrumental para su estudio y validación; lo que exige determinar cuáles son las teorías de la contabilidad, sus hipótesis y enunciados y criterios de contrastación. Mauricio Nieto (Universidad de los Andes, Colombia) dice con respecto al traslado de este tipo de metodologías: “la propuesta de la filosofía de la ciencia tradicional del positivismo lógico o los trabajos de Karl Popper y sus criterios formales y a-históricos, eran inapropiados para describir el desarrollo del conocimiento científico” y resalta la orientación historicista “la ciencia debe ser susceptible de un estudio sociológico de idéntica manera que cualquier otro tipo de conocimiento o cultura” –hace referencia a Kuhn, Lakatos y Feyerabend-. “La ciencia occidental ha sido tradicionalmente vista como benevolente, apolítica y neutral; y su extensión como una incuestionable contribución al progreso material y a la civilidad”, este enjuiciamiento permite pensar en si lo más acorde con el conocimiento es su transferencia irreflexiva o el estudio y la construcción de nuestra propia historia científica –me refiero a Latinoamérica-; además afirma el Nieto “la ciencia occidental también ha contribuido al estancamiento de otros”, “la implantación de la ciencia y la tecnología occidentales pueden también contribuir al despojo de los nativos del control de sus propios recursos, restándoles poder de forma sistemática”. Finaliza Nieto “la historia y la filosofía de la ciencia, en demasiadas ocasiones, han sido un poderoso instrumento para quienes se interesan en legitimar el presente, quienes quieren ofrecernos un futuro determinado por “fuerzas históricas inquebrantables”, pero es categórico Nieto “no hay razón que nos impida pensar las cosas diferentes y no estamos obligados a embarcarnos en una carrera de modernización y competitividad científica cuyas reglas de juego están determinadas por los intereses de grupos sociales específicos”. Este análisis crítico de la filosofía y la historia de la ciencia, se podría aplicar casi textualmente al debate actual del modelo económico único impuesto y desarrollado en Colombia en la década del noventa y la implementación de las Normas Internacionales de Contabilidad a partir del 1 de enero de 2005. No es sólo el método el que da la categoría de ciencia a un conocimiento, cuando un conocimiento que no tenga el rango de ciencia –de mayor aplicación el análisis para los conocimientos sociales y humanos- y utiliza los métodos y herramientas propios de la ciencia natural –ciencias duras-, no sólo no alcanza su pretendido rango científico, sino que además puede estar alejándose de su verdadera razón de ser, como para los conocimientos sociales es la resolución satisfactoria de los problemas concretos de la sociedad; que se pueden alcanzar con un rigor instrumental, finalista y participativo; mientras las ciencias naturales tienen un estatuto de neutralidad, objetividad no teleológica. Con respecto a la ciencia dice (Kant, 1985, p. 29), “si se quiere representar un conocimiento como ciencia, debe ante todo, poder determinar exactamente lo diferenciado, lo que en ella no es común a alguna otra y constituye peculiaridad...” esta afirmación hay que entenderla en el sentido de necesaria, pero no suficiente. (Requena, 1981, p.157) da respuesta a este criterio de la contabilidad “es la ciencia empírica, que con respecto a una unidad económica, nos permite en todo momento el conocimiento cualitativo y cuantitativo de su realidad económica con el fin genérico de poner de relieve la situación de dicha unidad y su evolución en el tiempo”... (Requena, 1981, p.149) “la contabilidad posee un objeto material común a la economía “la realidad económica”, pero un objeto formal propio el conocimiento cualitativo y cuantitativo de esta realidad”.Este concepto se cita como ejemplo de la preocupación por la identificación del objeto de estudio de la contabilidad, pero al mismo tiempo hay que entenderlo como reduccionista del radio de acción, función y alcance de la contabilidad. Se abordó el problema del objeto de estudio de la contabilidad, término que se transfiere de las ciencias naturales; Popper aborda un problema que dará luces a la pertinencia de utilización del mencionado término, este análisis se abordó en su texto “Conocimiento objetivo”, en el capítulo V “el objeto de la ciencia”. Parte de la afirmación “la propia ciencia carece de metas”, paro acepta que la actividad científica como racional ha de tener metas, así, “el objeto de la ciencia consiste en dar explicaciones satisfactorias de todo aquello que nos parece precisar una explicación” y “explicación es un conjunto de enunciados mediante los cuales se describe el estado de la cuestión a explicar” y en este sentido se prefieren “teorías que tengan un contenido cada vez más rico, un grado de universalidad cada vez más elevado y un grado de precisión cada vez mayor”. Desarrolla Popper, la tesis de la existencia de sistemas físicos que son altamente regulares y los sistemas biológicos y sociales que son altamente irregulares, desordenados –en contraposición al término clásico de orden- y más o menos imprevisibles. Los sistemas físicos regulares, ordenados y de comportamiento similar en el tiempo los relaciona con los relojes de predicción –reloj de péndulo- los sistemas imprevisibles, los relaciona con las nubes. No indica esta analogía que unos sistemas sean más perfectos y mejores que otros, sino que muestra dos naturalezas diferentes, que requieren unas condiciones específicas y particulares de estudio, esta afirmación es contraria a la línea propuesta por Popper con respecto al monismo metodológico- el falsacionismo- que no hace distinción metodológica entre un sistema y otro, ni entre la ciencia natural y las humanas. (Popper, 1982, 195) “Como ejemplo típico e interesante de nube recurrirá a una nube o enjambre de moscas o mosquitos. Los mosquitos individuales que como moléculas de un gas, forman todos un enjambre se mueve de un modo asombrosamente irregular). El sistema contable estaría clasificado dentro de la analogía de las nubes; en su parte científica y cercano a los relojes en su parte técnica. “La contabilidad, como ciencia encaminada al conocimiento de las unidades económicas es distinta de la técnica de la contabilidad, pudiendo decir que aquella es a ésta lo que el pensamiento a la acción. La ciencia es principio, la técnica normas de aplicación” Si la ciencia contable tiene como “objeto de estudio formal” “la realidad económica en cuanto a sus características cualitativas y cuantitativas”, ésta frente a un objeto dinámico, evolutivo y en constante movimiento, difícilmente predictible. Pero el determinismo físico, que formula que “todas las nubes son relojes”, indicaría que el hecho de que no conozcamos las leyes que rigen ciertos movimientos aparentemente irregulares, es sólo “un acuerdo de nuestra ignorancia”, pero que un día podremos llegar a determinar esas regularidades. En contabilidad aceptan los algunos contables que la técnica tiene el funcionamiento de un reloj de péndulo, de lo contrario no podrían formular la ecuación patrimonial A = C + P, Activo es igual a pasivo más patrimonio, esta es una consecuencia de la aceptación de una teoría del valor y unos criterios de medición y valoración, que son altamente falibles y de fácil refutación empírica. Con esto se demuestra que el funcionamiento lineal y preciso es fruto de acomodar la realidad a la teoría, pero no existe una explicación satisfactoria, contrastable y contrastada de la realidad, que es la razón de la ciencia. Como una nube funcionaría en la contabilidad las interpretaciones o aplicaciones de la teoría general contable que dependen de las condiciones de los entornos, de los objetivos específicos de los sistemas donde se instalan y en buena medida de los juicios de valor de quien diseña e implementa el sistema, en una clara orientación interdisciplinaria, tal como en la misma línea popperiana con respecto a que los problemas no logran una solución desde una sola disciplina del conocimiento sino que requieren el concurso activo de diferentes parcelas del saber. El físico americano Pierce formuló “todos los relojes son nubes” es decir “sólo existen nubes”, lo que lo lleva a precisar un determinismo en el conocimiento; para Compton el indeterminismo físico “resolvía no sólo problemas físicos, sin también biológicos y filosóficos”. Esta influencia de la física es evidente en las distintas épocas, para los diferentes autores de filosofía que asumen posición en el determinismo o el indeterminismo, como lo muestra Kant en su obra, bajo el predominio de la ciencia clásica de Newton, escribió con criterio de absolutista sobre ciencia, ética y estética. – es de anotar que este absolutismo es parcial, pues el noúmeno, permanece incognoscible-. ¿Qué es la contabilidad?, una “ciencia social” –responden algunos autores- y en este sentido, la ética constituye un fundamento del desarrollo y aun de la validación de la misma y en la definición de la estructura en la que ha de sustentar sus bases, aún con la posibilidad de hacer un paralelo de equivalencia entre hipótesis auxiliares en un programa de investigación científico –lenguaje de Lakatos- y una hipótesis instrumental en la interpretación de una teoría general contable con una orientación teleológica. Para considerar la contabilidad como una ciencia, ésta debe determinar sus “enunciados” y/o “teoría explicativa”, “enunciados observacionales” o “enunciados contrastadores” y la “justificación de la pretensión de que una teoría es verdadera”; pues estos elementos (Popper, 1982b, p.19), resuelve tentativamente el problema de traducir los términos subjetivos en términos objetivos; los términos subjetivos o sicológicos eran “creencias” “impresión”, “justificación de una creencia”. El problema de la demarcación entre lo que es ciencia y seudo-científico, incluye el término “experimento crucial”, entendido como el experimento riguroso que pueda o intente falsar una teoría, a través, de un hecho de un genuino test falsador; es decir un enunciado singular observable, que lleve a la falsación de la teoría. En contabilidad, para cumplir este requisito se debe establecer el número de teorías aceptadas, (excluyentes e incluyentes- pues en términos kuhnianos, Hendriksen, hablo de la contabilidad, como disciplina multiparadigmática), al igual que el conjunto de enunciados singulares falsadores de las teorías vigentes, rivales o monopólicas. ¿Cómo entender entonces la contabilidad?, el determinismo de los sistemas físicos, sociales o políticos, es otra variable a tener en cuenta; la economía no puede entenderse como un sistema cerrado –es posible que no existan sistemas cerrados-. (Popper, 1982b, p. 204) “por sistema físicamente cerrado entiendo un conjunto o sistema de entidades físicas como átomos, partículas elementales, fuerzas físicas o campos de fuerza que interactúan entre sí- y sólo entre sí- de acuerdo con leyes definidas de interacción que no dejan lugar a interacciones o interferencias con nada externo a ese conjunto o sistema cerrado de entidades físicas”. Si la economía y la contabilidad están analizando un objeto de estudio en un sistema abierto, cada situación requiere una descripción y una explicación, independiente; desde esta visión se invalida cualquier intento de universalizar las condiciones diferentes a partir de la estandarización de técnicas que busquen dar cuenta de una realidad; es utilizar instrumentos de “relojes” para abordar “las nubes” en el sentido de sistemas precisos –si existen- y sistemas caóticos –si existe lo irregular-. La “doctrina de la necesidad” según la cual “causas semejantes producen siempre efectos semejantes”, es una doctrina psicológica de seguidores de Hume, que la reformularon de la siguiente forma: (Popper, 1982b, p. 285) “nuestras acciones, voliciones, gustos o preferencias son causadas psicológicamente por experiencias anteriores y en última instancia por nuestra experiencia y nuestro medio”; esta apreciación final de los seguidores de Hume, es tan vaga –dice Popper- que es perfectamente compatible con el indeterminismo físico y no es comparable con determinismo físico. En continuación de la idea afirma Popper “no todos los acontecimientos del mundo físico están predeterminados con absoluta precisión en todos sus detalles infinitesimales”. Este criterio se puede pensar en las ciencias sociales, aun con mayor posibilidad de percepción, aceptando como lo plantea el indeterminismo físico que no se pueden negar muchos acontecimientos que siguen y tienen un grado de regularidad; pero de la aceptación singular y relativa no se pasa a la aceptación universal y absoluta del determinismo. La creencia en un determinismo físico y su traslado en la aplicación en las ciencias sociales, no es un tema, de interés epistemológico exclusivamente, sino que tiene fuertes implicaciones de carácter social, político y económico. Pues el intento de buscar objetivos –situaciones ideales- a partir de la determinación mono-causal o bi-causal o con un reducido número de variables, que se confía que se comportarán de manera mecánica y absolutamente precisa, puede llevar a excesos, dogmatismos y consecuencias con altos costos para la humanidad; -en otra línea aún más rigurosa, se dice, que la ciencia es neutral y en este sentido no puede buscar objetivos, -un positivismo puro- aplicado a la economía.La pregunta se puede formular en particular para las ciencias del hombre, (Popper, 1982b, p. 213) “lo que queremos es comprender de qué modo las cosas no físicas, como los propósitos, deliberaciones, plantes, decisiones, teorías, intenciones y valores pueden tomar parte en la introducción de cambios físicos en el mundo”. Se responde que no es posible explicarlos en términos absolutos de una teoría física determinista, o una teoría estocástica. La contabilidad bajo este criterio no puede pensarse como una ciencia aséptica, libre de juicios de valor e intencionalidades, más cuando su existencia obedece a los propósitos específicos de las fuerzas que actúan en un mercado y su técnica está reglamentada y tiende a mayor normalización no ingenua cada día. -¿cuál es el interés de la Norma Internacional Contable?- y como lo plante Foucault “cada fuerza tiene un poder de afectar (a otras) y de ser afectada (por otras)”, esta consideración no justifica la defensa del puro azar, donde todo y cualquier cosa puede ocurrir, pues no todo y de cualquier forma emerge. El método popperiano es el método del ensayo y supresión de errores, que determina los enunciados a partir de los cuales se falsearán las teorías por erradas, ¿qué pasa en las ciencias sociales? Que están más orientadas a la construcción de situaciones ideales, que a la explicación neutral de las situaciones pasadas. Una vez que el sustento de la explicación está condicionado por el marco teleológico del modelo posible y provisional con que cuenta un determinado grupo- varios grupos en lenguaje de Kuhn pueden tener diferentes lenguajes en diferentes modelos paradigmáticos y no necesariamente conmensurables-. La contabilidad en oposición a un positivismo neutral puede ser evaluada desde un instrumentalismo que evalué teleológicamente las herramientas más útiles; en ese sentido el pensamiento filosófico lo expresa el profesor Jaramillo “los instrumentalistas, miraron las teorías científicas de una manera pragmática, vale decir, como útiles instrumentos de cálculo, al punto de que el problema de la verdad de las teorías pasó a ser un problema secundario”[14] Según Popper, ¿qué intencionalidad tiene la ciencia?, (Popper, 1982b, p. 238) “no partimos de observaciones, sino siempre de problemas... el aumento del conocimiento va de viejos a nuevos problemas mediante conjuras y refutaciones”, cita a Darwin y manifiesta “es extraño que hay quien no vea que toda observación tiene que estar a favor o en contra de algún punto de vista”; lo que muestra que la observación no es independiente o neutral, por el contrario está sujeta a unos condicionantes. En las ciencias económicas las observaciones están determinadas por unas orientaciones teóricas que nos permiten describir una realidad económico-social; se ha formulado que “todas las observaciones son teóricas”. –Hanson, desarrolla un concepto al respecto-. La objetividad va reduciendo su pretensión de neutralidad universal y va quedando reducida a una cuestión de grado y es posible de convencionalismo Intersubjetivo entre los miembros de una comunidad científica. Así mismo se debe entender la observación, Popper se orienta por una observación que está determinada y supeditada primero a la formulación previa de la hipótesis o problema y estará supeditada a condicionantes de endógenos y exógenos en la captura del dato observado. Se refleja este caso en una situación propia de las ciencias sociales, como es el análisis de la situación económica de un país; un humanista estudia –el término observar es más complejo- el nivel de desarrollo de un país X en Latinoamérica, en los datos de la observación o estudio, estará viendo las consecuencias nefastas de implementación de un modelo enajenante, generador de miseria y pobreza. La misma situación es estudiada por un analista neoliberal, éste encontrará en los datos observados el cumplimento de las leyes del mercado libre y las bondades de la competencia, reflejando en los datos la eficacia, la eficiencia y la derrota de los no competitivos; en una orientación del pensamiento de Darwin a la ciencia social, en defensa de la supervivencia de los individuos más aptos para sobrevivir a la competencia del mercado. La disertación cobra fuerza además desde la sociología del conocimiento científico, frente a las alternativas múltiples de estudiar el quehacer científico y su estrecha relación con mecanismos de poder. Así se puede formular que las teorías universalistas no son las más adecuadas para pensar los hechos sociales y que estos requieren una orientación cada día más singular; en contraposición con la característica tan aceptada de la universalidad de la ciencia; pues cada hecho requiere un análisis individual y único. 4.3 Refutaciones empíricas y revoluciones científicas Revolución, irracionalidad y fin de la historia: habría que agregar contra-natura social y tendríamos completa la cuarteta sintetizando los conceptos centrales de la defensa del fin de la historia por parte de los maestros mayores del neoliberalismo: Friedrich Hayek, en el plano teórico-económico, y Karl Popper, su mentor epistemológico. Ambos afirmaron reiteradamente que "el capitalismo es insuperable", es decir, que es imposible que haya algo mejor después del capitalismo. La gran pregunta es ¿por qué? Ambos propusieron respuestas largamente fundadas en sus posturas acerca de la sociedad, el mercado, la racionalidad, así como el ser humano, la historia, y el bien. Nuestro propósito es desenmascarar rápidamente dichos argumentos para exhibir el carácter falaz de los mismos, y, por lo tanto, la inaceptabilidad de la tesis del fin de la historia. De camino, mostraremos la coherencia interna de dichas posturas, lo que torna a sus conclusiones aún más peligrosamente convincentes. 1. La irracionalidad de las revoluciones totales según Hayek-Popper Popper propone que no hay mejor acepción del término "racionalidad" que criticismo. Ello se debe a que, en tanto el fin de la ciencia es acercarse a la verdad, no hay mejor medio-instrumento para ello que el método crítico. Sabemos, además, que en todos aquellos en los cuales, como Popper, racionalidad es básicamente racionalidad instrumental, proceder racionalmente es hacerlo tratando de utilizar los medios más eficientes para alcanzar la meta, fin u objetivo. Si tal objetivo es acercarse a la verdad, es decir, progresar hacia ella, Popper estatuye que el mejor instrumento para ello es el método científico que, en su versión del mismo, es el método crítico de conjeturar hipótesis para resolver problemas y aceptar sólo aquella que resiste a nuestros intentos de refutarla. Luego, método científico = método de conjeturas y refutaciones = método crítico, porque, según él, ¿qué otra cosa es la crítica, sino tratar de refutar lo que se conjetura y adoptar lo que resiste a tal intento? De ahí que la ciencia es, para Popper, racional por el modo en que progresa (es decir, por aplicación sucesiva en el tiempo del método de conjeturas y refutaciones). Es imprescindible recordar que, al decir de Popper, tal método es totalmente elucidable mediante el uso exclusivo de la lógica formal deductiva. Dicho método es el adecuado para establecer la aceptación o rechazo de hipótesis y teorías de acuerdo a la evidencia empírica disponible y, para ello, basta decidir si la hipótesis o teoría ha quedado refutada por dicha evidencia; y la lógica deductiva, más específicamente, la regla de tal lógica conocida como modus tollendo tollens es, según Popper, suficiente para cumplir tal función. De ahí que: Racionalidad instrumental = método critico = progresividad = logicalidad. Tan larga "ecuación" sintetiza una postura ya clásica en el empirismo: la ciencia es racional porque dispone de un método que la distingue, el cual garantiza, de ser aplicado, el progreso hacia la verdad, para lo cual basta usar acertadamente los recursos de la lógica formal. Todo contexto histórico social queda fuera, toda referencia a valores de algún tipo también, toda influencia de intereses más allá del sano y terapéutico interés por la verdad queda proscripto. No en vano, Popper nos dice que tal desarrollo hacia la verdad de las teorías científicas se da en un tercer mundo objetivo (distinto del primer mundo de los hechos del mundo empírico y de un segundo mundo de nuestros contenidos cognitivos), en donde los contenidos de las hipótesis y teorías están lógicamente relacionados deductivamente. Ese tercer mundo es a-histórico, acontextual, a-social, a-cultural. Es un aséptico mundo de meros contenidos objetivos y sus relaciones lógicas atemporales. Todo ello es coherente con la reducción popperiana de la epistemología a la mera lógica de la investigación, la cual, como vimos, reduce la racionalidad operante en la ciencia a mera racionalidad instrumental elucidable por la lógica formal deductiva. Una consecuencia inmediata es más que desafortunada: es imposible discutir la racionalidad de los objetivos o fines. Si la racionalidad es lógico-deductiva, tal lógica no puede discutir valores (pues los enunciados valorativos no tienen la forma de sentencias declarativas, las únicas que la lógica formal deductiva abarca), los cuales sin embargo están siempre presentes toda vez que se trata de optar por objetivos o fines. Este es un límite desafortunado del criticismo popperiano, pues no permite que la crítica alcance a los fines u objetivos de la actividad científica. De ahí que Popper haya repetido, y Hayek explícitamente asentido, que la adopción de los fines es pre- racional. Esto ya no es sólo una limitación, sino una tragedia, porque lo más importante a discutir en cualquier actividad, de lo cual depende todo lo demás, son los fines u objetivos de la misma. Por si ello fuera poco, Popper agrega que, como no es posible discutir racionalmente los fines, ellos quedan establecidos por la tradición. Nunca, por lo tanto, dispondremos de recursos racionales para justificar la necesidad de cambiar la tradición. Más claramente: la tradición queda fuera de la posibilidad de cambio racionalmente fundado. Si trasladamos todo ello al ámbito de las ciencias sociales, proceder racionalmente en las mismas sería hacerlo mediante la utilización consecuente del método propio de las ciencias sociales, compuesto, según Popper, por la trilogía de lógica situacional, tecnología social fragmentaria e ingeniería social. No es nuestro propósito referirnos a todos los momentos de dicho método. Nos basta con recordar que la tecnología social fragmentaria exige proceder fragmentaria y gradualmente. En su falaz crítica al tipo de holismo metodológico que supuestamente defendieron Marx y Adorno, Popper enfatiza que el método de las ciencias sociales aborda problemas puntuales que se dan siempre en un ámbito institucional determinado, para los cuales se dan siempre soluciones específicas. De tal modo, por sucesivas graduales soluciones específicas se han de ir resolviendo otros problemas puntuales, y así sucesivamente. Pero nunca se ha de abordar a la sociedad como un todo problemático, y nunca se ha de proponer como solución un cambio global de dicha sociedad. Las soluciones vía revolución quedan descartadas. Ahora podemos percibir que hacerlo sería atentar contra el gradualismo metodológico, y ello, debido a que racionalidad se identifica con utilización del método científico, implicaría proceder ir-racionalmente. Popper está aquí hablando de la sociedad capitalista tal como la describe y explica Hayek, la cual es para él, en este contexto, la tradición. Luego, todo intento de cambiar radicalmente la sociedad capitalista de tal tipo, es atentar contra la racionalidad científica. No creemos que haya en el siglo XX mayor intento de legitimación de la sociedad dominante capitalista, en tanto abandonarla seria abandonar la racionalidad científica. Todos sabemos el rol persuasivo que tiene ello, por el lugar casi-mítico que ocupa el conocimiento científico en la sociedad contemporánea. No hay problema si se pretende cambiar o modificar gradualmente dicha sociedad. Pero intentar cambiarla radical y globalmente, como por ejemplo, intentar introducir un sistema económico alternativo, significaría cometer el acto supremo de irracionalidad. Se ha consumado el fin de la historia en aras de la pervivencia de la racionalidad científica. Nada deba cambiar económico-estructuralmente, porque hacerlo sería abandonar la manifestación suprema de la racionalidad humana; dicho de otro modo, sería abandonar nuestra humanidad. En las palabras de Hayek, devendríamos como Lucifer. No hay duda: para los padres del neoliberalismo, el capitalismo es insuperable, so pena de devenir irracionales, es decir, no fieles a uno de los ingredientes definitorios de nuestra humanidad. 2. ¿Son también irracionales las revoluciones científicas? Por supuesto que no lo son para un empirista como Popper, que considera la racionalidad científica como la expresión máxima de la razón humana. Hay por lo tanto, según Popper, cierto tipo de revoluciones, las científicas, que son racionales. Cabe preguntarse ¿por qué? Y plantearse si esto no entra en contradicción con nuestra propuesta primera, que creemos fiel a Popper, de que las revoluciones sociales radicales, a las que Popper llama "revoluciones totales", son irracionales. Veremos ahora que no hay tal contradicción sino, por el contrario, una fuerte consistencia entre la racionalidad de las revoluciones científicas que Popper defiende, y su versión del carácter irracional de las revoluciones totales. Es conveniente recordar que para Popper una teoría científica constituye un progreso respecto de su predecesora si entra en conflicto con ella; esto significa que lógicamente debe contradecir a su predecesora, debe desplazarla. En tal sentido, "el progreso en ciencia es siempre revolucionario". Además, en el progreso científico, la nueva teoría, aunque revolucionaria, "debe siempre explicar el éxito de su predecesora". Por lo tanto, se dispone de un criterio para juzgar a una teoría respecto de su antecesora, y, por ende, de un criterio de progreso y "esto significa que el progreso en ciencia puede ser establecidoevaluado racionalmente". Pero como "el progreso científico es revolucionario", Popper concluye que "las revoluciones científicas son racionales, en el sentido de que, en principio es decidible racionalmente si una teoría es o no mejor que su predecesora". Todo ello es coherente con nuestra sinopsis de la teoría general popperiana de la racionalidad, según la cual la ciencia es racional por el modo en que progresa. Lo que la hace racional es que se dispone de un criterio que, en última instancia, resulta de la aplicación del método científico de conjeturas y refutaciones, y que en el caso de las revoluciones científicas permite establecer si la anterior teoría queda refutada y si la nueva contradice a su predecesora. Además, no entra en conflicto con el postulado de la irracionalidad de las revoluciones totales, pues mientras estas violan el método científico gradualista propio de las ciencias sociales, las revoluciones científicas no lo hacen, en tanto siempre que se produce un cambio científico, el mismo se lleva a cabo de acuerdo a las pautas de proponer nuevas conjeturas que reemplazan a aquellas ya refutadas. Vistas desde las perspectivas de las revoluciones sociales totales, las revoluciones científicas son micro-revoluciones en las que no se cambia todo, sino que se conserva como aproximación (mediante correcciones) la vieja teoría en la nueva. Es por eso que Popper hable de "revolución en permanencia" al referirse al desarrollo progresivo de la ciencia. Por otra parte, Popper distingue a las revoluciones científicas de las revoluciones ideológicas y aclara que usa "el término ideología para cualquier teoría no-científica o credo, o visión del mundo que luzca atractiva, y que interese a la gente incluyendo a los científicos". Hay, según Popper, revoluciones científicas que dieron lugar a revoluciones ideológicas (copernicanismo y darwinismo, así como la revolución einsteniana). Pero para las revoluciones ideológicas no tenemos un criterio lógico de progreso, como en la ciencia, y por lo tanto, de racionalidad. En verdad, admite Popper "no parecemos tener algo como un criterio de progreso o de racionalidad fuera de la ciencia". Esta es, sin duda, una flagrante y explícita afirmación de cientificismo. Hubo, sin duda, revoluciones científicas no acompañadas por revoluciones ideológicas como, por ejemplo, la revolución de Faraday y Maxwell, así como la de J.J. Thomson con el descubrimiento del electrón, etcétera. Popper, incluso "no ve una revolución ideológica como resultado del gran cambio producido por Crick y Watson". Popper concluye que toda "revolución ideológica puede servir a la racionalidad" pero, también, si está ligada a una revolución científica "puede ser de un carácter elevadamente irracional, y puede concientemente romper con la tradición". Así, la interpretación ortodoxa de la mecánica cuántica "no es parte de la física, sino una ideología que es un serio obstáculo al progreso de la ciencia". Esta extremísima tesis no sería aceptada hoy por la mayoría de los físicos y por gran parte de los filósofos de la ciencia. Se sostiene que una revolución científica "no puede romper con la tradición, en tanto debe preservar el éxito de las predecesoras" y "este es el porqué de que las revoluciones científicas son racionales". Podemos acotar que ello es, también, la razón de que toda revolución social (total) es irracional porque, en tanto global, involucra una ruptura radical con la tradición. En resumen, y de acuerdo al criterio popperiano de racionalidad, las revoluciones científicas son siempre racionales, las revoluciones sociales totales siempre irracionales, mientras que las revoluciones ideológicas pueden ser una u otra cosa, dependiendo de su funcionalidad al progreso científico. Lo que sucede es que "una ideología que ha aprendido del enfoque crítico de las ciencias es susceptible de ser más racional que una que choque con la ciencia". Otra vez, cientificismo rampante. Es obvio que en todo este análisis predomina la teoría popperiana de la racionalidad científica instrumental cuyo objetivo es maximizar la consecución del máximo objetivo de la ciencia, acercarnos progresivamente a la verdad (acerca del mundo empírico en las ciencias naturales, y del mundo de las instituciones en la sociedad capitalista democrática, en el caso de las ciencias sociales). Como consecuencia, en todos los casos, la ruptura radical con la tradición establecida, tanto en ciencias naturales como sociales, constituye la suprema irracionalidad. Más allá de la declaración popperiana de "revolución en permanencia" en el caso del cambio científico, la propuesta de Popper es una versión de racionalidad meramente instrumental fuertemente conservadora, fiel, en el plano político-económico, a una visión general más conservadora aún. Hay algo profundo que une sus versiones de revolución científica y social: la racionalidad que se utiliza para evaluarlas involucra no ruptura radical con la tradición, por lo que sólo la reforma gradual, con preservación de lo anterior es racional, tanto en el plano empírico natural, como social. Las revoluciones sociales como actos contra-natura Hayek también asume una versión fuerte de racionalidad que podemos dividir en tres afirmaciones: (a) actuar racionalmente es hacerlo tratando de maximizar el logro de nuestros objetivos, (b) los agentes económicos en el mercado actúan racionalmente, por lo que (c) comportarse irracionalmente es violar las pautas del mercado. Por lo tanto, toda revolución estructural profunda es irracional, porque pretende cambiar radicalmente la sociedad donde el mercado es el locus supremo de la racionalidad. Sin embargo, según Hayek, lo propio del ser humano no es ser racional, sino ser social. Somos seres que necesitamos del semejante para la supervivencia. Devenimos racionales, en un largo proceso histórico de selección a través del cual arribamos a la actual sociedad de mercado. Tal racionalidad es, pues, el resultado de un desarrollo que desemboca en un sistema de la división del trabajo que requiere, para su mejor funcionamiento, de una actividad guiada por el intento de maximizar la consecución de sus objetivos. En ningún ámbito se logra ello mejor que en el mercado. Por eso decíamos que, para Hayek, el mercado deviene el locus de la racionalidad instrumental. Tal orden del mercado no es relativo a ningún orden superior a él. Es el último sistema de referencia: es, en verdad el sistema de referencia. Es pues, el Orden Absoluto, con su moralidad específica, que es también "última" así como lo es su racionalidad específica. O sea, no hay una teoría de la racionalidad que vaya más allá que la teoría del mercado. Si alguien hoy aún busca fundamentalismos absolutistas, aquí tiene un macro-ejemplo de ello. Por lo tanto, por una parte, la racionalidad de cada individuo es estimada en términos de su adecuación a la racionalidad del mercado. El acto supremo de irracionalidad es discutir tal racionalidad del mercado o pretender cambiar las reglas de juego del mismo (por ejemplo, interferir al menos con él tal como, supuestamente, recomienda el keynesianismo). Por otra parte, hay que recordar que a tal Orden del Mercado se llega como resultado de un largo proceso de selección, donde tal orden queda legitimado por haber sobrevivido a los cambios que se fueron dando en la organización social humana. Hay en Hayek, pues, una defensa de la sociedad capitalista de mercado que no sólo apela a una versión de la racionalidad instrumental (cambiarla sería acto supremo de irracionalidad) sino también a una legitimación de la misma por una argumentación de corte naturalista-spenceriana. Por ambas razones, la sociedad capitalista de mercado constituye el fin de la historia. Tal argumentación adolece, por un lado, de todas las falencias ya señaladas de una teoría de la racionalidad meramente instrumental, con sus serias limitaciones. Por el otro lado, es curioso como al evolucionismo al que se apela se lo detiene y viola cuando conviene. En una auténtica postura evolucionista, no hay instancia alguna que pueda reclamar el derecho de ser la última. Un argumento evolucionista justifica a lo sumo a dónde se ha llegado, pero no basta para postularlo como final. Es en ese sentido insuficiente, y explica que, en el caso de Hayek, esté complementado por el argumento basado en la racionalidad suprema del mercado. Hay además, en la propuesta de Hayek, una apelación a cierta forma de la falacia naturalista. La sociedad de mercado, tal como existe hoy, es el resultado de un largo proceso de selección. Ello explica solamente una cuestión de hecho: la forma estructural adoptada por la sociedad hoy. Pero ello no basta para justificar que tal racionalidad y moralidad debe ser aceptada (cuestión de derecho). Justamente, al postular una cuestión de hecho como una cuestión de derecho, se naturaliza a esta última, se la concibe como una cuestión de hecho natural más, cuando en verdad no lo es (falacia naturalista). Además, en la argumentación evolucionista de Hayek, el éxito logrado evolutivamente hace que tanto el mercado como su moralidad sean presentados como inevitables. Esto es también una profunda violación de un auténtico evolucionismo, en donde en lugar de necesidad e inevitabilidad, domina la contingencia. Hay más aún: el desarrollo "natural" de las sociedades nos ha traído, según Hayek, el orden de la libertad, manifestada máximamente en el mercado sin interferencias, el cual nos ha permitido mayor progreso económico y ascenso social. Estamos, supuestamente, en una situación que nos permite ser mejores que en cualquier otro orden alternativo. En consecuencia, si queremos cambiar el orden de la sociedad de libre mercado, nos alejamos no sólo del locus de la racionalidad sino también de la libertad, un orden, repetimos, logrado a través de un largo y arduo proceso de selección. Esto enfatiza que sería contra-natura buscar o proponer algún orden alternativo. La sociedad capitalista de mercado es pues final, y como tal, al decir de Hayek, es la que nos permite el mayor acceso al bien, porque el orden de la libertad es, según él, intrínsecamente bueno. Sólo resta expandir tal orden. No extraña pues que nos anticipe que la historia, en el futuro, va a consistir en acercarse más y más a dicho bien. En otras palabras, la historia en el futuro consistirá en la gradual e inevitable expansión del capitalismo de mercado. En todo ello, hay más que el fin de la historia. La historia, así concebida por Hayek, anuncia el fin de todas las utopías, pues no hay, so pena de irracionalismo y anti-naturalismo, lugar alguno para algo distinto. Todo orden alternativo está fuera del único lugar realmente posible (u-topos). No en vano, al recibir el Premio Nóbel, Hayek afirmó que alterar tal orden del mercado bajo la promesa de traer el cielo a la Tierra, no sería nada más que el advenimiento del Infierno (ver Nota II). No debemos olvidar que, para Hayek, ese Infierno no era siquiera la sociedad comunista de Marx o alguna otra forma de socialismo, sino básicamente un mundo económico-político a la Keynes, en el cual se pretendiera, como parte de la responsabilidad social, el logro de la justicia social. Nadie como Hayek realizó una crítica tan feroz a la pretensión de justicia social, concepto que para él carece de sentido, lo que acaece porque el mismo queda fuera del marco conceptual que considera pertinente para abordar los hechos económicos. Por razones de brevedad, nos limitaremos a considerar tres líneas argumentativas acerca del porqué de tan extrema afirmación. La primera se basa en la siempre repetida afirmación de la imposibilidad del conocimiento total. Como no podemos disponer de toda la información pertinente para una redistribución justa, no podemos hacerlo sin cometer errores que generan nuevas desigualdades. Esta argumentación es debilísima porque apela a la falacia del falso dilema de todo o nada. Como no podemos ser totalmente precisos, estamos condenados a no poder hacer efectivamente nada. Además, no es necesario conocer totalmente todas las variables, sino aquellas que son pertinentes, relevantes y adecuadas. La segunda línea de argumentación se basa en que la sociedad libre es el resultado de un proceso evolucionista y, por ende, los resultados de un proceso tal no son justos ni injustos. Pero es, justamente, tal carácter evolucionista del desarrollo que desemboca en la sociedad de mercado el que hay que poner en tela de juicio. Y Darwin estaría al frente de la larga fila de los que están en desacuerdo, pues para él la estructura del proceso del desarrollo de las especies no es trasladable al desarrollo de las sociedades humanas. La tercera aproximación argumentativa hayekiana es en términos de la tensión entre libertad y justicia social. Para distribuir justamente, hay que coercionar a algunos para que otros tengan mayores beneficios, y tal coerción amenaza irremediablemente la libertad de los individuos. Cabe preguntarse ¿por qué necesariamente coerciona? ¿Y de qué libertad estamos hablando? Obviamente, de la libertad negativa entendida como no interferencia, pero ello debe sopesarse con el derecho a la libertad positiva que tenemos todos, algo negado por la injusticia social Además, sería coerción para aquel cuya eticidad está constituida exclusivamente por un egoísmo insaciable, aquel que Hayek considera como parte de nuestra humanidad. Es, por lo tanto, la estrechísima visión ontológica y ética del ser humano propia de Hayek, la que subyace como premisa oculta a su argumento. Y es esa concepción del ser humano la que resulta inaceptable, vaciando al argumento de toda validez. El carácter de juego que el mercado tiene para Hayek, enfatiza su enfoque argumentativo. Si el mercado es un juego, hay siempre ganadores y perdedores, de ahí la inevitable presencia de desigualdades como resultado de la operatividad del mercado. Pero no hay nada injusto en ello, pues carece de sentido responsabilizar al juego. Ergo: nadie es últimamente responsable por la pobreza y las desigualdades. Cabe preguntarse, en este caso, si todos los que viven en una sociedad de mercado, participan libre y voluntariamente en él, a lo que cabe agregar, inquisitivamente, si todas las sociedades contemporáneas que abrazaron una economía de mercado lo hicieron libre y democráticamente. La obvia respuesta negativa a ambas preguntas erosiona el carácter convincente de tal argumento hayekiano. Por lo tanto, ninguna de las razones exhibidas por Popper y Hayek en aras de un supuesto fin de la historia es aceptable. Esa ha sido la principal conclusión de nuestro trabajo. Pero, además, por razones de todo tipo: económicas, como la creciente polarización de las desigualdades; culturales, como la pérdida de identidades locales, regionales y nacionales; políticas, como la erosión de las soberanías nacionales; y fundamentalmente éticas, pues nadie en última instancia es responsable de ayudar a los excluidos que, obviamente, son creciente mayoría, el Infierno (no el de Hayek, sino ese que ya llegó) no puede ni debe ser sacralizado como el fin de la historia. La tradición, la bendecida por Popper y Hayek, es la que debe ser cambiada para que las sociedades humanas puedan ser eso: plenamente humanas. 4.4 Pluralidad de teorías y la consolidación de revoluciones científicas a través de refutaciones Los aires de la posmodernidad han menoscabado la fe en la ciencia a través de la caída del proyecto de la ilustración (el progreso de la humanidad gracias al desarrollo de las ciencias y las técnicas) (Hottois, 1999: 481), aunque no es éste el único metarrelato que ha perdido un cierto poder de imantación en la contemporaneidad. Junto a la pérdida de credibilidad del progreso científico — tal y como recuerdan los miembros de la Escuela de Frankfurt, éste ha provocado el auge de la razón instrumental y con ella la barbarie de los campos de concentración nazi, por citar un ejemplo—, habría que destacar el hecho de que la sociedad de la información se "organiza en torno al conocimiento para lograr el control social y la dirección de la innovación y el cambio" (Bell, 1976: 34).1 De hecho, se concibe a esta sociedad informacional como aquel estadio de desarrollo no solamente en el que se aumenta el acceso a la información hasta cotas históricas, sino en su sentido más amplio: como aquella "forma específica de organización social en la que la generación, el procesamiento y la transmisión de información se convierten en las fuentes fundamentales de productividad y poder debido a las nuevas condiciones tecnológicas que surgen en este período histórico" (Castells, 2000: 51). Si bien la información y el conocimiento son dos de las fuentes de poder del sistema, en el caso concreto del saber científico, éste se presenta como una vía válida para acceder al mundo, un mundo caracterizado por la complejidad (Luhman, 1996), por el dominio de las industrias culturales y por el constante cambio que imprime el modelo de desarrollo sociotécnico capitalista (Castells, 2001) que rige la lógica mundial.2 Ahora bien, la ciencia no es el único camino para acceder al conocimiento del hombre y de la sociedad,3 aunque, al convertirse la construcción de dicho conocimiento en una tarea compleja debido a la propia lógica social contemporánea, el papel desempeñado por las ciencias sociales tiene, si cabe, un mayor valor que en épocas anteriores. Ahora la cuestión está en esbozar una aproximación epistemológica al concepto de ciencia, una vez que se ha reconocido que sobre ésta no hay un acuerdo general (Alonso, 2004: 32), falta de consenso que es más pronunciada en las ramas científicas sociales que en las naturales (Woolgar, 1991: 13). Por todo ello, es el principal objetivo de este artículo esbozar los rasgos del conocimiento científico a partir de las aportaciones de algunos filósofos de la ciencia (principalmente: Karl R. Popper, Thomas Kuhn, Imre Lakatos y Paul Feyerabend) y poner en evidencia que es posible inferir una conceptualización de la ciencia, a pesar de la aparente contradicción de algunos de sus supuestos. A partir de esta base común, pensada principalmente para las ciencias sociales, cada disciplina deberá trazar sus propias particularidades epistemológicas. Es éste el caso de la comunicación (de las ciencias de la comunicación), en que las reflexiones de carácter epistémico continúan siendo no solamente un área de interés, sino también una prioridad para definir la identidad de la investigación en comunicación. LA CONSTRUCCIÓN DEL CONOCIMIENTO DESDE UNA PERSPECTIVA HISTÓRICA: POOPER, KUHN, LAKATOS Y EL ANARQUISMO METODOLÓGICO DE FEYERABEND En general, "la ciencia es valiosa como herramienta para domar la naturaleza y remodelar la sociedad; es valiosa en sí misma, como clave para la inteligencia del mundo y del yo; y es eficaz en el enriquecimiento, la disciplina y la liberación de nuestra mente" (Bunge, 1981: 36). Para presentar las diferentes aproximaciones a la ciencia que han propuesto los filósofos en el siglo XX, me centraré principalmente en las concepciones de Popper, Lakatos, Kuhn y Feyerabend del progreso científico, dado que todos ellos han intentado explicar cómo es el proceso de construcción del conocimiento. A lo largo del artículo, se señalarán los supuestos principales de las propuestas de estos autores, se apuntarán las carencias y críticas de cada una de dichas posturas y, finalmente, se superará la apriorística incongruencia de algunos de estos supuestos. Como veremos, el trasfondo que encierra esta "histórica discusión" es si existe un método universal y ahistórico en la ciencia, que contenga las normas que todas las disciplinas deben respetar si desean merecer el título de ciencia. Es decir, si desde una perspectiva general, podemos esbozar los rasgos característicos del conocimiento científico, en todas sus dimensiones (disciplinas) a lo largo de la historia. Ante todo, podría decirse que el empirismo popperiano ha "llegado a ser la visión estándar de la ciencia" (Iranzo y Blanco, 1999: 64), dado que, según Popper, toda teoría debe poder ser falsable y, en el momento en que no supere las pruebas de confutación empírica, la teoría será sustituida por otra. Pero, como se defenderá a lo largo del presente artículo, un enunciado, para que adquiera el rango de científico, es suficiente con que sea racional y tenga un principio que le confiera coherencia interna. Es ésta una concepción de ciencia lata, vaga, que apunta el hecho de que el conocimiento científico ha de estar metodológica y sistemáticamente contrastado. Para Popper, el científico, independientemente de que sea teórico o experimental, propone enunciados, hipótesis o sistemas de teorías y los contrasta paso a paso por medio de observaciones y experimentos (Popper, 1999: 27). En esta idea se recogen algunos de los principales supuestos que defiende Popper en la investigación científica, como el reconocimiento del método deductivo para la ejecución de la obra teórica y la experiencia como método de corroboración. Por todo ello, Popper cree en el avance progresivo de la ciencia y propone, como criterio de demarcación, que propicie la mejora gradual y creciente de la investigación, el falsacionismo : "No exigiré que un sistema científico pueda ser seleccionado, de una vez para siempre, en un sentido positivo; pero sí que sea susceptible de selección en un sentido negativo por medio de contrastes o pruebas empíricas: ha de ser posible refutar por la experiencia un sistema científico empírico" (Popper, 1999: 40). Popper habla de la necesaria comprobación empírica a la que han de ser sometidos los enunciados para determinar la falsedad de una teoría, de ahí que el autor (Popper, 1999: 38) crea en la experiencia como base de toda teoría, pues concibe a la ciencia empírica como la representación del mundo real o mundo de nuestra experiencia, porque ha de ser posible refutar con la experiencia, un sistema científico empírico. El autor distingue los tres requisitos que debe satisfacer dicho sistema: el primero es que ha de ser sintético, es decir, ha de representar un mundo posible; el segundo es que debe satisfacer el criterio de demarcación; esto es, la teoría, hipótesis o sistemas de teorías no serán metafísicas, sino que representarán un mundo de experiencia posible. Por último, es menester que sea un sistema que se distinga (de alguna manera) de otros sistemas semejantes por ser el que represente nuestro mundo de experiencia. Mas, "¿cómo ha de distinguirse el sistema que represente nuestro mundo de experiencia? He aquí la respuesta: por el hecho de que se le ha sometido a contraste y ha resistido las contrastaciones" (Popper, 1999: 39). La idea fundamental de esta propuesta es que la experiencia no puede demostrar la verdad, pero sí la falsedad, es decir, las teorías o hipótesis deben ser siempre tenidas en cuenta como certezas, que cada vez irán acercándose más a la verdad a través de las críticas y la detección de errores: una teoría puede ser definitivamente rechazada, pero nunca definitivamente aceptada. El falsacionismo permite al investigador discernir entre unos enunciados y otros, no porque los que sobrevivan sean verdaderos, sino porque mediante el empirismo se ha demostrado que los desestimados son errados. "Los enunciados científicos empíricos han de ser decidibles de modo concluyente, es decir, que en un principio, tanto su verificación como su falsación han de ser posibles" (Popper, 1999: 42). Este supuesto no reúne el consenso de los filósofos de la ciencia, dado que no siempre una teoría puede ser corroborada por la experiencia. Lakatos (1998) se muestra contrario a que una proposición pueda ser confirmada o refutada por los hechos, puesto que en función de las reglas de la lógica, este hecho supondría mezclar lenguajes distintos. Según el autor, las proposiciones sólo pueden ser derivadas a partir de otras proposiciones, no a partir de los hechos: no se pueden probar enunciados mediante experiencias. También Feyerabend (1986 y 2000) señala que las teorías científicas generales no son comprobables por la experiencia; son construcciones teóricas tan extremadamente elaboradas y complejas que están alejadas del plano de los hechos. La elección de unas teorías generales llega a ser para Feyerabend una cuestión de gusto, pues no hay un criterio objetivo de elección (más bien se trataría de factores diversos: económicos, políticos, prácticos y estéticos), debido a que se mueven en un plano muy abstracto. Además, cuando la experimentación o la observación proporcionan evidencias que entran en conflicto con las predicciones de cierta ley o teoría, puede ser que la evidencia sea errónea y no la ley o la teoría. Esto es, cuando los resultados de una hipótesis refutan la ley, el falsacionismo no prevé las herramientas necesarias para que el científico discierna la ubicación del error (si en la hipótesis o en la propia teoría): "No hay nada en la lógica de la situación que exija siempre desechar la ley o la teoría en caso de una colisión con la observación o el experimento" (Chalmers, 2003: 82). Sobre este aspecto, se ha defendido que el método deductivo no termina de corresponderse con la práctica científica, puesto que a menudo la investigación no parte de una teoría, como sostiene Popper, sino que se certifica la realidad de un fenómeno antes de que haya una propuesta teórica que sirva de predicción (Hacking, 1983). Esto ha sido así en algunos de los descubrimientos más relevantes de los últimos tiempos, como exponen Iranzo y Blanco (1999: 61): "En observaciones como el descubrimiento de los rayos X se certificó la realidad de un fenómeno antes de que hubiera una teoría que lo explicase (...) El caso es que no existe teoría científica alguna que guiase la construcción y consolidación del objeto de estudio". Popper parece creer en una ciencia sujeta a confutación por parte de hipótesis más consistentes; se trata de una ciencia conformada por un conjunto de teorías y modelos que en un momento determinado se han mostrado más válidos que sus coetáneos y han superado con mayor éxito el rigor de las comprobaciones empíricas. Es, pues, una ciencia en perpetuo cambio, en un continuo avance, dado que "la ciencia progresa hacia la verdad mediante la elaboración de teorías cada vez más verosímiles, mediante las adquisición de verdades putativas y la destrucción definitiva de falsedades" (Iranzo y Blanco, 1999: 60). Ahora bien, se ha apuntado que el falsacionismo ha fallado a la hora de aprehender la complejidad del desarrollo de las teorías importantes. Por ello, Kuhn (1989 y 2001), Lakatos (1998) y Feyerabend (1986 y 2000) realizan otras propuestas mediante las que intentan explicar cómo ha avanzado la ciencia desde una perspectiva histórica. Según Chalmers (2003: 98), lo que tienen en común estas perspectivas —en mayor medida Kuhn y Lakatos, puesto que como veremos Feyerabend niega la existencia del método científico y aboga por el anarquismo metodológico— es que la "concepción más adecuada de la ciencia debe originarse en la comprensión del entramado teórico en el que tiene lugar la actividad científica (...) El significado de los conceptos depende de la estructura de la teoría en la que aparecen, y la precisión de aquéllos depende de la precisión y el grado de coherencia de ésta" (Chalmers, 2003: 98 y 99). A continuación, se expondrán las ideas principales de Kuhn, Lakatos y Feyerabend, para inferir, a partir de estas premisas, los rasgos generales del conocimiento científico. Por su parte, Kuhn (1989 y 2001) sostiene que toda actividad científica se desarrolla bajo un paradigma, entendido éste como "el conjunto de ilustraciones recurrentes y casi normales de diversas teorías en sus aplicaciones conceptuales, instrumentales y de observación. Ésos son los paradigmas de la comunidad revelados en sus libros de texto, sus conferencias y sus ejercicios de laboratorio" (Kuhn, 2001: 80). El paradigma debe ser lo suficientemente inconcluso como para que en él se alberguen los distintos desarrollos teóricos de un periodo histórico determinado. El autor rechaza el falsacionismo porque considera que todos los paradigmas tendrán anomalías (entendidas como el conjunto de problemas que se resisten a ser solucionados), pero éstas se consideran como fracasos concretos y particulares del científico, más que insuficiencias del propio paradigma. En el momento en que está consolidado un determinado paradigma, dentro de él se desarrollarán lo que Kuhn denomina periodos de ciencia normal, en que el avance se produce de manera progresiva, añadiendo las nuevas generalizaciones a las que ya están consolidadas (Kuhn, 1989: 86). Pero llega un momento en que comienzan a aparecer numerosas dificultades que no pueden ser resueltas dentro del paradigma y, por lo tanto, quedan fuera del alcance del científico (Chalmers, 2003: 102). En este momento, se entra en un periodo de crisis, que finalizará cuando emerja un paradigma completamente nuevo, que gane la adhesión de la gran mayoría de la comunidad científica. Cuando un paradigma sustituye a otro, se produce un cambio revolucionario, más problemático que el normal, pues altera el modo en que se piensa, ya que debe albergar a esos nuevos descubrimientos que no han podido ser articulados en los conceptos que eran habituales en el paradigma en crisis. Con este cambio de referentes tan radical, el desarrollo científico no puede ser completamente acumulativo (como en el caso de la ciencia normal), pues "no se puede pasar de lo viejo a lo nuevo mediante una simple adición a lo que ya era conocido. Ni tampoco se puede describir completamente lo nuevo en el vocabulario de lo viejo o viceversa" (Kuhn, 1989: 59 y 60). El progreso, por tanto, se produce a través de estas revoluciones —más que de una forma estrictamente acumulativa, como una línea ininterrumpida de progreso (Escohotado, 1987: 461)— en las que un paradigma completamente diferente sustituye a otro, planteando nuevas problemáticas que deben ser resueltas por la ciencia, nuevos métodos y nuevas concepciones del mundo. Para Chalmers (2003: 112 y 113), estos supuestos apuntan correctamente que el trabajo científico implica resolver problemas dentro de un sistema que no se cuestiona lo fundamental; no se trata, por tanto, del continuo planteamiento de refutaciones y conjeturas del que hablaba Popper, ya que esta actitud puede llevar a que no se produzca un avance explícito en la ciencia, debido a que no se favorece la consolidación de un determinado corpus de conocimientos, situación que no permite la profundización en la actividad investigadora: "Los principios no permanecerán indiscutibles el tiempo suficiente para que se haga el trabajo interpretativo" (Chalmers, 2003: 113). Además, el planteamiento de las revoluciones científicas subraya la naturaleza no acumulativa del avance de la ciencia, ya que el progreso a largo plazo no sólo comprende la acumulación de hechos y leyes, sino que a veces implica el abandono de un paradigma y su reemplazo por otro nuevo incompatible. La principal diferencia de esta cuestión con la propuesta de Popper es que para este último se trata simplemente del abandono de una teoría por otra, cuando Kuhn habla del cambio en la visión del mundo, una transformación que es más radical y profunda. La perspectiva kuhniana presenta algunos inconvenientes. En primer lugar, como el propio autor indica, el desarrollo científico en los periodos de ciencia normal es tremendamente conservador, en el sentido de que suprime frecuentemente innovaciones fundamentales, debido a que resultan innecesariamente subversivas por sus compromisos básicos hacia el paradigma dominante en ese periodo determinado (Kuhn, 2001). Aunque, evidentemente, dichas innovaciones serán introducidas cuando se produzca la revolución científica en la que emerge el paradigma que ha sustituido a su predecesor, en principio la adscripción del científico a un solo paradigma puede resultar un tanto empobrecedora.5 En segundo lugar, una de las críticas más importantes esgrimidas a la comprensión de la ciencia que plantea Kuhn es que el cambio de un paradigma a otro tiene algo de irracional, incluso de relativista, ya que el autor no justificó por qué un paradigma es mejor que otro: en última instancia, es la propia comunidad científica la que determina la mayor idoneidad de una visión del mundo en detrimento de su contemporánea. A esta deficiencia, Kuhn contestó que las teorías científicas posteriores son mejores para resolver enigmas en los entornos, pero esto resulta contradictorio porque, según él, lo que cuenta como enigma (es decir, problema) y su solución depende del paradigma (Chalmers, 2003: 116). Así, a lo largo de la Estructura de las revoluciones científicas, Kuhn (2001) asegura que algunos problemas de un determinado paradigma, cuando éste es sustituido por otro, pueden ser declarados como no científicos, o aquellas cuestiones que resultaron triviales en un momento determinado o simplemente no existían, con el surgimiento del nuevo paradigma, pueden volver a presentarse como los nuevos grandes retos a conquistar por la comunidad científica. De ahí que al cambiar los problemas, con frecuencia también lo hagan las normas que distinguen una solución científica real de una simple especulación metafísica, por lo que el nuevo periodo de ciencia normal no sólo es incompatible con el antiguo, sino, incluso, incomparable. Lakatos (1998: 13) intentó superar las debilidades del cambio de paradigma kuhniano mediante sus programas de investigación científica,6 que cuentan con un núcleo teórico–hipotético eficazmente protegido por un gran cinturón de hipótesis auxiliares y con una maquinaria elaborada para solucionar problemas. Así, el programa posee una serie de reglas metodológicas, que marcan qué rutas de investigación deben ser evitadas (heurística negativa) y cuáles seguidas (heurística positiva) (Lakatos, 1998: 66). El núcleo central estaría conformado por un conjunto de hipótesis muy generales a partir de las cuales se desarrolla el programa. Estos fundamentos necesitan ser ampliados con suposiciones complementarias, con el fin de llenarlos de sustento y de proteger al núcleo central de las falsaciones (Chalmers, 2003: 124). La heurística negativa del programa impide que apliquemos el modus tollens a este núcleo firme. Por el contrario, debemos utilizar nuestra inteligencia para incorporar e incluso inventar hipótesis auxiliares que formen un cinturón protector en torno a ese centro, y contra ellas debemos dirigir el modus tollens. El cinturón protector de hipótesis auxiliares debe recibir los impactos de las contrastaciones y para defender al núcleo firme, será ajustado y reajustado e incluso completamente sustituido (...) La heurística positiva consiste en un conjunto, parcialmente estructurado, de sugerencias o pistas sobre cómo cambiar y desarrollar las versiones refutables del programa de investigación, sobre cómo modificar y complicar el cinturón protector refutable. Impide que el científico se pierda en el océano de anomalías (Lakatos, 1998: 66 y 69). En principio, los programas de investigación de Lakatos se corresponderían con los paradigmas científicos de Kuhn. La principal diferencia entre ambos es que aquél intentó superar el cierto relativismo que suponía el cambio de paradigma kuhniano. Lakatos (1998: 15) sí que ofrece las claves del avance científico, justificando las razones a través de las cuales un programa de investigación sustituirá a otro; se trata de los programas regresivos o progresivos: Las refutaciones no indican un fracaso empírico, como Popper ha enseñado, porque todos los programas crecen en un océano permanente de anomalías. Lo que realmente importa son las predicciones dramáticas, inesperadas, grandiosas (...) Kuhn se equivoca al pensar que las revoluciones científicas son un cambio repentino e irracional de punto de vista. La historia de la ciencia refuta tanto a Popper como a Kuhn; cuando son examinados de cerca, resulta que tanto los experimentos cruciales popperianos como las revoluciones kuhnianas son mitos; lo que sucede normalmente es que los programas de investigación progresivos sustituyen a los regresivos (Lakatos, 1998: 15 y 16), siendo más eficiente los primeros en la predicción de los nuevos fenómenos. De esta manera, un programa de investigación es superior a otro en cuanto a que puede predecir con más éxito un fenómeno nuevo: "En un programa de investigación progresivo, la teoría conduce a descubrir hechos nuevos hasta entonces desconocidos. En los programas regresivos, las teorías son fabricadas sólo para acomodar los hechos ya conocidos" (Lakatos, 1998: 15). Lakatos reconoce el papel trascendental que desempeñan las predicciones en los programas, hasta tal punto que cuando un programa sea incapaz de generar nuevas perspectivas de futuro y únicamente trate de encajar hechos ya pasados, estará en un proceso degenerativo. Precisamente en este punto es en el que el núcleo de un programa puede ser abandonado cuando deje de anticipar hechos nuevos: "Nuestro núcleo firme puede derrumbarse en ciertas condiciones (...) una posibilidad que es fundamentalmente lógica y empírica" (Lakatos, 1998: 68). En contra de lo que apuntaba Popper, en el sentido de que una teoría que no supere las falsaciones debe ser desestimada, Lakatos (1998: 16) explica que hay "que tratar con benevolencia a los programas en desarrollo; pueden transcurrir décadas antes de que los programas despeguen del suelo y se hagan empíricamente progresivos. La crítica no es un arma popperiana que mate con rapidez la refutación". Según lo señalado por Lakatos, si se destruyeran los supuestos teóricos con la rapidez preconizada por Popper, no sería posible alcanzar un cierto avance científico: "La principal diferencia con respecto a la versión original de Popper creo que es que, según mi punto de vista, la crítica no destruye (ni debe destruir) con la rapidez que imaginaba Popper. La crítica destructiva, puramente negativa, como la refutación o la demostración de una inconsistencia no elimina un programa de investigación. La crítica de un programa es un proceso largo y a menudo frustrante; hay que tratar a los programas en crecimiento sin severidad" (Lakatos, 1998: 122). Por tanto, Lakatos (1998: 17) apuesta por un progreso científico que es racional, al igual que Popper y en contraposición a Kuhn, quien parece creer que el "cambio de un paradigma a otro es una conversión mística que no puede estar gobernada por pruebas racionales" (Lakatos, 1998: 19). La principal objeción esbozada a la propuesta de Lakatos es que no ofrece las pautas para desestimar definitivamente un programa de investigación, puesto que "es racional aferrarse a un programa degenerativo con la esperanza de que podrá regresar" (Chalmers, 2003: 138). Esto sucedió con algunas teorías, como, por ejemplo, con la copernicana, que degeneró durante un siglo, después de sus primeros éxitos, antes de que volviera a generar predicciones gracias a la recuperación que llevaron a cabo Galileo y Kepler (Chalmers, 2003: 136). El propio Lakatos reconoce la debilidad de la racionalidad instantánea, que para él no existe en la ciencia, de ahí que sólo a largo plazo (es decir, desde una perspectiva histórica) se pueda determinar la validez o inconsistencia de un programa, por lo que su propuesta no sirve como método para desestimar un determinado paradigma, sino que servirá principalmente para esbozar la valoración desde una perspectiva histórica (Chalmers, 2003: 136). En relación con el núcleo inamovible de los programas de investigación, en ocasiones el avance científico ha estado generado precisamente por la transformación de su propia fundamentación (fue el caso de las teorizaciones de Copérnico). Esta problemática redunda directamente sobre uno de los pilares más básicos de la propuesta que se expone, puesto que si no es posible determinar el núcleo del programa de investigación, tanto más difícil para la comunidad científica será establecer qué hipótesis deben permanecer inamovibles y cuáles deben ir siendo modificadas con el fin de que cumplan el papel de cinturón protector–receptor de críticas y refutaciones. Por último, Lakatos, para esbozar una perspectiva de cómo se produce el avance científico, parece hacer referencia, por los ejemplos con los que ilustra sus supuestos, principalmente a la ciencia física (también a la lógica y la matemática). Es posible que la metodología y las normas usadas para juzgarla no sean apropiadas en otras disciplinas, puesto que "no se pueden hacer ensayos experimentales con la gente y las sociedades, sin destruir lo que se está investigando. Los sistemas vivos necesitan de una gran complejidad para funcionar, de modo que se puede esperar que incluso la biología exhiba diferencias importantes con la física. En las ciencias sociales el conocimiento que se produce forma él mismo un componente importante de los sistemas en estudio" (Chalmers, 2003: 138).7, 8 Un filósofo de la ciencia que ha criticado la propuesta de Lakatos ha sido Feyerabend, autor que apuesta por una total anarquía en los procedimientos que deben seguirse en la construcción del conocimiento científico. Feyerabend parte del hecho de que no existe un solo método científico como tal, pues, a lo largo de la historia, en general la investigación ha atacado alguna de sus normas metodológicas; de tal manera que la mayoría de los avances históricos de la ciencia no se ajustan a las teorías planteadas por los filósofos clásicos. "Descubrimos entonces que no hay una sola regla, por plausible que sea, y por firmemente basada que esté en la epistemología, que no sea infringida en una ocasión u otra" (Feyerabend, 1986: 7), por lo que si hay que apuntar algún principio del método científico (que en realidad no existe) será el del todo vale, ya que los científicos tienen que seguir sus propios deseos y deben desarrollar su trabajo en un total ambiente de libertad, lejos de todo tipo de prejuicios, supersticiones o restricciones metodológicas, liberando a la sociedad de la camisa de fuerza que supone una ciencia ideológicamente petrificada (Feyerabend, 1986: 307 y ss). Feyerabend mantiene que la mayor parte de las investigaciones científicas nunca se han desarrollado siguiendo un método racional, por lo que el anarquismo debe reemplazar al racionalismo: de esta manera se alcanzará el progreso intelectual, mediante la creatividad y el propio empuje del científico. La idea de un método que contenga principios firmes, inamovibles y absolutamente obligatorios para conducir la actividad científica tropieza con graves dificultades cuando se confronta con los resultados de la investigación histórica. Es evidente que tales infracciones no son acontecimientos meramente accidentales, no son resultado de la insuficiencia del conocimiento o de descuido que pudieran haberse evitado (Feyerabend, 1986). En concreto, para este autor, el falsacionismo popperiano impide el desarrollo de teorías alternativas: "El requisito de aceptar sólo aquellas teorías que son consistentes con los hechos disponibles y aceptados nos deja también sin ninguna teoría, pues no existe ni una sola teoría que no tenga una dificultad u otra... El método correcto no debe contener reglas que nos obliguen a elegir entre teorías sobre la base de la falsación. Por el contrario, las reglas de dicho método deben hacer posible elegir entre teorías que ya fueron contrastadas y resultaron falsadas" (Feyerabend, 1986: 49), de ahí que la sumisión a reglas y normas haga, a la larga, estéril el trabajo del científico y, más que una teoría del camino recto, deba escribir una teoría del error. Para él, la ciencia es una combinación de reglas y errores, de lo que se deduce que el científico que trabaja en una situación histórica particular debe aprender a reconocer el error y a convivir con él, teniendo siempre presente que él mismo está sujeto a añadir nuevos errores en cualquier etapa de la investigación. Feyerabend no pretende abolir todo tipo de normas o demostrar que no tienen valor, sino que trata de ampliar el inventario de reglas y proponer un uso distinto de éstas. En principio, la comunidad científica maneja unas construcciones teóricas determinadas en función de la elección mayoritaria dentro de un extenso grupo de opinantes. No se elige necesariamente la que parece más ajustada a la realidad, pues se mueven en un plano muy abstracto y en la elección influyen factores muy diversos: económicos, políticos, prácticos y aun estéticos (Escohotado, 1987: 478). Por eso, se apuntaba que el científico no debe trabajar bajo el constreñimiento de la supeditación a un solo método, sino que en función de la investigación se usará una regla u otra según interese e incluso se abandonarán las reglas ya existentes para inventar una nueva (Feyerabend, 1986). Según Feyerabend, la única regla de contrastación de teorías consistirá en compararlas, no con la experiencia, como sugieren Popper y Lakatos, sino con sistemas teóricos combinados con ésta. "La evidencia relevante para la contrastación de una teoría T a menudo sólo puede ser sacada a la luz con ayuda de otra teoría T', incompatible con T " (Feyerabend, 1986). Para Martínez Freire (1990), la actitud de Feyerabend es útil para evitar dogmatismos en metodología, pero su radicalidad le lleva a olvidar la existencia de patrones de descubrimiento que son eficaces; las consideraciones de Feyerabend son relevantes en el contexto de la investigación en nuevos campos de estudio, pero no pueden pretender aplicarse a la práctica científica en campos de estudio ya conocidos, en los que la rutina en el uso de reglas es posible. Feyerabend apunta que la ciencia progresa cuando existe independencia y autonomía en la utilización metodológica, y no sometimiento a normas estrictas de investigación. Blaug (1985: 63) lo resume de la siguiente forma: "Feyerabend no está en contra del método en las ciencias, sino que más bien está en contra del método en general, incluyendo su propio consejo de ignorar todo método". También arremete Feyerabend contra el estatus de la propia ciencia,9 pues ésta no posee ningún rasgo que la haga superior al resto de conocimientos: se le ha atribuido un rango que no le pertenece, un rango cuasi religioso.10 En Diálogo sobre el método, Feyerabend (2000: 85) arremete contra los científicos11 y equipara a la ciencia con otros saberes, como la astrología, ya que para él los ataques que la descalifican como ciencia son infundados: "La astrología constituye también un ejemplo excelente de cómo los ignorantes (es decir, los científicos), con el concurso de otros ignorantes (los filósofos de la ciencia, por ejemplo) corren el riesgo de engañar a todo el mundo" (Feyerabend, 2000: 85). En definitiva, Feyerabend apuesta por el pluralismo metodológico y paradigmático, por la transparencia y por una ciencia humanista y plural. Pero la total libertad de creación que defiende el filósofo no es en la práctica muy factible, puesto que el científico, para hacer una contribución a la ciencia deberá enfrentarse a los trabajos previamente consolidados, por lo que "los caminos abiertos a los científicos en general vendrán delimitados por la situación objetivamente existente, mientras que el camino abierto a un científico en particular estará determinado por el subconjunto de los recursos existentes a los que puede tener acceso. Los científicos serán libres de seguir sus deseos subjetivos sólo en la medida en que puedan elegir entre la serie restringida de opciones que les son posibles. Aún más: les guste o no, los individuos tendrán que hacer una caracterización de la situación con la que se enfrentan como pre–requisito para su comprensión. Bien sean cambios en la ciencia, bien en la sociedad en general, el trabajo teórico principal implica una comprensión de la situación a la que se enfrenta el individuo, y no una llamada generalizada a una libertad sin restricciones". UNIDAD V: EL DESARROLLO DEL CONOCIMIENTO CIENTIFICO EN LA FILOSOFIA ACTUAL DE LA CIENCIA 5.1 El cambio científico en la moderna teoría de la ciencia. Cuando la Ciencia Normal fracasa en su propósito de dar solución a los Enigmas y a sus problemas tradicionales, sobreviene un período de inseguridad profesional que, agravado por la aparición de la Anomalía, se convertirá en una verdadera crisis paradigmática. En estas circunstancias son muchos los científicos que abandonan su disciplina incapaz de soportar ese estado de desordenada confusión. Poco duraría la ciencia si no fuera por esos científicos, los más jóvenes y creativos, tolerantes del derrumbamiento científico, que, embistiendo con una teoría nueva, edificarán y ordenarán una nueva tradición científica. Esa lucha que Kuhn denominó tensión esencial, acabará con el paradigma anterior. LA TENSION ESENCIAL Un signo evidente de que la crisis ha cuajado es la aparición de la anomalía y de las Escuelas en competencia como consecuencia del fracaso de la Ciencia Normal en sus resoluciones. Pero para que la Anomalía provoque una crisis es necesario que ponga en tela de juicio fundamentaciones y generalizaciones importantes del Paradigma anterior. Si esto es así, el Paradigma anterior quedará invalidado en la confrontación de éste con el mundo y con la nueva teoría y ocupará su lograr un nuevo candidato. Simultáneamente se rechazará una teoría y se aceptará otra. Kuhn compara este proceso con el de las revoluciones políticas: ningún descubrimiento científico es definitivo; la Ciencia no tiende hacía una meta donde, después de ella no hay nada. Es difícil que la Ciencia llegue un día a tal grado de perfección y acabamiento que no pueda seguir haciéndose. Ningún Paradigma es concluyente; todos son provisionales y, como tales, algún día dejarán de satisfacer porque no podrán resolver los nuevos problemas planteados y, entonces, se creará una conciencia de mal funcionamiento que provocará la búsqueda de un nuevo paradigma. MECANISMOS DE CAMBIO DE PARADIGMAS La Revolución Científica siempre supondrá una incompatibilidad entre paradigmas: se elige un paradigma y se eliminan los demás. Esta elección no se hará siguiendo ningunos criterios objetivos con los cuales comparar las teorías entre sí puesto que, para Kuhn la una norma válida para preferir una u otra es la plena aceptación del nuevo paradigma por la Comunidad Científica. Este punto de la teoría Kuhniana ha provocado fuertes discusiones porque se han enfrentado dos posturas radicalmente opuestas: el racionalismo científico frente al no-racionalismo: En La Estructura de las Revoluciones Científicas Kuhn observa que se puede apelar a esos factores para persuadir a los científicos de que cambien de opinión. La fuerza de la apelación a esos factores reside únicamente en su aceptación general, pero esos facto res carecen de fundamento puesto que no hay manera de justificarlos, y, siendo esto así, el proyecto racionalista estaría condenado" Los racionalistas exigen la justificación de los principios por los que se va a comparar y elegir entre dos teorías, pero Kuhn se va a mostrar escéptico a la hora de establecer criterios objetivos y reglas que obliguen a la balanza a inclinarse a un lado o a otro de la elección. Algunos de los criterios Kuhníanos que más de acuerdo van a estar con los presupuestos racionalistas son: - Que la teoría sea precisa en sus predicciones para que haya un mayor acuerdo entre naturaleza y teoría. - La consistencia teórica - El alcance amplio y la simplicidad en la teoría Que el Paradigma sea fructífero. Pero esos factores, aunque. Son generalmente compartidos por los miembros de las comunidades científicas, sin embargo, no están libres de discrepancias y por lo tanto no se pueden aplicar rigurosamente en la elección de teorías; es decir, carecen de fundamento puesto que no se pueden justificar. Kuhn va a apelar a factores psicológicos y sociológicos para comparar teorías. Si la ciencia no es acumulativa los paradigmas serán incompatibles. Las nuevas teorías nacen de anomalías que no pueden coexistir con los paradigmas de los que surgieron y esto es, justamente, lo que produce la génesis de nuevos modelos. Y si las teorías son incompatibles ¿qué razón habrá para elegir una teoría u otra sino la adopción de alguna por la Comunidad Científica? Todas las teorías se adecuan a los hechos, pero de forma relativa. El que concuerde mejor o peor con ellos es algo subjetivo. Si hay una competencia entre paradigmas ninguno puede probar su argumento y la adopción de un u otro será decisiva porque comportará una determinada forma de ver el mundo. Después de una revolución científica el nuevo y el antiguo modelo son necesariamente irreconciliables. Suponiendo eso, aparecen nuevos temas de estudio, metodologías, problemas y formas de resolución y, por consiguiente, un gran cambio en las normas y reglas de la Ciencia con respecto a la tradición anterior. Este cambio de paradigma producirá una transformación en los científicos, en su forma de ver el mundo; es decir, representará por un lado, una visión del mundo determinada y, por otro, de la Ciencia. Esto se puede comprender muy bien mediante un análisis histórico de las concepciones del mundo a través de la ciencia. Por ejemplo, no es lo mismo el mundo Aristotélico, pequeño, finito y con tendencias, que el Newtoniano, infinito, absoluto y mecánico. El investigador, ante un cambio de paradigma, debe aprender a cambiar la percepción que tiene del medio ambiente que le rodea, porque ese mundo es también incompatible con el anterior. Aquí Kuhn toma elementos de la Gestalt donde el concepto fundamental es el cambio de formas (sobre un mismo dibujo se puede percibir una copa o una cara, deduciéndose que lo importante es cómo se mira y bajo qué supuestos y no el objeto observado en sí) Newton y Smith calificaron esta postura de idealista o no objetivista. El cambio de visión, para Kuhn afecta tanto a la Ciencia como a la visión que se tenga del mundo y, en alguna medida, al mundo mismo. Los que dicen que el mundo no cambia, lo dicen porque se hallan inmersos en una tradición paradigmática determinada iniciada por Descartes y Newton dentro de cuyos presupuestos estaba esta idea implícita. Aunque el mundo no cambie materialmente después de una Revolución Científica, el profesional trabaja, de hecho, con un mundo nuevo, ya que no hay datos fijos que se puedan interpretar científicamente y de manera siempre invariable. LO DADO Lo dado no es lo que se capta por la experiencia, sino que, este proceso está determinado por el modelo paradigmático vigente en una Comunidad Científica de terminada. En toda percepción hay un factor sociológico y social que determina el modo de aprehensión de lo dado. Lo dado, objetivamente y de una forma neutral, no existe en ningún lenguaje de observación. Todo lenguaje supone un paradigma, es decir, un mundo estructurado de una manera particular, tanto perceptual como conceptualmente, lo que, sin embargo, no supone que esto se diseñe de una manera tan fija e inquebrantable que se haga impensable un cambio en la tradición científica dominante. De hecho las, revoluciones científicas ocurren de tal manera que aunque el instrumental, el vocabulario y la conceptualización no hayan variado apenas, sí lo han hecho, y de una manera bastante importante, los problemas a seguir, los datos utilizados, la noción de ciencia y, por ende, la visión del mundo que ésta proporcione para explicar y manipular la naturaleza. 5.2 El reto de la inconmensualidad en la filosofía de la ciencia de Kuhn y Feyerabend La inconmensurabilidad, en la filosofía de la ciencia, es la imposibilidad de comparación de dos teorías cuando no hay un lenguaje teórico común. Si dos teorías son inconmensurables entonces no hay manera de compararlas y decir cuál es mejor y correcta. En 1962, Thomas Kuhn y Paul Feyerabend, de manera independiente, introdujeron la noción de inconmensurabilidad en la filosofía de la ciencia. En ambos casos el concepto provenía de las matemáticas, y en su sentido original se define como la falta de una unidad común de medida que permita una medición directa y exacta entre dos variables; se predica, por ejemplo, de la diagonal de un cuadrado con relación a su lado. Inconmensurabilidad en las matemáticas Esta diagonal es inconmensurable con respecto a sus lados. Artículo principal: Conmensurabilidad (matemática). La idea central de este concepto en matemáticas no es la imposibilidad de comparación, sino la ausencia de un factor común que pueda ser expresado. Se analiza el ejemplo de la diagonal de un cuadrado con relación a su lado. La razón de la diagonal d de un cuadrado y su lado l es inconmensurable (es irracional). La demostración de que d/l no es racional se puede hacer de manera indirecta, considerando lo contrario. Se busca llegar a una contradicción. Si se llega a una contradicción, lo contrario no es cierto, y se establecería lo que se desea. En términos lógicos: si queremos demostrar la proposición J, asumimos que "no J" es correcta. Mediante deducciones lógicas a partir de "no J" llegamos a una contradicción. Entonces se concluye que "no J" no es cierta y, por lo tanto, J debe ser verdadera. Este método se llama reducción al absurdo. Introducción al término La introducción del término estuvo motivada por una serie de problemas que ambos autores observaron al tratar de interpretar teorías científicas sucesivas y sin duda su implementación se entiende mejor a la luz de la crítica que tanto Kuhn como Feyerabend realizaron ante ciertas tesis que los representantes de la llamada concepción heredada habían sostenido, entre las cuales destaca la famosa tesis de la acumulación del conocimiento científico, la cual afirma que el corpus del conocimiento científico ha ido aumentando con el paso del tiempo, tesis que tanto Kuhn como Feyerabend rechazan. Otra tesis igualmente importante es la existencia de un lenguaje neutro de contraste en el cual puedan formularse las consecuencias empíricas de dos teorías en competencia, de tal forma que se puede elegir a la que tenga el mayor contenido empírico verificado – o no falseado si la formulación es popperiana. La noción de fondo de esta segunda tesis no es sólo la existencia de tal lenguaje sino que implica, al menos, dos postulados más. Primero, la afirmación de que la elección entre teorías tiene como prerrequisito su intertraducibilidad, por ejemplo entre una teoría T y su sucesora T’ – y en el caso de Popper la deducibilidad de T’ a partir de T – y segundo, que la elección siempre se realiza bajo los mismos estándares de racionalidad. En ambos casos el concepto de inconmensurabilidad hace imposible la viabilidad de las tesis. En el primero, al mostrar que ciertas consecuencias empíricas entre teorías sucesivas se pierden. En el segundo, al afirmar que es posible una elección racional entre teorías incluso cuando éstas no pueden traducirse a un lenguaje neutro. Sin embargo, aunque los motivos - y las críticas a las que da origen – para su introducción son semejantes, de ninguna manera son idénticos los sentidos en el que los dos coautores le emplearon, por lo cual se discute la noción de inconmensurabilidad para cada coautor en particular. Visiones Visión de Feyerabend Feyerabend ubica la inconmensurabilidad desde un principio en el terreno semántico, la noción fundamental que hay detrás es el cambio de significado de los términos básicos de una teoría, cambio que invade la totalidad de los términos de la nueva teoría, haciendo que entre T y T’ no exista ninguna consecuencia empírica común. Teorías En 1989, Feyerabend presenta esta noción a contraluz del racionalismo crítico de Popper en el cual "la investigación empieza con un problema. El problema es el resultado de un conflicto entre una expectativa y una observación que, a su vez, es constituida por la expectativa." (Feyerabend, 1989; pp. 96). La metodología de la ciencia es entonces el resolver problemas al inventar teorías que sean relevantes, falseables, al menos en mayor grado que cualquier solución alterna. Una vez que tal alternativa está presente comienza la fase crítica con respecto a T’, la cual habrá de contestar las siguientes preguntas: (a) por qué la teoría T había tenido éxito hasta ahora, y (b) por qué ha fracasado. Si la nueva teoría T’ da cuenta de ambas preguntas, entonces T se deshecha. Esto es, una teoría nueva T’, para ser una sucesora adecuada de una teoría refutada T, debe tener un conjunto de predicciones adicionales con respecto a T (clase A), así como un conjunto de predicciones exitosas que coincide en cierta medida con la vieja teoría T (clase S) – lo cual constituye parte del contenido de verdad de la nueva teoría – y, asimismo, excluir una serie de consecuencias de T, los fracasos de la vieja teoría, los cuales son parte del contenido de falsedad de la nueva teoría (clase F). Dado este modelo es posible construir enunciados relacionales entre ciertos términos de T y de T’, los cuales serán la base de la comparación entre las teorías, permitiendo una elección entre ambas a la luz de su contenido empírico. Pero, si nos enfrentamos a una teoría T’ tal que la clase S es vacía, las teorías son inconmensurables entre sí. Sin embargo, Feyerabend aclara, la inconmensurabilidad entre T y T’ dependerá de la interpretación que se les dé a las teorías. Si ésta es instrumental, toda teoría que se refiera a un mismo lenguaje de observación será conmensurable. De igual forma, si lo que se busca es una perspectiva realista, entonces se favorecerá una posición unificada en la cual se emplearán los términos más abstractos de cualquiera que sea la teoría que se considere para describir a ambas teorías otorgando un significado a los enunciados de observación en función de estos términos, o, al menos para reemplazar el uso habitual que se les da. Sobre la interpretación instrumentalista se puede comentar que existirían ciertas oraciones cuyo valor de verdad no sólo dependería de los enunciados observacionales sino de los criterios de evaluación a los que éstos se someten y que están anclados en las teorías. Por ejemplo, si se afirma el carácter relacional de toda longitud, tal aseveración no puede ser decidida en términos meramente observacionales sino que su valor de verdad depende en parte de la teoría que establece el sentido en el cual se usarán los términos, en este caso la Mecánica Cuántica (MQ) en oposición a la Mecánica Clásica (MC). En este sentido, la posición instrumentalista atiende sólo a las consecuencias empíricas y deja de lado la relación que los conceptos tienen entre sí. En este mismo sentido, Feyerabend comenta que: Es cierto, desde luego, que el esquema relativista nos da muy a menudo números que son prácticamente idénticos a los números que se obtienen de MC, pero no por ello los conceptos son más similares... [Pues] Ni siquiera el caso... que da lugar a predicciones estrictamente idénticas puede utilizarse como argumento para mostrar que los conceptos deben coincidir al menos en este caso, pues magnitudes diferentes basadas en conceptos diferentes pueden dar valores idénticos en sus respectivas escalas sin dejar de ser magnitudes diferentes... [Así es que] Ni se puede hacer una comparación de contenido ni se puede emitir un juicio sobre la verosimilitud. Paul Feyerabend Objeción realista Sobre la objeción realista, Feyerabend retoma un argumento elaborado por Carnap y comenta que el uso de tales conceptos abstractos conlleva a una posición imposible, pues «...los términos teóricos reciben su interpretación al ponerse en conexión o bien con un lenguaje de observación preexistente, o bien con una teoría que ya ha sido puesta en conexión con un lenguaje de observación, y que esos términos están vacíos sin esa conexión.» (Feyerabend, pp. 373). De lo anterior se sigue que no se les puede usar para otorgar significado al lenguaje de observación pues este lenguaje de observación es su única fuente de significado, con lo cual lo que se realizaría no sería una traducción sino un reemplazo del término. Así Feyerabend considera que tanto la interpretación realista como la instrumentalista son fallidas, con lo cual pretende defender la noción de inconmensurabilidad como una noción legítimamente insalvable y con ello anular la tesis de la acumulación y el panracionalismo en la ciencia. Esto lleva a la siguiente consideración: si cada nueva teoría tiene su propia base observacional, en el sentido de la carga teórica, cómo podemos esperar que las observaciones que produzca logren eventualmente refutarla, pero aún más, cómo podremos dar cuenta de que efectivamente la nueva posición explica lo que se supone que pretendía explicar o si está deambulando por campos diferentes, y en este sentido, cómo comparar finalmente las teorías. La respuesta de Feyerabend a la primera consideración radica en realizar la siguiente distinción: los términos primitivos de una teoría sólo dependen de los postulados de la teoría y las reglas gramaticales asociadas mientras que las predicciones que realiza dependen también de las condiciones iniciales del sistema. Feyerabend no explora mucho más el punto pero puede suponerse que si la predicción no corresponde con la observación y si tenemos un alto grado de confianza en la descripción que hemos realizado de las condiciones iniciales, entonces podemos asegurar que el error debe estar presente en nuestra teoría y sus términos primitivos. Sobre la segunda consideración, Feyerabend responde con una pregunta: «por qué habría de ser necesario disponer de una terminología que permita decir que dos teorías hablan del mismo experimento. Esto supondría una pretensión unificacionista, posiblemente realista, cuyo objetivo parecería ser la verdad, sin embargo, es de suponerse que la teoría puede contrastarse bajo un criterio de adecuación empírica. Tal criterio partiría de la relación que se establece entre el enunciado observacional que describe el resultado de un experimento formulado para cada teoría de forma independiente, el cual se compara con las predicciones que cada teoría postula. En este sentido, la elección se realiza cuando una teoría es empíricamente más adecuada. Y si con esto la objeción ante la posible deambulación de la nueva teoría no se contesta, es irrelevante pues muchas veces la historia nos ha demostrado que en efecto las posiciones varían o modifican sus campos de aplicación, por ejemplo, la física aristotélica y la newtoniana» Elección de teorías Lo dicho anteriormente implica que el proceso de elección de teorías no obedece a una racionalidad universal. Sobre si la ausencia de ésta constituye una posición irracional Feyerabend afirma: No, porque cada episodio particular es racional en el sentido de que algunos de sus rasgos pueden ser explicados en términos de razones que o fueron aceptadas en el tiempo en el que ocurrieron, o inventadas en el curso de su desarrollo. Sí, porque incluso estas razones locales que cambian de época en época nunca son suficientes para explicar todos los rasgos importantes de un episodio particular. Paul Feyerabend Con lo anterior Feyerabend trata de arrojar luz sobre una consideración hecha por el mismo Popper, y que afirma que siempre somos capaces de revisar todo pronunciamiento, incluso los sistemas de referencia que guían nuestra crítica. Sin embargo, las conclusiones de ambos son diferentes, pues Popper supone que siempre es posible realizar una crítica una vez que los nuevos criterios han sido aceptados, con lo cual la elección puede ser vista como el resultado de una racionalidad a posteriori de la elección. Mientras que en la posición de Feyerabend, esta solución es meramente un ornamento verbal toda vez que los estándares se ven influidos por el primer mundo de Popper, el mundo físico, y no sólo se desarrollan en el mundo tres. Es decir, los estándares se ven influidos por las expectativas a las que dan origen, las actitudes que conllevan, y las formas de interpretar el mundo que favorecen, pero esto es estrictamente análogo al proceso mismo de una revolución científica, lo cual nos lleva a creer que la tesis de la inconmensurabilidad puede ser aplicada también a estándares, como lo evidencia la siguiente aseveración: Incluso el racionalista más puritano se verá obligado entonces a dejar de argumentar y a emplear, por ejemplo, la propaganda no porque algunos de sus argumentos haya dejado de ser válido, sino porque han desaparecido las condiciones psicológicas que le permitían argumentar efectivamente y, por tanto, influir sobre los demás. Paul Feyerabend Feyerabend afirma que el criticismo popperiano es, o bien relativo a ciertos procedimientos claramente definidos, o bien es totalmente abstracto y deja a otros la tarea de llenarle ahora con este, después con aquel contenido concreto, haciendo que la racionalidad a Popper sea un «mero ornamento verbal». Lo anterior no implica desde luego que Feyerabend sea un irracional sino que considera que el proceso de cambio científico no puede ser explicado en su totalidad a la luz de alguna racionalidad, precisamente porque hay inconmensurabilidad. Visión de Kuhn El segundo coautor de la tesis de la inconmensurabilidad es Thomas Kuhn, quien la introduce en su obra de 1962, La estructura de las revoluciones científicas, obra en la que le describe como una propiedad global que describe las relaciones entre paradigmas sucesivos. Bajo este entendido, la inconmensurabilidad rebasa el terreno semántico y abarca todo lo concerniente a las prácticas, ya sea desde los campos de problemas hasta los métodos y normas de resolución que se les asocian. Sin embargo, el término se fue refinando a través de toda la obra de Kuhn, primero, al acotarle a un terreno semántico y con una formulación local, para posteriormente redefinirlo en un sentido taxonómico donde el cambio se encuentra en las relaciones de semejanza/diferencia que los sujetos de una matriz disciplinar trazan sobre el mundo. Etapas En este sentido, y siguiendo a Pérez Ransanz, podemos ubicar tres grandes etapas en la obra de Kuhn, por lo menos en lo que a este concepto se refiere. La primera, como ya hemos visto, es la presente en ERC y se caracteriza por una visión global que se aplica a los paradigmas. Tal visión es reemplazada en los años setenta por una visión localista y semanticista en la cual se le define ahora como la relación que se predica entre dos teorías que están articuladas en dos lenguajes que no son completamente traducibles entre sí, como deja ver Kuhn en el siguiente pasaje de su obra: La frase "sin medida común" se convierte en "sin lenguaje común". Afirmar que dos teorías son inconmensurables significa afirmar que no hay ningún lenguaje neutral o de cualquier otro tipo, al que ambas teorías, concebidas como conjuntos de enunciados, puedan traducirse sin resto o pérdida... [Sin embargo] La mayoría de los términos comunes a las dos teorías funcionan de la misma forma en ambas... Thomas Kuhn Lo anterior sólo prohíbe un tipo de comparación, aquella que se efectúa entre los enunciados de estas dos teorías en una relación uno a uno. Una idea que subyace a tal formulación es que la traducibilidad implica simetría y transitividad pues si una teoría T es traducible con otra teoría T’, entonces T’ es traducible a T, y más aún pues si existiese una tercera teoría T’’ y ésta fuese traducible con T’, no podría ser el caso que las teorías T y T’ fuesen inconmensurables, toda vez que la relación transitiva y simétrica asegura que sus enunciados podrán ser comparados uno a uno. En este punto cabe hacer notar que Kuhn no niega que dos teorías inconmensurables tengan un ámbito común de referencia, y en este sentido no afirma la imposibilidad de la comparación sino que su tesis se refiere únicamente a la capacidad de traducir los enunciados de estas teorías en una relación de uno a uno, como se muestra en el pasaje: Los términos que preservan sus significados a través de un cambio de teoría proporcionan una base suficiente para la discusión de las diferencias, y para las comparaciones que son relevantes en la elección de teorías. [Continuación en un pie de página] Nótese que estos términos no son independientes de la teoría, sino que sencillamente se usan de la misma manera en las dos teorías en cuestión. Se sigue que la contrastación es un proceso que compara dos teorías, no un proceso que pueda evaluar teorías por separado. Thomas Kuhn Lo anterior es relevante porque permite dilucidar que el sentido de la racionalidad en Kuhn está ligado a la capacidad de comprensión, y no a la capacidad de traducción misma (Pérez Ransanz, 2000). En la tercera etapa de la obra de Kuhn la formulación de la tesis de la inconmensurabilidad se redefine en términos taxonómicos y se explica en función del cambio de las relaciones de semejanza/diferencia entre dos teorías. Este cambio, aclara Kuhn, atañe a los conceptos de clase A no sólo porque hay un cambio en el modo de referir los conceptos sino porque la estructura subyacente en ellos se ve alterada, esto es, varía el sentido – su intención – pero también su referencia. De esta forma Kuhn afirma que no todos los cambios semánticos son cambios que conlleven a la inconmensurabilidad, lo son sólo aquellos que, por ser realizados en las categorías de base, operan de manera holista, resultando en que toda la relación entre estos términos se vea alterada. Lo anterior, de un carácter local pero explicado en términos taxonómicos, define a la inconmensurabilidad como la imposibilidad de homologar las estructuras taxonómicas de dos teorías, imposibilidad que se expresa en una traducción necesariamente incompleta. Caracterización taxonómica Es precisamente esta caracterización taxonómica la que le permite postular su principio de no traslape, pues si las categorías taxonómicas son particiones en un sentido lógico entonces esto implica que las relaciones que se establecen entre estos conceptos y el resto son necesariamente jerárquicas. Y es justamente por este tipo de relación que los cambios en las categorías son holistas, pues la modificación de una categoría necesariamente implica la modificación de las categorías que le circundan, lo cual explica porque una vez dado este cambio las taxonomías no pueden ser ya homologables – en el sentido de isomorfas. Una ventaja de tal caracterización – que se encontraba ya presente en su obra más con remanentes de la caracterización semántica, misma que Kuhn llevó a todo su potencial a finales de los ochenta en su caracterización taxonómica – es su creencia de que los criterios que permiten a las personas el identificar un concepto con sus referentes son muchos y variados, de tal forma que no es relevante para la comunicación exitosa una coincidencia en criterios, sino sólo en las categorías que estos implican; es decir, Kuhn visualiza las relaciones entre los conceptos como existentes en un espacio multidimensional, las categorías consisten en particiones de ese espacio, y son éstas las que deben coincidir entre los comunicantes, no así los criterios que establecen una ligadura entre este espacio y el referente asociado. Reluctancia Una precisión importante que debe realizarse, y que aparece constante en toda la obra de Kuhn, es su reluctancia a igualar traducción e interpretación, equiparación que Kuhn atribuye a la tradición analítica en la filosofía. La traducción es una actividad casi mecánica en la cual se produce un manual de traducción quineano que relaciona secuencias de palabras de tal forma que los valores de verdad de estas oraciones se conservan. Sin embargo, el proceso de la interpretación implica la elaboración de hipótesis de traducción, las cuales habrán de ser exitosas cuando permitan entender de manera coherente y con sentido aquellas preferencias que son extrañas. Kuhn entonces reniega de un principio de traducibilidad universal pero no de un principio de inelegibilidad universal, distinción que será muy importante para entender el rechazo de Kuhn hacia las críticas que le realizaron, por ejemplo, Popper y Davidson. Pero sin lugar a dudas la noción anterior nos invita a cuestionarnos cómo es que somos capaces de interpretar en primer lugar, la solución de Kuhn consiste en afirmar que esto es como aprender un nuevo lenguaje. Sobre cómo es que somos capaces de aprender un nuevo lenguaje cuando nos enfrentamos a un cambio holista como el implicado con la noción de inconmensurabilidad caben mencionar cuatro aspectos: Primero, para realizar tal asimilación es necesario que el vocabulario complementario esté bien comprendido. Segundo, las definiciones habrán de cumplir un papel mínimo, son los ejemplos paradigmáticos los que introducen el uso de los nuevos conceptos de tal forma que un componente estipulativo u ostensivo es indispensable. Tercero, que los conceptos de clase no pueden aprenderse aislados sino en relación a una serie de conjuntos de contraste. Cuarto, que el proceso de aprendizaje conlleva la generación de expectativas, las cuales son la base de la proyectabilidad de los términos de clase, de tal suerte que éstas son a su vez la base de, entre otras cosas, las inferencias inductivas. Y último, así como los criterios para relacionar la clase y su referente varían, también lo hacen las rutas de aprendizaje de los sujetos.