1 Título: EL UNIVERSO SENSIBLE. Autor: GUILLERMO AGUDELO MURGUÍA Y JUAN SEBASTIAN AGUDELO Instituto de Investigaciones sobre la Evolución Humana, A.C., colección Hacia el futuro, México © 2002 Guillermo Agudelo Murguía; Juan Sebastián Agudelo EL UNIVERSO SENSIBLE. INDICE Presentación……………………………………………………………………………. 2 Prefacio…………………………………………………………………………………...6 Introducción…………………………………………………………………………….11 Capítulo 1 LA PREGUNTA DE AUDEN, LA RESPUESTA DE GOULD……..18 Capítulo 2 LA MÚSICA DEL UNIVERSO………………………………………..48 Capítulo 3 QUANTUM: PUNTOS EXTREMOS…………………………………77 Capítulo 4 EL SIEMPRE INALCANZABLE SANTO GRIAL: LA TEORÍA DEL TODO…………………………………………………………….102 Capítulo 5 DE BÁRBAROS Y BLASFEMOS……………………………………117 Capítulo 6 EL ABISMO DE LA SÍNTESIS: EL FENÓMENO HUMANO COMO UNA HISTORIA UNIVERSAL…………………..…………136 Capítulo 7 EL PUNTO DE PARTIDA DETERMINA EL DESTINO………….156 Capítulo 8 LA EVOLUCIÓN CÓSMICA: UN MODELO……………………...178 Capítulo 9 COMPLEJIDAD Y EVOLUCIÓN…………………………………...206 Epílogo LA VISIÓN DE TEILHARD DE CHARDIN………………………..226 Bibliografía………………………………………………………………………….....250 2 PRESENTACIÓN Ha debido costar mucho esfuerzo culminar este libro, pese al acervo de erudición y cultura científicas de los autores. Me parece una expresión de generosidad, enhebrada con la maestría de un detective de la ciencia metido a cirujano del conocimiento científico, muy de agradecer. Pero hay bastante más. Esta obra es una contribución al mundo de la ciencia y del pensamiento, que nunca debieron separarse. Más exactamente, es una aportación y un refuerzo a la “y” [o al guión o a la relación, llamémosla conciencia], que a la vez los une y los distancia. Se desarrolla en un sentido y con un compás distinto al de la ciencia convencional, pero también difiere de las inercias hacia la estrechez de la formación académica al uso, del prurito de rentabilidad ciega característico de esta sociedad de sonámbulos satisfechos (N. Caballero) y sistemas egocéntricos, de la macdonalización de los contenidos de la vida cotidiana, incluidas educación y ciencia, etc. Todas estas razones nos han forzado a soltar la amarra de lo esencial. Por ello, cuando alguien nos ofrece néctar de cultura fundamental, no sólo se agradece, sino que se comprende su utilidad en el marco de un diálogo profundo y posible de conciencia a conciencia. Los señores Agudelo toman como referente a un autor injusta y torpemente desaprovechado: Pierre Teilhard de Chardin, nacido en 1881, como Pablo Picasso o Cousinet, y muerto en 1955, con sólo unos días de diferencia de A. Einstein. Para algunos –entre los que me encuentro-, Teilhard de Chardin es el germen del nuevo paradigma de la complejidad, de la evolución o de la universalidad. 3 Los autores no tratan tanto de reparar el daño que la iglesia católica infringió a este jesuita prohibido (Vigorelli), sino de mostrar la actualidad de sus tesis, esta vez desde la ciencia. Lo que ocurre es que, al hacerlo, impacta inevitablemente en la esfera de la conciencia personal y colectiva del científico. Por eso su lectura resulta a la vez ilustrativa, formativa y cercana. El universo sensible discurre a lo largo de dos trayectorias convergentes. Por un lado, recorre la circunferencia de la actualidad científica de algunas realizaciones sobresalientes. Por otro, desciende al centro de su geometría e indaga en la percepción del científico. Desde esta dialéctica exterior-interior, nos invita a todos a reflexionar conjuntamente sobre el eje de la posible evolución de un universo orientado hacia el Omega teilhardiano. Esta inducción es tan importante, tan definitoria o tan necesaria como la brújula para el excursionista. ¿Cómo podría si no aquella circunferencia pasar de una estructura plana (recurrente y sin profundidad) a la espiral (autoconstructiva y elevable)? La vida humana y el quehacer científico –parafraseando al propio Teilhard de Chardin- podrían aparecer, a los ojos de un observador externo, como un inmenso tanteo no aleatorio. De esto deducimos [desde el criterio de complejidad de conciencia], que existen varios grupos de científicos: a) Los que saben o creen que saben, y centran su motivación en los qués y en los porqués. Podríamos denominarles científicos explicativos. Sin duda, integrarían la mayor parte de la comunidad de investigadores. b) Los que saben que saben, y han podido ahondar en la naturaleza y raíces epistémicas de su conocimiento. Serían los científicos reflexivos. c) Los que saben lo que saben y no saben, y han profundizado en la propia madurez personal, buscando su integración con la formación profesional. Podríamos calificarles como científicos humildes. 4 d) Los que saben para qué saben que saben, a su vez, de dos clases: 1. Aquellos cuyo para qué se orienta a la rentabilidad de su sistema concreto (tiempo, espacio, ámbito científico, nación, religión, cultura, etc.) -que son la mayoría de ellos-. Identifiquémoslos como científicos sistémicos, parciales o egocéntricos. 2. Aquellos cuya motivación les lleva a interpretar la vida como un proceso de evolución trascendente cuyas coordenadas van mucho más allá de su sistema, su parcialidad, su limitación, su terrenito, etc. Podríamos llamarles científicos complejos, evolucionistas, universales. Desde luego, hay pocos con este último perfil, quizá propio de quienes han cultivado su mentalidad y no sólo se han centrado en lo objetal (investigaciones, sistema rentable, etc.), porque han entendido su trabajo como punto de partida, y no como punto de llegada. Pero cada vez son más y más. La obra los señores Agudelo, orientada a un futuro posible vertebrado por una sensibilidad, una conciencia, una ciencia y una educación más complejas, es una producción del último grupo. Por tanto, podría acicatear a los demás, no sólo desde numerosos contenidos -por ejemplo, los contenidos sustantivos que desarrolla su trabajo-, sino desde aquello que los mueve y los orienta. O sea, desde la respuesta al para qué del conocimiento científico, en el seno de un universo evolutivo, del cual el ser humano actual no es el centro ni sobre todo una culminación, sino un eslabón hallado del ser humano que todavía no nacido, un paso hacia la noosferización, un centímetro primero de un viaje apasionante que apenas ha empezado. 5 Ésta es, a mi juicio, la utilidad teleológica de este trabajo, que estimo fundamental para la preparación del profesional que se forma en la universidad o a lo largo de su vida. AGUSTÍN DE LA HERRÁN GASCÓN Universidad Autónoma de Madrid 6 PREFACIO Este libro tiene una larga historia. Empezó con la lectura del trabajo del paleontólogo y filósofo jesuíta Pierre Teilhard de Chardin y la comprensión de que existe una discrepancia perturbadora entre el pensamiento de Teilhard de Chardin y lo que sus sucesores científicos piensan, sin que esto necesariamente se deba a que existen muchas imprecisiones en el trabajo científico de Teilhard de Chardin. Hay algo extremadamente estimulante en nuestro clima intelectual. Nunca en la historia de nuestra especie ha habido tantas respuestas a lo que usalmente se considera como las preguntas eternas; nunca habíamos tenido tantas teorías coherentes que explicaran cada fenómeno, misterioso aún hace cien años. Estamos entendiendo el cerebro; hemos hecho tremendas incursiones en la memoria, el más misterioso de los regalos. Tenemos una cierta idea del cosmos que dejó perplejos a nuestros antepasados, de su origen, su composición y su tamaño. Sabemos de dónde venimos y cómo hemos llegado a lo que somos. Conocemos también los más profundos secretos de la materia y el átomo. Y con todo, pese a lo estimulante de todo este conocimiento, nunca en nuestra historia ha habido tal sentimiento de desaliento en los circulos intelectuales. Como los juerguistas de uno de esos banquetes llenos de excesos que encontramos en la descripción de los historiadores romanos, los pensadores actuales parecen aburridos, saciados: nada parece motivarlos. Como si tuvieran demasiada estimulación. Y, con tantas respuestas, parece que nunca ha habido tal desecho de teorías. Somos prisioneros de las circunstancias históricas. La crítica sobre el conocimiento y el pensamiento que tomó sus raices del trabajo de Nietzsche, creció y se volvió perentorio después de la segunda guerra mundial, sucedió 7 porque algunos pensadores creyeron que buena parte de nuestro porvenir intelectual como cultura y como especie, había sido maltratada en la retórica del fascismo y el nazismo. Después de Hitler y de Stalin, después de Hiroshima y del Holocausto, cada tentativa humana parecía sospechosa. Después de los genocidios, de las carencias y de las represiones, es difícil creer en nuestra noble naturaleza. Aun la ciencia, esa enrarecida rama del esfuerzo humano, se mostró a sí misma más que cómplice de las atrocidades de nuestra pasada centuria. Los proyectiles que devastaron poblaciones enteras, los productos químicos que envenenan el planeta entero, etc., no son más que sus propios trabajos prácticos. La crítica del conocimiento que nos ha cuestionado nuestra centralidad y la centralidad de la inteligencia no es, en otras palabras, sino precisa y necesaria. Sin embargo, después de cuarenta años –pensamos– se ha salido de cauce. Nos parece que aquellos pensadores que se enfocaron en destapar nuestro etnocentrismo o la falsa autoconfianza que deriva de nuestra racionalidad o lo que descansa detrás de nuestros grandiosos propósitos políticos, ya no está siguiendo la intención de una crítica, sino que actualmente sigue sus propios motivos; la crítica está tan vacia y más vana que el honor del mundo que trata de destruir. Para nosotros, buena parte del rechazo que Teilhard de Chardin ha sufrido, surge del hecho de que él no está au courant, por así decirlo. Su pensamiento no sólo no siguió lo que ha llegado a ser una visión del mundo cada vez más nihilista sino que se estableció para negar ésta. Teilhard de Chardin, a diferencia de otros pensadores del siglo XX, nos recuerda que estamos aquí con un propósito, nos recuerda que el universo y la vida no son ni inútiles ni accidentales, nos recuerda que el pensamiento y el intelecto son centrales. Algunos piensan que su visión es ingenua. Nada más lejos de la 8 verdad. Él está consciente, como lo está Nietzsche, de lo vago que subyace nuestro discurso, está consciente como ningún científico de los muchos hechos que contradicen nuestra centralidad. A diferencia de la mayoría de los pensadores y científicos, él dió ese paso extra y en lugar de señalar lo obvio, se alineó con la gran tradición sintética del siglo XIX e intentó hacer frente a nuestra posición real, no central, en el cosmos, nuestra mayor debilidad. Él logró lo anterior porque detrás de su mente filosófica tenía un respaldo científico. La ciencia, en otras palabras, le dió la respuesta. La ciencia le permitió entender que si vamos a restablecer un propósito para nuestras vidas, si vamos, como especie, a pensar en metas y teleologías, entonces tenemos que entendernos a nosotros mismos como componentes de una mayor y más trascendente entidad. Teilhard de Chardin no sólo suministró un sistema coherente, una lúcida visión y la solución a problemas filosóficos y científicos que su misma visión impuso, sino que nos la regresó con todos los datos científicos disponibles en ese momento. Sus datos fueron precisos y permanecen correctos En realidad, es sorprendente lo acertado que fue seleccionando sus datos. Muy poco de lo que argumentó ha quedado obsoleto. Sin embargo, él ha sido rehuido en los circulos científicos. El principal propósito de este libro es tratar de convencer, tanto a científicos como a pensadores, que Teilhard de Chardin tiene una importante y sólida visión que debe ser reconsiderada. El libro, no obstante, no pretende ser un tratado de conocimiento científico. Los expertos sabrán que para el momento en que la información se llevó a estas páginas, eran viejas noticias. Libros de ciencia, de divulgación, revistas especializadas, artículos periodísticos e internet fueron las vias para llegar al filo de la información científica. Este libro 9 intenta usar lo que ahora se conoce mucho más como “dogma” en la comunidad científica y mostrar cómo ésto se compara con las ideas de Teilhard de Chardin; intenta demostrar que sus ideas son más válidas y actuales hoy, que cuando fueron escritas por primera vez hace más de medio siglo. Más allá, le pide al lector que vea como las ideas de Teilhard de Chardin no son solamente actuales, sino realmente vitales para nuestro futuro. Nadie, científico o filósofo, ha ofrecido tan vasta perspectiva en su trabajo. Si nada más esto fuera, Teilhard de Chardin nos recuerda que como humanos, podemos elegir, que pese a lo que digan las filosofías nihilistas de nuestros días, nuestras elecciones pueden ser correctas o equivocadas y tienen efectos más allá de nuestro círculo inmediato, más allá de nuestras cortas vidas. Teilhard de Chardin nos recuerda que somos parte de algo más grande y menos fugaz que nosotros mismos. Para refrescar el trabajo de Teilhard de Chardin hemos hecho lo siguiente: intentamos explicar lo más claramente posible las tres principales ramas del conocimiento científico. A continuación hemos tratado de mostrar cómo estas ramas y sus descubrimientos pueden ser entendidos siguiendo el trabajo de Teilhard de Chardin, y cómo mediante él se llega a que no sean solamente unas jergas sin interés, sino temas relevante que pueden iluminar nuestra existencia. El libro, sin embargo, no será de fácil lectura. Es afortunado por una parte y desafortunado por otra, que si uno intenta sintetizar cualquier clase de pensamiento científico, los escritos tienen que llevar el paso de cada disciplina. En el libro hay referencias a los más grandes científicos y artistas. Hemos tratado de llenar la mayor cantidad de huecos posibles. Finalmente nos hemos acogido a la creencia de que a los lectores no se les debe dar todo masticado siempre. Así que si hay una referencia a Haydn y el lector no está familiarizado ni con Haydn ni con la 10 pieza que se discute, o si encuentra una referencia a un filósofo del que nunca ha oído, entonces le rogamos al lector que no solamente nos crea, sino que haga lo que siempre han hecho los buenos lectores: que vaya y busque. Que escuche a Haydn, que lea al filósofo. Si por algo, la obra de Teilhard de Chardin ha sido afectada porque sus detractores no comparten su punto de vista sobre la lectura y los lectores. Teilhard de Chardin creyó en el lector activo y reactivo, en un inteligente y desafiante pensador que confrontara su pensamiento. Nosotros difícilmente cumplimos su desafío, pero con este libro esperamos haber, por lo menos, igualado su deseo. 11 INTRODUCCIÓN Al igual que nuestras almas, siendo aire, nos mantienen unidos, el aliento y el aire abrazan al universo en su totalidad. -ANAXÍMENES Lo que el lector va a encontrar en el presente libro se refiere a la física, a la astrofísica, a la biología, pero, sobre todo, al momento en el cual un individuo asume su responsabilidad y otro se abstiene, en explicarnos lo que los múltiples descubrimientos científicos del presente siglo – estructura del ADN, relatividad, quantum, etc. – han revelado respecto de lo que somos y a nuestro papel como especie en nuestro planeta, en nuestro cosmos. También es un libro que se refiere a la manera que han utilizado muchos científicos para interpretar la ciencia, sobre cómo algunos de ellos han luchado y se han esforzado para hacer de la ciencia un simple ejercicio mental y de cómo otros han tratado realmente de hacer que la ciencia nos conteste esas difíciles preguntas de existencialismo y ontología. Sin embargo, antes de empezar a hablar de ciencia, y sin referirme a laboratorios ni citar eruditos eminentes, quiero ubicarme en mi hogar, que supongo es la ubicación inicial de cualquier lector. Si no es verídico lo que a continuación expongo, es rutinario para la mayoría de los lectores. Entonces empecemos con un escenario imaginario: una sala o una biblioteca. Imagínese que está a punto de sentarse a leer, pero antes de empezar su lectura, se acompaña de los últimos cuartetos de Beethoven seleccionados de su colección de música clásica. En lo personal, cuento con un CD grabado por el Hollywood String Quartet que aquilato enormemente. Si usted está 12 familiarizado con los últimos cuartetos de Beethoven podrá comprender el significado de mi referencia. Estos últimos cuartetos, aunados a las últimas sonatas que Beethoven nos legó, constituyen sus meditaciones más profundas y privadas. Son todas piezas difíciles y melancólicas que sondean profundidades y escalan grandes alturas dentro de la música occidental. Algunos críticos, como por ejemplo Salomon, el gran biógrafo de Beethoven, ha considerado sus últimos cuartetos como el postrer cuestionamiento del autor respecto al significado de la vida, del cosmos, de la naturaleza. Al escuchar a los ejecutantes luchar con la difícil partitura, usted se da cuenta de que es testigo de una de las actividades quintaesenciales de la existencia humana. No sólo disfrutamos todo tipo de ejecución, sino que cuando disfrutamos la gran música o el gran arte, la mayoría de nosotros consideramos que estamos ante los más recónditos e ininteligibles aspectos de nuestro desarrollo. Cuando estamos frente al gran arte, de alguna manera creemos que esa entidad a la cual teologías y religiones han etiquetado como alma, ha encontrado su manifestación. Si usted es un escéptico, tenga en cuenta que la actitud o fe a las que me refiero no son exclusivas de auditorios musicales o artísticos. Una de la mentes científicas más grandes de este siglo, Einstein, compartió con nosotros su actitud. Cuando escuchó la ejecución del entonces joven prodigio Jehudi Menuhin, al concluir el concierto le comentó al violinista: “El día de hoy comprobé que Dios existe”. Es asombroso saber que la mente más insigne del siglo, la mente que tan profundamente cambió el concepto del quién, el dónde y el cómo, haya hecho tal pronunciamiento. Verdaderamente, el comentario de Einstein expresado con esa sencillez e imaginación que le eran tan características, podría ser lo único 13 que tendríamos en común con esa mente superior. Ya sea que uno sea religioso o no, el que uno sea creyente o no, la mayoría de nosotros hemos sentido reverencia ante el arte superior o ante la Naturaleza. Hemos percibido la sensación de que el mundo no es superficial. Y sin embargo, varios científicos contemporáneos han dedicado toda su vida a contrarrestar esa sensación. A primera vista parecen tener la razón. Hasta donde sabemos, lo que denominamos mente parece ser una red de múltiples células específicas de una complejidad que tiende al infinito y que reaccionan ante descargas químicas transmitiendo impulsos eléctricos infinitesimales que constituyen no sólo nuestra vida sensible sino lo que denominamos emociones. Desde este punto de vista, una apreciación promedio del escenario descrito –la sala en donde disfrutamos a Beethoven– sería como sigue: los cuatro instrumentos de cuerdas que conforman el Hollywood String Quartet, son cajas de madera que amplifican la fricción de arco y cuerda. Esa fricción produce una vibración y pequeños cambios en la frecuencia con la que se transporta la onda sonora. penetra en la caja y dicha caja, por su naturaleza, la amplifica y la proyecta al micrófono. Dicho micrófono convierte las ondas sonoras en ondas electromagnéticas que permiten su grabación. Lo que es más, el disco que imagino es “digitalizado”, la cinta fue digitalizada al conectar las señales electromagnéticas en “cero” y en “uno”, mismas que el láser puede leer y una computadora puede procesar y devolver. Cuando introducimos nuestro CD imaginario al tocadiscos y oprimimos el botón o tecla de iniciar, nuestro tímpano debidamente afinado por nuestra evolución en la búsqueda de presas y depredadores, vibra y alimenta esa información a un nervio. 14 De conformidad con muchas explicaciones científicas y de acuerdo también con los panoramas que la mayoría de los científicos se han fijado para sí mismos, el sonido que escuchamos no tiene valor. Haciendo una broma cruel podríamos decir que, de acuerdo con los científicos, oímos menos que Beethoven. La acústica nos dice que la música que escuchamos son sólo cambios mínimos en la presión del aire. Los neurólogos nos dirán que las emociones que sentimos son simples vibraciones eléctricas. Los psicólogos nos argumentarán que el sonido nos produce placer porque lo ligamos a alguna sensación placentera de nuestra niñez. Sin embargo, el sentido común nos dice lo contrario. Nos dice que la música no es algo superficial sino que penetra nuestras almas –como nos dice el epígrafe de Anaxímenes– y al hacerlo, abraza al universo. Esto es lo que el sentido común dicta. Los científicos, sin embargo, consideran al sentido común un anatema. Stephen Jay Gould, el científico al cual nos estaremos refiriendo ampliamente en el primer capítulo, ha sido uno de los más estrictos y vociferantes opositores del sentido común. En uno de sus libros más recientes Full House: The Sproad of Excellence from Plato to Darwin,1 ataca la actitud de E. O. Wilson respecto a que usemos sentido común; Gould nos dice: Nothing could be more antithetical to intellectual reform than an appeal against thoughtful scrutiny of our most hidebound mental habits –notions so “obviously” true that we stopped thinking about them generations ago, and moved them into ours hearts and bosoms. Please do not forget that the sun really does rise in the east, move through the sky each day, and set in the west. 1 Aquí Full House se refiere al término del juego de póker, por lo que no tiene traducción. 15 What knowledge could be more visceral than the earth´s central stability and the sun´s subordinate motion?2 Al argumento de Gould no le falta validez. Muchos de los descubrimientos científicos a partir del Renacimiento han desmentido las ideas sobre nuestro posición en el mundo. Sin embargo, no creemos imposible sostener que los debates tanto contra la geocentricidad como en contra de la evolución fueron más bien ataques teológicos y no reacciones “viscerales” ante las premisas que las dos teorías presentaron. Tampoco debemos olvidar que mientras se conozca más y más respecto a nuestro universo, mientras entendamos más y más respecto del átomo y sus partículas, muchos de los conceptos discutidos primero por los filósofos presocráticos y después por algunos autores epicúreos, han sido confirmados. Sin aceleradores de partículas, Demócrito tuvo un entendimiento razonable del átomo como partícula básica. Los físicos están confirmando muchas de las ideas agustinianas de su tiempo. Muy pronto dejaremos de confundir el sentido común con el dogma. Gould es un extraordinario artesano de la palabra y un mejor sofista. Cuando los científicos reclaman el uso del sentido común, no reclaman el regreso a la superstición sino el uso de la propia intuición que nos guíe al “escrutinio atento”. Ocupando las gradas, nos consideramos unos extraños, que sin embargo hemos sido seguidores cercanos de la ciencia y pensamos que el sentido común y la intuición han guiado muchos de los más grandes descubrimientos científicos. Aun con un conocimiento superficial del método de trabajo de Einstein, sería imposible negar lo anterior. Stephen Jay Gould, Full House: The Spread of Excellence from Plato to Darwin. Three Rivers Press. Nueva York, 1997, p. 28 2 16 También estamos convencidos de que el sentido común ayudó a Darwin y a Wallace, a Newton y a Maxwell; las instituciones, únicamente con el afán de canonizar y mantener saneados sus iconos, los mantienen arropados, como a los grandes científicos, en la seda de la lógica pura y la razón. Einstein pudo no haber estado hablando en forma figurativa cuando comentó que intentaba descifrar los designios de Dios. Es más, si algo ha impulsado a la ciencia ha sido esa certidumbre de que el cosmos no es solamente un sistema accidental no pensante; la vida no sólo es una cadena proteica que con el tiempo sigue creciendo de una forma más elaborada. No es que el universo no sea un sistema en el cual el azar tuvo y sigue teniendo importancia, ni es que la vida no sea una cadena proteica. Son desde luego datos verídicos que, sin embargo, son insignificantes e incompletos. Lo que vamos a debatir es que el rompecabezas cuyas piezas ha tratado de embonar la ciencia desde la época del Renacimiento, dista mucho de estar terminado, y que los caminos que muchos científicos han adoptado están sumamente influenciados por tendencias ideológicas como son la destrucción, la crítica cultural y los estudios neocoloniales que en realidad podrían impedir la culminación correspondiente debido a que las preguntas que se están haciendo no son las correctas. En los tres primeros capítulos nos vamos a referir al estado en que se encuentran las ciencias, exponiendo lo que se sabe, y mostrando los métodos que algunos de los más prominentes científicos utilizaron para interpretar. El primer capítulo tratará la evolución y el segundo y el tercero tratarán la física. En la segunda mitad del libro trataremos los puntos de vista alternativos a los de los científicos que se mencionan en la primera mitad, enfocandonos principalmente en Pierre Teilhard de Chardin. A diferencia de muchos libros que ofrecen información similar, el nuestro intentará llenar 17 algunos huecos del rompecabezas, así como proponer y ofrecer caminos a una solución. Lo anterior no lo hacemos en forma individual, sino con la información que existe en diversas bibliotecas con respecto al trabajo de muchos científicos que, desafortunadamente, por sus ideas, han sido evitados por los científicos contemporáneos. Lo cual es precisamente de lo que trata este libro. 18 I LA PREGUNTA DE AUDEN, LA RESPUESTA DE GOULD The passion of our kind for the process of finding out Is a fact one could hardly doubt, but I would rejoice in it more If I knew more clearly what we wanted the knowledge for W. H. AUDEN. El epígrafe de este primer capítulo proviene de un poema que W. H. Auden escribió en 1961, cuyo título es: "After Reading a Child’s Guide to Modern Physics". El poema es una curiosidad y no es una de sus más importantes ni profundas obras, pero sigue siendo válida por dos razones: Primero, porque proporciona una apreciación global, inteligente, de los principios de la física que Auden destacó y que son válidos; segundo, por que hace una pregunta crucial y muy importante –la pregunta que conforma el epígrafe. Al igual que la propia física, el poema contrapone lo enormemente grande con lo infinitamente pequeño. Trata de la cosmología, su nebuloso universo con forma de silla de montar. También trata de átomos, partículas, su escala y lo indeterminado. Sin embargo, el poema no es un poema didáctico, no trata de enseñarnos lo que fueron los descubrimientos de la física ni lo que significaron. En todo caso, Auden descubrió la imagen global mundial que los físicos pintan desagradable, rígida y fría: La “futilidad” e insalubridad de nuestro mundo cotidiano le parecen mejor a Auden que la gran frialdad de una nebulosa; las dificultades matrimoniales también le parecen más fáciles de sortearse que aquellas que se nos presentan cuando intentamos descifrar los secretos del átomo. 19 La postura de Auden no es extraña, ya que como muchos de nosotros confrontados con las ideas científicas de nuestro tiempo, está tratando de darle sentido al universo de la manera en que la física lo describe, situándolo a partir de su propia experiencia. Auden está, como muchos de nosotros, tratando de ubicar su mundo individual dentro de la lógica de un continuum universal. De hecho lo que el poema de Auden dramatiza es su ineptitud en cuanto a adecuar su ego a ese continuo y por consecuencia cuestiona la naturaleza del conocimiento científico. Una paráfrasis de la estrofa de Auden sería: a los humanos nos encanta averiguar3 y obtener información respecto a todo, pero este entusiasmo, este impulso por averiguar, parece poco meritorio si no sabemos para qué es el conocimiento, si éste no nos es de utilidad. En resumen, el poema reconoce los esfuerzos que los físicos hubieron de hacer en el siglo XX con objeto de entender los fenómenos que conforman nuestro mundo, pero al reconocerlo cuestiona la utilidad de los hechos. Los hechos por sí solos no pueden explicarnos ni quiénes somos, ni qué somos, ni en dónde nos encontramos. Queremos considerar la pregunta retórica de Auden como un desafío real para los científicos. En otras palabras, nos gustaría pensar que la ciencia está lista para decirnos no sólo que existen quarks y leptones, o que el universo tuvo como comienzo una singularidad, sino también que nos explicara cuáles son las implicaciones de estos datos, para nosotros como individuos, como cultura y como especie. A partir de 1961, cuando Auden escribió su poema, muchos han sido los científicos que han intentado contestar su pregunta. Los físicos dedicados a partículas han escrito respecto a las implicaciones del quantum; los 20 astrofísicos han intentado explicarnos el vínculo que tienen para nuestro futuro la flecha del tiempo y la flecha termodinámica; los biólogos han tratado de probar la evolución, sus consecuencias e implicaciones. De hecho, la última década ha visto un verdadero auge de la industria editorial científica. Sin embargo, la mayoría de esos libros, en lugar de tratar de contestar la pregunta de Auden, intentan invalidarla. En el tope del citado auge editorial existen cuatro increíbles autores considerados best - sellers.4 El primero de ellos y el más académico fue Carl Sagan. Sagan, más que nadie, les demostró a los editores que la ciencia se podía vender. No fue sino hasta después del fenómeno Sagan que los científicos sintieron la suficiente confianza para incursionar en el mercado. Sagan, sin embargo, era explicativo, un divulgador popular ya que raramente se enfocó a la gran meta. Aquellos libros que siguieron sus pasos sí lo hicieron, y los tres autores que a pregunta expresa de cuáles son los científicos, aún vivos, que los escribieron, la respuesta probablemente sería Stephen Jay Gould, Richard Dawkins y Stephen Hawking, siendo los dos primeros biólogos y, el último, el más eminente físico que aún vive. A diferencia del trabajo de Sagan, el de estos autores tiene un doble propósito ya que superficialmente todos son didácticos. El libro más importante de Dawkins, The Blind Watchmaker podría considerarse como un libro que se refiere a la evolución, pero su objetivo principal es desmentir el argumento de diseño. El libro más vendido de Hawking, A Brief History of Time, no es únicamente una escalada en nuestro entendimiento del universo y de la física de partículas, sino que está preñado de subtonos teológicos y metafísicos que él mismo desacredita. 3 Aristóteles empieza su Metafísica diciendo “El hombre tiene necesidad de conocer” Como todo el mundo sabe, best- seller no significa calidad sino solo ser de los más vendidos. 4 21 Gould, el más prolífico de los tres, pudiéndose más bien decir libertino, ha dedicado gran parte de su carrera autoral a disipar los errores en las lecturas relativas a evolución y a luchar contra los malos entendidos de la teoría de la evolución. Sus libros más importantes y más coherentes, sin embargo, aun ostentan el sello de profesor. Wonderful Life, es una reconstrucción meticulosa, aún cuando a menudo defectuosa, del bosque Cámbrico, basada en los fósiles encontrados en Burgees Shale, un sitio en Canadá. Full House es un recorrido por el mundo de las estadísticas y las bacterias. Nos referiremos a Gould y a Hawking ampliamente. De momento, es suficiente decir que existe un común denominador de estos tres autores, y este es, que en vez de intentar contestar la pregunta de Auden, la ignoran o la tratan de invalidar. Los tres científicos han visto su disciplina como divorciada del principio de propósito social que Auden parece estarle reclamando a las ciencias. Si usted pregunta a los autores mencionados qué nos dice su información respecto a nosotros mismos y qué objeto tiene ese conocimiento, su respuesta sería que usted está buscando respuestas existenciales u ontológicas en el lugar equivocado. De hecho, su programa pareciera un intento de borrar toda teleología del fenómeno que describen, aun cuando dicho fenómeno incluya el big bang y el big crunch, el comienzo y el final de nuestro universo. Todos ellos han rehusado tratar cualquier esbozo de diseño en la evolución, menos aún respecto al determinismo. Esta desmistificación, este intento de borrar cualquier discurso extracientífico de la ciencia es sin embargo superficial. Los libros están infiltrados de ideología. Por otro lado, a diferencia del determinismo de épocas anteriores, el mantra de estos nuevos gurús científicos es “el azar”, “el accidente”. No es que los autores estén tratando de defraudarnos, creemos que cada uno de ellos escribió creyendo haber sido objetivo; sin 22 embargo, sus suposiciones los han cegado tanto con respecto a sus propios prejuicios como con los prejuicios de su época. Resumiendo, la respuesta común de éstos y muchos otros científicos a Auden, sonaría así: su pregunta no es válida para la investigación científica ya que no sólo es irrelevante sino terca y equivocada, antropocéntrica y egoísta. El conocimiento es conocimiento puro y simple. Responde sólo a los fenómenos que él mismo explica y explora, pero no contesta ni puede contestar a su intento egocéntrico de colocarse en un continuo cósmico o evolutivo. De hecho, continúa la respuesta de los científicos mencionados, si estos hechos científicos dieran respuesta a algo, esto sería que todas las ideas éticas, religiosas, ontológicas o existenciales que usted tenga con base en la física o en la biología, constituyen una ficción. Causa y efecto, así como el continuo, son invenciones conceptuales, ficciones. En las páginas siguientes intentaremos analizar al más incisivo de estos autores que quieren ser polémicos, Stephen Jay Gould. Asimismo procuraremos separar los hechos científicos de las interpretaciones. A medida que caminemos a través de Wonderful Life, trataremos de presentar una clara imagen de la evolución, en virtud de que nuestra meta no consiste solamente en la simple discusión de una interpretación alternativa de los hechos, lo cual vendrá más adelante, sino que queremos satisfacer nuestras propias demandas y plantear las teorías con una relevancia social y tan claramente como sea posible. Después de todo, esperamos que este libro no sea únicamente para un sector de lectores especializados. Así como nuestros esquemas de lenguaje se remontan al modelo cosmológico precopernicano y todavía decimos que el sol “sale” y el sol “se mete”, subrayando la antigua creencia de que la Tierra era el centro del universo, nuestra lectura, la forma que tenemos de leer libros y entenderlos, 23 parece provenir de la época prekantiana. Antes de Kant, los filósofos, al reflexionar respecto al conocimiento, con frecuencia divorciaban al conocimiento del lenguaje. Entendían el conocimiento como una entidad autocontenida, algo así como una mónada. En otras palabras, la filosofía preKantiana entendía el lenguaje como una especie de vasija, donde la gente simplemente vertía conocimientos previos. Kant cambió nuestra perspectiva ya que entendió que el lenguaje no estaba subordinado al conocimiento sino que era en sí mismo el conocimiento. Kant subrayó que “las formas de juicio” son portadores del conocimiento. Como el lenguaje es corruptible, prejuicioso, artificial y convencional, en consecuencia el pensamiento es corruptible, prejuiciado y culturalmente determinado. Sin embargo, probablemente porque parte de nuestra modernidad supone un respeto reverencial hacia la autoría y a pesar de la crítica kantiana que nos dice que el conocimiento no puede estar divorciado del lenguaje, tendemos a leer libros sin la intención de clasificar información. En otras palabras, con poca frecuencia analizamos cuál parte del texto es exposición, cual información de hechos conocidos, cuál es interpretación, cuál explicación de hechos distorsionados y manipulados por los antecedentes ideológicos del autor, cuál obligación profesional o prejuicio cultural. Podemos sostener que el grueso de los libros científicos publicados durante la última década son tanto interpretación como explicación de hechos, efectuadas a través de la lupa distorsionada del autor o aún más, hechos organizados con fines proselitistas, para ganar conversos a su propia escuela. Pocos de los autores científicos han tenido tanto poder y tan grande auditorio como Stephen Jay Gould, un profesor de Harvard cuya bibliografía incluye más de una docena de libros e incontables artículos. Aun cuando ha sido frecuentemente criticado, dentro de la comunidad científica es 24 considerado –como nos dice Richard Foley en su libro Life– el pontífice de la paleontología. Su fama, empero, no surge de su carrera estrictamente científica, sino de una trayectoria editorial exitosa por sus escritos de ciencia popular. La mayoría de sus libros constituyen colecciones de ensayos y únicamente dos o tres de ellos intentan rastrear o detallar sus ideas respecto a la evolución. Como ensayista es el mejor proselitista de la evolución y ha demostrado suficiente claridad y perspicacia argumentativa para defender la evolución cuando ésta ha recibido golpes retóricos e ideológicos de los cristianos fundamentalistas, quienes creen en el creacionismo.5 Gould ha iniciado una guerra contra el intento de prohibir la enseñanza de la evolución en las aulas. Desafortunadamente, la retórica pugilística que ha demostrado ser tan ventajosa en sus argumentos contra de creacionistas y todo tipo de fanáticos, también está inmersa en sus mas serios escritos. Es bueno cuando intenta convertir, pero también hace enfurecer cuando sermonea al converso. Sus dos libros más importantes Wonderful Life y Full House son tan contenciosos como sus otros ensayos. En primer lugar aquí nos vamos a referir a Wonderful Life. Sin embargo, consideramos necesario describir una breve semblanza general de la evolución, de manera que el lector, quien quizá no esté muy familiarizado con el tema o quien pudiera tener una visión distorsionada de los principios de la evolución, pueda seguir y entender el argumento de Gould, de manera que podamos ordenar sus valiosas introspecciones y sus interpretaciones contenciosas. En los años cincuenta, cuando Watson y su equipo lograron hacer un modelo de la partícula del ácido desoxirribonucleico (ADN), lo que 5 El creacionismo no necesariamente es de un solo tipo. Existen creacionistas dogmáticos, deterministas, no deterministas, etc. 25 modelaron fue una hélice doble; más exactamente, encontraron que las largas cadenas del ácido nucleico, no estaban solitarias, generalmente se les encontraba en pares, formando una estructura de doble hélice. El libro de Watson, The double helix, es un fascinante relato de un proceso científico. Alrededor de cuarenta años después, es del dominio público que la doble hélice es la estructura que encierra la información que hace de nosotros lo que somos. Cada semana, al menos, tenemos la oportunidad de leer en el periódico algo referente al ADN. Ha permeado nuestras vidas y se utiliza en juzgados y desde luego apenas estamos comenzando a explorar la manera en que va a cambiar a la medicina. Resumiendo, aún cuando el Proyecto del Genoma Humano ha descifrado todos los genes humanos, bien sabíamos qué clase de información es la que está codificada en las secuencias del ADN. Aunque la secuencia de bases en cualquier segmento de ADN parece no tener orden alguno, constituye el instructivo completo para construir el organismo de todo ser viviente. Al conjunto completo de instrucciones de una especie se le denomina “genotipo”. El genotipo de nuestra especie contiene no sólo las instrucciones en cuanto a cómo y cuándo se divida un huevo fertilizado, sino a desarrollos anatómicos posteriores. También tiene el sello de nuestros padres. Por lo tanto, como bono adicional, no muy agradable por cierto, nuestro ADN contiene varios de los problemas congénitos que pudieran acosarnos en años posteriores. Los progenitores masculino y femenino, producen, cada uno, células especializadas que contienen sólo la mitad de la información genética que poseen las células de un individuo. Estas células llamadas gametos, al fecundarse unen la información procedente del padre con la de la madre. De esta manera se adquiere la información completa para formar un organismo que presenta variaciones respecto a los progenitores. En palabras más 26 sencillas, el ADN de cada individuo es una combinación del ADN de ambos padres y desde luego, contiene la mitad del ADN de la madre y al otra mitad del ADN del padre. Esta precisa combinación es uno de los pivotes de la evolución. Recientemente el mundo se sacudió con los encabezados que dieron la bienvenida al mundo a Dolly. Sólo aquel que viva en otro planeta no ha oído o leído algo respecto a Dolly, la clonación de una oveja que fue el resultado del trabajo de científicos británicos. Al ser clonada, Dolly no surgió como una combinación de dos ramales de ADN. Los científicos extrajeron el ADN de una oveja y pudieron hacer una réplica exacta de ella. Este experimento ha causado gran revuelo, ya que los éticos y los políticos reaccionaron ante la noticia, la condenaron y cuestionaron sus ramificaciones. De inmediato el presidente Clinton presentó una iniciativa de ley que prohibe la clonación. Casi todo el mundo piensa que la clonación puede iniciar tendencias terribles. Para la mayoría, el experimento equivalía al hecho de que cualquiera que tuviera acceso, el suficiente dinero y ser tan tonto o egoísta como para crear una réplica exacta de sí mismo, diera el paso y lo lograra. Esta percepción, desde luego, es estrecha, equivocada y crucial para nuestro posterior argumento. Por ahora, es suficiente afirmar que Dolly fue “hija” gemela genética de la oveja progenitora, que existen por ahí dos ovejas con el mismo material genético, el mismo y preciso ADN. Sorprendentemente lo que pocos toman en cuenta, es el hecho de que aun cuando el ADN determina en gran parte lo que somos, por decirlo de alguna manera, una vez que nuestro clon, nuestra réplica, comienza a vivir su propia vida, él o ella tendrán diferentes experiencias y consecuentemente él o ella serán una persona diferente. 27 De momento continuemos con la evolución. La razón por la que me referí a Dolly es porque en caso de que usted le pagara a un científico para que lo clonaran, su clon, aunque sería una copia exacta suya, de todos modos, él o ella sufrirían muchos de los dolores que usted padece. Si usted tiene problemas de rodillas, él o ella también los tendrá y si usted es miope, él o ella será igual de miopes. En otras palabras, si usted fuera el producto de una rama de ADN y sus hijos o hijas fueran producto de la misma rama de ADN, no existiría ningún cambio. Por lo tanto, la naturaleza o la vida –y aquí no puedo dejar de antropomorfizar– ha buscado la reproducción multicelular. Lo que la combinación de dos ramas de ADN permite es la variación, uno de los tres principales dogmas de la evolución. En forma más literal, variación significa que tenemos un ligero parecido con alguno de nuestros padres. Podemos tener los problemas de rodillas de la madre pero también podemos tener un corazón sano que el padre no tiene. A primera vista esto parece obvio pero las repercusiones de la variación son tremendas si usted las comprueba en las dimensiones en las que opera la evolución. Recuerde que hablar de evolución implica hablar de eras geológicas. Los humanos han estado conscientes de la variación desde hace mucho tiempo; de hecho, para argumentar su teoría, Darwin comienza El orígen de las especies con el conocimiento que entresacó durante conversaciones con granjeros y horticultores. De lo que Darwin se dió cuenta fue del tipo de repercusión que la variación produciría a largo plazo. Para comenzar a sondear las posibilidades permítasenos utilizar una analogía. Tomemos el idioma inglés e imaginemos la totalidad de su medio millón de palabras como una reserva de material genético; las diferentes ramas de ADN están allí listas para combinarse con otras ramas de ADN. Digamos que nuestra reserva genética es una reserva de una especie llamada 28 poema. El idioma, como el ADN tiene una estructura, por lo que aquellos que redactan un poema tienen que seguir ciertas reglas métricas, sintácticas y gramaticales. A pesar de las reglas y de la limitada cantidad de palabras, se puede obtener lo siguiente: Vanity! said the preacher. Vanity! Esta línea de Browning repite la palabra y nos da la sensación de una novela o historia corta. Sin embargo, también se puede obtener lo siguiente: To glide a sunbeam by the blasted pine. Esta línea de Tennyson observa la misma métrica que la anterior, pero en lugar de ser dramática o narrativa es puramente lírica. Este tipo de posibilidad imperante, esta habilidad para operar y variar dentro de los límites y aun poder producir algo diferente, fue lo que, por lo menos en parte, impulsó a la evolución. Como el lenguaje, la reserva genética permite cambios y diferencias debido a la reproducción. Lo que son sintaxis y gramática en el lenguaje, corresponde a las reglas y limitaciones de transformación genética. La solución a esta cuestión descubre el modus operandi de la evolución. La evolución tiene tres aspectos. El primero es un principio conservador y su germen, por llamarlo de alguna manera, está incrustado en nuestro ADN. Como hemos mencionado anteriormente, el ADN es nuestro manual de instrucciones. Aún si somos producto de dos ramales de ADN unidos uno con el otro, la información esencial que necesitamos pasa a través de ellos. Para continuar nuestra analogía linguistica, si pensamos en la evolución como un proceso similar a la escritura, el principio conservador es análogo a la gramática y a la sintaxis. Muchas de la reglas gramaticales y de sintaxis son flexibles, pero sólo algo flexibles. Lo que es más, deben de existir y si estamos de acuerdo con los principios de la gramática generativa 29 de Noam Chomsky y los aplicamos a nuestra analogía, podríamos decir que esas reglas deben preexistir. Pero aquí nos estamos adelantando a nuestro argumento. De momento, aunque sólo superficialmente, tratemos de averiguar por qué es necesario el principio conservador. Posteriormente hablaremos de la física y abarcaremos la segunda ley de la termodinámica, que postula que la entropia del universo siempre crece. Sin embargo por ahora es suficiente decir que –según muchos científicos –la naturaleza6 tiende al desorden. En Full House Gould destacó que muchos biólogos malinterpretaron la segunda ley de la termodinámica cuando dijeron que la vida se opone a tal ley. Gould está equivocado, ya que su argumento gira sobre el hecho de que, segun él, la ley se aplica sólo a sistemas cerrados, sistemas a los cuales no se les puede alimentar con energía. La entropía sucede en todos los sistemas. Un sistema abierto por definición requiere suministro continuo. La segunda ley de la termodinámica sí opera en los sistemas abiertos, tanto así que por eso se llaman abiertos, pues reciben energía externa y reemplazan la perdida en las transformaciones. De hecho, la entropía se estudió originalmente en máquinas, que constituyen sistemas abiertos. Consideramos que un sistema es cerrado cuando no se le quita ni agrega nada y además cuando el medio en que está no lo perturba. Y, aparentemente, el único sistema que cumple estrictamente estos requisitos es el universo. Nosotros no somos sistemas cerrados como tampoco es nuestro planeta. El planeta es radiado constantemente con energía solar. Nosotros los mamíferos, que somos sistemas abiertos, sujetos a la entropía, tenemos que comer, tenemos que recargar combustible de alguna manera. Sin embargo, a nivel molecular, al inicio absoluto de la vida y antes de la existencia de 30 organismos complejos, cuando las primeras moléculas se agruparon y, lo que es más importante, cuando pudieron reproducirse entre ellas, la segunda ley de la termodinámica estaba si no contra ellas, definitivamente no a favor. La segunda ley no funciona contra los sistemas de autoreproducción, pero si individualmente contra los elementos que los conforman. Si ciertos patrones, como por ejemplo el ADN, son recurrentes de generación en generación es porque, a niveles moleculares, únicamente algunas estructuras tienen la capacidad de tender un puente entre lo orgánico y lo inorgánico. Una vez más, aquí la diferencia depende de la autoreproducción y la no autoreproducción. No debemos confundir, tal como lo han hecho algunos biólogos, una roca que funciona únicamente a través de yuxtaposiciones, con un compuesto orgánico que tiene la capacidad de evolucionar. Paradójicamente, el segundo principio de la evolución incluye lo contrario a la preservación, a saber, innovación o divergencia, como Darwin lo llama. Hemos sido testigos de cómo en un corto lapso la herencia nos puede convertir en animales que están más adaptados a su ambiente. La combinación de dos ramas de ADN permite diversidad y una reserva genética de mayores proporciones. La innovación sin embargo, al operar en la combinación de las dos ramas de AND, también funciona en las mutaciones. Para obtener mayor ilustración utilizaremos otra analogía y en esta ocasión recurriremos a la música. Imagínese que el principio conservador de la música se parece a la armonía tradicional, misma que organiza las doce notas de la escala occidental alrededor de una tónica y un dominante. Hacia el siglo XIX, los compositores comenzaron a sentirse incómodos con esas limitaciones y decidieron ampliar las posibilidades hasta que en un momento dado el sistema de tónica y dominante se desplomó y 6 Naturaleza significa todo aquello que el hombre no ha hecho. 31 para principios del siglo XX se pudo transformar el arreglo de los 12 tonos para eliminar el valor agregado tanto del tono como del dominante. Este nuevo sistema representó una mutación. Si los 12 tonos son el ADN, entonces las mutaciones surgen de sus arreglos. La clave está en que la mutación tiene como resultado una diferente estructura. Las mutaciones ocurren debido a la alteración de las moléculas de ADN por errores de reproducción. Entonces las mutaciones, al contrario de los cambios musicales a los que hice referencia, no serían ni planeadas ni deseadas. Cuando se lee El origen de las especies de Darwin, la palabra que uno encuentra en los días de la biología premolecular es monstruosidad. Por monstruosidad o monstruo Darwin no se refiere a nuestras ficciones y fantasías sino a una ligera o drástica desviación de la norma. He aquí a Darwin hablando de divergencia: Here, then, we see in man´s productions the action of what may be called the principle of divergence, causing differences, at first barely appreciable, steadily to increase, and the breeds to diverge in character both from each other and from their common parent. (Vemos, pues, en las producciones del hombre la acción de lo que puede llamarse el principio de divergencia, produciendo diferencias, primero apenas perceptibles, que aumentan continuamente, y que las razas se separan, por sus caracteres, unas de otras y también del tronco común.) 7 La divergencia es el principio que separa una especie de otra y es el principio que nos permite evolucionar. Charles Darwin, On the Origin of Species. [Facsímile de la primera edición]. Harvard University Press, Cambidge (MA), 1964. p. 112 7 32 Distanciados como estamos de nuestro ambiente natural y apartados de las condiciones primarias que acuñaron al Homo sapiens primitivo, con frecuencia dejamos de considerar lo que es la divergencia. Ahora bien, las mutaciones genéticas aun podrían tener consecuencias calamitosas, pero muchas mutaciones se atienden en clínicas. En otras palabras, al poner en manos de los doctores las mutaciones genéticas habremos aislado aquello que no únicamente para los humanos primitivos sino para los humanos de finales de siglo XIX y del siglo XX ha sido gran parte de nuestra cultura; es decir, la incapacidad de adaptarnos a las desviaciones. Las desviaciones pueden ser provechosas para la especie cuando son exitosas, pero cuando no lo son, las consecuencias pueden ser trágicas. Es más, estas consecuencias se deben al tercero y último principio de la evolución: la selección natural. La selección es un principio donde el ambiente parece ejercer su mayor influencia. Muchas mutaciones se deben a la influencia ambiental y, sin embargo, ningún aspecto de nuestro ambiente es más despiadado que el del principio de la selección. A pesar de lo despiadado de la selección, ella es el eje alrededor del cual giran la conservación y la innovación. La esencia de la selección podría interpretarse como sigue: La especie –mosca de la fruta, humano, perro– se reproducen con más rapidez de lo que el ambiente natural puede soportar. El Homo sapiens es el mejor ejemplo de esto. Debido a la civilización y los ecosistemas que ha arrasado, muchas de nuestras especies no han sobrevivido, pero de todos modos, dentro de su escasez, los individuos se ven obligados a luchar por su supervivencia. Dentro de dicha competencia, alguno de los individuos de una especie llegan a la edad de reproducción y otros no, dando como resultado que los primeros estarán en la posibilidad de perpetuar su material genético. En consecuencia, el material 33 genético que se transmite resulta el más adecuado para sobrevivir en su ambiente. Como dice Darwin: Natural selection acts through the preservation of variations in some way advantageous which consecuently endure. (La selección natural obra solamente mediante la conservación de variaciones en algún modo ventajosas y que, por consiguiente, persisten.)8 Por lo menos para nosotros existe una cantidad considerable de crueldad en la selección y desde luego también gran ineficiencia en el esquema de la selección natural. Poca gente han tenido que tratar con la ineficiencia y el dolor como Darwin mismo y como Teilhard de Chardin. Veremos cómo éste último pudo lidiar con ellas. Darwin sin embargo diseñó, a pesar de la crueldad y la ineficiencia, un método bien afinado para mantener un equilibrio ecológico: In looking at Nature, it is most necessary to keep the foregoing considerations always in mind –never to forget that every single organic being around us might be said to be striving to the utmost to increase in numbers; that each lives by a struggle in some period in its life; that heavy destruction inevitably falls either on the young or old, during each generation or at recurrent intervals. Lighten any check, mitigate the destruction ever so little, and the number, and the number of the species will almost instantaneously increase in amount. (Al contemplar la naturaleza es muy necesario tener siempre presentes las consideraciones mencionadas; no olvidar que todos y cada uno de los seres orgánicos puede decirse que están esforzándose hasta el extremo por aumentar el número, que cada uno vive merced a una lucha en algún período de su vida; que inevitablemente los jovenes o los adultos, durante cada generación o repitiendose a intervalos, padecen importante destrucción. Disminúyase cualquier obstáculo, 8 Ibid., p. 109 34 mitíguese la destrucción, aunque sea poquísimo, y el número de individuos de la especie crecerá casi instantaneamente hasta llegar a un nivel incalculable.)9 Aquí Darwin no sólo está explicando la razón de la muerte y las extinciones naturales, sino que nos está advirtiendo, pronosticando el futuro ecológicamente desequilibrado que estamos viviendo. El más famoso ejemplo desde luego es la extinción de los depredadores. En América del Norte, el siglo XIX presenció una campaña contra el lobo y aún a principios del XX las pieles de lobo fueron altamente recompensadas tanto por granjeros como por las autoridades. Una vez que el lobo desapareció, una vez que “el contratiempo se aligeró”, la población del venado creció estratosféricamente. El venado se ha convertido en una plaga. Regresaremos a los tres principios evolutivos –conservación, innovación y selección- una vez más. Pero antes de discutirlos con mayor amplitud, me gustaría mencionar lo que Stephen Jay Gould añadió a la introspectiva de Darwin y cómo la interpretó. El origen de las especies de Darwin, al igual el El capital de Marx es un monstruo de libro que catalizó nuestro siglo. Es uno de esos libros que provocan reacciones y significan cosas completamente diferentes en personas diferentes. Filósofos como Bergson, teólogos como Klüger y desde luego muchos científicos, han interpretado la teoría de Darwin de manera diferente. Algunos han encontrado a la evolución como sacrílega mientras que otros la encuentran como consuelo. Richard Dawkins, por ejemplo, a pesar de su enfoque objetivista, arguye un tanto inmaduramente que “Darwin logró que alguien pudiera ser un ateo intelectualmente realizado”. De hecho, a lo largo de este siglo la evolución ha sido interpretada de tantas 9 Ibid., pp. 66-67 35 maneras que un crítico cultural pudiera seguir nuestras huellas solamente rastreando nuestras actitudes respecto a Darwin. El significado etimológico de evolución simplemente implica que algo que evoluciona es algo que se desenvuelve o se desenrolla. Sin embargo, hasta los diccionarios definen la evolución como un fenómeno jerárquico; por ejemplo, uno de los diccionarios más importantes el Oxford English Dictionary, la define así ( entre otras acepciones): "De organismos animales y vegetales y sus partes; proceso de desarrollo del estado rudimentario al estado maduro y completo". Esta definición con sus antípodas, lo rudimentario vs. lo maduro o completo, ha promovido la idea de que el Homo sapiens es superior, menos rudimentario, más maduro, en un estado más completo que el de otros animales. Solo recientemente al ir encontrando el sistema sonar de los murciélagos y las ballenas, la visión termal de las serpientes y la superioridad de muchos de los sentidos animales hemos empezado a revisar nuestra terminología. Más recientemente aun, con el surgimiento de la ecología como ciencia, nos hemos dado cuenta de que la naturaleza no opera con jerarquías sino con ecosistemas10. Darwin no dijo que la evolución implicara las antípodas que la definición del diccionario citado enlaza. Como hemos visto y de acuerdo con Darwin, los organismos evolucionan, cambian y se adaptan a su entorno, por lo que entender la evolución a través de aquellos términos antípodas es un error. Nadie ha intentado tanto disipar ese mito como Stephen Jay Gould. El 10 Estamos refiriéndonos a la parte puramente material del ser y como veremos en la segunda parte del libro, no podemos comparar aptitudes físicas solamente, sino que 36 proyecto total de Gould parece desmentir el sofisma de los retóricos y los logistas llamado post hoc, ergo propter hoc. Si se entiende la evolución mediante este sofisma, se puede aducir que preexistimos y que ya fuimos predestinados en los primeros organismos que colonizaron la Tierra. En otras palabras, Gould se ha esforzado en socavar la idea de que nuestra inteligencia y nuestra complejidad anatómica estuviera implícita en las primeras etapas de la vida. De acuerdo con Gould, la vida humana y la inteligencia eran “poco probables”. Lo que trata de enfatizar, es su idea de que la vida fue un accidente. Las herramientas argumentativas de Gould han sido principalmente réplicas a otros científicos, la revisión del trabajo de otros científicos y la crítica semiótica de la iconografía de la evolución, la crítica de las imágenes que utilizamos para entender la evolución. Wonderful Life, el que podría ser el libro más importante de Gould, toma su título del filme de Frank Capra It`s a Wonderful Life. Al igual que El Mago de Oz, el filme de Capra está profundamente incrustado en la psique norteamericana. Es uno de esos filmes que vuelven a estar obligatoriamente en cartelera durante las vacaciones. La trama gira alrededor de una suposición. George Bailey protagonizado por James Stewart había tenido una buena vida y había antepuesto los intereses de terceros a los suyos. Su compañía va a la bancarrota y Mr. Potter, protagonizado por Lionel Barrymore, lo acusa de fraude. En absoluta desesperación, George está a punto de suicidarse tirándose al agua cuando su ángel de la guarda se interpone tirándose primero y sabiendo que George pediría auxilio. George piensa que su vida no ha valido la pena y que hubiera sido mejor no haber nacido. Su ángel tenedremos que incluir otro concepto fundamental, el conocimiento. La evolución es una evolución de las formas en relación directa a la evolución de la conciencia. 37 decide regresarlo en el tiempo y mostrarle como afectó o como cambió la vida de tanta gente durante su vida. En pocas palabras, el filme se basa en la retrovisión de la vida de George. En su libro Wonderful Life, Gould propone un experimento similar aunque imaginario, con la cinta de la vida. Gould opina que si regresamos la cinta de la vida y luego la volvemos a proyectar desde el principio, el resultado probablemente nos excluiría. Los resultados, en otras palabras, serían completamente diferentes. No sólo el Homo sapiens no se hubiera desarrollado nunca, sino que la flora y la fauna que conocemos sería totalmente diferente:11 I call this experiment “replaying life´s tape.” You press the rewind button and, making sure you thoroughly erase everything that actually happened, go back to any time and place in the past –say, to the seas of the Burgess Shale. Then let the tape run again and see if the repetition looks at all like the original. If each replay strongly resembles life´s actual pathway, then we must conclude that what really happened pretty much had to occur. But suppose that the experimental version all yield sensible results strikingly different from the actual history of life? What could we then say about the predictability of self-conscious intelligence?12 Los científicos con frecuencia suenan como gente que sale con preguntas tontas, con el tipo de preguntas que parecen más apropiadas para juegos de salón que interrogantes científicas reales. Algunas de estas preguntas han proporcionado resultados increíbles. Einstein descubrió su principio de la relatividad especial formulándose un experimento hipotético 11 O no hubiera habido Homo Sapiens ni flora ni fauna, como de hecho sucedió en la mayoria de los planetas que se han formado. 12 Stephen Jay Gould, Wonderful Life: The Burgess Shale and the Nature of History. W.W. Norton & Co., Nueva York, 1989, p. 48. 38 parecido. (“si yo fuera en un tren que se desplazara a la velocidad de la luz…”). El experimento de Gould podría ser importante –sobre todo para demostrar la validez de la teoría del caos – pero definitivamente no es nada original. Un cuento corto de Ray Bradbury presentó el mismo esenario de viaje en el tiempo, en el cual unos hombres del futuro construyen una máquina del tiempo y regresan a cazar dinosaurios. A estos cazadores de trofeos se les prohibió distorsionar la historia, por lo que solamente se les permitía cazar dinosaurios moribundos. Sin embargo, uno de los miembros de la expedición pisa un insecto y cuando los cazadores regresan a su época se encuentran con una raza de hormigas gigantes. Los lectores más sensatos se podrían preguntar qué caso tiene dicho ejercicio mental. Si no sucediera así, ¿por qué preocuparse? Nuestro viejo refrán “lo pasado, pasado” es aquí aplicable. Pero la hipótesis tiene cierta brillantez y proporciona varias introspecciones profundas e importantes. Una de ellas, la que se pregunta cuáles métodos debemos utilizar para interpretar el registro de fósiles. En efecto, el argumento central de Gould es que nos hemos leído o identificado en el registro de fósiles. Pero la hipótesis también proporciona una introspección más importante, a saber: el papel que desempeña lo que Gould llama contingencia. Gould apoya su opinión reconstruyendo y reinterpretando lo que él llama “los fósiles más importantes del mundo”: Burgess Shale, que es una fauna Cambriana impecablemente preservada. Gould no está hablando en hipérbolas. Él está en lo correcto al colocar a Burgess Shale en lo alto de la lista. La mayor parte de nuestro registro de fósiles es un registro de partes duras, dientes, huesos, etc. por lo que consecuentemente la mayoría de los animales de los 39 que tenemos registro son vertebrados. Burgess Shale es importante porque contiene invertebrados preservados. Gould hace un espléndido trabajo al reconstruír la fauna de Burgess Shale pero su reconstrucción tiene una intención incrustada. Como lo apuntamos anteriormente, Gould piensa que las primeras reconstrucciones de los bosques fueron prejuiciadas. De acuerdo con él, los primeros biólogos, quienes interpretaron la fauna, fueron parciales, ya que la iconografía con la cual entendieron la evolución describía un modelo piramidal, un modelo que presenta a la evolución ya sea como una escalera o como un cono invertido. El primer modelo resulta sencillo para aquellos que han abierto un libro de texto y han visto el diagrama de un simio que se desenrrolla y se convierte en un humano. El modelo de cono invertido, por otro lado, es un poco más sofisticado. Implica entender la evolución como si fuera un cepillo con una única raíz en la base, desplegando ramas en la parte superior. Si fuéramos a reconstruir la fauna cambriana simplemente con el modelo de cono invertido, el intento inmediato sería encontrar una contraparte moderna de cada uno de los animales cambrianos. En otras palabras, supondríamos que cada animal fue un predecesor de cada uno de los animales que conocemos y que la extinción jamás eliminó a las especies que no tuvieron descendencia. Gould opta por un cono normal. Él piensa que la vida empezó con una increíble variedad y que al paso del tiempo se redujo a un menor número de especies. ¿Hasta qué punto es radical el modelo de Gould? Al reinvertir el cono invertido, o sea hacerlo “normal”, él tiene la posibilidad de contradecir el modelo de evolución que va de lo “primitivo” a lo “avanzado”, de lo “simple” a lo “complejo”. Gould puede deshacerse de la interpretación de linealidad, progresivismo y determinismo – palabras estorbosas para Gould. 40 Está también en condiciones de mostrar que el Homo sapiens no es el propósito hacia el cual apunta la fauna cambriana sino que más bien es simplemente una “ramita”. Se pueden deducir dos resultados de la crítica de Gould. El primero es limitado pero muy importante e inteligente. El segundo es fatuo, desafortunadamente. Comencemos con el importante e inteligente. Muchos críticos han encajado el trabajo de Gould con el tipo de interpretación evolucionista que ve a la suerte, al azar, como el común denominador de la evolución. Han tomado su trabajo como adherido a un nihilismo evolucionista. Gould no cree en jerarquías, ni en progreso ni en linealidad, ni en determinismo, ni cree que la evolución tenga un objetivo. Desde luego, como muchos biólogos, sabe que el azar es un factor de gran importancia. Sin embargo, para Gould el principal empuje, –aun cuando ésta sería una palabra errónea para él– el principal motor de la evolución, ha sido la contingencia. Por contingencia Gould quiere decir que la evolución no es “insensible” ni le falta un “patrón”, sino que está “determinada por miles de improbables” y sucesos impredecibles: I am not speaking of randomness (for E had to arise, as a consequence of A through D), but of the central principle of all history –contingence. A historical explanation does not rest on direct deductions from laws of nature, but on an unpredictable sequence of antecedent states, where any major in any step of the sequence would have altered the result. This final result is therefore dependent, or contingent, upon everything that came before –the unerasable and determining signature of history.13 13 Ibid., p. 283 41 Por lo tanto la contingencia no esta muy lejos de la visión de Darwin del balance, una buena sintonía de la población con los recursos. Deshágase de un depredador y la presa florecerá. Lo que Gould discute es que la vida en sus diferentes etapas no contó con un único empuje: por el contrario, miles de circunstancias propiciaron el resultado. Resumiendo, la contingencia representa realmente una visión de la evolución generosa y ecológica. Contempla la vida como una red de la cual no sólo somos parte sino que somos sus dependientes. Sin embargo existe un problema, ya que la idea de la contingencia funciona en el “condicional”. Si las aguas del periodo cámbrico hubieran sido un poco más templadas, hubiéramos podido no estar aquí. Se necesitan todos los “si” y los “habría” o “hubiese”. Este tipo de argumento hipotético perpetuo podría motivar insignificantes revisiones de las ideas que tuvimos en el pasado. Pero una cosa que no puede hacerse por más que Gould lo intente, es probar que los humanos no son inevitables. Somos inevitables porque estamos aquí. Mientras no podamos viajar en el tiempo –si es que alguna vez eso es posible– no podremos manipular la palanca que borre nuestro parentesco, por lo que el argumento es meramente una curiosidad metafísica, que podría demostrar nuestra suerte, o lo precario de la vida o el fino equilibrio sobre el cual cabalga nuestra existencia. Todas estas cosas son importantes, es importante tener en mente todo esto. Con todo ello, no se puede desmentir nuestra importancia aquí. Gould podrá tratar de hacerlo pero en su intento realmente socavará el poder de la contingencia. Al hacer de nuestra especie algo marginal marchita las implicaciones ecológicas de la contingencia. Somos, después de todo, una de las especies con mayor influencia por lo que al ambiente se refiere. Existe un aspecto aún más defectuoso en el trabajo de Gould. Aparecen sus peores momentos cuando intenta borrar las malas 42 interpretaciones sobre la evolución. Como hemos visto, su proyecto intenta desmentir el progreso, el determinismo y la linealidad. Y es en hacerlo, al intentar demostrar que estos conceptos son ficciones, en donde falla en ver cómo sus propias ideas están infectadas con tantos prejuicios como las ideas que trata de disipar. En orden de corregir las malas interpretaciones, Gould ha adoptado muchas de las técnicas que los críticos culturales han desarrollado durante este siglo. Su crítica de la iconografía de la evolución tiene la misma redundancia que muchas de las críticas iconográficas que llevan a cabo los semiotistas. Su intento de derrocar al Homo sapiens de sus alturas jerarquicas, asemeja en su enfoque, si no en su estilo, a un proyecto de destrucción. Concretando, al igual que los críticos culturales a los que se asemeja, Gould tiende a tomar una buena idea y explayarse en ella, aplicarla sin discriminación, sin ningún respeto ni al sentido común ni a la lógica. Para los críticos culturales, como para Gould, se ha convertido en una moda etiquetar cada patrón como una falacia o ficción: Como opina en Full House, cada “tendencia fundamental” de la que nos enteramos al leer algo respecto a la evolución “se basa en una falacia”.14 Esta tendencia ha sido, por lo menos, perjudicial. Ha enlodado su trabajo con imprecisiones y errores, con los mismos pasos en falso de interpretación y situaciones sin solución lógica que critica en otros. Probablemente, sus callejones sin salida lógica se desprenden de su interpretación del tiempo. Una vez más, en Full House destaca que debido a que somos “criaturas que cuentan cuentos”, quienes estamos “fascinados con las tendencias” hemos “impartido direccionalidad al tiempo”.15 Tal enunciado, desde luego, no solo es sorprendente sino atroz, viniendo como 14 15 Op. cit. p. 19 Op. cit. p. 31 43 lo es, no de un preparatoriano quien apenas terminó su primer curso de filosofía, sino del “pontífice” de la paleontología. Hablaremos posteriormente de la direccionalidad del tiempo cuando hablemos de física y por lo pronto, será suficiente decir que los físicos aseveran que la dirección del tiempo es la misma que tiene la flecha de la termodinámica. Según la flecha de la termodinámica las cosas tienden al desorden. La analogía común en este caso es el vaso de leche a la orilla de la mesa. Digamos que alguien pasa y simplemente hace que la casa vibre tanto como para hacer que el vaso se caiga y se rompa y que la leche s desparrame. Así es como experimentamos el tiempo. Nunca hemos visto vasos que se rehacen, se vuelven a llenar y se regresan a las mesas en donde estaban colocados. ¿Por qué Gould habría de ignorar tal hecho obvio? ¿Por qué habría Gould de ignorar lo que la física nos dicen respecto a que el tiempo tiene una dirección? Parte de su argumento es por absoluta ceguera, por su inhabilidad para separar el condicional de sus experimentos mentales –sus “si” en “si rebobináramos la cinta de la Vida”, sus “hubiera” y “habria” que siguen en la oración principal- de la realidad, de las imposibilidades físicas. Sin embargo, realmente es necesario para cualquier pensador poder distinguir una hipótesis de la realidad física. La segunda razón por la cual Gould ignora las leyes físicas podría ser ideológica. En verdad, está inmerso en el ambiente ideológico de la academia. Sus escritos suenan a ese tipo de nihilismo de izquierda que ha sido tan comun en la cademia: en la critica del conocimiento de Derrida, en la crítica de la historia de Foucault, etc. Como tantos académicos, Gould forma parte del Zeitgeist. A la larga, el intento de Gould de desmentir la direccionalidad del tiempo lo condujo a errores tremendos. Con objeto de defender su idea, hace exactamente lo que critica en sus predecesores ya que forza su información 44 de manera de adecuarla a su argumento. En Wonderful Life, por ejemplo, al tratar de demostrar que no existen ni secuencia, ni linaje, ni direccionalidad, francamente llegó a una interpretación errónea y finalmente cercenó el linaje de varios organismos. Uno de estos organismos que forma parte del núcleo, la raíz, la semilla del argumento del autor debido a la copiosa variedad de los mismos durante las etapas tempranas de la Vida, fué la Hallucigenia, un artrópodo perfectamente descrito por su nombre científico. La Hallucigenia es un gusano con siete pares de púas de un lado y siete extensiones tubulares por el otro, un tubérculo como protuberancia en un extremo y una cola tubular en el otro. Gould se refería a “esta extraña maravilla” como prueba de una variedad de diseño en la vida primitiva. Al girarlo, lo interpretó al reves. Tan obsesionado estaba con sus artículos revisionistas que trataban de corregir las interpretaciones originales de la fauna, que los tubos de la espalda resultaron ser patas –un segundo juego de patas apareció cuando el fósil fué debidamente excavado. Las púas que Gould creía que eran patas eran justamente eso: púas. De hecho la Hallucigenia reinterpretada con posterioridad a Gould, probó ser ancestro de los gusanos terciopelo (Onycophora) que aún sobreviven debajo de troncos podridos en el hemisferio sur. Para los admiradores de Gould, este tipo de error, este tipo de ceguera debido a sus prejuicios –el tipo de ceguera al que Gould tan mordazmente atacó– es solo peccata minuta. Sin embargo, no lo es. El rechazo de Gould a nuestra tendencia a encontrar “tendencias” en nuestras lecturas e interpretaciones de los registros de fósiles, lo invalidó. Simon Conway Morris, uno de los asistentes de Gould en el proyecto Burgess Shale ha sido probablemente quien ha proporcionado el argumento de mayor peso contra la interpretación de Gould, al ofrecer una alternativa para la contingencia 45 como el modus operandi de la evolución. Originalmente, cuando Darwin hizo su gran descubrimiento, no contaba con nuestros puntos de ventaja, ya que el ADN y su estructura habían de descubrirse con posterioridad. No estaba enterado de los experimentos genéticos de Mendel y su idea surgió por medio de la observación y lo que observaba eran unicamente formas. Darwin descubrió la evolución, porque hizo observaciones cuidadosas de los patrones anatómicos y de sus respectivas modificaciones. Y es precisamente en esta ingenuidad respecto a lo formal, lo anatómico o lo estructural en lo que Gould ha sido más defectuoso. En su libro The Crucible of Creation, Conway Morris discute el tema a la par. Razona más allá de simples malas interpretaciones del registro de fósiles, ya que su argumento gira alrededor de la idea de que, aun cuando uno regrese la cinta de la vida y la vuelva a reproducir, el resultado no sería tan diferente. ¿Por qué? Porque Conway Morris, como Darwin, es un formalista por llamarlo de alguna manera. Tomemos tres animales: el oso hormiguero gigante sudamericano, el equidna de Oceanía y el pangolín gigante de Africa. Si usted observa los tres animales, va a contemplar tres animales muy similares. Los tres tienen una lengua larga y pegajosa y garras de cimitarra. Todos son desdentados y su hocico carece de pelo y asemeja una manguera de hule. Todos ellos tienen protuberantes glándulas salivales y un estómago sumamente áspero. Sin embargo y a pesar de sus muchas semejanzas, ninguno de éstos animales están emparentados, es más, no tienen una línea común. El equidna pone huevos y está relacionado íntimamente con el ornitorrinco. Lo que hace a estos tres animales semejantes, es un fenómeno que Conway Morris denomina convergencia. La convergencia es el mismo fenómeno que asemeja al murciélago (mamifero), al aguila (ave) y al extinto pterodáctilo (reptil). Lo que la convergencia 46 señala, es que la vida sólo puede tener tantas formas como las que puedan hacer frente al medio ambiente de manera exitosa. Existen varios diseños que pueden permitirle a un animal volar. En el caso de nuestros tres animales hormigueros, la razón por la cual son tan similares es que todos ellos, precisamente, se alimentan de hormigas, tarea difícil, que explica por qué, para quitarse facilmente las hormigas y prevenir mordidas tienen hocico duro y sin pelo; garras que les permitan excavar y estómago que les ayuda a digerir, etc. Estaremos tratando con la convergencia más ampliamente ya que es crucial para nuestro argumento, que va más allá de las simples similitudes anatómicas. De hecho, la convergencia se dá también a niveles moleculares. Peces no emparentados, que nadan en aguas muy frias, han desarrollado la misma proteina anticongelante. Por ahora, nos gustaría concluir este capítulo con la respuesta de Stephen Jay Gould a la pregunta de Auden: We may, as this book advocates, accept [geology´s] implications and learn to seek the meaning of human life, including the source of morality, in other, more appropiate, domains –either stoically with a sense of loss, or with joy in the challenge if our temperament be optimistic. Entónces, ¿para qué queremos el conocimiento? La respuesta de Gould nos dice que la aceptemos por resignación o más bien para hacernos tontos. Volveremos a Gould, con optimismo, para debatirlo respecto a lo equivocado de sus más preciada idea, la insistencia en contemplar a la vida como algo sin significado, la evolución como sin propósito. Pero primero, para dar nuestra respuesta de para que queremos el conocimiento, debemos encontrar nuestra escala, tenemos que ver como encajamos en este cosmos 47 de lo infinitamente pequeño y de lo tremendamente grande, y también entender como lo infinitamente pequeño nos configura, como también configura lo infinitamente grande. 48 2 LA MÚSICA DEL UNIVERSO The larger music of the world, which contains all sounds and silences and whichone rarely notices, either because its rhythms occur too quickly or it takes centuries for harmonies to resolve, emerges for a moment through the crevasse of the sky. RODNEY JONES Ya sea que tenga que ver con el proyecto del genoma humano y que llegue diariamente a través del periódico o que se trate del caos y que se inserte poco a poco en la conciencia del público por medio de artículos ocasionales en revistas, uno de los problemas principales es interpretar la ciencia y los datos que involucrados en un determinado contexto. La palabra contexto viene del verbo latino contextere, que significa insertar junto o entrelazar. Desafortunadamente, en su uso moderno la palabra ha perdido su capacidad de indicar no sólo la manera en la que el significado se presenta, sino la idea de un tejido que está en su totalidad construido detalladamente. En realidad, como los teóricos de la comunicación usan la palabra hoy dia, el contexto es solamente la parte que precede y sigue a un cierto segmento de información y a la cual le da significado. Actualmente pensamos en contexto como si fuera un marco de una pintura, un rectángulo completamente extraño a la pintura a la cual enmarca. Es quizá por esta manera superficial en la que pensamos sobre el contexto, que nos parece extremadamente difícil el que al tomar una importante teoría científica podámos sacar mayores conclusiones de ella. El fenómeno no es del todo un malestar moderno. Desde fines del siglo XVIII, con la crítica kantiana de la razón, la cultura ha tomado como su 49 cometido el cuestionamiento del significado. Esta actitud, aun cuando saludable en sus ramificaciones políticas, es completamente opuesta a lo que tanto pensadores como sus seguidores trataban de llevar a cabo antes de la arremetida del periodo moderno. Los pensadores anteriores al siglo de las luces como Descartes, Bacon y Spinoza, creían que su deber era interpretar una visión unificada de la naturaleza y la condición humana. Mientras que esta meta permaneció entre muchos filósofos posteriores, el comienzo del siglo XX, para ser más precisos, de la primera guerra mundial, vió el fin de este proyecto intelectual. Desde entonces, nuestro conocimiento ha venido a ser más y más “atomizado”. Si en periodos previos el cometido del pensador era ligar las humanidades con la ciencia, ahora, este pensador se ha movido del panóptico16 al microscopio. El historiador no escribe las crónicas de las ascensiones y caidas, como lo hace Gibbon en el libro Historia de la decadencia y caída del imperio romano, sino que ha llegado a ser –por decirlo de alguna manera– el que colorea, el que recrea vívidamente un evento o fenómeno particular. El filósofo no intenta hacer conexiones entre cosmología, historia y conocimiento, pero sí ha llegado a ser una tenaz voz que insiste en la imposibilidad de la lógica. Finalmente, el cambio de énfasis e interes en los pensadores alcanzó una crísis epistemológica y moral, a la cual estos mismos pensadores gustan de referirse como una condición postmoderna. No corresponde al ámbito del presente libro adentrarse en la visión anacrónica del término o en su histórica estrechez de pensamiento. Sin embargo, justo es mencionar el más importante esfuerzo del pensamiento postmoderno, no solamente porque va 16 El panóptico fue un diseño arquitectónico de prisión en el que desde una posición central se podían observar las celdas que están colocadas en forma poligonal a su alrededor 50 en contra de las principales ideas que queremos presentar, sino también porque ejemplifica la manera en la cual estos pensadores han hecho hasta lo imposible para poner la información en contexto. Un breve vistazo a alguno de los proyectos de estos pensadores será suficiente. Si bien su fama de alguna manera ha disminuido, uno de los más influyentes filósofos de la postguerra ha sido Jacques Derrida. Sus trabajos incluyen libros sobre Platón y Freud, Rousseau y Herder, pintura y literatura. Sin embargo, a pesar de la diversidad de sus temas, su filosofía es una insistente, o mejor dicho, defectuosa exploración hacia la imposibilidad del significado. Mientras otro muy influyente filósofo francés, un poco menos monomaniaco, Michel Foucault ha abordado la filosofía históricamente. Bajo su influencia, muchos eruditos han argumentado que la ciencia no es un método mediante el cual entenderemos los fenómenos naturales que nos rodean, sino que es un “tratado”, una manera de organizar la información en la cual, como cualquier otro tratado el concepto está imbuido y simplemente refleja el sesgo de la cultura que realzan los científicos. En otras palabras, de acuerdo con Foucault y sus discípulos, la ciencia refleja la hegemonia de la cultura. Existe una pizca de verdad en la crítica de Foucault. Su trabajo sobre medicina, sobre la institucionalización de la locura y el nacimiento de la clínica, es perspicaz y en su mayor parte correcto. Sin embargo, de lo que muchos de sus seguidores no se han dado cuenta, es de la diferencia entre medicina, una ciencia que es, a falta de mejores palabras, de habla complicada, y física y biología, ciencias que pueden influir en la cultura, pero cuyos métodos y propositos estan, si no enrarecidos, al menos fuera de la linea principal de la cultura. Claro, muchos descubrimientos médicos han sido posibles gracias al apoyo del gobierno y la industria farmacéutica. Pero la injerencia politica o económica ganadas en la ciencia no necesariamente 51 han propiciado resultados prejuiciados, ni esto significa que los innegables logros en la genética o en la física de partículas, etc., sean menos válidos. En politica, el fin y los medios van de la mano. En la ciencia y en las artes el fin no puede considerarse equivalente a los medios. Los tempranos Anthems Chandos de Händel no dejan de ser piezas maestras porque el duque de Chandos se las haya encargado, ni las sinfonias Salomon de Haydn fueron trabajos de mero oropel simplemente porque Salomon le pago para que las escribiera. Estas obras reflejan la cultura de su tiempo, reflejan la elevación de una clase comerciante, por su forma sinfónica entre otras cosas, pero también van más allá de meras agradables palmaditas en la espalda. De modo similar, en la ciencia, mucho de lo que conocemos del átomo y de la energía atómica viene, desafortunadamente, del proyecto Manhattan. El resultado social de este proyecto es y seguirá siendo hasta que el último ser consciente en la Tierra desaparezca, una de las más grandes atrocidades humanas. Y aun cuando no pretendemos minimizar la responsabilidad personal y moral de los científicos involucrados en este hecho –nadie pretenderia hacerlo– podemos argumentar que lo ganado en cuanto a la formación de la idea del átomo, fue sin paralelo; y si bien no sopesamos los beneficios futuros para la humanidad contra los costos inmediatos, podemos razonar que es posible despojar los descubrimientos de su idea de beneficio económico y utilitario y verlos con más penetración en lo que realmente son por sí mismos. En otras palabras, asi como es posible conmovernos con la catedral de Chartres o la de la Ciudad de México, y verlas más grandes que la corrupción de la Iglesia y la explotación que permitió su construcción, es posible valorar los descubrimientos de la ciencia y divorciarlos de las fuerzas sociales y el discurso cultural que los provocaron. 52 Hemos caminado un buen trecho para establecer la necesidad del contexto y hemos cubierto quizá demasiado terreno. A pesar de todo, es importante tratar con estas ideas actuales porque de muchas formas, lo que nos proponemos es ir en sentido contrario de la nueva ortodoxia. Las ideas de los filósofos y los historiadores influyen en la manera en que los científicos interpretan su material. Como vimos en el capítulo previo cuando discutimos el trabajo de Stephen Jay Gould, la interpretación contemporánea de la evolución ha sido influenciada por los pensadores sociales como Comte, Spencer, Marx, etc. La advertencia de Gould de que la evolución no es el lugar para que los humanos nos ubiquemos en el mundo, o que si quisiéramos obtener un código moral, deberíamos buscar en cualquier otra parte, pero no en la evolución, está relacionada con las críticas culturales que expusimos arriba. Tanto Gould como las críticas culturales insisten en que no podemos encajar ningún descubrimiento científico en un contexto amplio. Dicho de otra forma, es una insistencia en el hecho de que es imposible situar la evolución, la física de partículas o la cosmología dentro de algun contexto. Al rechazar el colocar la evolución o la cosmología dentro de un contexto, los científicos han vuelto sus disciplinas una jerga, un argot que no tiene relevancia (por eso mucha gente rehusa interesarse en los agujeros negros o en los descubrimientos de evidencias antropologicas en el sentido de que alguna vez compartimos el planeta con otros Homo a los que probablemente eliminamos, etc.). A pesar de todo, nosotros pensamos como el físico cuántico David Bohm, quien en su libro La totalidad y el orden implicado argumenta que no estamos en una era definida por una serie de “callejones sin salida” científicos, una época en la que todas las ciencias están atomizadas, sino que en vez de esto, nos encontramos en el umbral de una revolución científica, tan importante o más que la revolución galileana que 53 nos condujo a la ciencia moderna. Y nuestra insistencia sobre un contexto proviene del hecho de que a menos que se contextualize cada rama de las ciencias, tal revolución será imposible. Por consiguiente, el grueso de este capítulo estará dedicado a ver cómo la evolución, que es la descripción historica del surgimiento de la vida y de las espécies, encaja en un mayor esquema, en un lienzo mayor, hablando de historia cósmica. En su libro The Fabric of Reality, David Deutsch sostiene que la ciencia moderna se puede dividir en tres ramas principales. Cada una de estas ramas esta representada por una teoría que explica el mundo natural. Las primeras dos ramas son la física cuántica, que trata con el átomo y sus componentes, y la relatividad, que se ocupa del universo, su arquitectura y su historia. La tercera rama es la evolución. En la tentativa de explicar cómo cada rama se relaciona con la otra, Deutsch hace una diferencia entre ciencias de “bajo nivel” y ciencias de “alto nivel”. Para Deutsch, las ciencias de alto nivel son las que tienen la habilidad de predecir resultados con precisión, y las de bajo nivel son aquéllas en las que la predicción de resultados es casi imposible. La única rama de la ciencia que tiene la capacidad de predecir resultados con una precisión casi infalible es la física cuántica. Los físicos cuánticos tratan principalmente con probabilidades y sus ecuaciones son las más exactas al describir el posible comportamiento de las partículas. En el siguiente capítulo nos ocuparemos en forma un poco más amplia de la física cuántica. Por ahora será suficiente dejar asentado que entre las ramas de la ciencia, la física cuántica es la más exacta, y su exactitud proviene del hecho de que es capaz de predecir con gran precisión el comportamiento de sus objetos. Pero ¡ay!, de ninguna manera podemos decir lo mismo de la evolución. Por lo tanto, Deutsch etiqueta la evolución como una ciencia de bajo nivel. 54 ¿Por qué lo hace así? ¿Por qué la evolución no es precisa aun cuando describe tan bien la historia de la vida en el planeta? La respuesta descansa en la propia historicidad de la evolución. El descubrimiento de Darwin, en otras palabras, es historico; está basado en la observación de las transformaciones morfológicas que han tenido lugar a lo largo del tiempo y que solamente se confirmaron cuando los datos geológicos se analizaron contra los cálculos de Darwin, puesto que el proceso que él describió requiere que la Tierra sea mucho más antigua de lo que creian los científicos del siglo XIX. La evolución no puede entonces, por sí misma, sin los recursos de la genética o la física, predecir un resultado, ni tampoco puede decirnos el futuro de nuestra o cualquier otra especie en el planeta sólo puede describir resultados posibles. Pero estas predicciones son altamente falibles. La fuente de esta falibilidad es lo que los científicos llaman comportamiento caótico. Un elemento caótico es un término matemático que se refiere al número de variables inciertas dentro de un sistema. La física cuántica es exacta debido a que el número de variables con las que se calcula cada probabilidad es limitado y finito. Por otra parte, la biología evolucionista es falible porque la evolución de los sistemas orgánicos en este planeta está entretejida con muchos otros factores. En otras palabras, la evolución podría predecir los cambios morfológicos dentro de una especie, siempre que ésta permaneciera por un largo periodo de tiempo en un ambiente estable y reteniendo ciertos hábitos de reproducción. Sin embargo, como todos sabemos no existe en el planeta ningun ambiente o nicho ecológico estable. Aun antes de que la Revolución Industrial y la explosión demográfica hicieran estragos en nuestros frágiles y finamente armonizados ecosistemas, las especies habían estado a merced de factores impredecibles como los cambios de clima y las enfermedades. 55 Para muchos, la falibilidad inherente a la biología evolucionista es prueba de que hasta ahora no hay una posible via para unificar las tres ramas del conocimiento científico. Para quienes así piensan, la falibilidad de la evolución, en otras palabras, es el motivo por el cual no se puede poner ésta (la evolución) en un contexto más amplio. De hecho, para la mayoría de los científicos, la tentativa de aplicar una perspectiva evolucionista a cualquier otra cosa que no sea los sistemas orgánicos es absurda o imposible. Para ellos el mundo que el quantum y la relatividad describen es totalmente diferente, totalmente extraño al mundo que la evolución describe. Por lo tanto, cualquier mención de evolución fuera del reino de los seres vivientes es solamente metafórica y forzada. Parte del rechazo de los científicos para ver la evolución como descriptiva de otro mundo que no sea el que el orgánico origina, pensamos, es en primer lugar la falta de un contexto global para el universo, y también el vacío de perspectiva y analogias adecuadas. Muchas de las analogías que actualmente usamos para entender la evolución y la línea de tiempo que describe, son de naturaleza didáctica, y se deja de lado el uso de analogías y metáforas como lo hacen los poetas y que son una fuente de descubrimiento epistemológico. Por lo tanto, en orden de empezar a colocar la evolución en una espécie de contexto, debemos empezar por buscar una nueva analogía. Como bien sabe todo estudiante y cualquier visitante de un museo de historia natural, el Homo sapiens, si bien tiene muchos años en el planeta, empequeñece cuando se le considera cronologicamente junto a la línea del tiempo de la evolución, y ese empequeñecimiento es más desalentador cuando se le coloca en un esquema del tiempo cósmico. Cuando los científicos tratan de comparar la edad del planeta con la de nuestra propia 56 historia, la mayoria de las veces, tanto en libros de texto como en museos, usan la analogía del calendario anual. La analogía funciona como sigue: si la historia del planeta abarca un año, el momento en que el Homo sapiens apareció corresponde al último minuto del 31 de diciembre. Mientras que esta analogía es de alguna manera precisa y muy útil para que visualicemos las vastas edades que precedieron a la aparición de la raza humana, en lo que falla, por supuesto, es en colocar la evolución dentro de un contexto más amplio. Para lograr esto, necesitamos de una metáfora completamente diferente, una metáfora que sea capaz de simular un proceso que se desenvuelve en el tiempo, pero el cual contiene a su vez diferentes tipos de tiempos o medidas. Los poetas han intentado tales metáforas desde el inicio de nuestra historia literaria. Ovidio abrió su Metamorfosis con un extenso catálogo de las eras. El epígrafe del principio del capítulo, de alguna manera usa lo que pensamos es una mejor analogía. Si vamos a comparar toda la historia del universo, desde el principio hasta el presente, una mejor analogía debería involucrar nuestras cronologías, calendarios, relojes etc. sólo marginalmente. Y si los humanos tenemos una manera diferente de medir el tiempo que no sea a base de calendarios y relojes, un arte como la música, que depende del tiempo y trata con él, puede ser la mejor opción. En otras palabras, para visualizar la historia cósmica completa, uno debe imaginar una obra musical en una vasta escala. Al igual que el antropólogo Claude Levi-Strauss, quien al principio de su voluminosa obra sobre el mito, razona que los dramas musicales de Wagner parecen ser la analogía perfecta para mostrar el camino por el cual los mitos se desarrollan, nosotros pensamos que solamente trabajos a escala similar pueden ayudarnos a imaginar las vastas cantidades de tiempo con las cuales los científicos trabajan. Imaginemos entonces un 57 trabajo a gran escala. Para nuestro propósito, afortunadamente no tenemos que lidiar con los dramas wagnerianos. En vez de esto, regresemos a Beethoven, con quien empezamos el libro y permítasenos ser más osados con nuestra analogía y olvidar el año cósmico que los científicos usan para ilustrar nuestro tardío arribo al universo. Imaginemos entonces que la historia del universo, la historia total del cosmos está contenida en una de las últimas sonatas para piano del citado compositor. La sonata Hammerklavier puede servir de más apto ejemplo. Como los cuartetos con los que empezamos el libro, esta sonata es uno de los trabajos más atrevidos de Beethoven. Un trabajo a gran escala con más de mil compases de música, la sonata explora una variedad de formas musicales, incluyendo la sonata misma, el tema y la variación y una larga fuga que en la producción de Beethoven, sólo rivaliza con la Gran fuga de sus últimos cuartetos. Para quienes mil compases no signifiquen nada, entonces una aproximación para comprender qué tan larga es la sonata, es recordar que a los pianistas les lleva alrededor de 44 minutos ejecutar la pieza. En ese lapso lo que tenemos es una transmutación de ideas. Esta transmutación, desde la enérgica apertura hasta el triste adagio, ocurre no sólo a través de desarrollos lineales o diacrónicos de la música, sino a través de sus aspectos sincrónicos: a saber, los “experimentos” armónicos que realizó Beethoven. En otras palabras, si vamos a usar la citada sonata como una metáfora para entender la historia y la evolución del universo, debemos considerar no sólo el impulso lineal que emprendió el universo rápidamente después del big bang, sino también esas “células sincrónicas” que le añadieron algo más. Permítasenos explicar. El eje diacrónico es aquel en el que las cosas se mueven hacia adelante pero en diferentes tiempos o ritmos. Las cronologías y las genealogias son diacrónicas porque son lineales. El eje sincrónico es aquél en 58 el cual no hay movimiento per se; en vez de esto, hay un instante en el que varias cosas suceden simultáneamente. En la música, si tenemos solamente un eje diacrónico, obtenemos ritmo y las bases de la melodía. En otras palabras, tendremos una forma rudimentaria de música. Lo que le da profundidad a ésta, lo que la hace una forma sofisticada de arte, es la armonía. Nuestro argumento es que, como en la música, en la historia del universo las cronologías sólo pueden ser entendidas y colocadas en un contexto, si vemos el escenario completo y la ocurrencia de los eventos sincrónicos. El big bang es, por supuesto, uno de estos eventos. Pero también lo son la formación de la materia y de los sistemas planetarios. ¿Qué ganamos viendo el escenario de esta forma? Una anécdota acerca de la sonata que hemos tratado podría ser suficiente para darnos cuenta. Cuando Ries –un alumno de Beethoven– estaba cerca de publicar la sonata en Londres, Beethoven le envió dos notas que debían ser insertadas en un compás abierto del adagio. La mayoría de nosotros hubiera reaccionado tal como hizo Ries. Con más de mil compases, con cuarenta o más minutos de música ¿qué diferencia harían realmente dos segundos o menos? Para cualquiera que posea la grabación de la sonata, la recomendación sería que experimentaran oyendo la grabación después de las dos notas y compararan. Pero como no todos poseen la grabación y quizá ni les interese tenerla, debemos persuadirlos de que esas dos notas hacen toda la diferencia. No solamente son las celulas sonoras básicas que establecen el tono y la dirección de todo el movimiento, sino que forman el eje emocional. Sí, esos dos segundos resuenan en todo el movimiento. Podemos argumentar que el universo no es muy diferente. Las grandes cronologías son inevitables. Si existe una manera de darle sentido a estas cronologías, tenemos que mirar los eventos relativamente diminutos de la historia cósmica, y darnos cuenta de cómo 59 estos también son el pivote de otros eventos mayores. Recordemos que la prehistoria de la materia, como la prehistoria del adagio de Beethoven es simple, no dos notas, sino dos elementos. Para no trabajar sólo con metáforas y tratar de discutir la manera en la cual la historia del cosmos, la historia del universo, puede dar un contexto a la evolución y viceversa, es necesario adentrarnos en algunos detalles minuciosos del universo, dar un vistazo a lo que los científicos saben acerca de él. Hay dos maneras de hacer esto. La primera y más inevitable es tomar una aproximación histórica, para ver cuándo y cómo empezó su historia, cuándo y cómo se desarrolló y adónde y cómo llegará en el futuro. Por lo tanto, a esta aproximación la llamaremos histórica. Para entender tal universo debemos colocarnos en un linea temporal. Sin embargo, mientras que el universo ciertamente tiene una larga historia y ésta es más que relevante para nosotros, existe otra manera de entenderlo. 60 El cosmos, durante toda la historia humana en la que los filósofos y los científicos lo han podido observar, ha permanecido practicamente sin cambio. Claro que sabemos de eventos violentos que han ocurrido dentro del universo: explosiones, desapariciones, transformaciones etc. Estos eventos en cuanto a los humanos concierne han sido imperceptibles, o si no imperceptibles, por lo menos no han alterado significativamente la estructura del universo. En otras palabras, todos los cataclismos que han ocurrido a partir del arribo del hombre, han sido lo suficientemente pequeños, como para mantener intacta la estructura (o el tejido) del universo. Consecuentemente, la segunda manera de enfocar el universo es mirar su estructura. Lo que resta del capítulo lo dedicaremos a explorar someramente tanto la estructura como la historia del universo. Antes de embarcarnos en la estructura del universo –y estamos usando aquí muy cautelosamente la palabra estructura– debemos hacer una aclaración. La mayoría de los no especialistas, cuando se les dice que van a leer sobre la estructura del universo, saben que se tratará acerca de estrellas, galaxias, pulsares, etc. Nosotros trataremos tales estructuras pero en un intento de ver cómo se insertan en la totalidad del cosmos. Sin embargo nuestro propósito no es taxonómico. Este libro, aun cuando pueda ser didáctico en algunos puntos, no pretende ser un libro de texto y tampoco pretendemos trabajar como naturalistas, que coleccionan plantas secas y pájaros disecados, sino que nos enfocaremos en las verosímiles explicaciones que los científicos nos ofrecen de tales fenómenos como estrellas, galaxias, pulsares, etc. Existen varios problemas al tratar tanto con la historia como con la estructura del universo. El primero y más difícil de superar es que la mayoría de los conocimientos que tenemos del universo desafían el sentido común. Y 61 no nos estamos refiriendo a los fenómenos que se encuentran dentro del universo, sino al universo en sí. Si las fuerzas gravitacionales en un hoyo negro –de los cuales hablaremos después– parecen insondables e inimaginables, entonces no sólo el tamaño del universo sino su estructura y la manera por la cual los científicos han llegado a conocer esta estructura, es realmente para dejarnos pasmados. Otro problema más técnico cuando se discute la estructura del universo es que nuestro “mapa” de éste, el modelo matemático mediante el cual lo entendemos, no puede discutirse completamente sin contemplar el universo desde un punto de vista histórico. Este modelo matemático fue deducido en su mayor parte por Einstein y es lo que ahora conocemos como relatividad general. Antes de entrar en detalles de esta teoría es suficiente señalar que el entramado mediante el cual la relatividad general hace el mapa del universo es uno de cuatro dimensiones: así como la Tierra es tridimensional y ningún mapa bidimensional puede captar fielmente sus características, el universo no puede ser comprendido sin una cuarta dimensión. Por lo tanto, antes de ver cómo está formado el universo, necesitamos tener en mente que si aunque sea momentáneamente hablamos de estrellas o galaxias como si fueran tridimensionales, la estructura entera y el concepto completo de espacio sólo puede ser entendido en un entramado de cuatro dimensiones, donde al espacio se le adjudican sus tres dimensiones usuales y al tiempo se le considera como la cuarta: por lo tanto la relatividad general y los científicos posteriores a ella hablan de un espacio-tiempo. Para aclarar esto, tomemos el ejemplo que propone Brian Greene en The Elegant Universe: Cuando queremos encontrarnos con alguien, le decimos en qué “espacio” esperamos verlo. Para esto tenemos que proporcionarle tres piezas de información, por ejemplo situarnos en el 9o 62 piso de un edificio que está en la esquina de la calle 3a y la avenida 2a; esto refleja una localización particular en las tres dimensiones espaciales del universo. Pero es igualmente importante especificar cuándo vamos a encontrarnos en ese espacio, por ejemplo a las 3 PM. Esta pieza de información nos indica dónde “en el tiempo” va a tener lugar nuestro encuentro. Los eventos por lo tanto están especificados por cuatro piezas de información: tres espaciales y una temporal. ¿Qué es el espacio-tiempo y qué nos dice acerca de la estructura del universo? La idea del espacio-tiempo surgió de un problema científico completamente práctico. Por miles de años, la mayoría de los estudiosos adoptó el mapa aristotélico del universo17, donde lo celestial, el espacio más allá de la Luna era gobernado por leyes diferentes al espacio más acá de la Luna. Este modelo comenzó a disolverse una vez que el modelo copernicano del universo fue adoptado. Sin embargo, nadie hasta Newton fue capaz de dar una respuesta que explicara y sintetizara la dicotomia. La explicación de Newton incluye tanto las leyes terrestres como las celestes. Existen momentos particularmente intensos en la historia del pensamiento humano y algunas veces podemos ser testigos de ellos, aun cuando de forma idealizada, en los recuerdos autobiograficos de sus creadores. Stravinsky, por ejemplo, traía a la memoria que: One day, when I was finishing the last pages of L’Oiseau de Feu in St. Petesburg, I had a fleeting vision which came to me as a complete surprise, my mind as the moment being full of other things. I saw in my imagination a solemn pagan rite: sage elders, seated in a circle, watched a young girl dance herself to death. They were sacrificing her to propitiate the god of spring.18 17 18 Aun cuando en Alejandría ya había un modelo heliocéntrico de Aristarco de Samos Stravinsky, Igor. Chronicle of My Life. London: Victor Golancz, 1936 63 La explicación de Stravinsky, aun cuando aparentemente inocua, rastrea, por supuesto, el germen de una de las obras maestras de la música, La consagración de la primavera. Sentimos que esto tiene mucho significado, no solamente porque La consagración de la primavera es una obra maestra, sino porque fue un parteaguas en la historia de la música, una pieza que transformó la música occidental, su lenguaje armónico y melódico, así como su rítmica. Hemos citado a Stravinsky para tener un sentido de la proporción. En las crónicas de sus momentos inspirados, Newton, literal y metafóricamente alcanza la estratosfera: In those days I was in the prime of my age for invention & minded Mathematics and Philosophy more than any time since…I began to think of gravity extending to the orb of the moon &…from Kepler’s rule of the periodical times of the Planets being in sesquilateral proportion of their distances from the center of their Orbs, I deduced that the forces which keep the planets in their Orbs must be reciprocally as the squares of their distances from the centers about which they revolve: & thereby compared the force requisite to keep the Moon in her Orb with the force of gravity at the surface of the earth, and found them answer pretty neatly.19 Lo que la teoría de Newton finalmente logró en su tiempo fue proveer una explicación del comportamiento de las cosas terrestres y celestes. Nosotros tocaremos solo muy brevemente la física Newtoniana. Las hazañas de Newton sólo marcaron el camino de la física moderna: sus “fallas”, los huecos y las paradojas que su sistema dejó abiertas y sin responder, fueron el trampolín desde el cual Einstein y otros científicos empezaron. 19 Herbert Westfall, Never at Rest: A biography of Isaac Newton. London, Cambridge University Press, 1980 64 Algunas de las afirmaciones de Newton son muy de sentido común y parece excesivo repetirlos aquí. Sin embargo, puesto que veremos que Einstein, aparentemente no es tan apegado al sentido común, vale la pena dar otra mirada. La primera ley de Newton involucra el movimiento de los cuerpos. Antes de Newton, la mayoría de los científicos tenía que atenerse al concepto aristotélico de que la dinámica de los cuerpos dependía de su composición elemental: así el agua se regía por una ley diferente que el fuego. En la mecánica newtoniana, los objetos se describen por una sola variable, su masa (hay que notar que pese al hecho de que Einstein sobrepasará la mecánica newtoniana, su teoría de la relatividad y su mas famosa fórmula incluirán este término newtoniano). La primera ley de Newton sostiene que “todo cuerpo mantiene su estado de reposo, o de movimiento uniforme en línea recta, a menos que se le imponga un cambio de estado”.20 Mientras que esta última afirmación parece trivial y obvia, sus implicaciones son grandes, ya que lo que sea que obligue a un objeto dado a moverse es catalogado y visto por las matemáticas newtonianas como una fuerza. Cuando una fuerza obliga a una masa a moverse, el cambio puede ser registrado como una aceleración. De aquí, la segunda ley de Newton: La fuerza es igual a la masa por la aceleración F=ma Como quiera que sea, la aplicación de una fuerza tiene un precio. Consecuentemente, la tercera ley de Newton establece que “a cada acción 20 Isaac Newton, Mathematical Principles of Natural Philosophy and His Systems of the World. Berkeley, University of California Press, 1934. 65 siempre se opone una reacción igual”.21 Reiterando, estas tres leyes nos parecen bastante apegadas al sentido común. Lo que denota el genio de Newton es que las haya aplicado a la dinámica completa del sistema solar conocido. De acuerdo con la primera ley, los planetas no deberían orbitar al Sol sino moverse en una línea recta, es decir “conservar su movimiento uniforme”. Puesto que esto no es así, debía existir una fuerza responsable de curvar su trayectoria. Finalmente Newton demostró que la gravedad era la que originaba tal fuerza y justificaba la ley de Kepler sobre el movimiento planetario. Newton proveyó un bello modelo matemático del movimiento planetario. Sin embargo, no explicó la gravitación misma. Sus Principia no contienen una explicación causal para la gravedad. Más aun, Newton admitió que “la causa de la gravedad era algo que él no pretendía conocer”.22 Esta “grieta” en el universo de Newton, por decirlo de alguna manera, sería la fuente de la física de Einstein. Aunque a primera vista no lo parece, éste no es un problema pequeño. En realidad, el no saber la causa de la gravedad, significó para Newton el no poder explicar cómo la gravedad se conducía, para hacerse sentir, a través de vastos espacios sin ningun contacto. Para subsanar este problema, los seguidores de Newton propusieron que el espacio estaba lleno de una sustancia invisible llamada éter, que era, así, una espécie de transmisor. No vamos a tratar los intrincados argumentos mediante los cuales varios científicos postularon la existencia del éter. Baste decir que Einstein, entre otros, fue capaz de eliminar el concepto proporcionando una ecuación 21 Ibid. A. Bernard Cohen, The Newtonian Revolution, London, Cambridge University Press, 1983. 22 66 más elegante para explicar el movimiento planetario. La línea de acción de Einstein no es fácil. De hecho, en él tenemos, si no la más grande, una de las mentes más brillantes, no solo del siglo XX, sino de todos los tiempos. Más aún, el camino mediante el cual fue capaz de proveernos con un mapa del universo, es largo y, a diferencia de la mecánica de Newton, con frecuencia desafía el sentido común. Para comenzar, entendiendo cómo Einstein fue capaz de deshacerse del éter como un componente necesario para explicar la acción a distancia o incluso para explicar la manera en que la luz viaja a través del vasto espacio, y finalmente, para entender el tipo de mapa que Einstein nos legó, es necesario retroceder un poco, porque antes de que resolviera el problema del origen de la gravedad en la teoría de la relatividad general, él pudo explicar la ausencia del éter en su teoría de la relatividad especial. Esta teoría no proviene de un problema cosmológico, si bien explica el comportamiento de las estrellas y de la materia en general, en cualquier parte. Einstein llegó a la teoría de la relatividad especial tratando de resolver dos problemas que surgían de la teoría del campo electromagnético de Maxwell y Faraday, cuando éste se considera en un espacio newtoniano absoluto. Un campo es un dominio o ambiente donde la acción de una fuerza actual o potencial puede ser descrita matemáticamente en cada punto del espacio-tiempo mediante un grupo de números, que proporcionan en ese punto la intensidad y dirección de la fuerza apropiada. (Así, para describir el valor del campo electromagnético en cualquier punto del espacio tridimensional, se necesita un grupo de ocho números –uno para decribir la intensidad de la componente eléctrica y tres para especificar su dirección, más otro grupo similar para describir la intensidad y dirección de la componente magnética). En otras palabras, un campo explica como actúa 67 una fuerza sobre una masa, por medio de ecuaciones diferenciales. Con las ecuaciones, la presencia del éter es innecesaria, puesto que ningún elemento se necesita para que la aguja de un compás –la más obvia manifestación de un campo electromagnético– se mueva. En lugar de esto, la interacción de fuerzas y masas están explicadas como entidades matemáticas. En otras palabras, tal como las ecuaciones de Newton explican la inercia, las de Maxwell explican cómo una fuerza parece actuar a distancia. De hecho, Einstein pudo llamar a las fórmulas de Maxwell “revolucionarias”, porque “es el cambio de la acción de fuerzas a distancia, por campos como variables fundamentales.”23 La teoría del campo, en lugar de resolver completamente las "grietas” en la teoría de Newton, solamente las exacerbó. En el mundo de Newton, la posición, la velocidad y la aceleración son absolutas, por lo que Einstein inventó un experimento mental –como en general hizo– en el que se preguntaba qué observaría si viajara a la velocidad de la luz. Un newtoniano contestaría que vería “un haz de luz como un campo electromagnético espacial oscilatorio en reposo”.24 Sin embargo, Einstein sostuvo que “no parece haber tal cosa, con base en la experiencia ni de acuerdo con las ecuaciones de Maxwell”.25 Einstein resolvió esta paradoja por la vía de Ernst Mach, destacado filósofo de la ciencia y matemático de su tiempo. Como Leibniz y Huygens antes que él, que criticaron el espacio absoluto de Newton, Mach lo pensó como “una obscuridad metafísica”. Para Mach, el espacio no era absoluto, sino que “todas las masas y velocidades, y en 23 Paul Arthur Schilpp, Albert Einstein: Philosopher Scientist. La Salle, IL: Open Court, 1969. p. 33 24 Ibid. P.54 25 Ibid. 68 consecuencia todas las fuerzas, son relativas”.26 Mach fue una inspiración para Einstein, pero el sistema de Mach o su criterio no encajaban completamente en la relatividad especial. Einstein resolvió la paradoja y concluyó que uno no puede desplazarse a la velocidad de la luz, y que la velocidad de la luz es la misma para todos los observadores sin importar su movimiento relativo. Las implicaciones de la relatividad especial son trascendentales y requieren un poco más de explicación. En este punto Einstein todavía no esta tratando con la gravedad sino con la luz. Empero, esto es importante para nosotros porque la teoría de la relatividad general mediante la cual hacemos el mapa del universo, contiene los conceptos en los que Einstein se apoyó para crear una explicación de la gravitación que se equiparara con los resultados de la teoría de la relatividad especial. Lo que tuvo de revolucionario la relatividad especial, fue que se deshizo de un marco inmóvil de referencia donde las medidas se hacian con respecto a un tiempo y a un espacio absolutos, para remplazar esta norma con la luz. La luz es el único sistema absoluto de medición. La relatividad especial remplaza el espacio absoluto con un entramado de haces de luz. Existen otras consecuencias que se desprenden del experimento mental donde están involucrados unos viajeros imaginarios. Permítasenos por un momento regresar a Newton y recordar que cuando un objeto es puesto en movimiento, una fuerza es responsible de ello. En otras palabras, para que un objeto sea acelerado, otro objeto tiene que perder energía. La energía que la fuerza pierde es ganada por el objeto en movimiento. Así imaginemos ahora, el escenario común que la relatividad especial propone, e imaginemos una nave espacial que se acelera a una velocidad cercana a la de la luz. Puesto que la aceleración impone un intercambio de energía; puesto que, en 26 Ernst Mach, The Science of Mechanics. 6th ed. La Salle, IL: Open Court, 1960. p. 279. 69 otras palabras, las masas del astronauta y su nave se volveran plásticas, se podrán dilatar y encojer y se incrementarán, mientras que el tiempo transcurre más lentamente. Aquí es donde dejamos el universo “lógico” de Newton y nos adentramos en el “absurdo” de Einstein, si bien sabemos que este último es más exacto. Lo que revela finalmente el experimento mental, el último resultado del escenario de Einstein, viene dado por la conclusión de que si la masa de un objeto absorbe energía, entonces la masa decrece cuando el objeto radia energía. Con esta conclusión, Einstein fue capaz de mover el electromagnetismo de Maxwell, del laboratorio al universo entero, puesto que toda la materia, estrellas y planetas, automóviles y las páginas de este libro, está gobernada por la misma ley. La masa y la energía son entonces intercambiables. A partir del decubrimiento de este hecho, Einstein consideró la equivalencia de la masa con la energía: m=E c2 En esta ecuación m es la masa del objeto, E es la energia contenida y c es la velocidad de la luz que está elevada al cuadrado, es decir multiplicada por sí misma. Otra vez, la constante contra la que se miden las cosas, sean masa o energía, es la velocidad de la luz. En su forma más famosa la fórmula no está expresada en función de la masa, sino de la energía E = mc2 Cualquiera que sea la manera en la que se lea la fórmula, la conclusión es la misma: para Einstein, la materia es energía congelada. Esta intuición, como bien sabemos, produjo tragicas consecuencias históricas y 70 ecológicas en su aplicación práctica. Y tendrá tremendas ramificaciones cuando abordemos, no la estructura, sino la historia del universo. Pero antes, vamos a echar una mirada al siguiente gran descubrimiento de Einstein. Como ya dijimos, la relatividad especial trata con la energía, la masa y la luz. Sintetiza las ecuaciones del electromagnetismo de Maxwell, viendolo como el sistema de permuta mediante el cual se intercambian la masa y la energía. Lo que no trató fue la gravitación. Otra vez, Einstein diseñó la teoría de la relatividad general para crear una explicación de la gravitación acorde con la teoría de la relatividad especial, y en aquella postuló el principio de equivalencia entre la aceleración y la gravedad. Veamos un ejemplo: Imaginemos un carrito de servicio de un avión en tierra donde la tripulación lo prepara y supongamos que tienen que empujarlo. En estos momentos, quienes lo empujan están sintiendo la masa inercial, pero si tratan de levantar el carro entonces sienten la masa gravitacional. En otras palabras, la masa inercial es una propiedad de los objetos. La masa gravitacional se siente sólo cuando hay una fuerza gravitacional. Ahora imaginemos un escenario angustiante. Una vez que el avión despega, encuentra turbulencias y mientras que la tripulacion está sirviendo los alimentos, el avión se desploma en una bolsa de aire; el carro de servicio mantendrá su masa inercial. En realidad, si la caida es lo suficientemente pronunciada el angustiado pasajero se sentirá sin peso y probablemente verá el carro salir volando hacia alguien. El experimento anterior no es muy diferente del que Einstein realizó cuando propuso la teoría de la relatividad general. El fenómeno que condujo a Einstein a su visión tiene que ver con el hecho de que la masa gravitacional de un objeto y su masa inercial, son en realidad la misma. Esta visión de 71 Einstein le llegó en 1907, y aun cuando hemos leido recuerdos del creativo invento, leamos la versión del propio Einstein: I was sitting in a chair at the patent office at Bern, when all of a sudden a thought occurred to me: “If a person falls freely, he will not feel his weight.” I was startled. This simple thought made a deep impression on me. It impelled me to the theory of gravitation. 27 Así como la persona del experimento mental de Einstein se siente carente de peso, el carro de servicio en el avión, en el ejemplo anterior, cuando éste se precipita, también carece de peso porque el avión está en una caída libre. ¿Qué importancia tiene el significado de todo esto? Imaginemos una nave espacial que se mantiene en órbita debido al campo gravitacional de la Tierra. El astronauta deja de sentir su peso, pero no porque la nave vaya cayendo. Si selláramos las ventanas y le pidieramos que respondiera si va viajando hacia el espacio o cayendo hacia la Tierra, no podría hacerlo. Ninguna experiencia sensorial puede indicarle la diferencia. Ahora, imaginemos un experimento en sentido contrario: con las ventanas aún cerradas la nave se desploma hacia la Tierra, ésta la atrae con una fuerza igual a la de la gravitación terrestre, es decir G. Si en lugar de tener a la nave cayendo, se encendiera la máquina y se acelerara a 1 G, el astronauta sería incapaz de saber en qué dirección viaja o si va cayendo, no sentiría la diferencia, sentiría exactamente lo mismo. Por esto, Einstein concluyó finalmente que si los efectos de la gravitación eran similares a los de la aceleración, entonces la gravitación era una forma de aceleración. De 72 cualquier modo, la cuestión es con respecto a qué marco de referencia se considera la aceleración, pues como vimos con el experimento hipotético del astronauta y su incapacidad de diferenciar entre la aceleración y la gravedad, el campo gravitacional es relativo. La solución a este asunto requirió un cambio de paradigma, y es este cambio el que finalmente nos conduce a lo que hemos llamado nuestro mapa del cosmos. La razón por la cual la respuesta de Einstein constituye uno de los grandes cambios de paradigma en la historia, es porque abandonó la geometría euclidiana que trata con dos y tres dimensiones y adoptó una geometria de cuatro dimensiones. Esta geometria tetradimensional de Einstein le adjudica al usual espacio de tres dimensiones –alto, ancho y largo- una dimensión más, el tiempo. La formulación de Einstein fue el verdadero requiem al espacio absoluto de Newton. Ya no hay un espacio sino un continuum espacio-tiempo. Dentro de este marco, Einstein fue capaz de contestar lo que Newton nunca pudo. ¿Qué es la gravedad y de dónde proviene? La gravedad es la aceleración de los objetos que se desplazan siguiendo las trayectorias de campo en un espacio tridimensional que se curva en la cuarta dimensión. En otras palabras, la teoría de Einstein se aleja de la gravedad per se y nos dice que la materia curva el espacio, y lo que llamamos gravitación es la aceleración de los objetos cuando se deslizan a lo largo de las curvas descritas por sus trayectorias en el tiempo. La cuarta dimensión es algo que aun confunde a algunos científicos y más a los no iniciados. El resultado parece más que ligeramente extraño. A pesar de todo, la teoría ha probado ser correcta una y otra vez. La primera 27 Abraham Pais, Subtle is the Lord…The Science and the Life of Albert Einstein. London, Oxford University Press, 1982, p. 179 73 evidencia de lo correcto de la teoría llegó cuando Eddington observó cómo la luz se desviaba al pasar cerca del Sol durante un eclipse solar en 1919. Lo que esta desviación de la luz probó es que el espacio se curva alrededor de los objetos masivos. De acuerdo con Einstein, la luz viaja en línea recta, lo que se curva es el espacio. En otras palabras, lo que la relatividad general prueba, es que la gravedad, que usualmente concebimos como una fuerza, puede ser entendida como un efecto de la hiperdimencionalidad fuera de la experiencia normal, del mundo tridimensional. La relatividad general no solamente se desembaraza del problema de la procedencia de las formulaciones de Newton, sino que nos provee de un mapa actual del universo mediante sus predicciones. En su estructura, la relatividad general, ve al universo como un espacio curvo. La cuestión de si el universo es hiperbólico y abierto o esférico y cerrado está aún por resolverse. De cualquier manera, en este espacio curvo, una de las cosas que observamos es que el universo es isotrópico y homogéneo. El que sea isotrópico significa que hacia donde veamos, lo que veremos será siempre lo mismo. Este es un efecto similar al de caminar en medio del desierto. El que sea homogéneo, significa que aun cuando la materia está agrupada en nebulosas, galaxias, etc. la composición global del universo es prácticamente la misma si tomamos una porción suficientemente grande. La relatividad general explica lo anterior por medio de la curvatura. Sin embargo, su más importante predicción fue una con la que el mismo Einstein no se sentía confortable. Y esta primera y más importante predicción, desde un punto de vista cosmológico, fue que el universo se está expandiendo. Einstein estaba consciente de esta predicción de la teoría, y para compensar este efecto introdujo la idea de una “constante cosmológica” en un intento de hacerla compatible con los hechos de la observación. Nadie 74 había probado que el universo se estuviera expandiendo. Como Einstein escribió en 1917: Had to introduce an extension of the field equations of gravitation which is not justified by our actual knowledge of gravitation…That term is necessary only for the purpose of making possible a quasi-static distribution of matter, as required by the fact of the small velocities of stars. 28 Más tarde Einstein llamó a la “constante cosmológica” el más grande error de su carrera. Esto fue bastante extraño, como veremos más adelante, porque los cosmólogos, que no se explican cómo el universo se aceleró en sus inicios, han revivido el concepto al menos teoricamente. Einstein, a pesar de su oposición a un universo en expansión, finalmente tuvo la evidencia cuando Edwin Hubble, bastante ignorante de lo que había descubierto, le mostró la prueba de un desplazamiento de las líneas espectrales hacia el extremo rojo. En otras palabras, Hubble descubrió, mediante el efecto Doppler, que las estrellas se estaban alejando del Sol. Hay dos consecuencias debidas a la expansión del universo. La primera es que si el universo se ha estado expandiendo, debe haber un lugar donde la expansión se inició. Georges Lemaítre, un sacerdote y matemático Belga, fue el único científico en señalar lo anterior. Lo que Lemaítre vió fue que si el universo se estaba expandiendo, era posible imaginar que en el pasado el espacio era más denso y convergía en un mismo eje. En realidad, Lemaítre propuso que el universo había empezado en un punto infinitamente 28 Albert Einstein, The Principle of Relativity. Nueva York, Dover, 1952, p. 188 75 pequeño, una “singularidad”, “un dia sin ayer”.29 Para decirlo brevemente, puesto que la relatividad general sostiene que el espacio no es solamente espacio, sino espacio-tiempo, y predice que el universo se está expandiendo, entonces para imaginar al universo en sus principios debemos imaginar un punto sin tiempo. Lemaítre nunca llevó esta idea a su conclusión. No obstante, al irse desarrollando, el big bang abrió las puertas de la cosmología a los físicos nucleares. La relatividad general no para en deducir el origen del universo. De hecho, una de sus predicciones involucra también su destino: En su intento de “organizar” el universo, la relatividad general sostiene que, puesto que la materia curva el espacio, la densidad de la materia determinará el destino del universo. Los científicos se refieren a esta densidad como omega. Si el valor de omega es mayor que 1, esto significa que el universo es relativamente denso y las fuerzas gravitacionales lo obligaran a colapsarse dentro de sí mismo. Si omega es menor que 1, el universo continuará expandiendose. Todavía se desconoce el valor de omega, y aun pensando que discutiremos esto más adelante, lo que es importante aquí, es darnos cuenta de que la teoría de la relatividad no solamente le da forma al universo, sino que predice que no es estático y absoluto, sino un continuum en expansión. Pocos se adentraron a las consecuencias de ver al universo de tal manera, hasta que George Gamow, un emigrante ruso a Estados Unidos, empezo a especular con el estado de la materia en un universo muy denso y muy pequeño. Lemaítre ya había discutido que el universo había empezado 29 A. Berger (ed.), The “big bang” and Georges Lemaitre, Dordrecht, Reidel, 1985, p. 373 76 en una explosión de energía y materia. No obstante, Gamow se planteaba que si el universo temprano era tan denso, la posibilidad de que existiera en él materia como la conocemos era nula. En tales condiciones, el núcleo atómico está demasiado caliente para fusionarse en los elementos que conocemos. Fue Gamow quien predijo la radiación cósmica de fondo, aunque su contribución más importante fue su idea de que si el universo se expandió a partir de un plasma denso y caliente, debería irse enfriando a medida que se expandía, permitiendo la formación de la materia en el estado en el que nos es familiar. Este modo de ver las cosas es lo que nos permite colocar la evolución humana en un contexto cósmico, pues lo que Gamow vió fue que el universo seguía un proceso evolutivo similar. En realidad, sabemos ahora que en el universo temprano, el universo a los 3 minutos y 42 segundos de su inicio, se formaron principalmente elementos ligeros, cerca de 20% de helio y 80% de hidrógeno. Y no fue sino hasta que la materia se “congeló” y se agrupó en estrellas y galaxias, que los elementos más pesados empezaron a formarse. En otras palabras, la tabla periódica de los elementos es un registro del desarrollo evolutivo. Hay científicos que rehusan aceptar este modelo y afirman, al igual que lo hace Stephen Jay Gould con la evolución orgánica, que el universo y su historia no se pueden entender por medio de un esquema evolucionista. En los siguientes capítulos veremos al universo como un continuum y trataremos de mostrar la evidencia que existe de un proceso evolutivo. Para hacer esto, requerimos dar una ojeada a la materia, puesto que sus elementos serán la fuente de nuestra especulación. Y para echar un vistazo a la materia, necesitamos entender la otra rama de la física: el quantum o física cuántica, y lo que el quantum tiene que decir acerca del universo primitivo. 77 3 QUANTUM: PUNTOS EXTREMOS The Needle’s Tip that we would call infinitesimal, is, in its “scanning electron micrograph,” the corbelled and tunneled and buttressed and corrugate Tower of Babel as Bruegel envisioned it under construction ALBERT GOLDBARTH Hemos tomado el título de este capítulo del poeta epicúreo Lucrecio, quien en el siglo I A.C., fue quizá hasta ese momento de la historia humana –sin olvidar a Demócrito y Leucipo– el más claro proponente del átomo: Entonces, más allá, puesto que hay puntos extremos, uno tras otro en ese cuerpo, los cuales nuestros sentidos no pueden ya distinguir, cada punto, podemos estar seguros, existe sin partes y está dotado con lo mínimo de la naturaleza, nunca ha sido separado fuera de sí mismo y no lo será en el futuro. Si más y más modernos y complejos telescopios y aparatos ópticos, de radio o microondas están demostrando que Einstein está en lo correcto y la relatividad general ha superado su prueba, si no su justificación, a medida que los astrónomos son capaces de detectar pulsares u oír la radiación de fondo que dejó el big bang, y con cada descubrimiento comprendemos más y más la extensión del universo y su asombrosa naturaleza, a medida que usamos los instrumentos con los cuales se explora el mundo atómico, las maravillas crecen aún más. 78 A partir del Renacimiento, cuando una temprana ciencia se asomaba curiosa al microscopio, se topaba con sorpresa tras sorpresa, sólo para descubrir, a medida que el microscopio alcanzaba sus límites y tuvo que recurrir a otras herramientas, que mientras se adentraba a escalas más y más pequeñas, el mundo que se percibía no parecía reducirse a lo que se pensaba que eran nuestros bloques de construcción. En este capítulo veremos algunos de los más asombrosos descubrimientos que la ciencia efectuó en el siglo XX y que ponen a prueba la mente. Estos descubrimientos no tratan, como los de la relatividad de Einstein, con el lugar que habitamos, sino con el tejido fundamental del que nosotros y todo los que nos rodea estamos hechos: los átomos y sus partículas, objetos de estudio del quantum o física cuántica. Como tratamos en el capítulo anterior, al final del siglo XIX los físicos trabajaban con certidumbres. El modelo newtoniano del universo presentaba ciertas paradojas que eran difíciles de solucionar, pero la mayoría de los científicos pensaban que podrían resolverse sin perturbar radicalmente el marco Newtoniano. A pesar de lo conservadores que eran Einstein y muchos otros científicos, sus descubrimientos de principios del siglo XX no sólo revolucionaron la física y la ciencia en general, sino que cambiaron los paradigmas dentro de los cuales la ciencia trabajaba. Como vimos, la relatividad de Einstein hizo eso precisamente. La teoría general sostiene que galaxias, estrellas y planetas se desplazan a través de un espacio-tiempo tetradimensional el cual se curva en su cuarta dimensión. Si bien las conclusiones de Einstein parecían de muchas maneras pasmosas, él mismo y muchos de sus contemporáneos trataban no solamente de solucionar las paradojas cosmológicas heredadas de la mecánica clásica, 79 sino que también trabajaron con algunas paradojas y problemas que surgían del estudio del átomo y sus componentes. Es un hecho que si alguna rama de la ciencia ha retado al sentido común hasta revolucionar por añadidura nuestra concepción del mundo en que vivimos, ésta ha sido la mecánica cuántica, que es tan enigmática en sus afirmaciones que tanto científicos como filósofos han rechazado o se han encogido de hombros ante sus descubrimientos. La famosa cita de Einstein de que Dios no jugaba a los dados con el universo, fue una respuesta directa a una de las más apreciadas premisas de la física cuántica. El filósofo de la Universidad de Columbia, David Z. Albert ha escrito que la del quantum es “una historia perturbadora… la más perturbadora historia que quizá ha emergido de cualquiera de las ciencias físicas desde el siglo XVII.”30i Igualmente, Nick Herbert en su libro Quantum Reality: Beyond the New Physics, discute que, con el quantum, los científicos “han perdido su asidero con la realidad”.31 En una de sus mejores popularizaciones al tema, David Lindley explica porqué el quantum parece a la vez tan opuesto a la lógica de la física clásica y, usando una palabra que los físicos cuánticos han adoptado, tan extraño: This is the heart of the fundamental issue. In classical physics, we are accostumed to thinking of physical properties as having definite values, which we can try to apprehend by measurement. But in quantum physics, it is only the process of meassurement that yields any number for a physical quantity, and the nature of quantum measurements is such that it is no longer possible to think of the David Z. Albert, , Quantum Mechanics and Experience, Cambridge, Harvard University Press, 1992, p.1. 31 Herbert, Nick, Quantum Reality: Beyond the New Physics, New York, Doubleday, 1985, p. 15. 30 80 underlying physical property (magnetic orientation of atoms, for example) as having any definite or reliable reality before the measurement takes place. 32 La dificultad y lo extraño de la física cuántica o quantum deriva del hecho de que la realidad que describe –a diferencia de la distancia de un planeta a otro o del tiempo que tarda la luz en llegar del Sol a la Tierra– no puede ser medida a causa de que una vez que se efectúa la medición, la realidad ha cambiado. Como la mayoría de la física cuántica, la anterior afirmación suena paradójica. Sin embargo, más paradójico es el hecho de que si uno ve las diferentes ramas de la ciencia e intenta señalar la disciplina que es capaz de predecir resultados de la manera más precisa, encuentra que la física cuántica es la más exacta de las ciencias. El problema, claro, es que cualquiera que sea la precisión que el quantum nos de, es solamente para desafiar nuestro sentido común. En este capítulo intentaremos entender la mecánica cuántica: qué es lo que estudia, cuáles son sus conclusiones y cómo estas conclusiones se ligan con el macrocosmos que tratamos en el capítulo previo. El quantum estudia el comportamiento del átomo y sus componentes, y lo hace prediciendo las probabilidades de los posibles resultados. En otras palabras, una disciplina análoga a la física cuántica en el macromundo puede ser la balística. La balística, por ejemplo, toma un proyectil, una plataforma de lanzamiento, la fricción, la gravedad, etc., como sus variables, y por medio de fórmulas calcula la manera en la cual el misil viajará y dónde tocará hará impacto. Otro modo de decir esto es que la balística toma ciertas variables y las convierte en posibles resultados. Igualmente, la física cuántica toma el David Lindley, Where Does the Weirdness Go: Why Quantum Mechanics is Strange, but not as Strange as You Think,. New York, Basic Books, 1996, p. 14 32 81 átomo y calcula la probabilidad de su carga o su “color”. La diferencia, claro, es que la balística funciona en un universo clásico. Los expertos en balística tienen que considerar dos cosas primordiales: la materia, o sea la substancia de que estan hechos el proyectil y el aparato de lanzamiento y los campos, en este caso el campo gravitacional de la Tierra. El proyectil está hecho de metal (materia), sigue una trayectoria debida a la inercia y, si no es detenido, eventualmente caerá debido a que el campo gravitacional de la Tierra lo atrae. La física cuántica no es tan simple. Cuando la gente habla del quantum, están a menudo hablando de varias interpretaciones que los científicos tratan de enmarcar para poder describir o explicar lo que el quantum está diciendo. Por ejemplo, Niels Bohr, pionero de la física cuántica y conocido por la interpretación de Copenhague33, pudo argumentar que lo que el quantum nos dice es que no existe una realidad profunda. Al igual que el Obispo Berkeley tres siglos antes que él, Bohr sostuvo que el mundo que vemos alrededor de nosotros puede ser lo suficientemente real, pero sus componentes, de lo que está construido, no es real. De esto se sigue entonces que la segunda premisa de la interpretación de Copenhague gira alrededor de la idea de que, si no existe una realidad profunda, los científicos observan una realidad fenomenológica. Esta realidad fenomenológica sostiene que en ausencia de un observador, el fenómeno no existe. Dicho de otro modo, los científicos crean la realidad 33 La interpretación de Copenhague, llamada así porque fue en esta ciudad donde Bohr trabajo, une diferentes ideas para hacer de la física cuántica un paquete manejable, sin ninguna teoría que la soporte de una manera coherente. Así por ejemplo, no tiene sentido preguntarse cómo se comportan el átomo y otras entidades cuánticas mientras no se les observa. Como Bohr explicó: todo lo que podemos hacer es calcular la probabilidad (nunca una certeza) de que un experimento particular llegue a un resultado particular. Es la interpretación de la física cuántica que se da en la mayoría de los libros de texto y de los cursos universitarios. 82 cuando determinan el espín34 o el momentum (producto de la masa por la velocidad) del electrón. Para el no especialista, lo que pretende la interpretación de Copenhague suena escandaloso. Pero Bohr, que estructuró su premisa principal, sostuvo que era pragmática. Para él, el trabajo de los científicos implicaba el estudio de los fenómenos naturales sin explorar las implicaciones éticas, filosóficas o existenciales de sus descubrimientos. Muchos científicos han rechazado esta posición, entre los cuales quizá el principal sea Einstein, quien sostuvo una posición casi mística ante la ciencia. De hecho, Einstein dedicó los últimos años de su vida a un intento de reconciliar la física clásica de su relatividad general con los herméticos descubrimientos del quantum. Más tarde otros científicos han brindado diferentes interpretaciones. Estas interpretaciones posteriores, desarrolladas varios años después de la teoría cuántica, la han establecido como la más exacta rama del conocimiento científico. Nosotros examinaremos de cerca estas interpretaciones, puesto que algunas incluyen afirmaciones interesantes, otras son solamente indignantes y otras parecen ofrecer rutas viables para futuras investigaciones. En realidad, estas últimas nos parece que abren nuevos panoramas. Sin embargo, antes de adentrarnos en estas interpretaciones, nos gustaría dar un bosquejo de las principales premisas del quantum, porque sin esto es imposible entender ninguna ciencia, menos aun una que trata con el átomo y sus partículas y que ha inspirado tan variadas y extrañas reacciones. La mayoría de los libros de texto y de divulgación sobre el quantum empiezan por una discusión sobre la luz. La razón de esto es completamente 34 El espín o spin es una propiedad de las entidades cuánticas relacionada con el concepto de giro en la física clásica 83 simple. La física cuántica se inventó para tratar las interacciones de la luz con los átomos. Soló después, una vez que el quantum solucionó su problema, fue que los científicos trataron de verificar si sus descubrimientos eran también aplicables a las entidades de mayor orden, puesto que el quantum había revelado la estructura del núcleo atómico y de otras partículas subnucleares, así como la naturaleza de los sólidos, líquidos y gases. Mientras un número creciente de físicos intentaron aplicar la teoría cuántica a cada partícula, descubieron que la teoría no solamente explica el comportamiento de la luz, sino que aclara muchos misterios del átomo y la materia, por lo que finalmente, cuando hablamos acerca de génesis cósmica, acerca del momento en que el universo se inició, la cosmología se tiene que acercar al quantum. ¿Qué es exactamente lo que el quantum tiene que decir acerca de la luz? Para entender los adelantos del quantum, debemos, aunque sea brevemente, ver los diferentes problemas que los científicos se han puesto a resolver. Uno de los más conservadores científicos a comienzos del siglo XX pudo haber iniciado la reacción en cadena del quantum cuando trataba de resolver más bien un enigmático problema que había venido a conocerse como la radiación del cuerpo negro, que es, por definición, una superficie que absorbe toda la radiación electromagnética que le llega. Los físicos en el siglo XIX sabían que los objetos poseen un color intrínseco. Durante la primavera las hojas son verde; la mayoría de la madera cae en el rango del café. Estos objetos están formados por muy pequeñas piezas de materia. Siempre que estas piezas se mueven, vibran y producen ondas de los correspondientes campos electromagnéticos, que nuestro cerebro, a través de los ojos y nervios ópticos, interpreta como color. Cuanto más rápidamente se muevan las partículas, mayor será la frecuencia de la luz que 84 se excita. Por supuesto que la vibración de la partícula puede ser alterada aplicando una energía extra. Nosotros somos testigos de este fenómeno cuando encendemos un foco. De acuerdo con los físicos, los cuerpos negros no tienen un color intrínseco; sin embargo, paradójicamente emiten radiación. Si calentamos lo suficiente una pieza de metal, brillará con un color rojo. En 1900, Max Planck abordó el problema de la radiación del cuerpo negro de una nueva manera. Estudiando la radiación de osciladores armónicos en equilibrio térmico y utilizando técnicas mecánico-estadísticas, dividió la energía total del sistema en cantidades discretas. Haciendo esto, se dio cuenta de que obtenía una ley de distribución apropiada de la radiación, a condición de que los osciladores pudieran absorber o emitir energía sólo en cantidades discretas e(épsilon) que en la actualidad se conocen como quanta. La energía de estos quanta están relacionadas a la frecuencia v de la emisión o absorción de la radiación como: ε = hv donde h es una constante de proporcionalidad conocida ahora como constante de Planck. El uso de la constante parecía arbitrario, y si bien resolvió el problema de la radiación del cuerpo negro, a la mayoría de los científicos les pareció un truco, porque para Planck la energía de la partícula tenia que ser un múltiplo de la frecuencia por la constante. Lo que la fórmula finalmente muestra es que la energía viene en paquetes cuya denominación es hv. Estos paquetes, estos quanta vinieron a iniciar una revolución, puesto que forzaron a los científicos a repensar todas sus premisas acerca de la naturaleza de la materia. 85 Para comenzar, puesto que la teoría cuántica se desarrolló para resolver el problema de la interacción de la luz con las partículas, la concepción científica de la luz cambió completamente. Una vez asimilado este cambio, los científicos pudieron aplicar las nuevas ideas a sus investigaciones, a solucionar más y más problemas, hasta que eventualmente se dieron cuenta de que toda la materia, la naturaleza de sólidos, líquidos y gases, la estructura del núcleo, etc., se comportaba de acuerdo a los principios cuánticos. Estos principios, aunque extraños, son actualmente bastante simples. Durante todo el siglo XIX, los científicos creyeron que la luz era una onda de energía electromagnética. Pensaban que un haz de luz “iluminaba” una superficie y por ello se veía. Puesto que las ondas eran la manifestación de una fuerza, deducían que, como todas las ondas, las ondas de luz podían ejercer su fuerza, y haciendo esto, alteraban la superficie donde brillaban. En otras palabras, tal como las ondas de sonido empujan las moléculas de aire, las ondas de luz golpean los electrones de la superficie donde brillan. De acuerdo con la física clásica, la intensidad de la onda determina la perturbación de la superficie que afecta. Sin embargo, los científicos cuánticos descubrieron que esto no era verdad para la luz. Una luz de mayor intensidad no golpea los electrones con mayor energía. Este último descubrimiento es uno de los muchos de la física cuántica que confunden. Para entender qué tan contradictorio es al sentido común, lo único que necesitamos es visualizar unas ondas de agua diferentes. Imaginemos que tiramos una pequeña piedra en un estanque: la onda que se produce se desplaza con rizos que se alejan del centro y perturban todo lo que encuentran en su camino. Las hojas que flotan en la superficie podrían equipararse a los electrones y ser “golpeados” por la onda. Si en lugar de tirar una piedra pequeña nos las arreglamos para arrojar una gran roca, la 86 energía con la cual las hojas se mueven será mayor, tal como la fuerza con que la ola al subir la marea golpea la costa es mayor que cuando sólo llegan pequeñas olas. Lo que el quantum nos refiere como el efecto fotoeléctrico es una historia menos apegada al sentido común. Si la persona que conduce un experimento incrementa la intensidad de la luz, más fotones golpearan la superficie, pero ellos llegaran con la misma energía. De hecho, lo que el efecto fotoeléctrico confirma es que en orden de transferir una mayor energía a los electrones, uno debe incrementar no la intensidad sino la frecuencia. La energía de la luz no está en relación con su intensidad, sino con su color. La luz azul, que es de alta frecuencia, golpea los electrones con más fuerza que la luz roja, que es de baja frecuencia. Los resultados de los experimentos nos dicen entonces que las ondas cortas y rápidas son más poderosas que las largas. Quien explicó el extraño comportamiento de la luz fue Einstein. Tomando en cuenta la constante de Planck, razonó que la luz afecta la superficie sobre la cual brilla, no como una onda, sino como una lluvia de partículas. Estas conclusiones, por supuesto, contradijeron una de las más apreciadas certidumbres de los científicos: el que la luz era una onda. Desde los tiempos de Maxwell, la luz era entendida como la manifestación de un campo magnético; más aún, el comportamiento de la luz en nuestra diaria experiencia parece contradecir el hecho de que la luz sea una partícula. Un haz de luz puede propagarse sobre un área, puede dividirse, redirigirse, difractarse y finalmente puede cruzar su curso con el de otro haz. Todas estas cualidades nos sugieren que la luz es una onda. Las ondas se esparcen, se dividen, se redirijen y cruzan caminos con otros haces. Las partículas, por otro lado, están confinadas a regiones pequeñas; su viaje está limitado a una sola dirección y no pueden interferir unas con otras sin chocar. En pocas 87 palabras, las partículas y las ondas parecen irreconciliablemente diferentes. No obstante, tanto la solución de Einstein al efecto fotoeléctrico como la evidencia experimental nos lo dicen de otra manera. Nos dicen que la luz pude ser ambos, ondas y partículas, que la luz interactúa con una superficie mediante una lluvia de partículas que están divididas en “monedas de energía”. La denominación de estas unidades ha venido a conocerse como fotones. Si la solución de Planck y Einstein parece contradictoria, cuando algunos de estos descubrimientos empezaron a introducirse en la comunidad científica y los científicos intentaron aplicarlos a otros aspectos de la materia, los resultados fueron aún más extraños. Planck, Einstein y Compton pudieron mostrar que las ondas son también partículas. En Francia, Louis de Broglie razonó que tal como Einstein había demostrado que las ondas de luz tienen cualidades de partículas, las partículas de materia también tienen propiedades de onda. De hecho, en su tesis de doctorado sólo utilizó formulaciones de Einstein y Planck. Para él, cada partícula de materia podía ser asociada con una onda cuyas frecuencias espacial y temporal podían ser entendidas como energía y momentum o, dicho de otra manera, existe una dualidad formal entre las ondas y toda materia, de acuerdo con la cual la longitud de onda se puede asociar a cualquier momentum. En pocas palabras, el argumento de De Broglie complementa los descubrimientos de Einstein y Planck. Sin embargo, esto puede ser más difícil de digerir puesto que implica que la materia puede volverse un campo. En otras palabras, rompe con la distinción materia/campo y nos dice que todo está hecho de lo que los científicos han venido a llamar “material cuántico”. Mientras que estos descubrimientos constituyen la espina dorsal del mundo con el cual la física cuántica trata, no son por sí mismos la teoría 88 cuántica. Hasta 1925, los científicos pudieron haber descubierto nuevas y sorprendentes cosas acerca del átomo, y no obstante, para interpretarlas, tenían que utilizar los esquemas provistos por la física clásica y entonces jugar con sus fórmulas a manera de adaptarlas a los experimentos. De acuerdo con Max Jammer, la situación era una “lamentable mezcolanza de hipótesis, principios, teoremas y recetas computacionales”.35 La teoría cuántica, empero, es todo menos una mezcolanza. Sistematizada y exacta, la teoría es un método para representar el “material cuántico” matemáticamente. La mecánica cuántica es, entonces, una representación del mundo por medio de símbolos, en la que un valor matemático es dado al material cuántico, una ley científica describe cómo esta cantidad se transforma y, finalmente, una especie de norma determina cómo las matemáticas pueden ser trasladadas a los fenómenos del mundo. La primera de estas teorías en ser formulada de manera completa fue la de Werner Heisenberg. Conocida como mecánica “matricial”, Heisenberg desarrolló su sistema en 1925 mientras se recuperaba de una enfermedad en la isla de Heligoland. En sus memorias recordaba lo siguiente: At 3 a.m. one night he could no longer doubt the mathematical consistency and coherence of the kind of quantum mechanics to which my calculations pointed. At first I was deeply alarmed. I had the feeling that, through the surface of atomic phenomena, I was looking at a strangely beautiful interior, and felt almost giddy at the thought that I now had to probe this wealth of mathematical structures nature had so generously spread out before me. 36 35 Max Jammer, The Conceptual Development of Quantum Physics, New York, Mc Graw-Hill, 1996. 36 Werner Heisenberg, Physics and Beyond, New York, Harper and Row, 1971 89 La suposición inicial de Heisenberg parece ahora muy simple; sin embargo, no lo fue cuando él desarrolló sus matrices. Ello implicó algo que había oído cuando estaba trabajando en Gottingen, Alemania, con Max Born: que una teoría física debería tener que ver con cosas que pudieran ser observadas por experimentos. Mientras que al principio la idea parece obvia, no lo era tanto entonces, y de hecho el llevarla a cabo implicaba desprenderse de paradigmas de la física clásica que los científicos seguían aplicando al mundo atómico. Nadie había visto un electrón siguiendo una órbita elíptica alrededor del núcleo. El modelo era adoptado de la física clásica. Lo que los experimentos reportaban eran los estados de onda y partícula del electrón, su espin y su momentum. Lo que los resultados confirmaban era que había transformaciones entre los estados. Para tratar con estas transformaciones y con las relaciones entre dos estados, Heisenberg tuvo que recurrir a las matrices. Los científicos que intentan popularizar la mecánica cuántica han sugerido que las matrices de Heinsenberg se parecen a las tablas de kilometraje de los mapas. Una analogía aún más fácil puede hacerse con el juego de ajedrez: los cuadros del tablero pueden ser representados por unas únicas coordenadas (A1, A2, B1, etc.) y el “estado” del juego en un momento dado, puede ser representado por la notación de estas coordenadas. En las matrices de Heisenberg, el “estado” de una partícula o un electrón, las “transiciones cuánticas”, pueden ser descritas mediante una notación similar que liga los estados inicial y final. Aunque actualmente la mecánica matricial de Heisenberg se maneja no solamente para reemplazar las ecuaciones de la mecánica clásica, sino también para redefinir muchos de sus principios, como el de la conservación 90 de la energía, no llegó a tener gran éxito en la comunidad científica. Esta falta de éxito se debió, en parte, a lo poco familiar que eran las matemáticas en las que se fundaba. Pero más importante fue el que no proveía una imagen física del fenómeno que representaba. No había órbitas, no había ondas ni partículas. Por lo tanto, cuando un año después de que las matrices de Heisenberg fueron publicadas, Erwin Schrödinger propuso una teoría cuántica, la mecánica ondulatoria, que utilizaba la imagen de las familiares ondas, la comunidad científica adoptó este modelo que llegó a ser el estándar. Desarrollada en 1926, la mecánica ondulatoria, como la mecánica matricial, resolvió los problemas de las interacciones cuánticas; sin embargo, la primera no se basaba en una rama impopular de las matemáticas, sino en unas matemáticas que eran ya usadas ampliamente por los físicos. En pocas palabras, Schrödinger usó una ecuación de onda, una ecuación similar a la que describía las ondas comunes, como las ondas sonoras. Así, mientras que el modelo de Heisenberg suponía que el electrón era una partícula, el de Schrödinger lo establecía como una onda. Ambas teorías llegaron al mismo resultado y eventualmente fue el propio Schrödinger, junto con Carl Eckhart y Paul Dirac, quien pudo demostrar que los dos modelos eran matemáticamente equivalentes. Este último descubrimiento provocó el disgusto de Schrödinger, puesto que él originalmente formuló la mecánica ondulatoria para restablecer la sensatez de la física cuántica, intentando eludir lo extraño, como los saltos cuánticos, lo discontinuo y aleatorio de las transiciones entre estados cuánticos. De hecho, ninguna de las teorías anteriores, ni las teorías por venir podrán eliminar lo extraño. Si el quantum es enigmático, es porque viola al menos dos de nuestros principales paradigmas intelectuales: la causalidad y 91 la identidad. En un salto cuántico, el electrón en cierto nivel de energía –el estado permitido de una cierta cantidad de energía acumulada– puede pasar instantáneamente a otro nivel energético, emitiendo o absorbiendo energía al hacerlo. No existe un estado intermedio y el salto ocurre sin tomar tiempo. En consecuencia un salto cuántico viola nuestro apreciado sentido de causalidad, lógica y continuidad. El “y” y el “uno u otro” que George Boole codificó en los símbolos que pudieron anclar su “lógica algebraica”, pierden su habitual significado. De manera similar, en el mundo cuántico, las identidades, nuestra capacidad de identificar ciertas características y añadirlas a los componentes de los átomos, como si el átomo fuera, como los seres vivientes, sujeto a la taxonomía, no funciona. El casi arquetípico experimento al que recurren los físicos para explicar los enigmas de la mecánica cuántica es el experimento de la doble rendija. Richard Feynman argumentó que el experimento contenía el “misterio central” del quantum porque presentaba “un fenómeno que es imposible, absolutamente imposible explicar de una manera clásica, y que tiene el corazón de la mecánica cuántica.” Feynman añadió: “en realidad contiene el único misterio…las peculiaridades básicas de la mecánica cuántica.”37 Desarrollado originalmente a principios del siglo XIX por el físico inglés Thomas Young para confirmar la teoría ondulatoria de la luz propuesta por Christopher Huygens, que se oponía a la teoría corpuscular de Newton, el experimento es sorprendentemente simple: si un haz de luz se proyecta en una pantalla que tiene una estrecha ranura en ella, la luz pasa a través de esta ranura y se proyecta hacia otra pantalla que a su vez tiene dos rendijas. La luz sale a través de ambas rendijas y se proyecta a una pantalla donde forma un patrón de franjas de sombra y luz. Este patrón no es muy 37 Richard.Feynman, Lectures in Physics Vol. III, Boston, Addison Wesley, 1965 92 diferente al de los códigos de barras que aparecen en la mayoría de los productos que compramos hoy día, excepto que las barras son menos definidas y más regulares, y esta regularidad es debida a la interferencia de dos ondas que se traslapan. Este comportamiento, entonces, es semejante a lo que sucede con las ondas sonoras en un equipo estereofónico de música: si colocamos las bocinas en cierta forma de manera que las ondas sonoras choquen, uno u otro sonido puede ser eliminado. En una gran pieza sinfónica, por ejemplo, en un momento dado, ciertas frecuencias –como las de la flauta o el clarinete, por ejemplo– pueden no ser oídas. Igualmente, en el experimento de las dos rendijas, las barras que se forman en la pantalla final, vinculan las zonas brillantes con la coincidencia de las crestas de las ondas, y las zonas obscuras con las zonas donde las crestas de uno de los conjuntos de ondas pueden coincidir con las hondonadas del otro conjunto, en cuyo caso los dos conjuntos de ondas se cancelan mutuamente. Los resultados del experimento de Young, no pueden duplicarse cuando se usan partículas. Imaginemos que en lugar de los haces de luz usáramos municiones para hacerlos pasar a través de los agujeros. Las municiones pasarán por el primer agujero y después, de acuerdo con la gravedad y las fuerzas inerciales, pasarán a través de cada uno de los otros dos agujeros. Sin embargo, al final no tendremos un patrón similar al de barras de luz y sombras, sino que tendremos dos pilas de perdigones, una detrás de cada agujero. El aspecto curioso, o mejor el aspecto verdaderamente sorprendente, emerge cuando los científicos usan un haz de electrones. Recordemos de nuestra discusión previa sobre el efecto fotoeléctrico que, gracias a Einstein, llegamos a pensar en los electrones como partículas. Si los electrones se lanzan a través de ambas rendijas y llegan a una pantalla de fósforo, a una pantalla como de computadora o de 93 TV, que registre los impulsos eléctricos de cada electrón, lo que obtenemos es exactamente es un patrón semejante al de las ondas de luz. Aun si los electrones fueran lanzados uno por uno, eventualmente la pantalla exhibiría el mismo patrón: cada electrón arribaría a un punto en particular de la pantalla y dejaría un punto de luz y después de –por decir un número– 700,000 electrones que fueran lanzados uno a uno, el patrón sería increíblemente similar al del experimento inicial. Finalmente, el experimento de Young demuestra no solamente que la luz es una onda, sino algo más asombroso: las entidades cuánticas viajan como ondas pero arriban como partículas. De ahí la eficiencia tanto de la mecánica ondulatoria como de la matricial, pese al hecho de que esta última considera partículas, y la primera onda. Además, las implicaciones de este experimento van más allá de la sola dualidad onda partícula. A lo que apunta es a aquello que Feynman llamó el “único misterio”. Abundemos un poco, pues este es un experimento crucial, y otra vez, citando los argumentos de Feynman: “Cualquier otra situación que surge en la mecánica cuántica, puede siempre explicarse diciendo: ¿recuerda el caso del experimento de las dos rendijas? Es la misma cosa”.38 Así es que aquí volvemos: las partículas individuales que se lanzan a través de las dos rendijas marcan un solo punto en la pantalla. El sentido común nos dice que cada partícula pasa a través de una u otra de las rendijas. Sin embargo, a medida que más y más puntos se marcan en la pantalla, el patrón que emerge es el clásico de interferencia de una onda que pasa a través de dos rendijas. Los electrones no solamente son capaces de pasar a través de ambas rendijas al mismo tiempo sino que (y volveremos a esto en un capítulo posterior) tienen que llegar a un determinado punto en la pantalla para contribuir a la formación del patrón. 94 Las implicaciones del experimento han sido exploradas e interpretadas de diferentes maneras. Cada una de estas interpretaciones ha provocado una plétora de preguntas filosóficas sobre lo que nuestro mundo es y por lo tanto, con lo que con los físicos cuánticos están tratando es con el tejido, con la estructura fundamental del mundo. Ya hemos tocado brevemente la interpretación de Copenhague, que sostiene que no hay una realidad profunda. Sin embargo, la interpretación de Copenhague no es la única interpretación. Enfrentados con la dualidad onda-partícula del electrón y también con el hecho de que el electrón parece estar “consciente” del observador y afectarse por el acto de la observación, de manera que puede afectar su comportamiento en conformidad, otros físicos como Hugh Everett y Bryce de Witt,39 y más recientemente David Deutsch en The Fabric of Reality, han argumentado que siempre que el mundo se enfrenta a una elección a nivel cuántico –en otras palabras, cada vez que un electrón marca un punto y no otro en la pantalla, o escoge una rendija en lugar de la otra entonces el universo se divide en dos o en tantas partes como opciones pueda seguir. En otras palabras, la interpretación de los muchos mundos sostiene, como De Witt lo escribe, que 10100 copias un poco imperfectas de uno mismo se están dividiendo constantemente en copias adicionales. La interpretación de los muchos mundos, como tantas otras interpretaciones, puede ser probada matemáticamente. De hecho, esta interpretación, en su forma completa de desarrollo matemático, es acorde con la interpretación de Copenhague. Sin embargo, aun cuando ha probado Richard Feynman, The Character of Physical Law, London, Penguin, 1992 Para el trabajo de Everett véase Reviews of Modern Physics, vol. 29, p. 454. Para el trabajo de DeWitt véase Physics Today (septiembre de 1970, p. 30). Para un tratamiento completo de la interpretación de los multiples mundos, una forma de empezar puede ser el libro de Paul Davies, Other Worlds. 38 39 95 ser útil para los cosmólogos que han empezado a especular sobre multiuniversos o multiversos (en su forma más usual), sus defectos son de la clase de defectos a los que, desafortunadamente, demasiados científicos son proclives: a permitir que a una teoría que, como hemos visto brevemente, puede ser matemáticamente precisa pero de ninguna manera completa, se le exijan demasiadas pretensiones. En otras palabras, la interpretación sobreextrapola los resultados a tal extremo, que aún la prosa de su explicación tiene ese halo inmaduro que uno encuentra en las investigaciones entusiastas pero filosóficamente indisciplinadas. David Deutsch es el principal ejemplo de esto. Después de discutir que “la teoría cuántica de los universos paralelos no es el problema, [sino] la solución… la explicación –la única que es defendible– de una realidad notable y contraintuitiva”, Deutsch se entusiasma al decir: Not only do the copies of an abject have any privileged position in the explanation of shadows [by shadows Deutche means the particles in other universes] that I have just outlined, neither do they have a privileged position in the full mathematical explanation provided by quantum theory. I may feel subjectively that I am distinguished among the copies of the tangible one, because I can directly perceive myself and not the others, but I must come to terms with the fact that all the others feel the same about themselves. Many of those Davids are at this moment writing these very words. Some are putting it better. Others have gone for a cup of tea.40 La especulación de Deutche es, por supuesto, un buen ejemplo de una falacia central en la cual los científicos a menudo incurren. La falacia es en el fondo semántica e involucra la aplicación indiscriminada de terminología 40 David Deutch, The Fabric of Reality, London, Penguin, 1967. 96 científica que tiene un significado específico en el laboratorio, distinta al que tiene fuera de aquél. En el corazón del asunto también hay que considerar el hecho de que el quantum, con todo y su precisión en la descripción del micromundo y del comportamiento del átomo y sus partículas, de ninguna manera es una ciencia que esté completa. El quantum puede resumir en tablas las fuerzas nucleares débil y fuerte, así como la fuerza electromagnética; sin embargo, hasta ahora nadie ha podido arreglárselas para integrar la gravedad en el esquema cuántico. Las razones de esta falla son diversas. Una de ellas puede concluirse si recordamos, del capítulo previo, que la masa inercial y la masa gravitacional son indistinguibles en la relatividad general de Einstein. La segunda razón tiene que ver con las escalas a las cuales el quantum trabaja. La gravedad es una fuerza demasiado débil, lo cual significa que sus efectos no pueden detectarse en el reino de las dimensiones de Planck.41 Algunas interpretaciones del quantum toman en cuenta lo incompleto de las teorías. Admitir lo incompleto del quantum no implica la falla de éste. De hecho, nosotros como muchos científicos –entre ellos el matemático Roger Penrose y los físicos Danah Zohar y John Gribbin– creemos que finalmente el quantum desenmarañará no solamente los misterios del mundo físico, sino los más profundos y complejos misterios, como los de la memoria molecular que se ve en la formación del ADN, así como los de nuestra memoria y nuestra conciencia. En la segunda parte de este libro se La longitud y el tiempo de Planck son, de muchas maneras, las varas de medir de la mecánica cuántica. La longitud de Planck se refiere a la escala a la cual las ideas clásicas acerca de la gravedad y del espacio-tiempo dejan de ser válidas. Actualmente la longitud de Planck tiene un valor aproximado de 10¬33 cm. El tiempo de Planck es el tiempo que le tomaría a la luz el recorrer la longitud de Planck. Esta es la medida más pequeña de tiempo que tiene algún significado y su valor es de 10¬43 seg. Ninguna medida menor de tiempo tiene significado. 41 97 hará énfasis en estos temas.42 Sin embargo, mientras en el futuro estos misterios pueden ser resueltos mediante los principios de la mecánica cuántica, esto sólo sucederá cuando los pretextos, por decirlo de alguna manera, sean borrados. Una de las interpretaciones del quantum que reconoce estos pretextos y enseña las posibilidades de una futura teoría cuántica fue propuesta por David Bohm. Desafortunadamente, las ideas de Bohm, así como su reputación estuvieron sujetas a los caprichos de las políticas académicas. Nacido en Pennsylvania en 1917, Bohm se graduó en el Pennsylvania State College y como muchos físicos del siglo XX, afinó su técnica primero con Oppenheimer en Berkley y después en Los Alamos. Bohm no solamente tenía una filosofía sospechosa, sino también una consciencia y cuando fue requerido para que delatara a sus colegas al HCUA (House Committee on Un-American Activities) de McCarthy, se rehusó, por lo que fue despedido de su cargo en la Universidad de Princeton. Sus tendencias marxistas lo hicieron sospechoso a la comunidad. Mientras escribía lo que es uno de los más claros y accesibles libros de texto sobre la mecánica cuántica, Bohm se convenció de las imperfecciones del quantum y desarrolló una nueva interpretación, diversamente conocida como onda piloto, el todo indivisible o la interpretación de las variables ocultas. Para el quantum como una herramienta para entender la inteligencia y la conciencia ver La nueva mente del emperador de Roger Penrose. Danah Zohar amplificó, para decir lo menos, el argumento de Penrose y usó el quantum para razonar las raíces del ser así como la conexión del ser con el universo en su libro The Quantum Self. Finalmente, para la relación entre el quantum, el DNA y la memoria molecular, véase In Search of the Double Helix de John Gribbin. Futuros capítulos estarán verdaderamente en deuda con el trabajo de estos científicos. 42 98 El estímulo de esta interpretación fue una teoría que llegó a ser más que una mera estadística, una teoría que podría tener alguna relevancia en el mundo: Se supone que todo lo que importa en una teoría física es el desarrollo de las ecuaciones matemáticas que nos permitan predecir y dirigir el comportamiento de grandes conjuntos estadísticos de partículas… Ciertamente esta clase de suposición está de acuerdo con el espíritu general de nuestra época, pero la principal propuesta de este libro es que no podemos prescindir alegremente de tener un concepto global del mundo…En efecto, uno se da cuenta de que los físicos no pueden sumergirse precisamente ahora en cálculos de predicción y control: necesitan utilizar imágenes que se basen en cierto tipo de nociones generales acerca de la naturaleza del mundo físico…43 La interpretación con la cual Bohm intenta hacer que el quantum adopte una visión general ha sido etiquetada como determinista. Pese a todo, como veremos, la extrañeza misma del quantum ha rescatado la interpretación de su etiqueta. Muchos también han señalado el principal defecto de la interpretación, que parece confiar en la pesadilla que perturbó a Einstein tan frecuentemente: la acción a distancia, la idea de que las interacciones operan sin que intervenga ningún mecanismo. Pese a todos sus detractores, la interpretación es importante, y si tiene fallas, definitivamente, como ha argumentado Timothy Ferris, apunta a “vislumbrar una futura ciencia”.44 La suposición inicial de Bohm es que la versión usual de la física cuántica es defectuosa porque es incompleta. Este vacío se funda en el hecho de que, según Bohm, existe una capa subyacente 43 David Bohm, La Totalidad y el Orden Implicado, Barcelona, Kairós, 1988. Timothy Ferris, The Whole Shebang: A State of the Universe Report, New York, Simon & Schulster, 1997. 44 99 de realidad, un mundo subcuántico que contiene información adicional acerca del mundo. Esta información adicional está en forma de variables ocultas que predicen los resultados precisos de mediciones particulares. En otras palabras, las variables ocultas de Bohm suponen y sostienen un tipo de “conciencia” global, una fuerza que controla, que determina el resultado de los eventos. Aun cuando esta teoría es infinitamente más elegante y parece tener más sentido común que la de los múltiples universos o que la interpretación de Copenhague, los científicos la rechazaron bruscamente, primero porque el matemático John Von Neumann probó matemáticamente que las variables ocultas no operan en el mundo cuántico y por consiguiente la mayoría de los científicos no se atrevieron a admitir que para determinar el resultado de múltiples eventos, las variables ocultas daban por sentada la acción a distancia. Recientemente, sin embargo, la interpretación de las variables ocultas ha tenido una especie de resurgimiento. David Z. Albert ha sido uno de sus principales proponentes: This is the kind of theory whereby you can tell an absolutely low-brow story about the world, the kind of story (that is) that’s about the motions of material bodies, the kind of story that contains nothing cryptic and nothning metaphysically novel, and nothing ambiguous and nothing inexplicit and nothing evasive and nothing unintelligible and nothing inexact and nothing subtle……in which the whole universe evolves.45 David Z. Albert, “Bohm´s Alternative to Quantum Mechanics”, Scientific American, mayo 1994. 45 100 Para otros no filósofos-científicos como Albert, la interpretación ha sido reivindicada por el experimento llamado de “Aspect”. Este experimento consta actualmente mas bien de una serie de experimentos, efectuados por Alain Aspect y sus colegas, y establece que lo que Einstein etiquetó como la “horripilante o fantasmal acción a distancia” realmente opera en el mundo cuántico. El corazón del experimento implica la polarización de los fotones. Los fotones pueden llegar a pensarse con flechas que apuntan hacia “arriba” o hacia “abajo”. Si un átomo es estimulado de manera que produzca dos fotones, éstos se dirigen en direcciones opuestas cancelándose uno al otro. De estos fotones, uno puede ser “arriba” y el otro “abajo”. De acuerdo con la teoría cuántica estándar, los fotones existen en una sobreposición de estados. En otras palabras, pueden existir como “arriba” o “abajo” hasta que el experimentador efectúe la medida; en ese momento se produce un colapso de la función de onda y el fotón se establece en uno de los dos estados. El experimento toma esto en cuenta, pero lo usa a su favor efectuando la medida únicamente sobre un fotón. El experimento revela que tomando la medida del primer fotón, la función de onda del segundo fotón, no medido, se colapsa en el preciso momento en que la medida del primer fotón lo hace cambiar de una superposición de estados a un estado definitivo, y este segundo fotón, sin que se le efectúe ninguna medida, también cambia a un estado definitivo. La respuesta instantánea del segundo fotón a lo que ocurre al ser medido el primero, contradice la imposibilidad de la acción a distancia. El experimento de Aspect, prueba, en otras palabras, mas allá de cualquier duda, que el mundo cuántico, el mundo del átomo es no local. Esta no localidad que para los científicos significa la manera en la cual una entidad es afectada no sólo por lo que funciona en un punto –su localidad– sino 101 también por lo que funciona en otro lugar en el mismo instante, puede ser aún más misterioso que el resultado del experimento de la doble rendija que Feynman sostuvo como el misterio cuántico central. No obstante, las pruebas experimentales existen y por lo menos dan indicio de la existencia de variables ocultas hasta el punto de que algunos científicos han tomado el asunto donde Bohm lo dejó y, por ejemplo, John Crammer ha propuesto teorías que son afines a la de las variables ocultas de Bohm. Volveremos a Bohm y las variables ocultas, pero primero dedicaremos un capítulo al intento de mostrar la convergencia entre el quantum y la cosmología. 102 4 EL SIEMPRE INALCANZABLE SANTO GRIAL: LA TEORÍA DEL TODO Si un historiador en el futuro tuviera que escribir la historia de la ciencia del siglo XX, sin duda alguna se impresionaría por los nombres de los científicos y sus logros. Tan solo en el reino atómico, la lista sería extensa. En 1902, Lord Kelvin presentó el primer modelo del átomo; en 1910, J.J. Thomson identificó el protón; en 1911 Ernest Rutheford descubrió que el átomo estaba formado por un núcleo central que de alguna manera estaba rodeado por una nube de electrones; en 1913, Niels Bohr completó el primer modelo de un átomo que tomó en cuenta las implicaciones del quantum; En 1920, trabajando separadamente, Heisenberg y Shrödinger sistematizaron la teoría cuántica y Bohr presentó su interpretación de Copenhague; George Gamow presentó un modelo donde el núcleo atómico recordaba una gota de líquido que se mantenía unida por una especie de tensión superficial; en 1932 James Chadwick descubrió el neutrón, una partícula sin carga eléctrica y con la misma masa del protón y John Cockroft junto con Ernest Walton usaron el primer acelerador de partículas para dividir el átomo. Así como en menos de 40 años la física de partículas se revolucionó no solo a sí misma sino también a nuestra concepción del mundo físico y a la tecnología que lo rodea, la astrofísica progresó tanto como la anterior en cuanto al conocimiento concierne. El año clave de la astrofísica pudiera ser 1915, cuando Einstein presentó su teoría de la Relatividad General ante la academia de ciencias de Prusia, describiendo que pasa cuando el espacio se 103 distorsiona por la presencia de la materia. Hacia 1916, las implicaciones de la Relatividad General empezaron a aflorar y una miriada de consecuencias teóricas se postularon, entre las cuales se encuentran los agujeros negros y los de gusano (worm holes) así como la expansión del universo. En 1919, una de las primeras confirmaciones experimentales de una de las predicciones de la Relatividad general, se obtuvo cuando pudo ser medida la curvatura de la luz causada por la gravedad del Sol. La historia cuenta que cuando se efectuó el experimento, Max Planck estuvo toda la noche aguardando los resultados. Al enterarse de esto, Einstein comentó: “El realmente no ha entendido la ciencia…si hubiera entendido la manera en que la teoría de la Relatividad explica la equivalencia entre la masa gravitacional y la inercial, se hubiera ido a la cama”.46 En los años veintes, más y más predicciones fueron confirmadas y quizá la más impresionante fue el descubrimiento por parte de Edwin Hubble de que la Vía Láctea era solo una entre muchas galaxias en un cosmos que se estaba expandiendo. Este descubrimiento de la expansión del universo no solo confirmó algunas de las predicciones que la Relatividad había sugerido, sino que confirmó su más sorprendente predicción, que el universo había tenido un nacimiento, que fue posteriormente conocido como la Gran Explosión o big bang. En la década de los cuarentas, George Gamow y Ralfh Alpher intentaron describir las condiciones cuantitativas del big bang, investigando el tipo de interacciones nucleares que debieron haber ocurrido en el nacimiento del universo. Si nuestro historiador del futuro observara el trabajo de Gamow y Alfher, podría deducir que anticipaba dos cosas. Primero, que establecía las bases de lo que vendría a ser la mayor inquietud de los físicos en la segunda Gerard Holton, and Yehuda Elkana, (eds.) Albert Einstein, Historical and Cultural Perspectives, Princeton, NJ., Princeton University Press, 1982. 46 104 mitad del siglo XX. Segundo, ante estas inquietudes, el trabajo experimental que se hizo para resolverlas, aunque muy brillante, hizo parecer que la física estaba estancada. Nuestro historiador quizá cambiaría el tono de su narrativa de triunfal y laudatorio a irónico y pesimista. Tal vez él escribiría: “Mientras que el trabajo de Gamow iluminó los posibles nuevos caminos que la física podría tomar, también estableció un santo grial que los científicos han ambicionado encontrar, pero como todos los santos griales éste demostró ser también muy elusivo. Hubo muchos falsos principios. Hubo muchas tecnologías inasequibles. Pero lo más importante es que lograr la meta ha sido imposible por dos motivos: los conflictos institucionales y el dogmatismo. Pese a sus creencias en la simetría y la simplicidad, los científicos se apoyaron en esquemas elaborados y se rehusaron a aceptar el sentido común, cuando era tiempo para la ciencia introducirlo en sus métodos. Más aun, ellos se cegaron o restringieron por sus métodos y no pudieron ver las pistas obvias que podrían haberlos llevado al logro de su meta.” Nuestro imaginario historiador del futuro debería, por supuesto –como los historiadores de todas las épocas– contar con el beneficio de mirar el pasado con lo que conocemos como una visión de 20/20, perfecta. Sin embargo la pregunta sería ¿porqué la física nos ha ofrecido tan triste visión en sus conclusiones en la última parte del siglo XX? Después de todo la física de partículas y la astrofísica han tenido tremendos avances. El más reciente a punto de resolverse es el valor de omega, el número que determinará la cantidad de materia existente en el universo y que nos dirá si éste se expandirá indefinidamente o eventualmente colapsará. En 1998 se 105 hizo también un descubrimiento importante: λ, una insospechada fuerza que controla la expansión del universo. Por otra parte, la física de partículas ha venido a ser una parte intrínseca de nuestras vidas. Aun pensando que la mayoría de la gente la perciba como un rompecabezas para los académicos en sus torres de marfil, la física cuántica ha transformado nuestro ambiente y nuestro modo de vida, desde lo más trivial hasta lo más comercial. En el reino doméstico, la TV, los equipos de sonido y las computadoras no existirían sin el quantum. Todos estos aparatos y hasta los autos, dependen de los semiconductores, materiales con propiedades conductivas que se encuentran entre los aisladores y los conductores y donde los electrones pueden saltar de un átomo al siguiente bajo las condiciones adecuadas. Estos saltos de átomo a átomo dependen de una serie de reglas cuánticas conocidas como estadísticas Fermi-Dirac, sin ellas, nadie sería capaz de diseñar las rápidas computadoras que tenemos actualmente. Claro que podemos darnos cuenta que tanto TV como computadoras y equipos de sonido son simplemente triviales. La civilización se ha manejado sin ellos por milenios, ¿son realmente tan importantes? Como quiera que sea, puesto que el quantum está empotrado en la naturaleza, nos permitirá entender no solamente el comportamiento de lo inanimado, sino también los fenómenos sin los cuales nuestra existencia no sería posible. Debido a la incertidumbre cuántica, podemos entender como en el Sol –nuestra única fuente de energía– los núcleos de hidrógeno se fusionan generando calor. También por la física cuántica podemos entender como la molécula de DNA se replica a sí misma. La vida en este planeta depende en gran medida de la habilidad de ésta molécula para “desabrocharse” y hacer dos copias de la doble hélice original construyendo 106 una contraparte de cada ramal de la molécula original con ésta como modelo. Las ligas o enlaces que utiliza este proceso para mantener las ramas de la molécula juntas la mayoría del tiempo, pero que también le permite separarse cuando es necesario o apropiado, es una especie de pegamento químico conocido como pegamento de hidrógeno. Este pegamento, un solo protón, comparte los electrones de otros dos átomos y forma la liga entre ellos. Para decirlo brevemente, la física cuántica explica el misterio fundamental de la vida a través de un proceso cuántico que está en el corazón de los sistemas de pegamento de hidrógeno. Por lo tanto, si astrofísicos y físicos de partículas han hecho tales avances y nos han dado un entendimiento mucho mas profundo del mundo en que vivimos, ¿por qué las quejas de nuestro imaginario historiador? El camino que en los años cuarenta iniciaron Gamow y Alpher, fue el que se dirigió a lo que se conoce como la Teoría del Todo (Theory of Everything o TOE). No se debe confundir esta teoría con las grandes teorías unificadas que sólo intentan combinar la descripción de la fuerza electromagnética, la fuerza nuclear débil y la fuerza nuclear fuerte en un sólo paquete matemático similar al que James Clerk Maxwell encontró para unificar las fuerzas eléctrica y magnética. La TOE intenta introducir la gravedad en el paquete. En otras palabras, una teoría del todo, si llega a desarrollarse, debe explicar el electromagnetismo, las fuerzas nucleares débil y fuerte y la gravedad bajo una sola rúbrica matemática. Existen muchos obstáculos a sobrepasar para que tal teoría alguna vez emerja. Sin embargo en los siguientes capítulos, en la segunda mitad de este libro, discutiremos que más que modelos matemáticos o tecnología, lo que parece obstruir más el camino es una cosa: el dogmatismo o los intereses políticos de los científicos, su inhabilidad o falta de voluntad para pensar 107 creativamente y fuera de la academia o de artículos de fe institucionales. Este dogmatismo es de lo más obvio cuando encontramos científicos que han sido estigmatizados por sus ideas. David Bohm, cuyas ideas tocaremos en el último capítulo, es solo uno de estos científicos. Teilhard de Chardin, cuyas ideas dominarán la segunda mitad de este libro, es no solamente otro ejemplo, sino el arquetipo de los científicos rechazados. Regresaremos con Teilhard de Chardin y con David Bohm porque en el corazón de sus variables escondidas, así como en su exploración sobre la naturaleza de la conciencia existe una gran coincidencia con Teilhard de Chardin. Sin embargo primero aislaremos lo que ha surgido de los dos teorías principales que contienden por el éxito. Los científicos creen en la simetría y la simplicidad. Para muchos el famoso comentario de Paul Dirac de que “es más importante que exista belleza en las ecuaciones a que éstas encajen en los experimentos”, se ha vuelto un precepto.47 Los números mediante los cuales ellos entienden el mundo que tienen que representar, no son los de los elementos caóticos e inestables en la naturaleza, sino los estables. En otras palabras, sus fórmulas cuantifican fenómenos que permanecen estables a través de las transformaciones. Para entender lo que es esto y lo que la simetría significa, vamos a imaginar que el mundo conocido que los científicos estudian es un texto. Supongamos que Dante está en lo correcto y que su cosmología también es la correcta. Imaginemos que los científicos intentan entender el más profundo funcionamiento de ese texto. La primera cosa que deben hacer es capturar cada línea del poema en su supercomputadora y tabular los Paul Dirac, “The Evolution of the Physicist’s Picture of Nature.” Scientific American mayo 1963, p. 47. 47 108 diferentes patrones que aparecen. Rápidamente, tan pronto como el texto completo –Infierno, Purgatorio y Paraíso- haya sido capturado, se darán cuenta de que los cien cantos están constituidos por permutaciones de 25 letras. El descubrimiento de estas letras puede no ser muy distinto al que nos llevó al modelo estándar de la física cuántica. Los científicos encontrarían una leve simetría, algo que permanece constante pese a las permutaciones. Sin embargo, el descubrimiento apenas explica la profundidad y rango del texto que han capturado en su computadora. Por lo tanto, su siguiente tarea será encontrar si estas 25 letras están arregladas en alguna especie de patrón. La computadora, por supuesto, deberá ser rápida en realizar este tipo de trabajo que a los lingüistas les ha tomado siglos, y encontrará morfemas y fonemas, prefijos y sufijos. Posiblemente no se entienda la manera en que las letras han llegado a ser semánticas, pero los patrones deben surgir y nuestros imaginarios científicos habrán descubierto las palabras. De nueva cuenta, pese a los diferentes terrenos de la cosmología del texto de Dante – los ríos congelados del infierno o los inclinados riscos del purgatorio- la única constante de tal mundo es que está hecho de unidades significativas. Y así como el contraste meteorológico de una región de ese universo con la siguiente puede ser asimétrico, el hecho de que cada región está constituido de palabras, apunta a una simetría. Aunque nuestros científicos celebran el descubrimiento, saben que falta trabajo por hacer si han de entender como es que ese mundo realmente funciona. Las palabras son un gran descubrimiento pero ¿siguen estas palabras un patrón? Los discos de la supercomputadora podrían tartamudear y tropezarse un poco más aquí, pero eventualmente obtendrían un logro: ciertos tipos de palabras parecen tener alguna función y toman cierto lugar en el poema. Los científicos habrán descubierto lo que ciertos lingüistas han logrado en la última parte del siglo XX, una sintaxis y 109 gramática generativa. Eventualmente la computadora también descubrirá el esquema de la métrica y la rima del poema, así como su diseño en conjunto. Una vez que los científicos se hayan dado cuenta que todas estas cosas son simétricas –es decir, que ocurren en iguales partes o medidas, para recurrir al significado original de la palabra– tendrán un entendimiento más profundo del mundo de Dante. Sin embargo, después de todas sus investigaciones, permanecerán elementos caóticos, elementos asimétricos, elementos que no tienen patrón o recurrencia. Tal como nuestros imaginarios científicos analizaron a Dante, los científicos reales buscan encontrar patrones en los diferentes fenómenos de la naturaleza. Durante el siglo XX, la fe de los científicos en la simetría sólo se consolidó cuando se dieron cuenta que cada ley o fuerza que habían descubierto era aplicable en cualquier lugar del universo. Como el texto de Dante, gobernado por las leyes del lenguaje y organizado por la métrica y la rima, las partículas tienen las mismas características en cualquier parte y están sujetas a las mismas leyes. Este tipo de simetría que sostiene que las leyes de la naturaleza son las mismas en todas partes del universo, es conocida como “invariancia transicional” y corresponde a la ley de conservación del momento lineal. En el esquema de las cosas según los científicos y central a su fe en la simetría y su rompimiento, se encuentran las cuatro fuerzas de la naturaleza. Las dos con más amplio rango y más obvios efectos en la escala macro del mundo, son la gravedad y el electromagnetismo. Las otras dos fuerzas, las nucleares débil y fuerte, actúan sólo en el rango del núcleo atómico. Cada una de las fuerzas parece estar más que sutilmente sintonizadas, de manera que si alguno de los valores fuera ligeramente mayor o menor, el universo como lo conocemos no existiría. Pese al hecho de ser la más obvia para 110 nosotros, la gravedad es la fuerza más débil, pero fue la primera en ser entendida de una manera sistemática. Hemos tratado esto en el capítulo en el que hablamos de Newton y Einstein. Si sentimos la gravedad mas que cualquiera de las otras fuerzas, es porque es aditiva, es decir, que cada átomo que apilamos en una masa contribuye al efecto total. El electromagnetismo es con mucho una fuerza más fuerte. Sin embargo ni la electricidad ni el magnetismo se suman de la manera que la gravedad lo hace. La electricidad se manifiesta a través de sus cargas, positiva y negativa; el magnetismo a través de sus polos, también positivo y negativo (o norte y sur), y puesto que ambos, polos y cargas, tienden a cancelarse mutuamente, en muchas condiciones se anula o se reduce la influencia global del electromagnetismo. En el electromagnetismo vemos una versión a pequeña escala de los intentos para llegar a una teoría del todo. Hasta el siglo XIX, la electricidad y el magnetismo se veían como dos fuerzas diferentes y sus influencias se entendían a través de dos fórmulas separadas. Brevemente, los científicos entendían la electricidad y el magnetismo, como entienden ahora las cuatro fuerzas: sin una única rúbrica matemática que abarcara su acción. James Clerk Maxwell descubrió un grupo de ecuaciones que describían tanto la electricidad como el magnetismo en un solo paquete. Este impulso sintético es exactamente el mismo al que ahora guía a los físicos a intentar encontrar una teoría del todo. Lo anterior fue el primer intento exitoso de unificación y todavía inspira a los científicos para ir más allá con la unificación de las fuerzas de la naturaleza, con la meta de encontrar un solo grupo de ecuaciones que describan todas las fuerzas como facetas de una sola superfuerza. El electromagnetismo, a diferencia de la gravedad, domina en las regiones de pequeña escala, en la formación de los átomos y las moléculas, tanto, que los 111 electrones y el núcleo del átomo están unidos por el electromagnetismo, que es también el pegamento, por así decirlo, que mantiene unidas las moléculas. Si un alpinista tiene que luchar por subir por una cuerda en contra de la obvia fuerza de gravedad, lo que lo previene de una caída es la fuerza electromagnética, que es más fuerte aunque no tan obvia. Si la soga se rompiera por el peso del escalador, se debería a que el jalón gravitacional de la tierra entera que contiene 5.97x1024 kg. de materia habría tenido éxito en romper el “pegamento” electromagnético de unas cuantas moléculas de la soga. La potencia del electromagnetismo es tal, que sin control sería capaz de desintegrar el núcleo del átomo. Lo que previene esto, es una fuerza aun más fuerte: la fuerza nuclear fuerte, que sobrepasa la repulsión eléctrica a la escala del núcleo en 100 veces. Sólo recientemente la fuerza nuclear fuerte ha sido entendida como la manifestación de una “fuerza de color o de pegamento”, más profunda, que opera entre los quarks y entre los gluones dentro de los protones y neutrones que forman el núcleo. Cada una de las fuerzas se manifiesta a través de un intercambio de mensajes entre partículas. Y si la fuerza nuclear débil no es parecida a las otras tres fuerzas, sí lo es en este aspecto. El rango de la fuerza es limitado y la interacción toma lugar a través de partículas mensajeras llamadas “vectores bosones intermediarios”. Como la consolidación de la electricidad y el magnetismo un siglo antes, en el siglo XX, Aldous Salam y Steve Weinberg, trabajando independientemente, encontraron la manera de consolidar la interacción débil y la interacción electromagnética bajo un solo rubro matemático.48 El descubrimiento de Salam y Weinberg así como el de Sheldon Glashow que extendió y generalizó la reformulación de su trabajo, está, junto a la función y rol de las cuatro 48 112 Sin embargo, el encontrar una superfórmula, por llamarla de alguna manera, de un grupo de ecuaciones que revele como cada fuerza interactúa de modo que los más profundos mecanismos de nuestro mundo puedan ser entendidos, sigue siendo una meta inalcanzable. Las dos teorías que parecen los más posibles candidatos para la consecución de la meta son, la teoría de las supercuerdas y la supersimetría. Más adelante seremos breves al tratar ambos temas debido a su complejidad, pero puesto que ambas teorías son verdaderamente unos bellos modelos matemáticos, trataremos de ver como se sostienen ante el mundo de los hechos. Después de todo, pese a la aseveración de Dirac de que es primero la belleza de las ecuaciones a que se adapten a los experimentos, debemos recordar que hay concepciones bellas que son verdaderas. Mientras tanto, hacia el final del capítulo y como una guía que nos ilumine a través de la segunda parte del libro, nos gustaría alinearnos con Bertrand Rusell, quien sostiene que los científicos, filtrando las partes de la naturaleza que no son accesibles al razonamiento matemático, brindan al universo un tinte de racional belleza que corresponde más a las matemáticas que a las características centrales del universo.49 La Teoría de la Supersimetría surgió del exito que la simetría gauge tuvo en la manera de entender las fuerzas y las partículas.50 En los años setentas, la mayor asimetría era la distinción entre partícula y fuerza, o fuerzas, extensamente explicado en el libro de Flank Close The Cosmic Onion (Heinemann, London, 1983) y en el de Coughlan and Dodd The Ideas of Particle Physics (Cambridge University Press, Cambridge, 1991). 49 La cita de Dirac ha inspirado cantidad de debates. El libro de Judith Wechsler Aesthetics in Science (Cambridge, MIT Press, 1978) ofrece muchas e interesantes perspectivas. 50 La simetría gauge es un concepto usado en la teoría de los campo, que describe un campo el cual no cambia cuando se aplica alguna operación a todas las partículas dondequiera en el espacio. El término gauge simplemente significa “medida”, y el punto en el que los campos con simetría gauge, pueden ser remedidos desde diferentes lineas base, sin afectar sus propiedades. 113 fermiones y bosones respectivamente. La asimetría como era percibida entonces, no era necesariamente cosmética, sino que era el reflejo del espín de cada entidad. La supersimetría resolvió el problema añadiendo otras cuatro dimensiones a las cuatro dimensiones del espacio-tiempo. Estas dimensiones no son las mismas que aquellas que encontramos al mirar la teoría de las supercuerdas. Sin embargo, para ser imparciales, tenemos que admitir que los preceptos de la Supersimetría permitieron trabajar la teoría de las supercuerdas.51 La supersimetría, a diferencia de otras muchas teorías, no emergió de la necesidad de resolver un problema. Originalmente reconocida como una propiedad de ciertos modelos, eventualmente los científicos se dieron cuenta de que la teoría podía resolver un cierto número de misterios de la física de partículas, asi como proveer nuevos acercamientos para resolver otros rompecabezas ¿Qué misterios resuelve la Supersimetría? Básicamente el Modelo Estandar tiene un serio problema conceptual llamado el problema de la jerarquía.52 La escala natural de la teoría primaria es la escala de Planck (10-35 m.) El Modelo Estándar es la descripción de los quarks y los leptones y de sus interacciones a la escala de 10-17 m. El problema es que la teoría cuántica, la física a una escala, debe contribuir, o ser coherente con la física 51 Tenemos otra versión sobre el surgimiento de la teoría de las supercuerdas, pues en su libro de 1965, La connaissance de l´univers, el astrofísico Jean Charon hablaba, refiriendose a lo elemental, de un medio continuo que puede poseer ciertos estados vibratorios. Una cuerda vibratoria que posee una oscilación fundamental que pudíeramos calificar de “natural”. Rastreando el origen de este supuesto llegamos a Teilhard de Chardin a través del físico Louis de Broglie, quién fuera miembro del comité científico que aprobó la publicación en 1955 de El fenómeno humano. Pero no poseemos la suficiente documentación probatoria para dar esto como un hecho. 52 Este problema de la jerarquía se puede plantear mas simplemente de la siguiente manera: El porqué las diferentes fuerzas operan a tan diferentes energías, cuando realmente son todas manifestaciones de un mismo fenómeno subyacente, y como pueden 114 a otras escalas, asi que no es consistente tener estas escalas tan separadas. En vez de lo anterior, la escala cuántica y la de Planck deberían estar muy cerca una de otra. El problema realmente tiene dos partes. Primero, dado que hay una separación de la escala del modelo estándar de la escala de Planck, ¿porqué el modelo estándar termina precisamente en esa y no en otra escala? El asunto sondea lo más profundo del modelo estándar ¿es una escala aleatoria, un modelo impuesto por el hombre o sólo un modelo elegante? La última cuestión nos lleva a un segundo problema: ¿qué puede hacer que la teoría mantenga la separación de una manera consistente? El modelo supersimétrico resuelve la segunda parte del problema y nos da una idea de como resolver la primera parte. Esto lo hace utilizando primordialmente la unificación de bosones y fermiones. La verdadera naturaleza de fermiones y bosones, implica que deben llegar a juntarse en la escala a la que se cancelen, por lo que la mezcla de escalas puede ser cancelada de una manera general. La supersimetría nos da una contribución más importante para resolver los serios misterios que la ciencia ha encontrado en su búsqueda de una teoría del todo. Como hemos visto, por siglos los físicos activamente han taratado de unificar nuestra descripción de las fuerzas de la naturaleza. Digámoslo otra vez, el tener cuatro fuerzas diferentes en lugar de una sola fuerza básica, sugiere que la física todavia no tiene bien fundado un principio de unificación. Con la teoría cuántica, uno puede calcular como se comportaría una fuerza si se estudiara en muy pequeñas distancias. Notablemente, cuando esto se hace a escalas cada vez más pequeñas con las fuerzas nucleares débil y fuerte y con el electromagnetismo, nos damos ser unificadas matemáticamente, si esto es posible. Pero el definirlo así nos limitaría el argumento. 115 cuenta que estas fuerzas tienden a ser similares. Más notablemente, cuando el estudio se repite con las fórmulas del modelo de la supersimetría –como se hizo en los años ochentas– las fuerzas llegan a ser esencialmente iguales a distancias realmente muy pequeñas, aunque en el modelo estándar nada sugiera que esto debería pasar. Como anotamos anteriormente, la supersimetría no sólo precede a la teoría de las supercuerdas, sino que presenta las condición necesaria para que la teoría de las supercuerdas funcione. Esta última, sin embargo, es una teoría mucho más efectiva en su intento de unificar las cuatro fuerzas. Como muchas de las teorías que intentan ser exitosas, las supercuerdas es una teoría elegante, pero además muy apegada al sentido común. Resuelve la división entre las fuerzas y las discrepancias de la física atómica, postulando que las partículas y sus interacciones, no son puntos (o “partículas”), ni puntos matemáticos, sino cuerdas, y la materia y las fuerzas como las conocemos, son solamente las manifestaciones de los diferentes modos de vibración de dichas cuerdas. El postular estas cuerdas, resuelve muchas discrepancias menores. Si bien, su mayor contribución hasta el momento, es que a medida que los físicos ven el modelo estándar a través de la perspectiva de las supercuerdas, son más capaces de darse cuenta como todas las fuerzas son iguales cerca de la escala de Planck. En un capítulo posterior exploraremos la teoría de las supercuerdas un poco más a fondo. Y aunque nosotros preferimos los postulados de las supercuerdas a los de la supersimetría, la razón por la cual pensamos que ambas parecen seguir el camino correcto, que ambas se están haciendo las preguntas correctas, es porque las dos se enfocan en aspectos importantes. Primero, confirman lo que muchos científicos parecieran negar: a saber, los 116 límites de nuestras actuales herramientas científicas, asi como la manera en la que debe ser revisado el enfoque actual del asunto. Tanto la supersimetría como las supercuerdas, resuelven discrepancias de la física hasta el punto de unificar las cuatro fuerzas, solo hasta, o por debajo de la escala de Planck. Su solución, dicho de otra manera, no puede ser confirmada usando los actuales métodos y tecnología, puesto que ningun supercolisionador puede lograr la energía necesaria para romper el átomo a la escala de Planck.53 Subrayando las deficiencias de la física experimental, las supercuerdas también nos provee de un universo donde los límites son importantes, un universo donde existen límites al tiempo y al espacio, un universo donde pasado el límite, contemplaríamos, no necesariamente una diferente realidad, donde el mundo fracturado que la física nos describe, no lo estaría más. La pregunta que surge, si los postulados de la teoría de las supercuerdas, socavan el decir y los métodos de la física de partículas, es: ¿Significa que no hay manera de confirmar la teoría y de probar que en lo profundo la naturaleza está unificada por un elegante y legible grupo de leyes? ¿Establece, en otros términos, que la física llegó a su final? Para muchos la respuesta es sí. Para nosotros, sin embargo, es un definitivo no. Para nosotros la teoría de las supercuerdas es sólo un prisma que concentra la difusa luz de cuatro diferentes fuerzas, las unifica y luego las difracta, de manera que esto puede ser explicado a través de otras ciencias, otras teorías. En la segunda parte del libro, veremos las posibles opciones. 53 De acuerdo a la ecuación de transformación de Lorenz m= mo√1-v2/c2, para acelerar cualquier cantidad de masa a velocidades cercanas a la de la luz, se requiere una energía que tiende a infinito. 117 5 DE BÁRBAROS Y BASFEMOS …que escribir docta poesía se llama entre los bárbaros blasfemia. LOPE DE VEGA Concluimos el tercer capítulo tratando con la interpretación de Bohm acerca del quantum. Esta interpretación es conocida indistintamente como “de la onda piloto”, “del todo indivisible” o “de las variables escondidas”. Debido a la principal premisa de trabajo de Bohm, uno tiene que considerar la no localidad como una posibilidad, en otras palabras, uno tiene que aceptar que las nociones de sentido común sobre causalidad no operan en el mundo atómico. En esta segunda parte del libro volveremos a ver las ideas de Bohm con un poco más de profundidad. Por ahora, será suficiente refrescar nuestra memoria, puesto que si bien de una manera superficial tocamos el trabajo de Bohm, lo que definitivamente casi no examinamos fue su biografía. Para la mayoría de los científicos existen dos posibilidades: o son triunfadores y recordados, o fallan y son olvidados, y aunque pueda ofrecer un puñado de divertidas anécdotas y una docena de ingeniosas o extrañas citas, la vida de casi todos es poco interesantes. Como sucede con los artistas, cuyas vidas son considerablemente menos reservadas y quizá más aventureras, lo que uno toma en cuenta en la vida del científico es el funcionamiento de una mente individual. Lo anterior, por supuesto, está contenido en su trabajo. Tal como la gente regresará a Cervantes aunque crean que hay poco que saber del hombre mismo, la gente regresará a Einstein, no por las poses de sus últimos años, sino porque, como Cervantes, Shakespeare o Dante, Einstein nos proporcionó no solamente un camino 118 único para contemplar el mundo, sino también un proceso único mediante el cual descubrir cosas acerca de éste. De hecho, más que los resultados de los experimentos mentales de Einstein, el asunto más asombroso acerca del hombre es que fue capaz de formularlos tan en primer lugar. Finalmente nos reveló una mente fresca, inefable e inexorable. En algunos casos, sin embargo, las circunstancias históricas pueden intersectar la biografía de un intelectual o de un artista y los datos que recogemos de tal intersección, aunque no pueden iluminar suficientemente lo que concierne al trabajo del científico o el intelectual, definitivamente brillan como un faro sobre la cultura y las instituciones que rodean al sujeto de la biografía. Mientras que muchos creadores pueden ser imposibles o casi imposibles de entender sin un conocimiento de las instituciones que los rodean (podríamos leer a Dante sin tener la más leve idea de la historia florentina?), con los científicos realmente la única cosa que podemos esperar obtener de su vida es entender la manera en la cual la comunidad científica y sus instituciones funcionan, y la manera en la cual fomentan o impiden el proceso y el destino de un proyecto particular o la fortuna de una idea. La biografía de David Bohm, desafortunadamente, no nos muestra una bella pintura de sus colegas ni de las instituciones. Aunque la literatura sobre el trabajo de Bohm es, si no extensiva, por lo menos considerable, no existe todavía una biografía hecha y derecha de él. Su perfil, sin embargo es bastante familiar y hasta la primera mitad de su vida, poco notable. Nacido en Wilkes-Barre, Pensilvania, en 1917, de niño llegó a interesarse en la ciencia por las lecturas de ciencia ficción. Más tarde pasó a los libros de astronomía y obtuvo su preparación formal, primero en el Pennsylvania State College y después en la Universidad de California en Berkeley, donde estudió bajo la tutela de Robert Oppenheimer, quien lo llevó a trabajar con él 119 a Los Álamos, en el proyecto Manhattan, junto a los más prominentes físicos y estudiantes de la época. Como casi todos los niños que vivieron la gran depresión, Bohm comprensiblemente desarrolló inclinaciones marxistas. Cuando abandonó el proyecto Manhattan tomó un trabajo en Princeton, donde escribió lo que aún es uno de los más accesibles libros de texto sobre la interpretación de Copenhague. Sin embargo, el año en que fue publicado su libro, es el mismo año en el que encontramos la intersección perturbadora de los hechos históricos, la ceguera institucional y el infortunio personal. Pocos años después de Los Álamos, una vez que la guerra terminó, los Estados Unidos se zambulleron en su pánico rojo. Los catalizadores de este pánico fueron la desinformación y la propaganda. Si uno quisiera dar una fecha exacta del inicio de la guerra fría, tendría que remontarse a los días 9 y 16 de Febrero de 1946. La primera fecha sólo marca uno de los más demagógicos discursos de Stalin, donde echaba la culpa de la Segunda Guerra Mundial al “monopolio capitalista” y sostenía que el capitalismo debería ser reemplazado por el comunismo si se quería prevenir futuras guerras. Mientras que el discurso de Stalin parecía agresivo, tenía un velo de hostilidad e implicaba amenaza, el telegrama que envió al presidente Truman, George F. Keenan, el ministro consejero de la embajada estadounidense en Moscú –ahora conocido como el “telegrama largo”– definitivamente selló la guerra fría. En este telegrama, Keenan afirmó que la Unión Soviética era un “despotismo oriental” en el cual “el extremismo es la costumbre y donde se supone que los extranjeros son enemigos mortales”. De acuerdo con Keenan, el Kremlin usó el marxismo como la hoja de parra para cubrirse de respetabilidad moral e intelectual, para justificar el crecimiento militar, la opresión en el hogar y la expansión 120 fuera del país. El tendencioso telegrama ofrecía una elección a los Estados Unidos hasta donde llegaba su interés en la Unión Soviética: “contenerse.” Esto también provocó el miedo a la expansión del comunismo en la conciencia Americana. Como todos los miedos, éste en particular surgió y fue aprovechado para ser explotado por cualquier charlatán. El primero en aparecer en escena fue Joseph McCarthy, senador por el estado de Wisconsin, quien mientras hablaba en una asamblea de mujeres republicanas en Wheeling, Wisconsin, con un ademán señaló unos documentos que, aseguraba, eran la evidencia de una extendida conspiración. Los documentos, declaraba, contenían una lista de 205 nombres de personas que eran conocidas como miembros del Partido Comunista y estaban dando forma a la política norteamericana. A pesar de que, según sus detractores, McCarthy era un mentiroso, un alcohólico y un político corrupto, sus acusaciones llegaron en el momento preciso. El desenlace de los cargos de McCarthy son bien conocidos. Durante cerca de tres años, McCarthy encabezó el House Committee on Un-American Activities o HCUA (algo así como Comité para la represión de actividades antinorteamericanas). El HCUA fue una cacería de brujas; su modus operandi, el mismo que la Inquisición usó para paralizar la vida intelectual de Europa. Miembros de universidades, actores de Hollywood, directores, escritores y políticos, eran requeridos para confesar sus lealtades políticas y denunciar a sus asociados. En 1948 la Universidad de Washington suspendió a tres profesores porque se rehusaron responder las preguntas de los legisladores del estado acerca de su calidad de miembros del Partido Comunista. Los profesores nunca encontraron otro trabajo. Más tarde en el mismo año, la Federación Americana de Profesores, votó en contra de permitir a comunistas el acceso a la enseñanza. La Junta Gobierno de la Universidad de California exigió la 121 facultad de tomar un juramento anticomunista y aquellos que se rehusaron fueron despedidos después de una larga batalla. El sistema finalmente se deshizo de 31 profesores. Al final del pánico, el corte de cabezas tan solo en el mundo académico ascendía a 600 profesores que habían perdido su trabajo. Entre estos 600 no solamente había profesores de ciencias políticas, historia o humanidades, pues la HCUA y sus subsidiarias fueron a fondo; no dejaron piedra sin voltear. Así, la lista incluía físicos, biólogos, etc. La confrontación más famosa en el mundo científico fue con Oppenheimer. Pese al hecho de que había probado ser pivote en el éxito del proyecto Manhattan, en los años cincuenta se enfrentó con la HCUA y perdió sus prebendas. El de Oppenheimer fue un caso de gran resonancia porque el proyecto Manhattan lo había convertido en una figura pública. Fue más leído y más sincero que la mayoría de sus colegas científicos. El de Bohm, por otro lado, fue un caso menos notorio. No obstante, se le presionó para que implicara a sus colegas como miembros del Partido Comunista, a lo que se rehusó, por lo que en 1951 la Universidad de Princeton, el mismo sitio donde Einstein trabajó y una de las principales instituciones educativas en el mundo, lo despidió. Se le pagó el último año de su contrato a condición de que no volviera a entrar al campus. Estas intersecciones de las circunstancias históricas con las actividades intelectuales suelen ser triviales si no son muy duraderas o no tienen amplias repercusiones. Además, las repercusiones puede manifestarse no sólo en el orden personal (Bohm dejó los Estados Unidos, enseñó en Brasil, después en Israel y más tarde se estableció en Inglaterra) sino que afectan el mundo de las ideas. Pero el hacer una víctima de Bohm fue más allá de un comité y un exilio. De hecho, la consecuencia más cruel de esto, a 122 largo plazo, ha sido el abandono de sus ideas en la comunidad científica. Por lo que su caso, de muchas maneras trágico, es un arquetipo del modo como opera en general la comunidad científica. Podría uno preguntarse ¿por qué el abandono de las ideas científicas, considerando que ninguna lealtad política de Bohm podía afectar en gran medida las matemáticas en las cuales apoyó su teoría? Como la teoría de las supercuerdas o la supersimetría, la teoría de las variables escondidas no ha sido probada experimentalmente; es por tanto, como los científicos llaman a las teorías no probadas, una teoría en proceso de investigación (TPI). Sin embargo, a diferencia de las supercuerdas o la supersimetría, la teoría de las variables escondidas de Bohm, ni ha tenido la misma cantidad de adeptos, ni ha sido pródigamente beneficiada con dinero para investigación. Muchos podrían argumentar que la razón del abandono o rechazo de la teoría de Bohm se debe más a lo insostenible de sus propuestas que a cuestiones ideológicas. No obstante, este argumento sería idealista y con una visión ingenua de como la comunidad científica trabaja; quien lo propusiera estaría abrigando el mito de ver a los científicos como pensadores solitarios en su torre de marfil, viviendo fuera de las ideologías políticas o de las necesidades económicas y sin ser afectados por el Zeitgeist. Como muchos de los mitos, éste también es perjudicial a largo plazo, porque distorsiona la realidad y por lo tanto impide todo tipo de pensamiento crítico o analítico. El hecho es que, contrariamente a la creencia popular, la ciencia no está menos enrarecida que cualquier otro campo y los físicos, como otros científicos, políticos, humanistas o historiadores, voluntariamente o no, se hacen eco o se ven influenciados por los dogmas ideológicos, políticos o institucionales. En el capítulo 2 discutimos cómo muchos biólogos, en su esfuerzo por promover el escepticismo científico que permita la objetividad, 123 han abrazado también una especie de nihilismo moderno y postmoderno que rechaza toda teleología. El mundo de la física no está menos influenciado por ideologías similares. Aparte de estas ideologías que los enajenan de la gente común, los físicos tienen que hacer frente a la política de aniquilación mutua en sus instituciones. Las teorías y los experimentos, las publicaciones y las posiciones de enseñanza no ocurren en un vacío, sino que obedecen a las presiones del mercado académico e institucional. El físico Michael Hawkins ha sostenido que los científicos “tendrían que tener el coraje casi suicida de abandonar el rebaño y desafiar el centro de poder de la astrofísica”. Si se envía un documento a una revista para su publicación y falla en someterse a la línea ideológica, o falla en estar en la moda actual en cuanto a la investigación e interpretación concierne, entonces los autores son “relegados de la comunidad astronómica por sus iguales.” En la mayoría de las instituciones, este jaloneo de categorías es una necesidad económica: el “fundamentalismo ideológico” de la mayoría de los científicos, argumenta Hawkins, es una manera de proyectar la estabilidad interna hacia el mundo exterior, donde se deben encontrar las concesiones y el dinero para la investigación. El libro de Hawkins, Haunting Down the Universe es en parte teoría y en parte una revelación comprometedora a la comunidad científica, y cuando llegó a los conocedores, éstos tomaron en cuenta, no la necesidad de la crítica a lo establecido, sino la amargura con la cual Hawkings trató sobre la comunidad. Las reacciones fueron desafortunadas, puesto que no pusieron atención al criticismo de Hawkins. De hecho, la mayoría de los que soslayaron las quejas de Hawkins se volvieron a la frustrante lógica de culpar a su pasado, su hechura psicológica, etc., para explicar las razones 124 del libro, como si Hawkins hubiera tenido la osadía de apuntar el dedo en algún desconocido inocente. Su crítica, sin embargo, vertió luz sobre muchos asuntos. Su argumento es que no debería existir ningún grupo de mandarines dictando lo que las evidencias científicas significan. Como él indicó “casi todas las evidencias están abiertas a varias interpretaciones”. Aun más, las actuales interpretaciones de las evidencias no necesariamente deben ser visiones etéreas sino ideas falibles imbuidas por un “contexto histórico”. El cri-de-coeur de Hawkins, involucra entonces un saludable escepticismo que de adoptarse puede abrir un diálogo, no solamente entre las diversas ramas de la ciencia, sino entre las ciencias y las humanidades. En pocas palabras, él pretende poner el trabajo científico en una especie de contexto, no sólo en el sentido de proveer interpretaciones viables a los experimentos, sino de obtener a largo plazo la visión de que la ciencia no es una disciplina que tiene lugar a niveles enrarecidos, sino que es una disciplina sujeta a ideologías, modas, etc. Poder al menos, proporcionar a la ciencia una conciencia histórica y a los científicos un sistema revisado y balanceado. Ya ha habido algunos intentos en este sentido pero no han progresado, y quizá el caso más notable sea el del científico que a continuación trataremos Como vimos, Bohm sufrió en dos frentes. Lo que ambiciona la teoría de la “onda piloto” es colocar al comportamiento extraño del quantum dentro de un marco con sentido. En un clima en el que cualquier intento de interpretar datos dentro de un contexto significativo es un anatema, los científicos tienen que usar cualquier argumento en contra de la onda piloto: algunos discuten que es insostenible porque no hace caso de la restricción de Einstein sobre la acción a distancia. Otros, más imbuidos en las ideologías de la época, lo han acusado etiquetando a la teoría como determinista. Esta 125 última acusación es sostenida frecuentemente no como resultado de un detallado análisis de las ideas científicas de Bohm, sino sólo por recurrir a su política. En otras palabras, en el más repulsivo de los gestos, los detractores de Bohm han acudido a su encuentro con la HCUA y a su supuesta ideología política para obstaculizar la difusión de su teoría e interpretación sobre la física cuántica. La lógica está por supuesto mal dirigida, pero funciona como sigue: puesto que Bohm, según se afirma, es un marxista y el marxismo plantea una versión determinista y teleológica de la historia, se sigue que el trabajo científico de Bohm está matizado con tal ideología. Brevemente, los mismos científicos que sostienen que la empresa científica ocurre fuera de cualquier contexto histórico, utilizan las circunstancias históricas que rodearon el trabajo de Bohm para argumentar que su trabajo no tiene validez, para argumentar, además, que su trabajo –por decirlo de alguna manera– está “infectado” con ideología política. Si una supuesta ideología marxista hizo de Bohm un científico inferior a los ojos de su comunidad, si sufrió desaires a causa de los dogmas que muchos científicos abrigan, entonces el caso de Pierre Teilhard de Chardin no debe sorprendernos. Mientras que Bohm se inclinó hacia una ideología que era en lo esencial materialista y atea, Teilhard de Chardin, aun cuando no abrazaba ninguna ideología, estaba formado por dos impulsos que desafortunadamente eran considerados perjudiciales al esfuerzo científico. En una era de especialización, en la que la lógica cartesiana de la fragmentación y el análisis ha llevado a los físicos de partículas a emplear más y más tiempo dividiendo átomos que, por así decirlo, no pueden volver a unir; cuando los biólogos más bien se dedican a estudiar fenómenos minúsculos, y en la que las ciencias y las humanidades han llegado a un abismo insuperable, Teilhard de Chardin está definitivamente fuera de lugar. 126 Su propósito era en primer lugar y principalmente sintético y la síntesis que intentó era múltiple. Como muchos de los científicos a los que hemos visto luchando para tratar de unificar diferentes teorías en una sola, Teilhard de Chardin intentó unir la cosmología y la física de partículas. A diferencia de estos mismos científicos que hemos visto perderse en los recónditos enigmas de una jerga matemática, la simplicidad de su solución es asombrosamente intuitiva e involucra una segunda síntesis: a saber, él sugirió que lo que liga estas dos ramas de la física debería buscarse, no en algún oscuro sistema matemático o en esa insistencia cartesiana de romper la naturaleza en sus más y más pequeños componentes, sino en la evolución. Veremos esta solución con mayor detalle más adelante en éste y en los siguientes capítulos. Por ahora y a riesgo de parecer simplistas será suficiente decir que Teilhard de Chardin vio la evolución como la manifestación de otra fuerza como el electromagnetismo o la gravedad, pero más fuerte aun, y cuyo modus operandi determina el comportamiento de las otras fuerzas. Las ambiciones de Teilhard de Chardin no paran aquí. Él no era la mente posmoderna explayándose en la taxonomía y sin salir de la rutina de una sola disciplina. Como sus predecesores del Siglo de las Luces o a los que el Renacimiento llamó acertadamente filósofos naturalistas, hombres como Liebniz que no encontró problema negociando entre el mundo de la teología y la filosofía y el mundo de la ciencia formal,54 Teilhard de Chardin se opuso a lo literal del materialismo científico e intentó una síntesis más a fondo. De nuevo, como Liebniz antes que él, Teilhard de Chardin se enfrentó a los duros y fríos hechos de la ciencia de una manera moderna Liebniz, entendió su irrelevancia y limitación si se ven fuera de un contexto 54 El concepto filosófico de las mónadas de Liebniz anticipa el trabajo de Teilhard de Chardin, y Liebniz también pudo haber inventado el cálculo antes que Newton. 127 teológico y metafísico. Para los científicos, por supuesto, este último intento es, pese a su pretendido vacío de dogma, blasfemia pura. Así, otra vez, el destino del trabajo de Teilhard de Chardin no debe sorprendernos. El rechazo que ha sufrido hace que el rechazo a Bohm parezca benigno. Como quiera que sea, al añadir perjuicio al insulto, puesto que Teilhard de Chardin se movió en dos mundos, el científico y el religioso, su trabajo fue también denostado por las autoridades eclesiásticas. Teilhard nació en 1881 en la región de Auvergne, que el compositor Canteloube inmortalizó en su extensa colección de Cantos de Auvergne. Su fecha de nacimiento lo coloca dentro de una generación que revolucionó la ciencia y el arte y que incluye a Proust (1871) y Joyce (1882), a Rilke (1875) y T. S. Elliot (1888), a Schoenberg (1874) y Stravinsky (1882), a Einstein (1879) y Bohr (1883). El padre de Teilhard fue un naturalista amateur, coleccionista de minerales, insectos y plantas. Como tal, alentó la predilección de Teilhard por las ciencias naturales. A los 11 años se matriculó en un colegio jesuita, y hacia 1899 entró al seminario para estudiar el sacerdocio. La sensibilidad moderna ha hecho a un lado a los sacerdotes. Gracias a los medios, el sacerdote ha llegado a ser el emblema de un anticuado modo de vida: provincial en sus puntos de vista, cerrado de mente e inconsciente del avance moderno. Mientras que la Iglesia como institución ha hecho lo que ha podido para llevar más allá tal punto de vista, la verdad ha sido totalmente diferente. Como todos los estereotipos, este último sólo subraya un aspecto de la institución, que ha producido más que hombres austeros y piadosos. En realidad, si uno lee el contorno de la biografía de Teilhard de Chardin, puede uno recordar que su orden, fundada durante la Contrareforma, siempre se ha enfocado en el conocimiento y la educación. Originalmente establecida para emprender la “reconversión” de aquellas 128 almas indecisas que habían cambiado de denominación, así como para prevenir cualquier deserción de las almas jóvenes y resueltas, concibió la educación como la mejor herramienta para contener los problemas que la Reforma había causado. Para muchos de los lectores, la información anterior puede resultar irrelevante. En estos días podemos prestar atención a diferentes instituciones que tienen una historia similar. Oxford, Princeton o La Sorbona y otras instituciones, tuvieron, como los jesuitas, una meta original, y han tenido, como los jesuitas, una notabilísima lista de alumnos. Con todo, estas famosas universidades, aunque siguen fieles a su pasado por motivos comerciales y si bien mantienen algunas de las más notables facultades, utilizan su historia como trampa turística más que como un modelo didáctico. Por consiguiente, Oxford, Princeton o La Sorbona no son más que espejos distantes de sus originales. La orden jesuita a principios del siglo XX era totalmente otra cosa, ligada como estaba, y como había luchado a lo largo del siglo, a su carácter original, y más importante, a sus métodos didácticos originales. Entonces fue allí, en el seminario, donde debemos suponer (y suponer debemos porque desgraciadamente hace falta una biografía completa y erudita de Teilhard de Chardin) que Teilhard pudo heredar una herramienta cognoscitiva que, transformada, pudo haber influido de manera decisiva en su posterior trabajo científico. Como discutimos antes, la orden jesuita, tratando con los problemas didácticos surgidos de la Reforma, desarrolló lo que conocemos ahora como casuística. “Casuístico” y “jesuítico” han llegado a ser en nuestros días sinónimos de lo tortuoso. No obstante, los casuistas originales, como Mariana y Jeremy Taylor, eran gente de alto calibre intelectual. 129 La casuística es la teoría de los casos: nos enseña como aplicar las reglas generales que gobiernan la conducta en un problema moral particular. En otras palabras, inventando la casuística los jesuitas le dieron al mundo moderno una manera mediante la cual tratar con casos particulares. El método todavía está con nosotros en el derecho y en la medicina. Cuando un juez decide sobre un caso, está usando la casuística. En todos los códigos de conducta de las diferentes profesiones, desde la militar hasta la médica, la ley usa la casuística. En tono más rimbombante, la casuística requiere dar un paso epistemológico que no había sido codificado antes de los jesuitas y que requiere a su vez la abstracción de la mente para generalizar a partir de la integración de casos particulares. Así, la herencia de los jesuitas va más allá de la conducta e influye sobre cualquier disciplina que requiere lógica. Uno puede darse cuenta de que el trabajo de Teilhard de Chardin está de muchas maneras influenciado por este impulso intelectual. A diferencia de la mayoría de los científicos, que eluden las generalidades y las abstracciones y se enfocan sólo en casos particulares para derivar principios generales después de meticulosos experimentos, el trabajo de Teilhard toma esos principios generales que los científicos han derivado y entiende que debe unificarlos, sin ser necesario dar pie atrás y revisitar los detalles minuciosos de lo todavía más particular, sino que sólo se necesita encontrar un concepto bajo el cual el comportamiento de lo particular pueda tener sentido. Para muchos esto puede sonar anticientífico. Pero realmente no lo es. Los grandes ejemplos de tal método de trabajo son bien conocidos. Einstein no necesitó dar marcha atrás y redescubrir la física newtoniana para llegar a la relatividad. Igualmente, a pesar de que el público en general cree que los principios de la ciencia sólo se dibujan en el laboratorio, después de horas interminables de investigación, la verdad es que en física, por lo 130 menos en los últimos cien años, la teoría ha precedido al experimento. Aun en la biología evolucionista, en ciertos trabajos, uno encuentra este tipo de casuística. En efecto, contra la creencia popular, la biología evolucionista no ha progresado este siglo gracias a trabajos polémicos de escritores como Gould o Dawking, a quienes les encanta explayarse en las diferencias y en lo particular, y que son completamente literales cuando llegan a la lectura de Darwin. No, el trabajo más interesante, el trabajo que encontramos posteriormente, ha sido emprendido por gente que recurre a las generalidades. En realidad, si el trabajo de Teilhard de Chardin como biólogo y paleontólogo anticipa alguna cosa en la biología evolucionista, es lo que ha llegado a conocerse como cladística. La cladística no solo resuelve un problema central para los biólogos evolucionistas, sino que provee un modelo para otros científicos. Encarada con el problema crucial nunca resuelto de reconstruir completamente el pasado geológico o evolutivo, es decir con el problema de que no hay suficientes datos específicos para desarrollar una teoría coherente, la solución cladística implica cambiar la especulación en la historia evolutiva acerca de las discusiones sobre las verdaderas descendencias en teorías acerca de las relaciones. A diferencia de los árboles evolutivos que Gould condena y que para todo propósito práctico son modelados después de nuestras cartas genealógicas, los cladogramas suponen que si la evolución sucedió, entonces los cambios evolutivos –ya sea que afecten miembros o genes– deben transmitirse a futuras especies que comparten un ancestro común. Estas características derivadas son la base de la cladística. En lugar de tratar de reconstruir árboles de descendencia hasta sus más minuciosos detalles, en lugar de volverse algo afín a lo que hacen los físicos de partículas, quienes se dedican a sumar partículas a su catálogo, 131 los cladogramas dibujan las relaciones entre especies como una serie de ramas que se dividen regularmente, basados en las características de los actuales animales vivientes55. La cladística es deductiva en vez de inductiva. El trabajo de Teilhard de Chardin parece ser de muchas maneras el pionero de esta técnica: de hecho, veremos algo muy similar a lo que ahora se conoce como cladística cuando nos adentremos en El fenómeno humano, y veamos cómo el libro mismo está estructurado para destacar no las cronologías detalladas y las descendencias directas, lo cual es imposible, sino las relaciones entre familias. Que Teilhard de Chardin haya anticipado la cladística no debe verse sólo como una tendencia abstracta que hubiera heredado de su educación jesuita. Mientras que la casuística jesuita debe haber tenido un papel central en su desarrollo intelectual, la ciencia, la ciencia dura con observación y campo de trabajo, fue también central en la vida de Teilhard. Después de 1911, cuando fue ordenado sacerdote, después de vivir en El Cairo y Hastings, Teilhard le dedicó por completo 44 años a la investigación científica. Trabajó primero en el Musée National d`Historie Naturelle; allí, bajo la tutela de Marcellin Boule, un especialista en el hombre de Neandertal, tomó sus primeras lecciones de paleontología humana. No fue solamente como curador de museo, sino que realizó un verdadero trabajo de campo y tomó parte en las excavaciones de las cuevas del noroeste de España. Los críticos de Teilhard de Chardin, que abundan, y que lo han acusado de toda blasfemia posible contra la ciencia, también han visto su trabajo como “poético” y han argumentado que su tendencia teológica es 55 Este concepto puede ampliarse a la botánica y así, a cada paso evolutivo de la fauna de un nicho ecológico, correspondería un paso evolutivo de la flora. 132 antihistórica, tanto en el plano evolutivo como en humano. A pesar de todo, si algo informa el pensamiento de Teilhard de Chardin, es la historia. Su vida, como la de muchos de aquellos que pertenecieron a su generación, fue intersectada por las dos catástrofes centrales del siglo XX: las dos guerras mundiales. Lejos de ser un espectador de ambos acontecimientos, fue un activo participante por lo menos en la Primera guerra mundial; en realidad, si algo interrumpió su investigación científica, fue su labor como camillero en esta guerra. John Keegan, uno de los principales historiadores de lo militar, se refirió a la Primera guerra como “un conflicto trágico e innecesario”, “una cadena de eventos que pudo ser prevenida” y la cual “dio fin a la vida de diez millones de personas, torturó la vida emocional de millones más y destruyó la benevolente y optimista cultura del continente europeo y dejó, cuando las ametralladoras al fin se silenciaron, un legado de rencor político y odio racial tan intensos, que no es posible esperar ninguna explicación de la Segunda guerra que no tenga referencia a esas raíces.” Teilhard de Chardin fue un testigo de primera mano de esta tragedia, la cual catalizó su visión final, una visión que requirió “una vida cósmica” (como tituló su primer ensayo) para expiar la brutalidad del hecho. De esta manera, las ideas de Teilhard de Chardin son, entre otras cosas, intentos de proyectar el medio científico en un contexto social. Más tarde, cuando Teilhard de Chardin vio el inicio de la Segunda guerra y visualizó toda la pesadilla otra vez, ahora con su enfoque firmemente asentado, pudo escribir un conmovedor ensayo tratando de interpretar la guerra. “El momento de la elección” como se tituló el ensayo, es impactante, no a causa de su optimismo –una razón más que los críticos de Teilhard tienen para rechazar su trabajo– sino porque su interpretación del conflicto es casi presciente de la manera en que ahora se ve el conflicto, puesto que 133 concuerda casi a la letra con la mayoría de las interpretaciones que los historiadores ofrecen hoy día. Teilhard vio la Segunda guerra mundial como un conflicto entre el “internacionalismo”, entre una cultura cosmopolita y el nacionalismo, la “fragmentación reaccionaria de los grupos étnicos en nombre de la historia.” En el pensamiento teilhardiano, las dos guerras mundiales llevaron a la necesidad de una ciencia que pudiera tener algún contexto social y una visión que eliminara de la evolución lo calamitoso y pesimista. Que diera una visión que en lugar de considerar a la “humanidad” como “las lianas de un tronco que aumentan con el agotamiento del mismo tronco al que matan mientras crecen”, viera a esta humanidad como un “organismo que obedece” las “más inequívocas leyes del universo”: “no más como una sucesión de eliminaciones, sino como una confluencia de energías”. De cualquier modo, Teilhard emprendió también un trabajo más científico después de la Primera guerra mundial. En los años que siguieron, pudo estudiar en La Sorbona y escribió en 1922 su tesis sobre “Los mamíferos del Eoceno superior en Francia”, enseñó y trabajó en China56. Fue con el primer intento de sintetizar la teología con la ciencia cuando empezó a sentir la presión de los jerarcas de la Iglesia. Después de presentar un documento sobre “El pecado original”, Teilhard perdió su cátedra y fue exiliado a China. El documento, como casi todo el trabajo de Teilhard, permaneció inédito hasta después de su muerte, pero es importante que el lector tenga una clara visión de su interpretación de las Escrituras. Teilhard de Chardin no era un literalista. A diferencia de muchos creyentes que hoy todavía son, 56 En este país, Teilhard de Chardin entre otros trabajos e investigaciones participó en el equipo que descubrió el cráneo del Sinanthropus u hombre de Pekin en diciembre de 1929, siendo el encargado de fechar el depósito en el cual fue encontrado. 134 en nombre de los creacionistas, incapaces de reconciliar el hecho científico con sus creencias religiosas, Teilhard entendió el hecho científico como tal, y vio en la Escrituras una descripción popular de este hecho y de todos los fenómenos que lo rodean. Así, para Teilhard, lo supremo de la teología cristiana, la caída del Edén, no es un evento literal, sino una figura que representa la necesidad de redención. En el fondo, Teilhard comprendió el pecado original como lo simbólico de los “contratiempos” en la historia de la humanidad. Y puesto que él visualizó la historia de la humanidad como sujeta a las mismas “leyes”, como siguiendo la misma dinámica de la historia del universo, entonces comprendió la caída como lo emblemático de las muchas “crisis” que se encuentran en cualquier proceso.57 El ensayo es fundamental para un entendimiento pleno de Teilhard de Chardin, pues no solamente clarifica la manera en la cual interpreta la ciencia y la escritura, sino que también establece tres temas verdaderamente importantes. Primero, la historicidad de la vida. Para Teilhard, la vida ocurre en el tiempo, y el tiempo tiene que tomarse en su acepción más amplia, como un tiempo cósmico, geológico o como lo llamó en su ensayo “El misticismo de la ciencia”, “un tiempo orgánico”. En pocas palabras, si uno quiere entender a Teilhard de Chardin, tiene uno que pensar en un “tiempo ilimitado”,58 una cronología que abarca el total de la historia cósmica.59 57 Con esto, Teilhard anticipa el concepto de una ciencia importantísima que habría de desarrollarse con el advenimiento das computadoras, la ciencia del Caos o la ciencia que estudia el comportamiento de los sistemas dinámicos no lineales. 58 Este concepto de tiempo ilimitado o infinito, se puede ver confirmado en el libro “The End of Certainty” del notable científico y premio novel Ilya Prigogine, quien afirma que “el tiempo ha existido y existirá por siempre” 59 La historia cósmica no empieza ni termina con el actual universo, pues si como veremos, todos los procesos son fractales, es, ha sido y será una serie de universos que tienden a unirse y en cada repetición empiezan con diferentes parámetros, cada vez más complejos en una secuencia que no tiene final. 135 Segundo, el ensayo establece que el tiempo, en lugar de ser una flecha que apunta en una dirección, es más como un proceso mental; en otras palabras, es una proposición inicial que sucede en múltiples pasos, y que en cada paso es informada por el índice y la bibliografía completas de la cual el pensamiento no sólo toma el conocimiento sino que lo ramifica.60 A medida que cada rama aparece, la idea aparenta estancarse o dispararse en diferentes direcciones. De hecho, si uno quiere encontrar una concepción similar del tiempo en nuestro siglo, es necesario recurrir a la literatura61, y no precisamente a la visión de Proust, donde la memoria y el arte recapturan los momentos perdidos, sino a la biblioteca borgesiana, donde el emblema universal no es el hombre –cerca de la extinción– que sólo es un accesorio de la biblioteca que sobrevivirá pese a las extinciones: “iluminada, solitaria, infinita, perfectamente inmóvil, armada de volúmenes preciosos, inútil, incorruptible, secreta”. 60 Aquí se puede captar un concepto que veremos más a fondo, la noosfera teilhardiana, pero no solo privativa del hombre, sino ampliada a cuanto ser existe, desde las partículas elementales hasta el universo mismo. 61 Y no sólo a la literatura, puesto que se puede ver un concepto similar en el reciente libro del físico Julián Barbour, The End of Time 136 6 EL ABISMO DE LA SÍNTESIS: EL FENÓMENO HUMANO COMO UNA HISTORIA UNIVERSAL Aunque parece ser antigua, la idea de una historia universal, una historia que abarque toda la existencia humana es, por el contrario, una idea relativamente reciente. Los más prominentes historiadores Griegos se concentraron en sucesos fundamentales, más allá de los caracteres de la vida. Herodoto, el llamado padre de la historia, escribió sus laberínticas y fascinantes crónicas sobre las Guerras Persas. Tucídides, una mente completamente diferente, cuyo propósito era escribir un libro para las épocas, se enfocó en un suceso promordial el cual explicó el fin de lo que conocemos como la Grecia clásica: la Guerra del Peloponeso. De igual manera, los historiadores Romanos, aunque fueran tan vastos como Tácito, o tan familiares como Suetonio, tendian a registrar acontecimientos que estaban dentro de una reducida esfera de acción. Plutarco y Suetonio son más afines a lo que llamamos ahora biógrafos en sus narrativas. Tácito rara vez se desvió fuera del Imperio. Si uno se desentiende de las raíces y del significado original de la palabra historia –que viene del Griego y significó búsqueda, investigación– y si uno deja la tradición histórica grecoromana y mira hacia otras culturas, el impulso de una historia universal siempre es predominante, aunque este predominio no divorcia la cronología de los historiadores grecoromanos del mito, la superstición y la poesia. Incluso, es imposible examinar la Biblia y los diferentes textos sagrados para otras religiones, sin encontrar en sus 137 genealogías no sólo la cuenta de la descendencia, sino también una historia que si no es del todo exacta y está permeada por el mito, intenta cumplir el papel de una historia universal. Agustín de Hipona fue quizá uno de los primeros –y definitivamente uno de los primeros que aún se sigue leyendo– que se esforzó hacia una reconciliación de los fríos y duros hechos de la razón en la tradición grecoromana con la ambición grandiosa de los escribas Bíblicos. Su Ciudad de Dios, aunque no fue significativo como historia, sino como un tratado que justificaría la cristiandad, nos dió el primer vislumbre, tanto de las posibilidades como de los riesgos inherentes a la forma de una historia universal. La Ciudad de Dios de San Agustín, está dividida en 22 libros y aunque pudiera parecer algo rudo si uno no considera su contexto (fue escrito justo después de que las tropas de Alarico saquearan Roma) y a pesar de que no es significativo como una obra de historia estrictamente o que apunte hacia a ella, cada libro contiene lo suficiente. De hecho, es posible dividir la obra en dos partes, viendo los primeros diez libros como unas historias cuasi-antropológicas en las que San Agustín explica largamente la historia y las costumbres de las comunidades paganas. La segunda parte, los últimos doce libros, parecen ser la antítesis de los primeros diez en cuanto a que son la “verdadera” historia de la humanidad, desde el Génesis hasta el Juicio Final. El argumento de La Ciudad de Dios tendría una gran influencia durante la Edad Media. Muchos vieron su cronología como un pronóstico de una larga cadena de potentados, reyes y papas. Sin embargo no sería el contenido del libro, sino su espíritu, el que daría lustre, el que brillaría con fuerte luz en el escolasticismo, puesto que dicho espíritu es sintético, es un intento de tomar una tésis y una antítesis, y ver el resultado final, o sea lo 138 que llamamos una síntesis. San Agustín no usó tal terminología, aun cuando, como retórico, debió estar familiarizado con ella. En realidad, la idea de tésis, antítesis y síntesis, no entraría en el discurso filosófico con la fuerza que tuvo a partir del Siglo de las Luces, hasta Hegel. Tomás de Aquino, por supuesto, emplearía a Aristóteles para reconciliar la fe y la razón. Y el más destacado logro literario de la Edad Media, La Divina Comedia de Dante popularizaría la tipología de la vida trascendente, con una fisonomía histórica que volvería a los caractéres biblicos, a los griegos y a los romanos, y que también incluyó su largo catálogo de papas, lores, etc. Si algo pudiera hacer que esta esperanza de una historia universal disminuyera, habría que esperar al Renacimiento. Los pensadores renacentistas abandonaron el escolasticismo medieval y retornaron a la Antiguedad por sus modelos, y vieron en los modelos y objetivos griegos y romanos, una concepción racional del mundo. Ciertamente, en la historia de la humanidad, la búsqueda de los inicios es por lo general infructuosa, pero para los pensadores del Renacimiento, si el advenimiento del pensamiento “racional” o, más precisamente, del logos, y la decadencia del pensamiento mitológico, pudiera señalarse con precisión, se podría fijar a principios del siglo VI a.C. en el Mileto Jónico, con hombres como Tales, Anaxímenes y Anaximandro. Estos hombres, de acuerdo con sus herederos renacentistas, marcaron un nuevo camino sobre cómo pensar acerca de la naturaleza e hicieron de esto el objeto de una destacada investigación sistemática (una historia) y ofrecieron una visión comprensiva de ella (una teoría). Las explicaciones que ofrecieron sobre el origen del mundo, su composición y su estructura, asi como de los fenómenos meteorológicos, no estuvieron influenciadas por la dramática maquinaria de las más tempranas teogonías y cosmogonías. 139 El Renacimiento fue, por supuesto, la idealización del pensamiento y de los pensadores de la Antiguedad. No obstante, esta idealización estableció los principios para cualquier historia universal, o de todo lo que viniera a ser historia en el futuro. Los agentes sobrenaturales cuyas aventuras, luchas y proezas formaron la red de los mitos de la creación, que trazaron la emergencia del mundo y del establecimiento del orden, no fueron ya permitidos, ni siquiera una referencia a los dioses que estuvieron ligados a las fuerzas de la naturaleza por la creencia y observancia de una religión oficial. El gran cambio paradigmático que llamamos Renacimiento, en otras palabras, impuso un espíritu de positivismo. Nada existe que no sea naturaleza. Los mundos natural y humano hacen un solo mundo, la manera en la cual la naturaleza ha venido a ser comprensible para el ser humano. El espíritu positivista del Renacimiento ha participado en toda tentativa humana desde entonces, cuando esta tentativa es filosófica, histórica, etc. Mucho de lo que hemos visto en este libro, la teoría de la evolución, la física, etc., son descendientes directos del espíritu del Renacimiento. Sin embargo, cuando uno ve las obligaciones que este positivismo impone sobre las diferentes disciplinas, sorprende el hecho de que tantos intelectos sigan aún persiguiendo el sueño de una vasta historia. El Siglo de las Luces pudo producir, por supuesto, trabajos monumentales y enciclopédicos como Decline and Fall of the Roman Empire de Gibbon, pero si algun nombre pudiera sobresalir como autor del primer intento disciplinado de reunir una historia universal, sería el de Giambattista Vico (1668-1744). Dentro de la historia de las ideas, ciertamente Vico tiene un papel especial, pues las suyas han sido adoptadas en muchos campos ideológicos, tanto que ahora es dificil tener un claro sentido de su proyecto. La principal ambición de Vico fue reunir la historia humana y proveer una 140 nueva filosofía para esta historia redefinida, para formar una visión unificada del hombre y del mundo. Él realizó esta hazaña en un complejo y al parecer mal escrito libro titulado Principi de una scienza nuova d´intorno alla comune natura delle nazioni (1725). Irónicamente –casi como una prueba de que el mundo poco ha cambiado desde los días de Vico– “La ciencia nueva” tuvo grandes dificultades para ser publicada, no a causa de lo mal escrita, sino por sus méritos, sus cualidades. El libro de Vico vio a la humanidad –a las naciones, a las civilizaciones, a las culturas– como pasando por estados progresivos, de la bestialidad a una alta civilización y después hundiéndose en el barbarismo. En otras palabras, Vico fue pionero en iniciar la tradición en la que la historia no solamente es una cronología o una acumulación de datos, sino una serie de estados, de ascensiones y caídas. Esta tradición en la historia de buscar patrones y señalar estados va de la mano con su utilidad para aprender y predecir, y Vico fue también pionero en esto. Asi, investigando los diferentes estados de la historia humana, llegó a su más “escandalosa” predicción cuando dijo que el segundo barbarismo se tragaría las civilizaciones después de que éstas alcanzaran su cumbre y que sería peor que el primero, con el que habían empezado. Vico argumentaba que los barbaros originales poseían toscas virtudes, mientras que a los últimos no les quedaba ninguna, y mientras su visión de dos barbarismos interrumpidos, el principio y el final de la civilización, parecería artificial en nuestros dias, hay una especificidad en el escrito que parece presciente en su intuición psicológica. Para el segundo barbarismo que él predijo, Vico argumentaba que la vida en las ciudades atestadas produciria hombres incrédulos, que estimarian el dinero como medida de todas las cosas, que carecerían de 141 cualidades morales, particularmente de modestia, de responsabilidad familiar y de valor civil. Emancipados de la ética vivirian en la delación y el engaño. “La ciencia nueva” ha tenido una extraña vida. Vico murió a mediados del siglo XVIII, no completamente en el olvido, pero si definitivamente ignorado de una manera que no merecía. En realidad, si algún reconocimiento se le hizo, éste llegó durante el siglo XIX, cuando historiadores como Michelet encontraron sus métodos y su ambición, afines a sus propios proyectos. “La ciencia nueva” debió haber influenciado la visión de los procesos historicos tanto en Hegel como en Marx, aun si en sus trabajos parecen contradecir algunas de las premisas de Vico. Ironicamente, por supuesto, el siglo XX ha tenido más que equívocos. Pocos pensadores se han suscrito a la idea de contemplar la historia como una sucesión de estados; en cambio, la mayoria ha escojido ver la historia como transformaciones temáticas. Por ejemplo, uno de los más eminentes historiadores, Philipe Aries, ha escrito una historia de la niñez y una historia de la muerte, el resultado, en su caso, ha sido siempre satisfactorio. En otros casos, difícilmente ha sido así. La Histoire de la Sexualité de Foucault, desafortunadamente un libro mucho más influyente, esta lleno de inexactitudes y artimañas tan torpes, que los estudiantes de primer año de historia serían reprendidos si las tomaran en serio. La perspectiva temática de la historia ha sido una reacción contra el determinismo; sin embargo, aquellos cuyo trabajo en la vida ha sido una prolongada batalla contra este determinismo, son algunos de los más ardientes defensores del trabajo de Vico y lo que elogian de él no es su visión de la historia, ya que si bien es central, se las han arreglado para ignorarla, sino sus ideas antropológicas y étnicas. El primero entre los partidarios de Vico ha sido el filósofo de Oxford nacido en Letonia, Isaiah 142 Berlin, cuya obra, Historical Inevitability, publicada en 1955, se mantiene junto a The Poverty of Historicism y The Open Society and its Enemies de su colega Karl Popper, como texto principal en la crítica del determinismo. Más tarde, libros como The Age of Enlightenment y Four Essays on Liberty, desarrollarían un esfuerzo antideterminista, puesto que Berlin vió al determinismo como la semilla de las sociedades totalitarias y mecanizadas. No tenemos mucho espacio para ver cómo este argumento es digno de elógio, porque es imposible negar que el determinismo ha tenido, como muchas otras ideas, repercusiones históricas nocivas. La retórica de Hitler, Franco, Mussolini y Stalin estuvo completamente impulsada por una visión determinista de la historia. A pesar de todo, tal como los actuales marxistas se han aficionado a recordarnos, existen algunas formas y manifestaciones de un marxismo vulgar, que excluyen a pensadores como Adorno, Benjamin y Gramsci, e igualmente la crítica de Isaiah Berlin al determinismo falla al no ver que hay un determinismo vulgar y un determinismo educado. Su valoración de Vico es el caso en cuestión. En un ensayo completo y lleno de intuición, se las arregla para ignorar lo que constituye el esquema central de Vico: la división de la historia en estados que se parecen unos a otros; en cambio, alaba la visión antropológica de Vico, su habilidad para ver cómo “la experiencia de una sociedad particular” puede ser determinada por sus “mitos, formas de trabajo o lenguaje”. De acuerdo con Berlin, esta sensibilidad “abre nuevas puertas”, “desacredita la idea de que en la naturaleza humana hay algo como una parte estática espiritual, inalterable y eterna.” La interpretación de Berlin le dá a Vico el mérito cuando es debido, pero se maneja a modo de estropearle su principal argumento, de que “cada estado de civilización genera su propia arte, su propia sensibilidad e imaginación”, y como Berlin lo presenta, debe deducirse que para Vico no 143 hay “parte espiritual de una eterna e inalterable naturaleza humana”. Vico vió en el lenguaje, en la costumbre y el mito, como dijo en sus propias palabras “principios generales”. Más aún, vió estados, el crecimiento y la decadencia de cada cultura, como predeterminados. Así, el elogio de Berlin es, a la par que muy brillante, prejuicioso. Como tantos de los muy inteligentes pensadores que hemos encontrado a lo largo de este libro, ha desfigurado una idea en aras de adaptarla a sus necesidades políticas e ideológicas. Y mientras que su política e ideología fueron nobles, la perversión no fue menos deshonesta y perjudicial para una larga influencia establecida, como la de Vico, una influencia que participó mucho en el pensamiento del siglo XIX. Así, las ideas de Vico fueron manipuladas y frustradas por uno de los más importantes pensadores del siglo XX, sólo porque este pensador tenía cuentas que arreglar con el determinismo. Entonces, imaginemos lo que le puede suceder a un recien establecido y revolucionario pensamiento en nuestra época, o peor, imaginemos cómo sería interpretada una historia universal de un Vico actual, si este historiador intentara contribuir a la moderna ideología. La imaginación suele ser sometida algunas veces a duras pruebas, pero para imaginar qué le sucedería a una nueva, revolucionaria, reveladora historia universal, es suficiente seguir el destino de El fenómeno humano, y mientras que Vico tuvo que recurrir a la escrituras biblicas y a otras historias infectadas con mitos, y considerando que sólo trato con la historia y nunca se explayó en la prehistoria, el libro de Teilhard de Chardin es una verdadera historia universal. Más aún, El fenómeno humano es una historia universal que excluye los hechos historicos conocidos, en aras de explicar cómo los hechos desconocidos de la evolución y la cosmología forman nuestro presente y formarán nuestro futuro. 144 Pero ¡ay! como “La ciencia nueva” de Vico, El fenómeno humano ha sido mal entendido, mal citado y demasiado calumniado. Ya hemos visto cómo Simpson y Medwar lo ignoraron, diciendo que es una colección de “tediosos conceptos metafísicos”. Como quiera que sea, aun algunos de los defensores de Teilhard han malentendido y desfigurado su pensamiento. Robert Right lo ha visto como “el profeta de la globalización”, una etiqueta totalmente reductiva, tan torcida por la ideología política actual que no es de sorprender que Teilhard salga con cajas destempladas en los círculos serios. La gobalización no es más que un eslogan político de hoy, una palabra conocidísima con la que los políticos han logrado situar mejor en el mercado a las grandes corporaciones. Teilhard de Chardin indica que el pensamiento debería “converger”, como veremos en breve, al tratar su argumento en forma mucho más profunda. En verdad, uno no debe confundir la globalización, esa nueva codicia de las corporaciones, con el pensamiento verdadero. Que la Coca Cola haya llegado a Boroboro o a Ciskei, es un hecho que no debe llenarnos de orgullo y definitivamente no tiene nada que ver con el pensamiento. Teilhard de Chardin, con certeza, no es un profeta del beneficio económico. Otros pensadores le han atribuido distintas profecías, como los medios de comunicación instantáneos y el internet. Y aun cuando Teilhard pueda estar de acuerdo con cualquier manera en que se difunda la información, siempre que sirva para llevar más lejos a la humanidad, estos partidarios se equivocan al ver que, a diferencia de la mayoría de los profetas de la era de las comunicaciones, a diferencia de los Marshall McLuhan del mundo, que gustan de los medios de comunicación y se mueren de risa por su contenido, el principal interés de Teilhard no son los medios, sino el fin. Brevemente, él está más interesado en el contenido de la información que en los medios por los cuales se distribuye. 145 De la misma manera, otros pensadores han reducido las ideas que subyacen en El fenómeno humano y lo han visto como una simple emulación y aun como un plagio del pensamiento Oriental con el cual Teilhard llegó a familiarizarse durante sus años en China. Y mientras que algunos escritores están en lo correcto al señalar similitudes y parecidos, El fenómeno humano, en su proyecto y en su ambición, así como en sus antecedentes históricos, es un libro completamente Occidental, que se maneja para cumplir la meta incumplida de una historia universal, y hace esto por medio de la ciencia. Como hemos visto anteriormente, la ciencia en El fenómeno humano ha sido a menudo cuetionada, y como anunciamos, los siguientes capítulos estarán dedicados a revisar las predicciones y las afirmaciones de Teilhard, comparadas con las más recientes interpretaciones de las diferentes ramas de la ciencia. Por ahora, nos gustaría colocar a El fenómeno humano en una correcta perspectiva, para lograr esto, requerimos ver el libro, no como el intento desesperado de un creyente de reconciliar la ciencia con la fe, ni como una chapucera lección o interpretación de la evolución, y definitivamente tampoco como un plagio de otras filosofias o ideas religiosas. Si algo es El fenómeno humano es un libro occidental post-Siglo de las Luces. De hecho, sus dos premisas centrales lo colocan exactamente en medio de la tradición tardía occidental. La primera de estas premisas, prácticamente, parece afín a las ideas que discutimos previamente en este capítulo. Teilhard de Chardin, como los pensadores del Renacimiento que trataron de concebir la naturaleza y al hombre siguiendo el pensamiento griego, asume que la humanidad es, como el título del libro sugiere, un fenómeno.62 Tanto para la ciencia social como 62 Fenómeno, como la apariencia sensible o la manifestacion de la realidad; o al hecho al que puede ser considerado idéntico. También la definición kantiana de que fenómeno es 146 para la ciencia natural, esta premisa es básica. Para que ambas tengan principios sobre los cuales trabajar, tienen que suponer que existen algunos patrones en el cuerpo humano, células humanas y comportamiento humano que pueden ser estudiados. Lo que alinea aún más a Teilhard con la tradición Occidental es su intento de amalgamar o sintetizar las dos tradiciones. Así, mientras el libro estudia a los humanos no como un misterio, no como algo irresoluble, sino como un fenómeno, como algo que puede ser estudiado y puesto que este estudio puede ser consumado mediante el uso de métodos históricos, mediante el uso de eras y cronologias, esta historia debe analizarse bajo el microscopio de la ciencia. En otras palabras, El fenómeno humano es una historia, una verdadera historia universal, que traza el surgimiento de la materia y de las fuerzas que controlan su comportamiento; esboza los cambios geológicos que no sólo definen la superficie del planeta, sino las condiciones geológicas que permitieron la emergencia de la vida, finalmente, subraya la emergencia y la evolución de la vida. Esta historia llega a su fin cuando surge el pensamiento autoconsciente, pero si hay algo importante y revolucionario acerca de la historia no son sus pormenores: Teilhard no es como Gibbon o como Michelet. Más cercano a Vico, se interesa en una visión panorámica, en una visión global de etapas y patrones. A diferencia de historiadores previos, aun de historiadores naturalistas, no basa su cronología en hipótesis, sino introduciéndose en cada etapa por medio de su segunda importante premisa. El fenómeno humano concibe la historia como una manifestación de la evolución. A diferencia de la mayoria de los científicos que, en este punto, sólo aplican la teoría evolucionista a la vida en la Tierra, Teilhard vió la lo que no pertenece al objeto en sí mismo, sino que se encuentra siempre en su relación con el sujeto y es inseparable de las representaciones de éste. 147 evolución trabajando no únicamente en la polimerización de una cadena de proteínas que dieron paso a la vida en el universo, sino también en la existencia de la materia inorgánica, en la formación de las galaxias y el sistema solar y, por supuesto, en la formación de la litosfera, la hidrosfera, la atmósfera, etc. De hecho, una buena tercera parte del libro explica largamente lo inorgánico. El enfoque de Teilhard de Chardin en la materia inorgánica no es solamente un intento de sostener sus puntos de vista. Es en la materia donde él encuentra algunos de los principios básicos que guiarán sus interpretaciones de la evolución. Como muchos de sus ensayos atestiguan, aunque no era un especialista, Teilhard era más que un enterado en la relatividad y la mecánica cuántica, por lo que los principios que sigue en su historia de la materia, son principios sobre los cuales todos los científicos deben estar de acuerdo. Teilhard vió la materia con tres cualidades inherentes. De la relatividad especial, él sabía que la materia es energía “congelada”. Toda la materia es energía; no obstante, o más bien, porque es energía congelada, la materia se manifiesta en diferentes formas. De la física de partículas, Teilhard sabía que la materia es, por decirlo a su manera plural y atomística. Lo segundo se refiere al mundo fragmentado del quantum, el mundo del cual Teilhard conocía su falta de sentido –cuando inició el libro, la ciencia cuántica se encontraba en un estado aparentemente caótico. No obstante, sostiene que, pese a la fragmentación, la materia está unificada en lo más profundo, y para atestiguar esta unidad recurre al hecho de que pese a su “fragmentación y pulverización”, la materia obedece siempre las mismas leyes y manifiesta el mismo comportamiento. La cualidad tripartita que Teilhard vió en la materia, lo condujo a pensar que está naturalmente alineada a lo largo de dos ejes. La materia 148 puede acumularse, aglomerarse, o puede fragmentarse. Para Teilhard, estas dos solas cualidades de la materia son suficiente señal para que vea una especie de evolución. La materia obedeciendo ciertas leyes, tiende a formas cada vez más complejas: Observada en su parte central, que es la más clara, la evolución de la materia se concreta, conforme a las teorías actuales, en la edificación [en la construcción] gradual, por creciente complejificación,63 de los diversos elementos reconocidos por la fisica y la química. En la parte más inferior, para empezar, una simplicidad todavía sin resolver, indefinible en forma de figura [en términos de figura], de naturaleza luminosa. Después, bruscamente [de repente], un hormigueo [una multitud] de corpúsculos elementales positivos y negativos (protones, neutrones, electrones, fotones…), cuya lista va aumentando sin cesar. Después, la serie armónica de los cuerpos simples, situados, desde el hidrógeno hasta el uranio, sobre las notas de la escala atómica. E inmediaramente la inmensa variedad de los cuerpos compuestos, en que las masas [pesos] moleculares van ascendiendo hasta un cierto valor crítico, por encima del cual, según veremos, se pasa a la vida. Ni uno solo de los términos de esta larga serie puede dejar de ser considerado, de acuerdo con excelentes pruebas experimentales, como un compuesto de núcleos y electrones. Este descubrimiento fundamental, de que todos los cuerpos derivan [deben su origen] por ordenación [a los arreglos] de un solo tipo inicial corpuscular viene a ser el rayo [de luz] que ilumina ante nuestros ojos la historia del universo. A su manera la materia obedece, desde el origen [desde su principio], a la gran ley biológica (sobre la cual debemos insistir 63 Los parrafos de Teilhard de Chardin que reproduciremos, serán tomados de la traducción al español que fue publicada por Taurus Ediciones (1963) Madrid, y con la siguiente técnica: la palabra subrayada ha sido cambiada para darle congruencia al texto (aquí por ejemplo, en la traducción original la palabra empleada es, complicación) y lo contenido entre corchetes [ ] está tomado de la traducción personal de la versión en inglés publicada por Harper & Row (1965) Londres, con el único propósito de aclarar un poco la traducción original que algunas veces confunde los de por sí densos y difíciles párrafos de Teilhard de Chardin. 149 constantemente) [a la cual recurriremos una y otra vez], de [la ley de la] “complejificación”.64 Para muchos, el “acrecentamiento” –que para Teilhard de Chardin parece significar “aumentar mejorando”– de la materia, no es suficiente evidencia de evolución y Teilhard debió estar consciente de ello. Sin embargo, debemos recordar que el espíritu de El fenómeno humano es histórico y, como buen historiador, Teilhard no podía ver el pasado como una mera colección de fenómenos aislados, sino sólo considerarlo a la luz de sus resultados. Así, puesto que esta aglomeración, este “acrecentamiento” o acumulación de materia finalmente permitió la polimerización65, Teilhard la considera como parte central de la evolución. Su argumento no debe ser malentendido como post hoc, ergo propter hoc, es decir como una vulgar falacia; Teilhard está consciente de que en esta acumulación de elementos, en este “acrecentamiento” de partículas, hay muchos caminos falsos y malos finales. De hecho, El fenómeno humano dedica unos pasajes bastante largos 64 Aparece por primera vez esta palabra, que en la época en la que fueron publicadas las traducciones, era, por lo menos en inglés, la forma sustantiva del poco común verbo compexify, hacer complejo, lo que significa también en español, pero en el vocabulario teilhardiano la complejidad se refiere a la interrelación de los elementos que conforman un sistema, y para comprender en su profundidad este párrafo es necesario considerar la complejidad como lohace una rama descendiente de la ciencia del caos, que describe las configuraciones cruciales como complejidad. Este concepto propone como principio que el crecimiento autónomo de la simplicidad a la complejidad solo ocurre en el vértice entre el orden y el desorden. Por ser todo estos conceptos de fundamental importancia en el pensamiento Teilhardiano, y porque en su época no existian estas ciencias, requieren de una monografía especial que no cabe en el contexto de este trabajo. 65 Aquí el sentido de polimerización significa que la unión de moleculas llevó a la formación de polímeros, que son sustancias químicas de naturaleza orgánica compuestas por largas e intrincadas cadenas de átomos. Los polímeros presentan una elevada inercia de reacción y son inatacables por los ácidos y los agentes atmosféricos. Son también flexibles, resistentes a esfuerzos y golpes, de bajas densidades, fáciles de moldear por no tener un punto determinado de fusión, sino una franja de temperaturas en la cual se convierten en materiales viscosos y blandos. 150 a los cristales y la manera en la cual, en ellos, el “acrecentamiento” de partículas parece seguir una vía que está “cerrada” prematuramente para su evolución. Como las ideas de cualquier pensador importante, las de Teilhard tardaron bastante en plasmarse, pues involucraron diferentes comienzos y muchos fallidos intentos en abundantes escritos preliminares para llegar a El fenómeno humano. Y puesto que el libro es, por necesidad, bastante elíptico en ciertos puntos, algunos de los ensayos que lo precedieron parecen arrojar bastante luz sobre lo que Teilhard argumenta. Si algunos lectores están aún convencidos de que su razonamiento es post hoc, ergo propter hoc, debería ser suficiente añadir que él estaba convencido que en la manera como la ciencia ha entendido e interpretado el mundo, la vida no sería posible. Por lo tanto su particular interpretación de la evolución implica el impulso de una fuerza más, diferente a las otras cuatro fuerzas de la naturaleza que ya hemos visto. Antes de adentrarnos en los detalles, en la precisión y la necesidad del argumento de Teilhard, debemos seguir su pensamiento lógico en otro ensayo. Por ahora nos limitaremos a señalar que para Teilhard, la evolución es solamente la manifestación de esta otra fuerza. En L´atomisme de l´espirit Teilhard de Chardin nos pide imaginar cuán increíble, cuán lejos del sentido común parece estar la “estructura molecular” de nuestros cuerpos. A primera vista, somos una totalidad, nuestra sola fragmentación presagia la muerte. No obstante, la ciencia nos ha dicho que “la condición fundamental de nuestras vidas” es molecular: sólo somos una colección de moléculas. De la misma manera, Teilhard de Chardin nos pide, insistimos, ponderar cuan increible parece la flexibilidad y la expansión del universo. Brevemente, para Teilhard de Chardin un sólo cambio de perspectiva, una sola mirada cercana al micromundo o una contemplación del cosmos cambia la manera en que nos definimos; ambos 151 mundos, de acuerdo con Teilhard de Chardin y de acuerdo también con muchos otros científicos, parecen prohibir la vida. O, como Teilhard de Chardin elocuentemente declara, el universo de los físicos está construido “a lo largo de unos ejes espaciales, y es precisamente a lo largo de estos ejes que la vida no puede aparecer”. No hay vida en las partículas y no hay vida en el cosmos, al menos no si lo vemos desde las puras relaciones espaciales o matemáticas. Asi, lo que Teilhard de Chardin nos pide, es imaginar lo siguiente: si tenemos la buena disposición de aceptar las pasmosas conclusiones a las que la ciencia ha llegado en el último siglo, la irracionalidad tanto del quantum como de la relatividad, lo extraño del comportamiento de una partícula o de la relatividad del espacio-tiempo ¿porqué, ante la testificación que hace la Vida de si misma nos sorprendemos tanto? ¿por qué somos hasta ahora tan mordaces contra la idea de que existe otra dimensión?66 Una vez que el avance ha sido afectado sobre nosotros mismos, pasando por lo muy grande y lo muy pequeño y permitiendo así a los ejes de lo complejo un libre paso, un nuevo medio cósmico se crea por la añadidura de esta dimensión adicional; y en este medio, la vitalización de la materia deja inmediatamente de parecernos algo enigmático o inexplicable. Por el contrario, nos parece tan `natural` como la variación de la masa con las altas velocidades o la aparición de las muy grandes distancias por efecto de la relatividad. El ensayo de Teilhard a primera vista puede parecer un el fragmento de un razonamiento sofista, pidiéndonos considerar con especial cuidado cómo parecen irracionales los descubrimientos de la ciencia y proponiendo 66 De hecho, la teoría de las supercuerdas, la mejor candidata para sustituir el modelo estándar de la física cuántica, habla de partículas que existen en un "universo" de 10 152 entonces otra idea menos “irracional”. Sin embargo, la conclusión de Teilhard de Chardin no sólo no es una chapucería lógica, no: él nos ofrece una solución real, defendible, de lo que para muchos parecia irresoluble. Y parafraseando los comentarios de David Z. Albert sobre la onda pilóto de David Bohm, su solución es simple, elegante. De acuerdo con Teilhard de Chardin, para entender el fenómeno de la vida y para entender el fenómeno humano debemos verlo y vernos como el amalgamiento, la combinación, la síntesis de la aglomeración encontrada en las densidades de las estrellas y el espacio, así como de la complejificación del nivel microscópico. Esta síntesis, de acuerdo con Teilhard de Chardin, ocurre porque otra dimensión funciona gracias a la organización y se manifiesta a sí misma como complejidad. Teilhard de Chardin añade otra posibilidad a los múltiples senderos evolutivos. Las leyes de la naturaleza como las conocemos, sin contar con la dimensión extra que Teilhard de Chardin postuló, permiten a la materia inorgánica llegar a dos resultados: a formar objetos realmente grandes o extremadamente pequeños. La otra dimensión permite seguir una pista evolutiva diferente: los objetos pueden llegar a ser realmente simples como el hidrógeno o extraordinariamente complejos como el cerebro. Para Teilhard de Chardin la complejidad todavía no había sido sondeada por los humanos pese a nuestras invenciones, nuestra tecnología, etc. Él no era, como mucha gente da por sentado, del tipo de científico que hace descripciones exageradas de los esquemas para colocar al hombre en la cima. De hecho, si vamos a entender la complejidad como Teilhard la entendió, solo podremos hacerlo si la vemos como la manifestación de la dimensiones 153 otra dimensión que mencionó en L´atomisme de l´spirit o mejor aun, como la energía que realmente forma el corazón de su pensamiento; a saber, la que llamó energía radial. Los científicos usan el término energía radial para identificar una energía completamente diferente, por lo que para entender lo que Teilhard de Chardin intentó definir, debemos echar una ojeada al ensayo en el cual empezó a entrever esta energía. Como el ensayo al que nos referimos antes, este, titulado Note sur la divine action dans l´universe precede a El fenómeno humano y debe verse como una de las muchas semillas del gran trabajo. Como tal, el núcleo produjo todo un fruto, y es además suficientemente notable por sí mismo. En el ensayo, Teilhard inicia con una analogía: Una comparación puede ayudar para darnos cuenta en forma más concreta de la reflexión que sigue. Imagine una esfera y dentro de ella un gran número de resortes empaquetados juntos. Por otra parte, permitamos a los resortes expandirse o contraerse espontaneamente. Tal sistema puede representar el universo y la multitud de actividades [dentro de él]. La comparación de Teilhard entrevé al universo como muchos científicos han escojido imaginarlo. Un conglomerado caótico de materia como si fueran resortes, especialmente susceptible a las fuerzas; un mecanismo aleatorio donde, suceda lo que suceda, siempre será por accidente. Sin embargo, nada más lejano que la imagen final de Teilhard de Chardin, porque su esfera contiene un “resorte extra” que es “mucho más central y mucho más poderoso que los otros” y el cual organiza el movimiento de los otros. 154 La terminología de Teilhard de Chardin es siempre cambiante y siempre problemática. La energía radial puede ser en algun ensayo el “factor Dios”, en otros “energía psíquica”, por lo que, para evitar confusiones, nos ajustaremos al término “energía radial”, porque pudiera ser el mejor término que él acuñó, puesto que la palabra radial connota luz emanada desde un centro común, un arreglo como los radios dentro de un círculo, como los rayos de una rueda de bicicleta y junto con la centralidad también connota inmaterialidad. Éstas son las verdaderas cualidades de la energía radial. No obstante, Teilhard de Chardin evitó el dualismo, un vacio entre las dos energias, por lo que él razonó que toda energia era, en el fondo, radial: Para escapar de un dualismo de fondo [a la vez] imposible y anticientífico y para salvaguardar, no obstante la natural complicación [la complejidad natural] de la trama del universo, yo propondría la siguiente representación [lo siguiente] que va a servir de fondo [como una base] a todo el resto de nuestros desarrollos [a lo que emergerá más tarde]. Admitimos [debemos asumir] que esencialmente, cualquier energía es de naturaleza psíquica. Sin embargo, añadiremos que, en cada elemento particular, esta energía fundamental se divide en dos componentes distintos: una energía tangencial…y una energía radial. Una de las razones por las que mucha gente ha reaccionado contra Teilhard de Chardin es porque a pesar de los hechos innegables de su visión y sus descubrimientos, su historia parece despoblada. A diferencia de los Tácitos del mundo, cuya prosa está llena hasta el cansancio de Césares y senadores, la historia de Teilhard de Chardin no tiene nombres. Esta extraña característica, en verdad que puede ser perturbadora. Con todo, el vacío de personajes no es sin intención, pues el intento del libro no es el estudio de un 155 solo fenómeno, ni la exploración de la personalidad, sino el estudio de la humanidad como fenómeno. Si todas las historias tienen resultados, el resultado de la de Teilhard de Chardin es la humanidad. No obstante, a diferencia de la mayoría de las historias en las que los resultados cierran el capítulo final, para Teilhard de Chardin el resultado es provisional, porque el ve en la inteligencia humana la síntesis, tanto del pluralismo como de la fragmentación de la naturaleza, y se da cuenta de que esta síntesis se hace posible por la existencia de la energía radial, cuya manifestación es la complejidad; por lo tanto, la inteligencia humana es para Teilhard de Chardin no el final, sino el más alto estado que la complejidad ha alcanzado. Su esquema se sostiene hasta el final de El fenómeno humano. Como cualquier otra cosa sujeta a la evolución, la inteligencia humana puede, como los cristales, estancarse. La meta final de Teilhard de Chardin, es algo que algunos de sus partidarios han llamado globalización, pero realmente debería entenderse como el conocimiento de la interconexión de todas las cosas. A diferencia de Vico, que predice la decadencia, Teilhard de Chardin predice, con las reservas inherentes a su esquema, un lugar donde la conciencia, la inteligencia humana, no solamente influencíe su ambiente, sino que efectivamente sea capaz de determinar caminos evolutivos correctos. 156 7 EL PUNTO DE PARTIDA DETERMINA EL DESTINO En la interpretación en Teilhard de Chardin, el eje, tanto de la historia universal como de la historia del universo, es la evolución.67 Mientras que para Darwin la evolución es solamente una explicación del “origen de las especies” y en su forma más ambiciosa, del “ancestro” del hombre, para Teilhard, la evolución es un paradigma, una manera de entender el camino mediante el cual la energía primordial se transformó en partículas, las partículas se unificaron por la acción de las fuerzas en átomos, que a su vez se reunieron en moléculas que en un momento dado se polimerizaron y llegaron a formar estructuras complejas que se autorreplican. Y algo muy importante: sólo el hombre tiene la capacidad de conducir la evolución, pero 67 Es necesario aclarar este concepto no sólo con la definición del diccionario, sino con la interpretación que hemos hecho de El fenómeno humano, aunque quizá modificada a la luz de los últimos descubrimientos científicos. La evolución como la conceptualizó Darwin tiene un gran defecto que Teilhard de Chardin corrigió: no señala la evidencia de su tendencia hacia una meta. Actualmente los neurocientíficos que estudian el cerebro, y los paleontólogos, que estudian los cráneos fósiles, están llegando a la conclusión de que la relación del peso corporal al volumen craneal es un índice del estado evolutivo de una especie con respecto al comportamiento y adaptación a su entorno o nicho ecológico. Complementariamente, la evolución debe conceptualizarse no como un continuo cambio de las especies, sino como un cambio sólo de un mínimo pocentaje de ellas, en especial las que mayor conocimiento adquieren. Ésta es la línea que lleva al hombre. Las demás especies cumplen un cometido que puede ser más o menos durarero en función de su utilidad para la evolución del eje principal. Asi, algunas especies, según algunos biólogos, parecen haberse estancado, mientras que la mayoria se ha extinguido. Esto nos lleva a preguntarnos ¿qué ley natural nos adjudica el derecho a eliminar especies que son útiles para la sobrevivencia del planeta, es decir, de nosotros mismos? Finalmente el uso del término “descender de” es erróneo y debería ser sustituido por el de “ascender a partir de”. Se puede contradecir lo anterior diciendo que los peces y las aves han evolucionado. Sí, hasta su estado actual podriamos decir que han mutado tendiendo a adaptarse a las condiciones cambiantes de la Tierra, pero finalmente los peces seguiran siendo peces, las aves, aves, y los reptiles, reptiles. 157 su destino está profundamente ligado al de animales, plantas y mundo inorganico, de manera indisoluble. Para muchos biólogos evolucionistas, esta aplicación de la evolución a las entidades no orgánicas, de inmediato hizo resaltar una aparente falla en las ideas de Teilhard de Chardin, y la razón para rechazarlas fue simple. La evolución –sostienen muchos biólogos– no tiene dirección, ni propósito, ni razón. Trataremos con más amplitud esto en un capítulo posterior. Por ahora debemos enfocarnos en la suposición primordial que el sistema teilhardiano hace, a manera de poder discutir la evolución como el modus operandi en la historia universal: esta suposición implica no la existencia de dos tipos de energía, como muchos pensadores han afirmado, sino dos manifestaciones diferentes de la misma energía. La distinción es crucial, y la subrayamos porque tanto críticos como seguidores de Teilhard de Chardin, fallando en considerar esto, fallan también en entender los argumentos y las implicaciones que Teilhard de Chardin plantea. El pedir al lector que imagine dos manifestaciones diferentes de la misma energía no es exigirle que extienda sus poderes imaginativos. Lo que conocemos como energía electromagnética, por ejemplo, puede ser visible en la gama total de colores, o invisible como las señales de radio que sintonizamos cuando queremos oir música o las noticias. Y tal como los científicos han distinguido entre las ondas de radio y de luz, midíendolas y etiquetándolas, Teilhard de Chardin hizo la distinción crucial entre las dos manifestaciones de la misma energía, llamando a una tangencial y a la otra radial. Para él, la energía tangencial es toda variedad de energía68 que sea susceptible de ser medida o contada en alguna forma, ya sea utilizando un 68 En este concepto se incluye la materia, que según la relatividad, es sólo una forma de energía. 158 contador geiger, un detector de microondas o un voltímetro, etc. En otras palabras, para Teilhard de Chardin la energía tangencial incluye las fuerzas fundamentales, que como hemos visto constituyen el marco de la física. Antes de definir y tratar de explicar qué es la energia radial, debemos interpolar un poco. Como hemos tratado previamente, Teilhard de Chardin formuló muchas de sus ideas después de haber ocurrido las modernas revoluciones científicas.69 Einstein había postulado su teoría de la relatividad, la mecánica cuántica había sido formulada y, por supuesto, Darwin y Wallace habían escrito su versión de la evolución. Debemos entender el hecho de que el trabajo de Teilhard de Chardin parezca aparentemente tardío, pues aunque las bases de la ciencia moderna habían sido establecidas, seguían esperándose mayores clarificaciones, mientras que algunas ramificaciones prácticas ya estaban siendo exploradas. Así, si Teilhard suena tentativo en algunos puntos, uno debe recordar que estaba tratando con material tentativo. Además, a diferencia de los físicos, que estaban reunidos alrededor del proyecto Manhattan y rodeados por intelectuales semejantes, Teilhard no formuló la mayoría de sus ideas en un centro intelectual, sino en un remoto lugar del oriente. En China, por supuesto, no estaba completamente aislado; sin embargo, a diferencia de otros lugares, el desierto de Ordos o aun Pekín, definitivamente no eran centros culturales o científicos del mundo como Viena y Berlin a principios 69 El filósofo Jean Guitton señala que 1927 fue uno de los años más importantes en la historia del pensamiento contemporáneo; marca el punto de partida de la filosofía metarrealista, es el año en que Heisenberg expone su principio de incertidumbre, en el que el canónigo Lemaitre expresa su teoría sobre la expansión del universo, en el que Einstein propone su teoría del campo unitario, en el que Teilhard de Chardin publica los primeros elementos de su obra, y es el año del congreso de Copenhague, que marca la fundación oficial de la teoría cuántica. Y se pregunta ¿acaso no resulta significativo que esas conmociones epistemológicas hayan sido provocadas por hombres de ciencia? 159 del siglo XX, o como la Academia de Estados Unidos llegó a ser durante los años de la guerra y la postguerra. Con tales luces biográficas, la visión de Teilhard de Chardin parece más atrevida y más brillantemente presciente e intuitiva o, si lo preferimos, increíblemente profunda y sintética. La suposición central en su argumento consiste en que –y esto hay que tenerlo muy presente– la energía se manifiesta de dos maneras, la primera corresponde a las fuerzas fundamentales y la materia y la segunda a la energía radial que incluye la información y el conocimiento. Teilhard de Chardin adopta, en otras palabras, lo que introdujimos previamente como teorías del todo. Por supuesto que si la suposición que Teilhard de Chardin hizo puede parecer solamente algo ridículo o algo atrevido e inteligente, es irrelevante para nosotros, puesto que el método mediante el cual los científicos llegan a sus teorías no es realmente tan importante como la via que se adopta para comprobarla. Por lo tanto, una de nuestras inquietudes, antes de movernos y tratar con la precisión de la historia la interpretación teilhardiana de la evolución, es la de revisar si la suposición de que todas las fuerzas son simplemente la manifestación de un solo tipo de energía, es correcta o no.70 En capítulos previos hemos visto algunos de los intentos que los físicos han hecho para integrar todas las fuerzas bajo una sólo planteamiento matemático. Tanto la teoría de las supercuerdas como la de la supersimetría han acometido la empresa y son las dos teorías que están más cerca de resolver el problema. No obstante, ambas permanecen sólo como teorías: no existen muchas 70 Para clarificar un poco debemos pensar que el modelo clásico, la teoría estándar, desarrollada desde la aparicion de la física cuántica, no ha sido capaz de incluir o más bien unificar la gravedad con las otras tres fuerzas. 160 pruebas para confirmar una u otra. Por otra parte, las dos teorías, al estar muy cercanamente alineadas con la mecánica cuántica y la física de partículas, funcionan en la región donde estas últimas convergen con la cosmología. En otras palabras, son teorías que necesitan apoyarse en la historia de la materia.71 Su exclusiva prueba, cuando llegue, vendrá más probablemente de la observación celeste que de los supercolisionadores, pues éstos difícilmente podrán seguir rompiendo el átomo indefinidamente. Por lo tanto, la pregunta que surge es: ¿más allá de lo que podemos decir por nuestros actuales modelos cosmológicos, hay alguna evidencia de que las diferentes fuerzas fueron una sola en algún punto? Por supuesto que en la ciencia nada es final y uno de nuestros argumentos a lo largo del libro es que ésta incertidumbre es producida por la resistencia de algunos científicos. Ha sido el dogmatismo académico y la estrechez de mente lo que ha cerrado las puertas a muchas opciones y a posibles cursos de acción. Tal como la relatividad de Einstein sustituyó a la física newtoniana clásica –en la comprensión de cómo trabaja el universo– revisando algunos de sus supuestos, muchas de las teorías actuales, muchas de las explicaciones de hoy, serán revisadas, ampliadas o sustituidas. Como hemos visto, pocos han sido los científicos que han seguido una ruta no ortodoxa aun cuando consideremos las implicaciones de sus ideas. La parte sorprendente es que si las actuales teorías prueban ser correctas, Teilhard de Chardin y la interpretación teilhardiana de la ciencia probaran no solo su validez, sino quizá la de la ciencia misma, o por lo menos el de su papel social, pues si la interpretación teilhardiana es reconocida –si lo es por algo– 71 Se podría decir que son teorías metafísicas desde el momento en que buscan la esencia del Ser, que los físicos llaman simetría y, aunque lo nieguen, tratan de desentrañar el proceso de la Creación. 161 es por su capacidad de dar relevancia urgente a los eventos que socialmente parecen ser irrelevantes. Uno de los principios centrales en la moderna cosmología, es el modelo del big bang. Este modelo no explica el origen del universo, pero, como cualquier principio, determina el destino del universo. La teoría llegó como una consecuencia de la relatividad. Para que el continuum espaciotiempo funcione y explique la estructura del universo, Einstein tuvo que considerar un universo dinámico; como muchos científicos de su época, el creía en lo que se llamaba la teoría del estado estacionario, que sostenia que el universo era y seguiria siendo exactamente el mismo. Ya relatamos las consecuencias de esto: el que Einstein tuviera que declarar que lambda había sido el más grande error de su carrera. En los últimos años, una de las mayores noticias en física ha sido el retorno de lambda como un concepto a considerar. El nuevo argumento para que lambda sea importante será central para nosotros dentro de poco. Por ahora dejémoslo a un lado y miremos más de cerca la teoría del big bang. Su origen es en sí mismo interesante, pues los científicos al principio se resistían a la idea de un universo dinámico, hasta que Hubble descubrió que el universo se estaba expandiendo. Este descubrimiento lo hizo gracias al espectroscopio. La espectroscopía es toda una rama de la física que estudia la radiación electromagnética por medio de líneas espectrales. Pese a su poco práctica apariencia, ha sido vital para el desarrollo tanto de la física de partículas como de la cosmología, porque permite a los científicos romper la luz en las diferentes frecuencias que la constituyen. Estas frecuencias transportan información acerca de los objetos luminosos a partir de sus átomos. Como sabemos, la luz consiste en partículas subatómicas llamadas fotones. Un átomo libera un fotón cuando uno de sus electrones cae de una 162 órbita mayor a otra menor, o en otras palabras cuando este electrón pasa de un estado energético a otro estado de menor energía; el átomo se vuelve menos energético y la energía que pierde se transforma en el fotón. Estudiando las líneas espectrales, los científicos son capaces de decir una pasmosa cantidad de cosas acerca de los objetos que estudian, especialmente de los cuerpos celestes. Ellos pueden deducir los elementos que componen las estrellas, la temperatura de los astros, así como su rotación y justo de estas capacidades, el físico alemán Gustav Kirchhoff se valió para detectar los elementos del Sol y William Huggins identificó la presencia de sodio, calcio, hierro y magnesio en las grandes estrellas. El descubrimiento más importante en este campo, por mucho, fue el de Hubble. Estudiando el desplazamiento de las líneas espectrales de las galaxias, logró mostrar que la mayoría de las galaxias se alejaban, tanto de la Vía Láctea como entre ellas. El descubrimiento de Hubble no postula la teoría del big bang, sino que solamente prueba que el universo es dinámico, que se está expandiendo. Las implicaciones de un universo que se expande son inmensas. Si un objeto se expande, se deduce que la expansión debe tener una trayectoria, y más importante aún, un origen. Como muchas otras teorías que han resistido las pruebas, el big bang nos parece ahora un asunto casi de sentido común. Si el universo se ha estado y se está expandiendo, entonces, en el pasado debió haber sido mucho menos grande que ahora, asi que los científicos empezaron a pensar en un universo en términos diferentes, ya no como una entidad estacionaria, sino como una entidad con una historia, una entidad no diferente a otras, con un principio, un lapso intermedio y un final. Colocada en tal perspectiva “histórica”, la pregunta sobre lo constitutivo del universo debe cambiarse hacia los físicos de partículas. 163 El radio del universo es de quince mil millones de años luz; si era más pequeño en el pasado, digamos que tenía un radio de un año luz, ¿cómo parecería? Si el universo y todo su contenido estaban mucho más comprimidos en la infancia del universo, entonces la materia estaría mucho más caliente, de modo que el modelo que tendríamos sería el de un universo mas denso que cualquier material conocido y más caliente que el centro de cualquier estrella. La prueba experimental de tal afirmación era difícil de conseguir. Hacia el final de los años cuarenta, George Gamow había ya expuesto la teoría del big bang,72 pero no fue hasta el principio de los sesenta que, cuando en forma bastante accidental, la primera prueba experimental se consiguió. Hasta entonces sólo había dos tipos de evidencia del big bang. La primera, que fue el aliento para poner a la teoría en la vanguardia fue, por supuesto, la expansión del universo. La deducción era lógica: si el universo estaba creciendo, necesariamente había un punto de inició. La segunda evidencia fue un poco más difícil de alcanzar. Hemos visto que a causa de la naturaleza de la materia, si el universo estuvo en algun momento comprimido, entonces su contenido era extremadamente denso y caliente; luego, para probar que el universo había emergido de una “bola de fuego”, los científicos argumentaron que uno debía poder ver u observar los residuos de tal bola de fuego. La capacidad de observar el pasado profundo es inherente a la observación de lo cuerpos celestes. Una vez que las distancias cambian de medirse en kilometros a medirse en años luz, la señal que nos alcanza desde 72 Existe una versión poco conocida en el sentido de que el primero en explicar que el universo nació de una gran explosión fue un físico llamado Ralph Alpher, quien en 1948 escribió una tésis doctoral en la que demostraba matemáticamente que el universo había surgido hace 14 000 millones de años en una explosión a altísimas temperaturas. 164 el espacio exterior es una señal que se origino hace años. Así, cuando los astrónomos son testigos de la muerte o el nacimiento de una estrella, lo que testifican es un evento que sucedió quizá miles, si es que no millones de años antes de que el observador hubiera nacido. A causa de que la astronomía es, por naturaleza, ese curioso vistazo hacia el remoto pasado, los científicos imaginaron que si podemos ver lo que ocurrió hace millones de años, entonces debería ser posible que detectáramos, si no el inicio del universo, por lo menos los remanentes del evento con el que se inició, la “explosión” que empezó la “bola de fuego”, aunque estas señales serían apenas perceptibles, con longitudes de onda demasiado grandes para ser detectadas como luz o como sonido. En los años sesenta, los astrónomos Robert Wilson y Arnold Penzias, quienes conducian experimentos en el laboratorio de Bell Telephone, escucharon un extraño ruido constante en su radiotelescopio. Sospechando que las palomas que se encontraban anidando eran las causantes del ruido, limpiaron su antena y revisaron la radiotransmisión, pero el ruido seguía escuchándose. Después de eliminar toda posible causa, como la interferencia continuara y bastante ajenos a las implicaciones de su descubrimiento, publicaron un escrito donde presentaron su descubrimiento: existía un ruido de microondas constante. Actualmente se le conoce como radiación de microondas cósmica de fondo. El nombre por sí mismo implica el origen; se refiere a “fondo”, porque a diferencia de las señales de los cuerpos estelares como estrellas o pulsares, su radiación no tiene una fuente particular, sino que parece proceder de todas partes. Y radiación de microondas es el nombre dado a las ondas de radio que son más cortas de un metro. Esta señal, en otras palabras, tiene corrimiento hacia el rojo –está debilitada– y es siempre la misma. Si uno espera ver el rastro de la bola de fuego primitiva, 165 que emitió luz hace 14,000 millones de años, uno no puede esperar ver la luz, pues ésta, después de viajar a través de tan vastos espacios, se desvanece Lo que la confirmación del big bang dió a los científicos fue más que la sola historia del universo. Tal como la semilla predice al árbol y a sus frutos, o tal como cualquier inicio puede determinar el fin, la teoría del big bang, determina y predice muchas cosas acerca del destino de nuestro universo. Pero, más importante para nosotros en este capítulo, es darnos cuenta de que el big bang nos dice bastante acerca de la materia y las fuerzas que la gobiernan. Primero y más importante, el escenario del big bang y sus ecos, que podemos observar a través de nuestros telescopios73, nos informa de los origenes de la materia. Para entender estos orígenes debemos echar un vistazo, aunque sea muy superficial, a la cronología del universo, desde su creación hasta por lo menos hace 4,500 millones de años. Esta última “fecha”, marca la formación del Sol y los planetas. En consideración a la continuidad, debemos presentar primero los hechos y después discutir su importancia. El evento de la creación ha sido discutido una y otra vez. Algunos científicos argumentan que la mejor manera de entender el fenómeno es usando, por el momento, el cero como notación. O sea, que antes de la creación del universo no existía el tiempo ni el espacio. Algunos científicos han mostrado su falta de entendimiento, no de las matemáticas, sino de sus connotaciones, y han transpuesto su significado al de la nada. Esta pretensión es por supuesto, absurda. El cero es uno de esos conceptos perfectos cuyo valor semántico es demasiado ámplio para interpretarlo de un 73 De hecho, otra evidencia importante del inicio del universo es la captada por el satélite COBE que contempló “la superficie última de dispersión”, el momento en el que el universo se volvió transparente, 300,000 años después de su inicio. 166 solo modo, especialmente cuando su papel es sólo momentáneo. Mucho de lo que sucedió entre el cero (momento de la creación) y 10-43 segundos o tiempo de Planck, sigue siendo desconocido para nosotros y probablemente será muy difícil de comprobar experimentalmente, pese a que tengamos cada vez mayores y mejores aceleradores de partículas.74 Este inimaginablemente pequeño lapso se conoce como época de Planck, al final de la cual, sabemos, la radiación gravitacional se salió del equilibrio térmico del resto del universo. A los 10-36 segundos el universo en un estado de falso vacío75 inició su época de inflación, un momento crucial que discutiremos más tarde. Mientras tanto diremos que la palabra inflación significa exactamente eso, que se infla. En esa época, el universo creció a tasas exponenciales, y debe su vastedad a este crecimiento. La inflación fue, en terminos humanos, literalmente imperceptible y termino a los 10-32 segundos El fin de la inflación produjo un rompimiento de la fase de simetría76. De todos los momentos que hemos señalado que le dan validez a las ideas de Teilhard de Chardin acerca de la energía, éste parece ser el que más las valida. De hecho, los tres estados que hemos discutido pueden ser la verdadera confirmación de lo que permite a la teoría teilhardiana de la evolución funcionar como tal, puesto que él puede moverse sobre el eje de una sola energía, con diferentes y múltiples manifestaciones. Por lo tanto, debemos entender la fluctuación cuántica que dió nacimiento al universo, a la inflación y al rompimiento de la simetría. 74 Sin embargo, las nuevas teorías en proceso como la de la supercuerdas nos llevan a razonar estos eventos e intuitivamente podemos determinar su grado de certeza. 75 El estado de falso vacío, para los físicos, es un estado de equilibrio inestable de la energía en su más alta densidad. Así se inició el universo, con una burbuja de falso vacío. 167 El universo como lo conocemos debe haber nacido en el tiempo de Planck,77 que es la medida de tiempo más pequeña que puede existir. La semilla de tal universo sólo puede haber surgido de una fluctuación cuántica. Como sucede con muchos aspectos de la teoría del quantum, las fluctuaciones cuánticas desafían el sentido común, pero como hemos visto, pese a la aparente falta de sentido, el mundo cuántico es mucho más preciso en sus predicciones que la relatividad o el mundo clásico. Lo que sucede en las fluctuaciones cuánticas es que de repente pueden aparecer partículas energéticas, no de la nada, sino del vacío cuántico, que es el estado de la energía en su mínima densidad. Estas partículas pueden ser bosones o fermiones y desaparecen al transformarse en radiación en fracciones de segundo. El modelo arquetípico del bosón, es el fotón; éstos no se conservan, millones de ellos pueden crearse y de hecho son creados –a causa del cambio de órbita energética de los electrones de un átomo– por ejemplo cuando encendemos una bombilla y desaparecen al ser absorbidos por otros átomos. Mientras que los bosones estan asociados a la transmisión de las fuerzas,78 los fermiones son las partículas que forman la materia.79 Cualquiera que sea el tipo de partícula que aparezca, lo hace del vacío. Una cosa que es cierta es que la cantidad de masa-energía con la que se creó el universo es tan grande, que debe tender al infinito. Brevemente, lo que la mayoria de los físicos 76 Puede decirse, coloquialmente, que el rompimiento de la fase de simetria es como una separación de la energía primordial que era una unidad, en varias energias incluyendo el cambio de estado de alguna, espcíficamente para formar la materia. 77 El lapso temporal entre cero y el tiempo de planck, es en realidad infinito y esto lo podemos ver más claramente si hacemos un análisis racional de la paradoja de Aquiles y la tortuga, aunque esto sería entrar a un tema que no nos corresponde. 78 Otras caracteristicas de los bosones es que obedecen la estadística Bose-Einstein y tienen un spin integro (1,2 …) 79 Los fermiones obedecen la estadística Fermi–Dirac y tienen spin medio e integro y medio (1/2, 3/2,…) 168 argumentan es que antes de que la fluctuación cuántica diera origen al universo, no había fuerzas diferenciadas como manifestaciónes de energía, sino solamente masa-energía, o sea que lo que tenemos es algo inimaginable fuera del mundo de las matemáticas. En un mundo extremadamente denso donde los niveles de energía son tan altos, la materia no existia como la conocemos ahora, sino que existia sólo como energía. Entonces, las grandes teorías unificadas nos dicen, que bajo las condiciones extremas que existían en el inicio del universo, todas las fuerzas de la naturaleza estaban fundidas en una sola. En otras palabras, existía sólo una fuerza universal. La fluctuación cuántica, sin embargo, perturbó el balance de esta fuerza universal y la gravedad se desprendió de las demás fuerzas, justo en el tiempo de Planck. Considerando la densidad de la energía de una entidad como el universo de Planck, uno puede imaginar que se deshace bajo su propio campo gravitacional. La teoría de los campos cuánticos resuelve la paradoja. La inflación supone los campos escalares como campos antigravitatorios, e implica que las fuerzas se separaran, produciendo la expansión del universo. Para tener idea de la tasa exponencial de su crecimiento en ese periodo (inflacionario) imagine el lector, si es posible, algo tan pequeño como la punta de un alfiler, crecer en un lapso inimaginablemente corto, al tamaño de la Tierra. Una vez que que la inflación trabajó, que los campos escalares hicieron su trabajo, desaparecieron. Lo que dejaron fue una bola de fuego del tamaño de una toronja, a trillones de grados de temperatura, que contenía todo lo que llegó a constituir nuestro universo material. Para que la fluctuación cuántica y la inflación funcionen como modelos de la génesis del universo, los físicos están de acuerdo en que uno no puede pensar un universo naciente gobernado por las diferentes fuerzas, 169 ni aplicar la dicotomia energía-materia. Lo que nos piden pensar es que las fuerzas, como las conocemos, deben verse como una especie de manifestaciones de esa energía, actuando en un universo mucho menos denso, energéticamente hablando. Si la cosmología cuántica confirma (sin proponérselo, es claro) lo que Teilhard expuso, la pregunta, por supuesto, es: ¿hasta dónde podemos validar el argumento de que la energía no solamente se separó en la gravedad y las fuerzas electromagnética y nucleares débil y fuerte, sino también en otra forma? La ciencia nos es mucho menos útil aquí. Sin embargo, el entendimiento del rompimiento de la simetría en el estado primitivo del universo puede darnos una idea de cómo sucedió esto, y aun puede darnos, si no suficiente evidencia, sí suficiente idea de cómo empezar a buscar la evidencia de esta otra faceta de la energía. La simetría es un concepto crucial en física. Las raices etimológicas son griegas, apartir de sim, que significa llegar a unirse y es la misma raíz de la cual derivamos la palabra sinfonia, y metrón, que significa medida. Por lo que la palabra describe algo de igual medida o que se puede medir igualmente. Simetría, sin embargo involucra más que la repetición de una cantidad mensurable, o al menos así era para los griegos, quienes pensaban que la repetición tenia que ser armoniosa y agradable. Los científicos, aunque algo les preocupa el aspecto estético de la simetría, se han enfocado principalmente en la primera definición de la palabra y piensan en la simetría como una invariancia, una cantidad que no cambia en ninguna transformación. La mayoría de nosotros estamos familiarizados con la simetría a través de sus manifestaciones visuales; sin embargo, en la historia del arte o en la geometría elemental, reconocemos simetrías cuando dividimos cualquier cosa en dos mitades y revisamos si una mitad se parece a la otra. 170 Las simetrías con las cuales los científicos tratan no son las geométricas estables, sino las transicionales. Para entender las simetrías transicionales, será suficiente ver las progresiones de las escalas que los músicos emplean. Por ejemplo la sonata para piano No 53 de Haydn80 abre con cuatro notas, mi, sol, si, mi, que se repiten en los primeros cuatro compases. De esta manera, Haydn nos brinda una simetría fundamental. Cuando la sonata llega al quinto compás, la figura se mueve una quinta arriba, es decir cinco notas arriba, de mi a do (do, mi, sol, do) mi fa sol la si do re mi do re mi fa sol la si do El tiempo es idéntico, los intervalos también lo son; así, al oír los sonidos del piano, lo que experimentamos es una simetria transicional. Este tipo de simetría se encuentra por todas partes en el arte y en la naturaleza. Los patrones de la espiral del nautilus, en las piñas o en los arreglos de las semillas de girasol, están representados por las series de Fibonacci, que se obtienen por la operación aritmética en la cual cada unidad subsecuente es igual a la suma de las dos unidades precedentes (1,1,2,3,5,8,13…). La serie de Fibonacci es sola una de muchas simetrias transicionales que describen o abstraen los fenomenos que encontramos en la naturaleza. De hecho, cuando a principios de siglo los matemáticos empezaron a estudiar el concepto de simetría más profundamente, se dieron cuenta de que todas las leyes físicas, todas las leyes que gobiernan la naturaleza implican una inherente simetría, porque son afirmaciones de una 80 Los lectores tienen que comprender nuestras referencias a música de concierto. No es pedantería, es solo que es en esa música donde se encuentran las analogías que tratamos de explicar. Si nos remitimos a la música actual, por ejemplo a una “cumbia norteña”, nos encontraremos con una monotonía y un monorritmo que no se presta para nuestro proposito. 171 invariancia de una medida o unidad fija. Sin embargo, como hemos visto, cada ley requiere una explicación diferente, no hay una sola simetría, sino muchas simetrías. La teoría de la supersimetría, junto con la de las supercuerdas, son las que actualmente intentan encontrar una simetría subyacente en las fuerzas de la naturaleza. Estas teorías no necesariamente están en conflicto como mucha gente cree. Aun cuando sus postulados difieren en muchos casos, ambas teorías, dejando fuera el que contienden por el otorgamiento y aumento de fondos, actualmente se dan cumplidos una a la otra. El problema, otra vez, es institucional. Para continuar sus investigaciones, los científicos necesitan fondos, tanto gubernamentale como académicos. Los comités que adjudican esos fondos lo hacen de acuerdo con las etiquetas que están adheridas a esas investigaciones; por consiguiente, las teorías no pueden adelantarse más allá de donde se puedan comprobar. En otras palabras, los investigadores no pueden deducir o tratar metafísicamente sus teorías a menos que tengan mucho prestigio y publicidad. Entonces, aun cuando no se ajusten a las reglas de la filosofía o saquen conclusiones erróneas de sus teorías, sí pueden acceder a los fondos y difundir extensamente sus teorías. En realidad la supersimetría no tiene la envergadura de las teoría de las supercuerdas. La supersimetria sostiene que toda fuerza puede ser integrada en la descripción geométrica de todo objeto a través de una gran simetría. Como la teoría de las supercuerdas, la supersimetría supone que esta simetría completa, esta gran simetría, está integrada a cada fuerza en los estados de muy altas energías. En otras palabras, ambas teorías coinciden en afirmar que, en los primeros instantes del universo, había una fuerza que organizó todo, y las fuerzas de la naturaleza que ahora conocemos son 172 solamente consecuencias de la inflación, del enfriamiento y de la baja de energía. Si ambas teorías, que pretenden explicar el universo en su estado más primitivo, sostienen que hubo un rompimiento de la simetría, entonces, ¿qué supone el rompimiento de ésta? El fenómeno es fácil de visualizar y ocurre todos los dias, cada vez que las cosas van mal o se vuelven confusas. Ocurre en algo tan simple como el juego de los “palillos chinos”. Imagine unos palillos delgados, agrupados por colores en un paquete cilíndrico antes de iniciar el juego, los rojos al centro, a su alrededor los verdes, seguidos a su vez por los anaranjados, azules, etc. Por otra parte todos los palillos son del mismo tamaño y contribuyen a dar el grueso del cilindro. Si usted decide no jugar, la simetría se puede conservar indefinidamente. Pero ese no es el objeto: el asunto del juego es dejar caer el paquete de palillos desde una cierta altura a una superficie plana, como una mesa. Hay un instante infinitesimal en el que los palillos permanecen juntos, pero hay un instante en que se vuelven un montón de palillos revueltos, cuando al golpear la mesa pierden el patrón original. Por siglos los físicos han intentado reunir los patrones que deben haber quedado del paquete inicial. En otras palabras, las fuerzas y las leyes que conocemos, son afines a dos o tres palillos rojos que están colocados juntos o cerca de un anaranjado o azul. Es decir, los científicos han intentado identificar la simetría profunda que está bajo la simetría rota. Como cualquier intento de pegar un objeto roto sin haber conocido su figura o su decoración, es una tarea intimidante. La supersimetría ha pretendido realizar tal trabajo, aunque sin éxito todavia. La teoría de las supercuerdas, teniendo las mismas ambiciones, sigue el asunto más allá de donde la supersimetria lo deja, y puede, de 173 hecho, ser mucho más útil para encontrar otra fuerza, más fundamental que las conocidas, en el funcionamiento de la materia y sus implicaciones en el universo. Como hemos visto, el postulado básico de la teoría de las supercuerdas es que nuestra concepción de las partículas elementales ha sido mal entendido. La suposición básica, más claramente, es que las partículas no son “puntos”, como primeramente los físicos las entendieron y como el modelo estándar también lo supone, sino que son unas cuerdas con figura de lazo (como una gasa o circuito cerrado). El principio aparentemente parece simple; sin embargo, como en cualquier principio que involucra un completo cambio de paradigma, las supercuerdas tienen que recurrir a la verdadera esencia del lenguaje. El cambio de paradigma que se nos pide es similar al que el universo copernicano demandó de las mentes medievales y el cual todavia no está limpio en su lenguaje, lo que testifican frases como “la salida del sol” y “la puesta del sol”. De manera similar, la teoría de las supercuerdas nos pide llegar al fondo de la palabra “partícula”, que supone un cuerpo, un punto, etc. y desprendernos de ella. Como la supersimetría, las supercuerdas sostienen que el evento de la creación destruyó la gran simetría que empaquetaba todas las fuerzas y les daba igual medida. Lo que es convincente de la teoría es lo que hace con la simetría rota. En lugar de tratar con una ensalada arbitraria de partículas con spin, color y sabor, nos dice que tales partículas son sólo manifestaciones de un patrón particular de vibración de cada cuerda fundamental. Lo que la teoría supone, dicho en otra forma, es que el universo visible está compuesto no solamente de cuerdas tensas, sino que están tensadas y se comportan en forma similar a las cuerdas de un violín, un piano o una guitarra. Como en el instrumento musical, las cuerdas, que antes pensabamos como partículas, están en constante vibración, como la vibración que produce una nota 174 distintiva en el piano y que está determinada por la tensión, la longitud de la cuerda y el patrón de vibración. Tal como el do medio en el piano resuena justo así por la específica tension que el afinador le da a la cuerda, el do alto depende también de la tensión y de cómo la tensión determina la vibración. Entonces, en la teoría de las supercuerdas, la vibración y la tensión finalmente determinaran la manera en la que nuestros instrumentos de medición –como los acleradores o supercolisionadores de partículas– interpreten las cuerdas como unas partículas. En otras palabras, lo que llamamos partículas son solamente manifestaciones de una vibración; como las notas, son las consecuencias de la energía, que ha cambiado de estado durante su tavesía en el espacio-tiempo. La teoría de las supercuerdas soluciona varios callejones sin salida de la física. El más importante es ligar el –al parecer insalvable– hueco entre la mecánica cuántica y la relatividad.81 Como sostiene el físico Brian Greene, uno de sus más elocuentes partidarios: The unified framework that string theory presents is compelling. But its real attraction is the ability to ameliorate the hostilities between the gravitational force and quantum mechanics. Recall that the general problem in merging general relativity and quantum mechanics turns up when the central tenet of the former – that space and time constitute a smoothly curving geometrical structure – confronts the essential feature of the latter – that everything in the universe, including the fabric of space and time undergoes quantum fluctuations that become increasingly turbulent when probed on smaller and smaller distant scales. On sub-Plank scale distances, the quantum undulations are so violent that they destroy the notion of a smoothly curving geometrical space; this means that general relativity breaks down. 81 La relatividad de escala postulada en la década de los 90, pretende también haber resuelto el problema. 175 String theory softens the violent quantum undulations by “smearing” out the short-distance properties of space. La teoría de las supercuerdas no sólo intenta resolver el callejón sin salida entre la relatividad y la mecánica cuántica. Argumentando que la materia no está constituida de “partículas”, sino que lo que conocemos por partículas son sólo la manifestación de una vibración de las cuerdas, apunta en la dirección hacia la cual las indagaciones científicas deberán moverse si la teoría prueba ser correcta. Creemos que ésta dirección es la más teilhardiana visión de la materia y del universo. Permítasenos explicar. Si la materia no está constituida por partículas “materiales”, sino por partículas que son las manifestaciones de la vibración de cuerdas infinitesimales, entonces se sigue que, como cualquier cuerda en el macromundo, cada una de esas cuerdas puede ejecutar un número que tiende al infinito, de patrones vibracionales. Si cada patrón vibracional determina una “partícula” elemental que se puede manifestar, entonces ¿por qué el modelo estándar no contiene una secuencia sin fin de partículas elementales? En otras palabras, si la teoría de las supercuerdas es correcta, cada vibración corresponde a una partícula elemental, y si cada cuerda puede vibrar en una variedad de modos que tiende al infinito, entonces deberíamos tener un número de partículas elementales que tendiera al infinito. ¿Por qué no sucede ésto? ¿Por qué tenemos solamente las partículas elementales que el modelo estándar señala? Como antes dijimos, en uno de sus ensayos Teilhard de Chardin visualiza la fuerza radial como unos resortes que se extienden desde el centro de una esfera y vibran, no aleatoriamente, sino determinados por su 176 relación con la esfera que los mantiene unidos a la vibración de los demás resortes. Para Teilhard de Chardin la fuerza radial trabaja como un monitor que ajusta las otras fuerzas. La teoría de las supercuerdas, como la ciencia, timida como siempre, no va tan lejos. Sin embargo, ironicamente, la supercuerdas nos dice por qué, pese a la posibilidad, no existe un número casi infinito de vibraciónes produciendo un igual número de partículas elementales: las cuerdas deben tensarse tanto, que sólo unos pocos de estos patrones vibracionales pueden corresponder a las partículas extremadamente pesadas que podemos detectar. Dicho de otro modo, las cuerdas, como las cuerdas de un piano, no vibran aleatoriamente y aunque, como las cuerdas del piano, pueden producir una gran cantidad de rángos de tonos, la tensión a la que se afinan evita que produzcan sonidos fuera de tono. La física, por supuesto, no habla de un tono universal. No hay ningun teórico de las supercuerdas corriendo a desempolvar las ideas de Teilhard para ver si sus descubrimientos coinciden con ellas. A pesar de todo, la teoría de las supercuerdas, hasta donde ha sido probada, determina que algo regula la tensión de las cuerdas, algo, que después del rompimiento de la simetria y al empezar a funcionar las fuerzas, permite sólo a un número limitado de partículas elementales comportarse de cierta, simetrica, manera, bajo la influencia de dichas fuerzas. Más aun, como para dar más validez a la visión teilhardiana de la esfera, los científicos tienen que visualizar algo como un invisible “estabilizador” que controle la tensión de cada cuerda. Teilhard de Chardin imaginó tal cosa, sin embargo, para dar crédito a quien el crédito merece, la física actual lo ha formulado con gran precisión. De hecho, para Teilhard de Chardin lo anterior fue una visión y una deducción para la cual no tenía pruebas. Claro que él nunca las necesitó, o al menos eso pensó, puesto que para él, la prueba de la existencia de la fuerza 177 radial, de una energía que sintonizando el comportamiento de las partículas y las fuerzas determine sus resultados, está en el cosmos mismo, en su historia. Si el vió un “estabilizador” de la sintonía en el universo, fue en el macromundo segun se desarrolla, por lo que en el siguiente capítulo veremos el cosmos y su historia, intentando obtener las instrucciones para un cosmos que evoluciona. Pero antes de esto tenemos que tratar de explicar otra consecuencia de la teoría de las supercuerdas que es el hecho de que a cada partícula elemental, corresponde en el plano de diez (o más) dimensiones, una metapartícula, que es su conocimiento o sea la capacidad para recibir y transmitir una información que portan las fuerzas fundamentales y que son contituyentes de la energía radial Cuando las partículas elementales se unen lo hacen a costa de un gasto energético, de modo que la metapartícula aumenta su conocimiento. Es decir, surge una nueva ley para regular el funcionamiento de la nueva partícula. 178 8 LA EVOLUCIÓN CÓSMICA: UN MODELO It is interesting to contemplate an entangled bank, clothed with many plants of many kinds, with birds singing on the bushes, with various insects fitting about and with worms crawling through the damp earth, and to reflect that these elaborately constructed forms, so different from each other, and dependent on each other in so complex a manner, have all been produced by laws acting around us. These laws, taken in the largest sense, being Growth with Reproduction; Inheritance, which is almost implied with Reproduction; Variability from the indirect and direct action of external conditions of life, and from use and disuse; a Ratio of Increase so high as to lead to a Struggle for Life, and as a consequence to Natural Selection, entailing Divergence of Character and the Extinction of less-improved forms. Thus, from the war of nature, from famine and death , the most exalted object which we are capable of conceiving, namely, the production of higher animals directly follows. There is grandeur in this view of life, with its several powers, having been originally breathed into a few forms or into one; and that, whilst this planet has gone cycling on according to the fixed law of gravity, from so simple a beginning endless forms most beautiful and most wonderful have been, and are being, evolved. “Es interesante contemplar un enmarañado ribazo cubierto por muchas plantas de varias clases, con aves que cantan en los arbustos, con diferentes insectos que revolotean y con gusanos que se arrastran entre la tierra húmeda, y reflexionar que estas formas, primorosamente construidas, tan diferentes entre sí, y que dependen 179 mutuamente de modos tan complejos, han sido producidas por leyes que obran a nuestro alrededor. Estas leyes, tomadas en un sentido más amplio, son: la de crecimiento con reproducción; la de herencia, que casi está implícita en la de reproducción; la de variación por la acción directa e indirecta de las condiciones de vida y por el uso y desuso; una razón del aumento, tan elevada, tan grande, que conduce a una lucha por la vida, y como consecuencia a la selección natural, que determina la divergencia de caracteres y la extinción de las formas menos perfeccionadas. Así, la cosa más elevada que somos capaces de concebir, o sea, la producción de los animales superiores, resulta directamente de la guerra, del hambre y de la muerte. Hay grandiosidad en esta concepción de que la vida, con sus diferentes fuerzas, ha sido alentada en un corto número de formas o en una sola, y que, mientras este planeta ha ido girando segun la constante ley de la gravitación, se han desarrollado y se estan desarrollando, a partir de un principio tan sencillo, infinidad de formas las más bellas y maravillosas.” Hemos transcrito en su totalidad el último párrafo de El orígen de las especies de Darwin,82 porque no sólo contiene, para decirlo brevemente, la estructura desnuda de la teoría de la evolución, señalando los principios de la herencia y la variación, así como el eje de la teoría de la selección natural, sino porque, viniendo del hombre que planteó la teoría de la evolución, es una de las pocas instancias, donde usa la palabra desarrollandose (evolved, 82 En realidad se ha transcrito en inglés y en español porque de esta manera podemos apreciar cómo una traducción, por muy cuidadosa que sea, difícilmente refleja con precisión el pensamiento original del autor.Los comentarios, pues, estan referidos a la versión original en inglés que se titula On the Origin of Species by means of Natural Selección, John Murray, Londres, 1859. 180 en inglés) en un contexto extraño. La palabra llega en el mero final del libro. De hecho, es la última palabra en la versión original del libro, y Darwin no la usó como nombre, sino como participio pasado (evolved) en una construcción verbal, no sólo para hacer valer, con destreza y de manera menos polémica, que este proceso había sucedido, sino también para implicar que seguia sucediendo. Es muy sorprendente que a la vez que Darwin utiliza el término, su tono es el más reverencial. Menciona los “objetos exaltados” y “la grandiosidad” (grandeur). Pero más que reverencial, el párrafo ha sido siempre perturbador. Allí hay más que ambiguedad, hay también mucho más que simple reverencia de parte de Darwin. Pero para empezar con lo último, analicemos que es lo que con esa frase explicativa que empieza con “mientras” y termina con “gravitación”, trata de lograr. Como dando la vuelta, Darwin se las arregla para colocar su teoría y colocarse a sí mismo, codo a codo con la teoría de la gravitación, y es que está consciente de la importancia de su trabajo. De manera bastante discreta se las ingenia para recordarnos lo que constituía la revolución científica más influyente anterior a la evolución. Sin embargo, la frase no sólo introduce o eleva la teoría de la evolución al mismo nivel que el descubrimiento de Newton. Darwin está incierto de la cantidad de tiempo que la evolución requiere para actuar, pero sabe que necesita mucho. Así que para recordarnos el cosmos newtoniano, ese verdadero símbolo de la exactitud, él evoca una especie de línea del tiempo, un tipo de cronología que encaja en el proceso de la evolución. Sin embargo, hay algo más perturbador. Durante todo el libro, Darwin ha estado tratando con la herencia, con la variación, con la lucha por la vida y con la selección natural, ha estado dando ejemplos tomados de criadores y de trabajadores del campo. Para decirlo de otra manera, él ha estado con los 181 ojos fijos en lo pequeño, pájaros, gusanos y toda la diminuta red de formas del planeta. ¿Entonces por qué una vez que ha explicado la teoría, una vez que está configurada, olvidarse del mundo terrestre que tan bien exploró y enfocarse en las estrellas? Nunca tendremos una respuesta precisa a esto. Pero podemos conjeturar. Teniendo el bosquejo de una historia que es inconcebiblemente larga, teniendo trazado el proceso que tomó miles de millones de años para desarrollarse y que, supuestamente, tomará otros tantos para concluir, debió estar consciente, pensamos, de que nuestra historia, la historia de la evolución, tenía que ser sólo un fragmento de un proceso más largo. Él debió haber creido que la evolución no era un proceso relegado sólo a la Tierra, pero lo puso en un contexto terrestre, un planeta que gira en el vasto espacio y, haciendo esto, puso al espacio en el mismo continuum evolutivo. Entretejió, en otras palabras, la evolución como pudo ser trazada en este planeta, con las viejas leyendas de la evolución cósmica. El Darwin en su modo más elevado, más perturbador y especulativo, no es el Darwin que a los científicos realmente les gusta, ellos prefieren al Darwin compilador como científico naturalista, apuntando observación tras observación en sus trabajos de campo. Ambos Darwin son reconciliables, y mediante su trabajo de campo, bien pudo no haber llegado a la teoría de la evolución si no hubiera sido un escritor perturbador y especulativo. La pregunta que surgiría hoy dia, por supuesto, es: ¿estaba Darwin en lo correcto? Por lo pronto, debemos retomar, desde donde lo dejamos, el proceso del rompimiento de la simetría que tuvo lugar durante el big bang y ver cómo los científicos la han interpretado y cómo podrían interpretarla si sólo cambiaran los paradigmas que usan. Podemos, por supuesto, razonar que sí, que Darwin estaba en lo correcto y que no fue mera arrogancia colocar su 182 teoría al lado de la teoría que había sido la más eficiente y congruente para explicar el cosmos. El rompimiento de la simetría que discutimos en el capítulo previo ha sido interpretada por algunos filósofos y los divulgadores de la ciencia, así como por muchos científicos, como la prueba de que el universo es el trabajo de la casualidad y de lo hecho al azar, prueba, brevemente, de que no sólo el universo, sino nuestra misma vida es el resultado de un “cara o cruz” que irrumpió alegremente de una fluctuación cuántica. La razón de esta creencia se desprende en muchas maneras, del hecho de observar unicamente en el contexto de la física de partículas, de ver solamente a través de la lupa de la teoría de las supercuerdas, de creer que el proceso del rompimiento de la simetría es solamente un fenómeno con una cadena de causalidad anterior, pero sin ninguna consecuencia. Las palabras operativas aquí, son por supuesto, causalidad y consecuencia. Cualquier actividad en este universo inicia una cadena de causalidad. Somos parte de los resultados de la cadena de causalidad. Los embotellamientos del tráfico que padecen los habitantes de las grandes ciudades casi diariamente son un buen ejemplo de lo que una cadena de causalidad es. Para explicarla, tenemos que remitirnos a los planificadores de la ciudad y al porqué de sus decisiones, así como a las decisiones que los malos conductores toman. El hecho de que uno termine medio estacionado por varias horas, en muchas ocasiones está causado, entre otras, por las decisiones de los urbanistas y de los malos conductores. Para la mayoría, estos embotellamientos son sólo rutina, parte de la vida diaria y difícilmente una consecuencia de ella. Enfurecidos mientras estamos atrapados en ellos, rabiando porque llegamos tarde a casa desde el trabajo, el asunto es olvidado rápidamente al reasumir nuestras diarias actividades. Sin embargo, la naturaleza “molesta pero inocua” de los 183 embotellamientos, siempre ha tenido el potencial de llegar a ser no solamente molesta, sino nociva. Imaginemos por ejemplo, que un mal conductor choca provocando que se cierren dos carriles de la calzada y llevando el tráfico a una paralización el dia que vamos a cerrar un importante negocio o a una entrevista de trabajo. No solamente podríamos llegar tarde, podríamos no llegar. Los embotellamientos del tráfico, desde este escenario, provocan una consecuencia. En otras palabras, algo de importancia ocurre o deja de ocurrir por ello. La mayoría de la gente está consciente de este señalamiento. Después de todo, los embotellamientos son parte de nuestra diaria experiencia, y para prevenir que la causalidad se vuelva consecuencia, a menudo consideramos el tráfico cuando planeamos. Sin embargo, cuando esto se traduce a datos científicos, es más difícil valorar si una pieza de información como el fenómeno del rompimiento de la simetría, que ocurrió durante el big bang, sólo desencadenó una cadena de causalidad o si tuvo consecuencias. Parte del problema tiene que ver con la tendencia casi innata de los científicos a evadir la generalización y el pensamiento determinista. Si uno le explicara el proceso de rompimiento de la simetría a mucha gente, y después les mostrara cómo sin él, ni el planeta ni nosotros estuvieramos aquí, la mayoría de esa gente estaría de acuerdo en que el proceso de rompimiento de la simetría tuvo tremendas consecuencias. Para los científicos, el enmarcarnos en el argumento cae en el antropocentrismo, y ellos creen que fue el antropocentrismo lo que en el pasado impidió el progreso científico. En parte tienen razón y en parte están equivocados. Están muy equivocados cuando sostienen que el proceso de rompimiento de la simetria fue un accidente que desató una cadena de causalidad. El azar y el accidente siempre tienen un rol en las cosas, su presencia es innegable y bastante 184 evidente en nuestro diario existir. Así que nadie puede negar el hecho de que muchas cosas en este mundo no sólo están sujetas al azar, sino que le deben su existencia. A pesar de todo, el pasar de concederle un papel importante al azar en el universo, a sostener que porque ciertos aspectos de la creación puedan deberse al azar, el universo entero es aleatorio, es un paso en falso, lógico y epistemológico. Como el antropocentrismo al que tanto temen, lo científicos privilegian un elemento sobre el otro y se ciegan a una visión más amplia. Así que ¿cómo vamos a imaginarnos o a valorar las consecuencias de una acción o evento como el proceso del rompimiento de la simetría? De la misma manera que vemos consecuencias en los embotellamientos del tráfico cuando los filtramos a través de la perspectiva de una entrevista o un negocio perdidos. Los filtramos, los ponemos en perspectiva, ¿y qué perspectiva nos revelará las consecuencias de tal accidente? Todas las ramas de la ciencia consideran la indeterminación y el accidente, puesto que su papel es predecir. Sólo la evolución los ha sistematizado, los ha entendido e integrado. Para los cosmólogos y los físicos de partículas, los eventos anormales, el accidente y los saltos cuánticos son solamente interesantes en tanto revelan un sistema y un orden interno, una recurrencia. Para que la evolución funcione como una sostenible teoría científica, los biólogos evolucionistas necesitan de lo anormal, del accidente, o para usar los propios términos de Darwin, de lo monstruoso. Así, el sostener que el universo está sujeto a las leyes de la evolución, es anatema para muchos científicos. De hecho, el pretender dar a la evolución un campo de aplicación más amplio que el biológico, es visto inmediatamente como pretender volver a un positivismo científico del siglo XIX. Los cosmólogos encuentan la evolución un poco más confortable, 185 menos inquietante a su modo de pensar, en miles de millones de años de historia cósmica, como un deslizarse hacia el fondo de un basurero entrópico, en lugar de imaginarse a los planetas, las estrellas, los átomos las galaxias y los seres vivientes, como el producto de una evolución. Las razones que están detrás de esta resistencia a tal interpretación o aplicación de la evolución al tema de la cosmología y en general al de la materia inorgánica, son varias. Algunas están matizadas por esa tendencia nihilista postmodernista que hemos discutido en capítulos previos, postura que está acorde con su pesimismo. Otras razones tienen un criticismo válido que debemos señalar. La principal de ellas funciona como sigue: la evolución ciertamente ha moldeado la vida en la Tierra –argumentan estos pensadores–; sin embargo, cuando uno aplica la idea de la evolución al cosmos, no está siendo literal, y la ciencia no puede trabajar con metáforas. Lo que ellos temen, o más bien, lo que ellos se preguntan, es si la evolución y la cosmología deben actualmente encontrarse y, si es así, deben hacerlo con una base sistemática. Estas dudas críticas son reales e importantes, puesto que su consignación se debe a una mala interpretación de la evolución. Ellos están en lo correcto, y lo que pretenden es que la declaración sea demostrada y que la evolución no debe ser entendida como un mero cambio. ¿Como podemos probar que la evolución realmente sucedió y está sucediendo en el universo? Antes de empezar a buscar una evidencia de la evolución cósmica, refresquemos brevemente nuestra memoria regresando al primer capítulo, donde hablamos de los tres principios de la evolución, y después intentemos ver cómo esos principios parecen encajar bien y explicar varios estados de la historia cósmica. 186 De esta manera, como vimos, lo que los biólogos llaman evolución es la aplicación de estos tres principios a los cambios de los organismos vivientes. El primer principio es el de conservación. Por conservación, los biólogos etiquetan el fenómeno de la herencia en su significado más profundo. Hasta donde tienen que ver las especies, lo que las define como tales es el principio de conservación, el hecho de que haya un conjunto de características que pasan y permanecen de los progenitores a su prole. En el mundo orgánico, el principio de conservación es tan fuerte que los embriólogos nos han mostrado cómo los embriones humanos desarrollan en una etapa, agallas, recuerdo de los antecesores “peces”, que luego se transforman en pulmones. De igual manera, también construyen y destruyen buena parte del tejido cerebral en un proceso llamado “escultura neural”. El segundo principio de la evolución es la antítesis de la conservación: la innovación. Muchos han interpretado mal la teoría y la han visto sólo como un progreso o un mero cambio que se ha enfocado en la innovación misma, aunque para los biólogos esta innovación es semánticamente diferente a la que nos referimos cuando hablamos de tecnología. Mientras que la innovación en la tecnología implica un intento de aerodinamizar herramientas que tienden a ser más eficientes y poderosas, en biología significa el hecho de que la molécula de ADN resulta alterada mediante cambios internos producidos por sucesivas mutaciones que heredarán los descendientes. Estas mutaciones constituyen la amenaza o la “monstruosidad” de la que la evolución depende. Como el rompimiento de la simetría, las mutaciones surgen al azar. Sin embargo, la evolución asimila estos accidentes en un esquema más amplio, en un modelo mayor. Y en el centro de este modelo mayor, actuando como el eje entre los dos principios anteriores opuestos, está el principio de la selección. La 187 conservación, por sí sola, apunta al estancamiento; sumada a la innovación, nos conduce a cambios ciegos, a la casualidad. El meollo de la evolución está en la adición de la selección. Darwin llegó al principio de la selección después de leer a Thomas Malthus, pues se dió cuenta de que las especies se reproducen a una tasa mayor que la que su ambiente puede soportar. En otras palabras, los seres vivos tienden a reproducirse tan aprisa y en la mayor cantidad que puedan y el único mecanismo para controlar esta reproducción es el agotamiento de los recursos. Los individuos compiten por estos recursos y algunos compiten lo suficiente como para llegar a reproducirse, mientras que otros, menos aptos, mueren antes de alcanzar la edad necesaria para ello. Puesto que los individuos que sobreviven son producto de la innovación y la conservación, a su vez engendran su descendencia, la cual preservará su información genética. Como la innovación surge de su éxito en la interacción con el medio ambiente, éste determina si la innovación es aprobada o no. Cuando los críticos de arte, por ejemplo, usan el término evolución para indicar ciertos cambios en los trabajos artísticos, lo están tomando prestado de la ciencia. Pero este préstamo lo usan en forma metafórica. El arte realmente no evoluciona. Claro que hay y ha habido principios conservativos en el mundo del arte, pero pensamos en estos principios bajo la sola rúbrica de la tradición. También existen innovaciones, sin embargo, que no son debidas al azar, sino que estan determinadas por la individualidad de un artista, el medio, las circunstancias históricas, o por lo menos reflejan el respaldo o antecedentes culturales que influenciaron al artista. Más aún, estos cambios no se acumulan para crear una especie totalmente diferente. El arte tiene la misma función y propósito que tenía en el Renacimiento. Y más 188 allá de invocar fuerzas de mercado, no podemos hablar de principios de selección en el mundo del arte. Ésta es la clase de aplicación de la teoría de la evolución que los científicos han rechazado, por lo que que si pretendemos hablar de una evolución cósmica, debemos tener la certeza de que los tres principios evolutivos funcionan en la historia del cosmos. ¿Podemos, en otras palabras, decir que el universo nos ha dado la prueba de que no está solamente gobernado por las fuerzas que hemos discutido, sino que estas fuerzas están a su vez sujetas a los principios conservativos, innovativos y selectivos de la evolución? La respuesta de Teilhard de Chardin es un categórico sí, lo que para muchos supone la mayor falla de sus ideas. Nosotros creemos que, a pesar de todo, Teilhard está en lo correcto, y que no sólo hay más que suficiente evidencia de que los tres principios de la evolución actúan en el cosmos, sino que si accedemos a cambiar nuestro paradigma un poco, no solamente entenderemos la perspectiva de Teilhard de Chardin, sino que también podríamos empezar a redirigir el propósito de las investigaciones científicas, de la misma manera que toda revolución científica lo ha hecho. El cambio de paradigma es bastante simple. Si tomamos los registros y la explicación de fenómenos específicos como el propósito de la ciencia, terminaríamos con una ciencia que considera la causalidad y evita tratar con consecuencias. Lo que actualmente tenemos en la mayor parte del trabajo científico es un calcular o llevar las cuentas, sin un intento de darle un significado. Como cualquier amante de la música o cualquier entusiasta de las artes –que son las más significativas de las tentativas humanas– sabe, el significado en cualquiera de ellas no es tanto un asunto de contenido como de forma. Sin tratar de prolongar demasiado la analogía, podemos sostener 189 que la investigación científica está basada en contenidos y sólo las nuevas ramas de las matemáticas se relacionarán con el aspecto formal. Aclaremos un poco. La física de partículas, que reune colores, sabores, espines y trazas de partículas para descubrir otras partículas, la cosmología que relaciona fenómenos y cuerpos celestes, la biología que hace el escrutinio del genoma, son todas ciencias que están tratando con lo que nos hemos referido como contenido. Si el proyecto del genoma humano es, como se vea, indicativo de esta tendencia, lo que tenemos son ciencias que, en lugar de ser predictivas, han llegado a ser nuevas taxonomías, ciencias que son una vez más solamente descriptivas. La biología, sin embargo, parece estar un paso adelante en el juego. La razón es principalmente histórica. Lo que el proyecto del genoma está haciendo es llevar la cuenta o describir el contenido de la molécula de ADN. A diferencia de los físicos de partículas y de los cosmólogos, los biólogos iniciaron la relación después de que descubrieron la forma, la estructura de la molécula de AND, y por consiguiente el significado o función de la molécula. Lo que necesitamos es una ciencia formalista, ¿pero qué supone esto? A diferencia del contenido que tiene propósitos semánticos significativos, pero que también puede tener ruido semántico, lo que elegimos para referirnos como forma son realmente las estrategias83 que la naturaleza impone a través del tiempo. Esta última definición no es simple. No obstante, es importante y antes de continuar con la evolución cósmica, debemos ver lo que significa. Como ya se dijo, las grandes revoluciones científicas por lo común hacen más que elaborar un nuevo concepto, cambian los paradigmas con los cuales vivimos. Después de la revolución copernicana, ninguna otra perturbó más 83 Estrategia: en un proceso regulable, el conjunto de las reglas que aseguran una decisión óptima en cada momento. 190 nuestra manera de pensar que la de Darwin, y mientras que la mayoría de la gente cree que Darwin cambió nuestros paradigmas colocándonos en la misma linea de descendencia que los primates, el concepto verdadero y más difícil de asimilar es el que la teoría implica acerca del tiempo y del mundo en que vivimos. La mayor parte de la ciencia y de la filosofía predarwinianas, consideraban el tiempo como una especie de maquillaje, puesto que el universo y todo en él era estático. Por supuesto que los pensadores y los legos percibian cambios; sin embargo, no pensaban que los grandes o pequeños cambios equivalieran a algo. La teoría de la evolución de Darwin no sólo sostenía, sino que necesitaba que la Tierra fuera mucho más antigua que lo que cualquiera hubiera pensado. Unas pocas formas de vida originales, para diversificarse en los millones de especies que se encuentran actualmente en la Tierra, requirieron cientos de millones de años. Aun cuando Darwin no tuvo en su tiempo los registros geológicos que soportaran su teoría, ésta seguía siendo radical al identificar un mecanismo, una estrategia por medio de la cual la naturaleza tanto preservaba como cambiaba las características innatas de la especie. En otras palabras, la evolución, barajando sus tres principios –conservación, innovación y selección– es una estrategia impuesta sobre el tiempo. Quién o qué impone la estructura, será la cuestión con la que trataremos el siguiente capítulo. Por ahora debemos continuar para definir cómo una ciencia formalista es o debe ser radicalmente diferente a una ciencia basada en el contenido. Como hemos visto a lo largo del libro, los cosmólogos tratan con enormes cantidades de tiempo, mucho más vastas que aquéllas con las cuales los biólogos evolucionistas tratan. Por otro lado, sus contrapartes, los físicos de partículas, tratan con lo más diminuto, con cantidades que para nosotros son inimaginablemente pequeñas, si bien tanto 191 los cosmólogos como los físicos de partículas se enfocan en un su mayor parte en un solo asunto, el explicar fenómenos individuales. Sus ciencias, en otras palabras, sólo tratan con momentos aislados en el tiempo. Aun los astrofísicos, cuyos métodos parecen tan históricos como la evolución (después de todo las galaxias y quásares que los astrónomos observan son de muchas maneras los registros fósiles del universo), se enfocan principalmente en momentos aislados, si bien en momentos cósmicos. Sí, a menudo obtenemos una crónica del universo, pero como hemos argumentado, más que una historia, es una cadena de causalidad. El problema central para los físicos, si fueran a hacer la tentativa de cambiar la naturaleza de sus trabajos basada en el contenido y reenfocarse en el problema formal, es que el modelo “matemático” que la evolución ha empleado las más de las veces para calcular los cambios a través del tiempo, no es precisamente el suficiente para el tipo de cálculo exacto que se tiene que hacer cuando uno trata con millonésimas de segundo. Las matemáticas, por supuesto, han estado de muchas maneras en la vanguardia de la invetigación científica. Con esto no queremos decir que los matemáticos se ponen la bata de laboratorio con frecuencia para trabajar con la ciencia experimental, aunque algunos sí lo hagan. No, las matemáticas han estado a la vanguardia porque muchos de sus modelos, que han sido cruciales para el progreso científico, ya estaban bien establecidos para cuando algún científico llegó y trató de aplicarlos a la realidad. En otras palabras, las matemáticas existen antes de ser explicadas. Un buen ejemplo es el de Einstein, que llegó a escena cuando las reglas de la geometría de cuatro dimensiones había ya sido trabajada por Bernhard Riemann y János Bolyai. Este tema de la geometría de cuatro dimensiones permanece considerado como de los más difíciles y misteriosos. 192 Einstein realmente luchó para entender las matemáticas. Sin embargo, al adoptar el modelo pudo comprobar la simiente de la teoría de la relatividad general. Existe por supuesto un sentimiento de retraso en la cultura y los científicos no están inmunes a él. En las conferencias académicas hay a menudo lamentaciones por el hecho de que el ambiente intelectual que favoreció a los Einsteins y Bohrs ha desaparecido. Se fue la rígida academia de las universidades alemanas que prepararon a la que quizá haya sido una de las más notables generaciones. Se fueron también las ideas acumuladas que flotaban en el aire y que resultaron las más fértiles, cuando luminaria tras luminaria parecian tomar la esencia de ésta o aquella idea y transformar la manera en que entendiamos el mundo. Asi que hagamos la pregunta: ¿existe un modelo matemático que los físicos puedan adoptar, para que pudieran cambiar hacia una manera más formalista de hacer la ciencia? A partir de la mitad de la década de los años setenta y principio de los ochenta, los mundos de las finanzas, de la meteorología y de la ecología han sido radicalmente transformados a medida que las matemáticas del caos y los fractales han empezado a filtrarse en sus estudios. El caos, la ciencia más elaborada de ambas, trata con lo que los científicos llaman comportamiento caótico. El comportamiento caótico es propio de los sistemas –como el clima, el mercado de valores o un ecosistema– cuyo comportamiento no es lineal y un pequeño cambio en las condiciones iniciales del experimento tiene una gran influencia en los resultados. El caos es de muchas maneras el verdadero estudio de las consecuencias. Tratemos de explicar con una analogía más elaborada. Lo elaborado se debe principalmente a que los conceptos no son fáciles. Pero de cualquier manera, imagínese que tenemos una cámara fotográfica en la que el visor de imagen y la lente no son uno o el mismo, por lo que existe una discrepancia, 193 aun cuando pequeña, entre lo que vemos y lo que la lente captura. La cámara y el objeto a fotografiar forman en este caso un sistema lineal porque existen “errores” predictivos, que pueden tomarse en cuenta desde un principio. Asi que si estamos tratando de hacer un acercamiento, digamos, de un florero, todo lo que tenemos que hacer es tomar en consideración la discrepancia, es decir, ajustar de inicio. Nuestro sistema, que incluye el visor de imagen, los lentes de la camara y el florero, son bastante predecibles. Pero si salimos del estudio y en vez de fotografiar un florero decidimos tomar fotos de gente caminando en la calle, aunque estemos conscientes de los “errores predictivos”, tan pronto la gente se empiece a mover dentro y fuera de foco y las nubes permitan una mayor o menor luminosidad, estaremos tratando con un sistema caótico. Muchas de las condiciones iniciales habrán cambiado y no seran predictivas, así que las fotos que logremos pudieran no ser las que esperábamos, aún tomando en cuenta los errores predictivos. La característica fundamental de los sistemas caóticos es que si a dos sistemas idénticos se les dan “giros” ligeramente diferentes, se tornan exponencialmente divergentes. Finalmente, lo que el caos, como modelo matemático, permite a los científicos es poder considerar un sistema, no como un fenómeno aislado, sino como un proceso que se desenvuelve en el tiempo. De ahí el éxito del caos para trabajar con el mercado de valores, el clima o los ecosistemas. ¿Cómo funciona el caos? En lugar de intentar predecir las condiciones finales de un sistema, el caos modela el desenvolvimiento del sistema varias veces cambiando muy poco sus condiciones, para predecir un resultado. El meteorólogo, por ejemplo, “corre” en la computadora una simulación que empieza con las condiciones del dia de hoy. Puesto que está tratando de predecir el clima de pasado mañana, debe dejar que la simulación se desarrolle durante esos dos dias. A 194 menudo los resultados serán bastante divergentes. El clima, después de todo, es uno de los sistemas más caóticos, es decir, uno de los más sensibles a los cambios por más insignificante que éstos sean. Su predicción, por consiguiente, está basada no en el tipo de divergencias que se encuentran, sino en los lugares donde las diferentes simulaciones concurren. Los corredores de bolsa siguen un proceso similar con el mercado, para obtener gráficas que revelen los cambios a la alta o a la baja. Los ecólogos también usan diferentes modelos de ejemplos de ecosistemas e intentan predecir el crecimiento de las poblaciones y la merma de los recursos. Muchos argumentan que la evolución cósmica es una quimera, pues apunta a que si queremos usar modelos de caos para probarla debemos tener varios modelos de universo, o varios universos para ver cómo los diferentes escenarios se desarrollan, y solamente entonces discurrir patrones. Algunos cosmólogos consternados por esta imposibilidad han llegado a postular la fascinante idea de los multiuniversos. Brevemente, lo que argumentan es la existencia, no de uno, sino de muchos universos, los cuales han tenido historias radicalmente diferentes. Algunos habrán nacido sin posibilidad de llegar a producir estructuras biológicas, otros habrían podido terminar con más de cuatro dimensiones y fuerzas después del rompimiento de la simetría. Desafortunadamente, mientras que el modelo de multiuniversos suena intrigante, como postulado poco nos ayuda en nuestra búsqueda de probar que la evolución cósmica es un hecho. Actualmente sabemos mucho más de nuestro universo que hace un siglo. Podemos reconocer una estructura, tenemos clasificado mucho de su contenido. Sin embargo, tal trabajo ha tomado milenios y la concurrencia de varias civilizaciones para lograrlo. Así que actualmente, imaginar que pudieramos trazar la historia de 195 varios universos de ese multiuniverso para simular los diferentes modelos de universo y encontrar patrones, es más que ingenuo. La propuesta tampoco parece tomar en cuenta, que mientras que en los pronósticos financieros y meteorológicos, el caos ha sido utilizado como una herramienta predictiva, si aplicamos el mismo modelo matemático a la historia del universo, lo haremos no tanto para predecir un resultado, como para encontrar patrones en el caos, para encontrar una recurrencia de aquellas estrategias que la naturaleza ha impuesto a través del tiempo. Lo que buscamos en la historia del universo usando el caos como un lente de aumento, no es la historia de los eventos per se, sino la historia de aquellas formas que han emergido en ciertos estados de la historia del universo y que fueron capaces de llegar a ser estables y perdurar pese a la entropía. Por supuesto aquí no hay genética de cuando emergieron las formas de la que hablar. La genética llegó a ser un asunto de importancia cuando las moléculas se polimerizaron, pero esto será tema del siguiente capítulo. Brevemente, nosotros no podemos argumentar que una estructura estelar inicial trasmitió sus rasgos a su descendencia. Lo que sí podemos argumentar mientras vemos las diferentes estructuras que emergen en el universo son dos cosas. Primero, a causa de las fuerzas de la naturaleza y de la manera que ellas disponen de la materia y determinan su comportamiento, el universo permite la sobrevivencia de sólo ciertas estructuras. Sólo hay unas pocas estructuras viables en nuestro universo, y mientras que esto no parece ser equivalente a una ayuda genética, de muchas maneras sí lo es. Puesto que la genética es la réplica de la información, de manera que ésta pueda pasar de los padres a su descendencia, es una obligación, y determina, a nivel de las 196 fuerzas, que las partículas formen la materia, las estrellas de las galaxias y los sistemas solares. Segundo, es posible observar que algunas estructuras básicas no sólo parecen permanecer, sino que realmente parecen refinarse, perfeccionarse y llegar a ser más viables con el transcurso del tiempo. Lo verdaderamente sorprendente de los patrones que emergen, es el patrón de complejificación, hasta el punto que a las estructuras concierne, y a la cantidad de información que tales estructuras contienen. Esta tendencia viene a ser más obvia una vez que la evolución orgánica surge. Y en sí mismo el concepto tiene muchos términos difíciles –como complejidad e información– que sólo llegan a aclararse cuando buscamos en el proceso mismo. La cuestión que queda para nosotros es ¿en qué punto podemos empezar a hablar propiamente de estructuras? El universo primitivo, con su inconcebible energía y calor, ciertamente no parece que fuera un amable huésped de las estructuras. De cualquier manera, pese al hecho de que nada parecido a lo que actualmente conocemos como materia residia allí, ya para la época en que el universo tenía un diezmilésimo de segundo, los quarks y antiquarks habían terminado su aniquilación mutua y los sobrevivientes se habían reunido en tríos como protones y neutrones. Entonces, en mucho menos tiempo de lo que llamamos un instante, el universo había elaborado las semillas, los componentes del futuro núcleo atómico. El núcleo atómico es el primero entre muchos venideros ejemplos de lo que hemos llamado estructuras. Es el primero que parece seguir nuestros dos principios. Inicialmente, el núcleo atómico fue configurado y determinado por las fuerzas de la naturaleza. En seguida, vino a ser la semilla de estructuras más complejas. A tal grado, que cuando el universo tenía una edad de 3 minutos y 42 segundos, protones y neutrones se habían ligado y formado el núcleo 197 del helio; así el naciente universo llegó a estar formado por un 20% de helio y un 80% de hidrógeno, los dos elementos atómicos más ligeros. Para aquellos que se ocupan de los patrones y gustan de las formas, estos primeros minutos del universo pueden verse como algo casi poético en el sentido en que, como un Leitmotiv, manejó la urdimbre de lo que podríamos llamar el tema central de la historia del universo, si éste fuera una pieza de música. Para aquellos a quienes no les importan los patrones, tendrían suficiente con una lista inicial de ingredientes y un curso elemental de física, para un conocimiento básico de que los dos elementos que dominaron el universo primitivo no son sólo los más simples,84 sino los dos únicos en la receta de las estrellas. A las estrellas les faltaba mucho para llegar, pero cuando el universo tenía una hora de edad, se había enfriado lo suficiente para que la mayoría de los procesos nucleares (y prenucleares) se hubieran detenido y el germen de todo lo que vendría a ser se hubiera estabilizado. El enfriamiento en tales estados primitivos altamente energéticos, por supuesto que es relativo, puesto que cuando el universo tenia un año de edad su temperatura ambiente era más o menos la misma que la del centro de una estrella en la actualidad. El origen de estas estructuras simples no es un argumento muy fuerte para demostrar que el universo está evolucionando. Mientras tanto, la existencia del núcleo será al menos el sostén de la existencia de una fuerza conservativa de este firme “lecho de roca” en el largo proceso de la historia universal, pero no tendrá importancia para los otros dos principios de la evolución, la innovación y la selección. En la búsqueda de estos principios 84 Hay que aclarar que en sí estos elementos son simples en el contexto de los elementos que propiamente forman ya la materia, pero que son sumamente complejos ya que en el neutron se aloja la información como gluones, varios tipos de quarks que a su vez posiblemente esten formados por cuerdas y éstas, quizá sean la energía misma. 198 tenemos que remontarnos a otro momento culminante de nuestra más que resumida historia. Y el estado del universo cuando empezamos a encontrar algo parecido a la innovación y a la selección es cuando éste tenía alrededor de 10 a 11000 millones de años, esto es, para dar una mejor idea, hace alrededor de 3.8 a 4000 millones de años. Estos son inimaginables lapsos, cuando estamos buscando al menos dos datos, puesto que estamos hablando acerca de un proceso que tuvo lugar durante 11000 millones de años o más. Sin embargo, dentro de este proceso podemos señalar cuatro umbrales cruciales, que si no nos confirman, al menos insinúan la innovación y la selección. El primer umbral nos remite a la radiación cósmica de fondo que incluye la liberación de los fotones, dejando a los electrones libres para combinarse con los nucleos y formar los átomos estables. O dicho de otra forma, lo que los átomos estables permiten es la formación de la materia como la conocemos. De hecho, lo que emergió hace 11000 millones de años fueron las nubes de materia que llamamos protogalaxias. Este momento –si es permitido llamar momento a tal lapso– marca dos cosas, la emergencia de estructuras más complejas que utilizan una “célula” básica, por llamar de alguna manera a esta estructura básica. Lo que también vemos emerger en primera instancia son nubes de materia en gran escala. Mientras que no todas de estas nubes de materia llegaron a formar galaxias, fueron alimentadas y gobernadas por esas fuentes de luz puntuales, creemos, llamadas quásares, cuyo corrimiento al rojo indica que se encuentran a distancias de miles de millones de años luz y posiblemente sean los núcleos de jóvenes galaxias. Brevemente, lo que vemos en este umbral es el principio de otra estructura. Para decirlo coloquialmente, la receta inicial para una estrella, fue utilizada por el universo, y en este umbral, vemos surgir las estrellas, como el eje de nuevas estructuras. Como cualquiera con un conocimiento superficial de 199 astronomía sabe, no todas las estrellas son viables. De hecho, la longevidad y la sobrevivencia de las estrellas está determinada por su masa. Para muchos, la formación de las protogalaxias y aun la liberación de los fotones que permitieron a lo electrones combinarse con el núcleo y formar átomos estables, no es tanto prueba de una evolución como de un fenómeno causal, fenómeno que tuvo lugar porque las condiciones fueron las correctas. De muchas maneras, el modo de ver una serie entera de eventos como una cadena de causalidad, es solo falta de una visión más ámplia: estos eventos y los que siguieron, incluyendo la aparición de la vida hace alrededor de 4000 millones de años, requirieron de un universo increiblemente bien sintonizado. Aun tomando en cuenta el azar, como lo hace la teoría de la evolución, aun tomando en cuenta accidentes, la sola formación de la materia, dejando fuera la emergencia de la vida, requirió un perfecto diseño de lo que el astrónomo Martin Rees ha llamado Just six numbers. Entre estos se incluyen: N, El número que mide la relación entre la fuerza electromagnética y la gravedad y es un número muy grande, pues la atracción gravitacional entre los protones es 1036 veces más tenue que las fuerzas electricas. Pero aun así, si tuviera menos ceros, en el universo no habrían surgido las grandes estructuras que dieron paso a las galaxias y por supuesto que nunca habría surgido la vida. En palabras de Rees, “No tenemos una teoría que nos indique el porqué del valor de N. Todo lo que sabemos es que nada tan complejo como la humanidad hubiera podido emerger si N no fuera tan grande como 1,000,000,000,000,000,000,000,000,000,000,000,000.” ε es otro número que mide lo que sucede en el átomo y es el porcentaje de masa de hidrógeno que en su interior, las estrellas transforman 200 en energía al fusionarse en helio. Determina cuan larga será la vida de una estrella, por lo que si fuera diferente (menor) de 0.007, no daría tiempo a que la vida se desarrollara en los planetas. También describe que tan firmemente el núcleo atómico está unido para que la fuerza nuclear fuerte domine el combate con la repulsión eléctrica. Q Es el número que determina la “textura” de la estructura del universo. Su pequeñez –alrededor de 10-5– permite suponer al universo como aproximadamente homogéneo. Si su valor se inclinara hacia cualquier lado, el universo sería inerte y vacío de estructuras, o hubiera sido demasiado violento para que las estrellas y las galaxias pudieran sobrevivir. Estos números fueron determinados en el inicio de la historia del universo. Y los tres que hemos descrito determinaron mucho de lo que pasó en los umbrales con los que hemos estado tratando. El hecho de que parezcan tan finamente sintonizados han proveído gran cantidad de material a filósofos y teólogos para especular sobre la naturaleza del universo y poder cuestionar el dogma de que una aleatoria fluctuación cuántica, un accidente, fue el culpable de la exquisita sintonía del universo. Los detractores de este argumento lo han despreciado y se han escudado acusando a aquellos pensadores de estar argumentando que existe un diseño, pues para ellos realmente no es un argumento de diseño. Lo que es, solamente, es el reconocimiento del hecho de que el universo está finamente sintonizado, y haciendo ésto, sólo remarcan algunas de las deficiencias de la ciencia contemporánea en su incapacidad para explicar, y más que nada, de poner objeciones a otras posibles vías que la investigación pudiera tomar, si la ciencia quisiera o tuviera la voluntad de explicar estos sorprendentes fenómenos. 201 Los científicos que han aceptado esta fina sintonía del universo y que han intentado entenderla no sólo como una serie de gigantescas coincidencias, han argumentado que la evolución es una vía para entender la manera en la que el universo se ha desarrollado. Las pruebas abundan, y no solamente nos cuentan una limpia y pulcra historia acerca de la emergencia de la materia y la manera en que las nubes de gases se convirtieron en estrellas, sino que algunos científicos importantes han trabajado y estudiado estas pruebas para darnos más amplias pistas de lo que la evolución realmente es. Destacado entre estos científicos es David Layzer, quien en su libro de 1990, Cosmogénesis, se las arregló para discutir no sólo sobre un universo que se desarrolla, sino para aclarar los muchos malentendidos que tienen los detractores de un universo en evolución. El libro de Layzer, como muchos libros que han intentado de allí en adelante establecer teorías similares, no es fácilmente comprensible. Ningún libro sobre este tema puede serlo. Pero hay algo asombroso, y es que el libro parece ser solamente un refundir y repetir muchas de las cosas que Teilhard de Chardin dijo por lo menos medio siglo antes y que la comunidad científica desatendió y malentendió. Como Teilhard de Chardin, Layzer razonó que si vamos a pensar en un universo que evoluciona, primero y principalmente debemos considerar la evolución no sólo como un proceso o una vía para darle sentido al fenómeno; por el contrario, lo que nos hace pensar en un universo que evoluciona es imaginar esta evolución como creativa. En este sentido Layzer es bergsoniano (L’évolution creatice). Teilhard de Chardin va todavía más allá al pensar no en una evolución creadora, sino en una creación evolutiva. Como hemos visto, muchos críticos han argumentado que la teoría científica debe ser predictiva. Nos debe decir algo sobre el futuro. Al decir que el universo evoluciona, ellos 202 apuntan no tanto a contarnos lo que sucederá, sino sólo a decirnos lo que ha sucedido. El demandar un poder predictivo preciso a un teoría es una tendencia que hemos visto y etiquetado como reduccionismo. De muchas maneras, esta demanda viene de la física cuántica y de partículas, en la que los científicos son tremendamente precisos. Los átomos, como quiera que sea, no son sistemas caóticos. Como hemos visto en la discusión del caos, cuanto más complejo se vuelve un sistema, más caótico se hace. Para David Layzer, esta naturaleza caótica de un sistema complejo como el universo supone un entendimiento de la evolución no como una mera progresión de un estado a otro, sino como “inteligente”, como un proceso conciente y sensible, cuyos productos verdaderamente innovativos tienen como propósito crear orden a partir del caos. Al decir de Layzer, vivimos en un mundo “conveniente y favorecedor, que es un mundo en el que el orden emergió de un caos primordial y engendró nuevas formas de orden. El proceso que ha creado y continúa creando orden, obedeciendo leyes físicas universales e inalterables. A pesar de todo, porque generan información, sus resultados no están implícitos en sus condiciones iniciales”. El punto de vista de Layzer, como la visión de Teilhard de Chardin, parece casi poética dentro de su sentido común. Su panorámica del universo, donde unas simples leyes manipulan la materia hasta que el material “en crudo” llega a ser parte de algo mayor que sí mismo. Esto no es una jerarquía, como algunos han supuesto. Es un proceso en el que el propósito o la intención es usar la materia para transformar y hacer más complejo algo que es inmaterial: la información. Esta información es copiable (o transcribible), acumulativa, legible y digna de leerse. En nuestra experiencia, la molécula de ADN puede ser uno de los más refinados ejemplos de compuestos químicos manipulados por leyes físicas pemanentes que 203 contienen información que se puede copiar y es legible. Nuestro cerebro puede ser usado también como otro ejemplo. En el próximo capítulo trataremos ambos, pero para concluir permítasenos presentar algunas de las objeciones que se han levantado en contra del argumento de Layzer y veamos que tipo de prueba necesitamos encontrar para aceptar la de Layzer como una teoría viable. El argumento de Layzer ha sido visto en muchos círculos como agresivo y se reconoce que parece “pisar muchos dedos científicos”, por decirlo de algún modo. No solamente le quita a la ciencia su poder predictivo, sino que llamandola evolución creadora, supone que algo como una voluntad, una fuerza y una meta, han sido inherentes al universo y sus productos. El aceptar que el universo no solamente evoluciona, sino que su historia entera ha sido “impulsada” por una fuerza creativa, pudiera significar que todas las leyes físicas están subordinadas a una macroley que determina la emergencia y el sentido de todas las otras leyes. El encontrar esta gran ley suena más que ambicioso. Algunos le llamarían quijotesco. Esto haría redirigir la investigación científica de una manera drástica. Pero hablando más propiamente, lo que habría que modificar profundamente serían las interpretaciones de los científicos a sus teorías, pues la investigación científica, quiérase o no, tendrá siempre que ir en el sentido de desentrañar las grandes incógnitas del universo que aun subsisten y un ejemplo claro y actual es la teoría de las supercuerdas, que tiene grandes implicaciones metafísicas y tomándola desde este punto de vista es absolutamente revolucionaria. La existencia de esta macroley también obligaría a tocar todo precepto desde la relatividad hasta el quantum, y razonar que estas teorías son como piezas sueltas de un vibrante rompecabezas. Y la pregunta obvia que surge 204 para los científicos es si esta redirección, que sería inevitable, traería una nueva perspectiva, una intención didáctica o pedagógica. Es decir: ¿hay o ha habido una indicación directa de la existencia de una macroley para las formas que surgen en el universo y codifican la información que a su vez crea sistemas más complejos? Una de las promisorias pistas o indicaciones de la existencia de una macro-ley, procede de una de las principales leyes científicas de 1998, y forma parte de los seis números cuyo valor Martin Rees sostiene que son indispensables para la existencia del universo como lo conocemos. Su origen se remonta a la relatividad general de Einstein. Viendo que una de las predicciones de la teoría, era que el universo se estaba expandiendo, Einstein introdujo una constante cosmológica que llamó λ y cuya función era balancear el efecto de la gravedad y obtener un universo estable. Tiempo después, al demostrarle Hubble que efectivamente, el universo se estaba expandiendo, Einstein llamo a λ el más grande error de su carrera. Y ciertamente, las razones por las cuales Einstein introdujo λ en su teoría son ahora obsoletas. Sin embargo, en el presente, los científicos han tenido a su alcance el descubrimiento de que λ apunta a una insospechada nueva fuerza, una fuerza que actúa “inteligentemente” para controlar la expansión del universo y cuyos efectos son discernibles a la escala en que la evolución lo es: a través de épocas, de eónes. Además, λ, como fuerza, parece ser portadora de una macroley, puesto que en todo tiempo y en el largo plazo ha llegado a dominar sobre la gravedad. λ es la más tenue, la más débil fuerza de la naturaleza, y por mucho, la más misteriosa. A pesar de esto, controla las otras fuerzas, puesto que controla la expansión del universo y su destino último. De hecho, no sólo determina su futuro, sino que en realidad 205 determinó su pasado. Si hubiera sido una fuerza más fuerte, se hubiera impuesto a la gravedad en etapas tempranas de la vida del universo, impidiendo la emergencia de las galaxias. Brevemente podemos decir que λ puede ser una entre muchas evidencias de una “voluntad”, de una “sensibilidad” que no es necesariamente determinista, porque como Layzer lo ha señalado, su mecánica es creativa. Otra evidencia se encuentra, por supuesto, en el siguiente umbral de la evolución, hace 3.8 o 4000 millones de años, cuando la Tierra se había enfriado lo suficiente para que se formara una costra sólida. Por ese entonces, las galaxias por supuesto ya se habían formado y el sistema solar había llegado a ser una estructura en el continuo proceso de un universo favorecedor. Tomaría 600 millones de años para que las células microscópicas colonizaran la Tierra y 2000 millones de años para que las plantas emergieran. Podemos visualizar entonces la esencia de la evolución: La emergencia de formas que economizan energía para guardar información: economía en las formas para contener información. 206 9 COMPLEJIDAD Y EVOLUCIÓN You have to pick up the Bass, as Mingus called his, with audible capitals, and think of the slow years the wood spent as a tree, which might well have been enough for wood, and think of the skill of the bassmaker carried without great thought of it from home to the shop and back for decades, and know what bassists before you have played, and know how much of this is stored in The Bass like energy in a spring and know how much you must coax out. How easy it would be instead to pull a sword from a stone. But what’s inside the bass wants out, the day one day you will. Religious stories are rich in symmetry. You must release as much of this hoard as you can, little by little, in perfect time, as the work of the body becomes the body of work. WILLIAM MATTHEWS. El poema de William Mathews Mingus in Diaspora, se basa en el famoso contrabajista de jazz Charles Mingus para meditar en lo que para muchos parece ser el último proceso artístico y estético. Parafraseando palabras del músico, Mathews trazó el viaje que éste debe hacer en su labor física, a medida que el trabajo del cuerpo se transforma en una obra artística. El poema sostiene que a medida que escuchamos al músico, no sólo estamos presenciando una actuación, sino una conciencia que se extiende desde los procesos básicos de hacer la música y se sostiene todo el camino hacia el mundo natural. El músico tiene que pensar no sólo en la tradición a la que pertenece –y que otros músicos antes que él han forjado– sino en los elementos, en la historia natural que se encuentra detrás de su instrumento. Este intrincado proceso musical es un gran paradigma para la creación artística. 207 Sin embargo, en otro contexto, en un contexto científico, el proceso puede darnos más luz y revelarnos lo que son la información, la complejidad y la evolución y como trabajan unidos. Hace algunos meses el New York Times publicó un artículo sobre algo llamado “The Memoriad”, una competencia al estilo olímpico, en la que los participantes eran sometidos a una serie de pruebas, no en su destreza en algun deporte en particular, sino en la manera en que su memoria trabaja. Algunas de los pruebas incluyeron algo parecido a un exagerado y prolongado juego de memoria. Los contendientes tenían que descubrir cartas y recordar su posición, de manera que cuando una carta similar apareciera en otra posición, ellos pudieran eliminar ambas del conjunto. Como muchas de estas competencias, ésta también parecía no sólo inocua, sino trivial. Quiza por esta trivialidad y el tono adulatorio que el periodista usaba al relatar las hazañas de los concursantes, fue publicada una carta al editor varios días después despreciando el talento de los competidores y del campeón. La carta intentaba recordar, tanto a los lectores como a los periodistas, que uno puede ser testigo de hazañas más sorprendentes de la memoria casi todos los días si –por ejemplo– tenemos la voluntad de comprar un boleto para un concierto y meditar por un minuto los logros de la memoria de un pianista de concierto. Cuando asistimos al recital de una pianista o cualquier otro músico, no importa cuán torpe o hábil sea, estamos no solamente ante una sorprendente hazaña de la memoria, sino, quizá, ante una de las más claros expresiones de lo que en este capítulo llamaremos complejidad. Pensemos un poco en esto: la pianista en un momento dado tiene en mente una página completa de la música que está interpretando. Ella probablemente la habrá leido. En otras palabras, el sentido de la vista le transmite no el sonido que está produciendo, sino el símbolo de esos sonidos. Y mientras ella los pudo haber 208 oido mentalmente antes de tocarlos, lo que finalmente sucede es que su cerebro cambia la información visual en una sensibilidad motora que desencadena órdenes para que sus dedos presionen determinadas teclas, en un proceso en que la mente está adquiriendo conocimiento y los centros de memoria del cuerpo recordando y esto se nota mucho más en disciplinas como la música, en las que la precisión y una especie de visualización, van de la mano. En breve veremos que éste no es necesariamente el caso. Por lo pronto vamos a continuar con nuestra pianista; la pieza de música que esta interpretando puede ser, por ejemplo, un preludio de Bach. Ella puede haber terminado de leer la música varias veces en el mismo tiempo que nos tomaría describir cómo toca la primera nota. En otras palabras, este diminuto proceso, la lectura y ejecución de una nota, no es solo un acto instantáneo, sino que es apenas uno de dos mil que se suceden en la ejecución de una pieza de dificultad intermedia. Vista, cerebro y cuerpo pueden, en otras palabras, repetir el mismo proceso unas dos mil veces en un lapso de tres minutos. 209 Por sorprendente que parezca esta hazaña, puede ser sobrepasada fácilmente por las máquinas que actualmente poseemos. Una computadora promedio, de hecho, con un software adecuado, es capaz de interpretar las notas y llevar a cabo su sonido. Las computadoras son hasta cierto punto máquinas complejas; sin embargo, el trabajo de la computadora no debe confundirse con la hazaña del pianista. Muchos científicos, incluyendo algunos muy prominentes, se han vuelto locos con la revolución de las computadoras y la posibilidad de la inteligencia artificial, al grado de expresar pretensiones extraordinarias y declaraciones vergonzosas. Un par de ejemplos deben ser suficientes. En su libro Physics of Immortality, donde podría haber dado una explicación sensata del punto Omega, Frank Tippler cambia el argumento en una fantasía de ciencia ficción. El problema de Tippler es que da una explicación que sobrepasa la lógica. Su argumento es el siguiente: Si vamos a seguir desarrollandonos de manera que nuestra civilización o nuestros descendientes sean capaces de llegar a la vida eterna que el punto Omega promete, debemos colonizar el espacio, porque ni el Sol ni la Tierra durarán tanto tiempo. Inmerso en el sueño de ciencia ficción de Tippler uno puede encontrar la noción de que tal como la Tierra y el Sol tienen sus límites, el cuerpo y la mente también, por lo que sólo las máquinas, supercomputadoras de generaciones mucho más avanzadas que las que conocemos, podran llevar a cabo nuestro esfuerzo evolutivo. La ingenuidad de este concepto depende de la falla en distinguir entre un concepto preciso y uno “emboscado”. Cuando los científicos postulan el punto Omega, piensan en la confluencia de todas las energías en un solo punto. A la energía organizada (o que produce la organización) le llaman información. Por lo tanto, lo que 210 ellos visualizan es la información llegando a este punto final del universo. El problema aquí es el término. La información como concepto ha sido tomada en préstamo de la comunidad de la inteligencia artificial y las computadoras. En el mundo de la computación, información es cualquier cosa que pueda ser codificada en términos binarios. No se describe de qué tipo de información se trata; en otras palabras, no es necesario, solamente es un término relativo, un término que indica un proceso, no un contenido; para la computadora, Don Quijote de la Mancha de Cervantes, Mein Kempp de Hitler, el menú de un restaurante o una forma de impuestos, son lo mismo, información. Tippler no es el único que tropieza cuando argumenta que la complejidad es inherente tanto a los humanos como a las máquinas. De hecho, uno de los más rigurosos y absurdos argumentos que apoyan la complejidad de las computadoras está en el primer capítulo del libro de R. Dawkings, The Blind Watchmaker. Así que la pregunta que surge es: ¿en qué se diferencía la pianista de la computadora? ¿por qué es más complejo el mecanismo que opera en el caso de la pianista que en el de la computadora? Si la pianista a la que estamos haciendo referencia es una profesional, en el momento en que está leyendo una pieza de música, a condición de que nunca la haya escuchado, aun en grabación, lo primero que hará será empezar por descubrir patrones. El patrón más básico para los humanos es el ritmo, por lo que deberá encontrar primero, por ejemplo, la manera en la cual las semicorcheas que son ejecutadas por la mano izquierda, requiere un efecto de staccato que hace destacar la melodía ejecutada con la mano derecha. Deberá también notar que los temas se van repitiendo en variaciones, así como su dinámica y sus articulaciones. Su trabajo, en otras palabras, está lleno de cambios repentinos. Si ella quizá empieza como una autómata, haciendo un trabajo 211 que cualquier computadora puede llevar a cabo, a medida que su interpretación avanza, empieza a depender de una memoria más profunda, no sólo de la habilidad para descifrar la información, como hacen las computadoras, sino a poner en juego la habilidad para utilizar la información del pasado, la habilidad de usar una “visión retrospectiva” para determinar un resultado. Esto último hace una distinción crucial, y si no es todavía una descripción profunda de lo que es la complejidad, por lo menos está cerca. Usamos el término visión retrospectiva adrede: después de todo las computadoras realizan trabajos por medio de la memoria que les proporcionan los programas de aplicación. Las computadoras no tienen lo que hemos llamado visión retrospectiva. Estamos siendo quizá hasta ridículos por la manera en que simplificamos el proceso, puesto que aun antes de que la pianista dé un segundo repaso a la pieza, empieza a ponerla en contexto. Ésto requiere de la visión retrospectiva y de una memoria que se pueda expander como no lo puede hacer ninguna computadora. La memoria documentada que ha pasado como conocimiento de generación en generación, y como tal es la más dificil de tratar porque es amórfa y cambiante. Veamos qué es lo que sucede: antes de que la pianista haya abierto la partitura por primera vez, con el solo hecho de saber quién la escribió, sabe el tipo de sonido que la música va a producir. Su memoria, en otras palabras, tiene guardado el tipo de idioma musical que se usaba cuando el compositor la escribió, por ejemplo al final del siglo XVIII o principios del XIX. Y en cuanto a que la música sea famosa, como el tardío Haydn o el Beethoven en su época temprana, o menos conocida, como una sonata de Dussek, ella tendrá cierta idea de cómo usar el pedal, articular las frases y escoger sus tiempos. Así, en el segundo repaso de la interpretación, lo que hace se volverá más difícil, pues tendrá que descubrir 212 la individualidad y el mensaje de la pieza de música. La visión retrospectiva tendrá que ser de mucho más alcance. No solamente tendrá que tomar decisiones, sino que empezará a comparar en el ámplio banco de datos que guarda en su mente. Entonces podrá descubrir, quizá, cómo cierto pasaje evoca el estilo o la frase de otro compositor y puede entonces darse cuenta de que el staccato tiene una calidad nerviosa o vibrante que a otra pieza le falta, etcétera. En el capítulo previo discutimos los sistemas caóticos. Lo que aquí hemos presentado es un sistema caótico en su más alta expresión. El resultado no puede ser previsto porque existen demasiadas variables. Lo que tenemos también, es el regalo más grande de la complejidad, un cuerpo y una mente –no solamente el trabajo de la mente de la pianista, sino el trabajo de su cuerpo entero– que puede determinar el resultado de un sistema caótico. Si saltamos hacia adelante, por motivos de brevedad, hasta el momento en que la pianista haya finalmente memorizado y entendido la obra completa, podremos ser testigos de la conciencia, la visión retrospectiva y la memoria, que combina de cierta forma el movimiento de brazos, muñecas,dedos, piernas y pies, para que produzcan un resultado predecible. El llamar a este trabajo información, el imaginar que de alguna manera pueda ser cuantificado y guardado en un código binario, no sólo es reductivo sino torpe. Y claro, nosotros podemos adquirir la interpretación de la pianista en un disco, podemos ponerlo en el reproductor que leerá “unos” y “ceros” y los transformará en sonidos, pero es un terrible error pensar que porque podemos reproducir el trabajo de la pianista, éste puede ser reducido a unos y ceros. Lo que obtenemos es una grabación de un momento, una grabación de una conciencia trabajando, pero no podemos capturar la conciencia misma. Ésta es la distinción crucial que algunos científicos no 213 han tomado en cuenta cuando usan el concepto de información como un término general. La complejidad como la hemos definido, involucra tres aspectos: el uso de la memoria y la visión retrospectiva para predecir un resultado, y la habilidad para obtener de sistemas caóticos resultados consistentemente previsibles. Y por último, algo que no hemos mencionado porque es muy obvio para ser mencionado, pero al mismo tiempo es bastante importante para omitirlo: la complejidad, para decirlo de alguna manera, es como un filtro que toma la energía, la destila y la transforma y la libera. Siendo simplistas podemos decir que cuando pagamos nuestro boleto de entrada al recital, estamos dando testimonio de cómo la nutrición de la pianista, que sustenta su cuerpo, produce otras clases de energía, en este caso, por supuesto el sonido, pero un sonido con tonos semánticos y emotivos. Ha sido nuestro argumento durante todo el tiempo, que la complejidad que nuestra pianista parece expresar, no es exclusiva de los artistas, ni de los humanos, sino que –por supuesto a diferentes niveles– está profundamente arraigada no sólo en la vida sino en las estructuras inorgánicas – proporcionando así un sentido a la trayectoria de la evolución– sino también en la materia misma. Ambos argumentos nuestros son polémicos. Ya hemos visto cómo prominentes científicos como Stephen Jay Gould han dedicado el trabajo de toda una vida a un intento de desmentir la existencia de cualquier sentido, de cualquier flecha en la evolución. Igualmente, físicos prominentes han sostenido que la energía es energía y la información es información y, así, no existe diferencia entre la nutrición de la pianista y su actuación, puesto que ambas son cuantificables. 214 Más allá, ellos dicuten que no hay pruebas para pretender que la tendencia a la complejidad es inherente a la materia. Todos sus argumentos parecen a primera vista convincentes. Después de todo, quien quiera puede ir y reproducir, o “bajar” de internet el primer movimiento de la Heroica de Beethoven, leer todo Aristóteles o jugar un juego de computadora. Para la computadora y para el servidor, no hay distinción entre Aristóteles y Mario Brothers. El procesador leerá todo el material como unos y ceros y la computadora usará la misma cantidad de electricidad cada minuto, mientras que el usuario podrá escuchar a Beethoven o bajar basura de su correo electrónico. Así que lo que hay que preguntarles a aquellos que se niegan a aceptar el reduccionismo al cual las computadoras y la terminología de la física parecen condenarnos es: ¿hay algo en la ciencia que pudiera desmentir el hecho de que toda la energía es igual y toda la información es igual? ¿existe algo, en otras palabras, que por lo menos parezca insinuar el hecho de que de que aun cuando todos los sistemas consuman la misma energía, a medida que su nivel de complejidad se incrementa, la energía que utilizan no sólo se usa más eficientemente sino que realmente se transforma en energía útil? Como ha sido el caso a lo largo de todo el libro, la evolución, pese a su falta de precisión predictiva, parece tener la clave. Una de las cosas más impresionantes que se observan en El origen de las especies, quizá más que ver la mente de Darwin trabajando, es el subyacente dolor, la verdadera conciencia de sufrimiento que Darwin le dió a su teoría. No fue un frío científico de laboratorio, sino uno muy curioso (inquisitivo), que habiendo descubierto que ni la conservación ni la innovación eran la clave de la teoría, se dió cuenta constantemente de que por cada miembro de una especie que logra heredar su material genético, hay 215 muchos que perecen en el proceso. De hecho, una de las sentencias centrales de Darwin puede ser la que sigue: En el estudio de la naturaleza es de lo más necesario tener siempre en mente las anteriores consideraciones –nunca olvidar que puede decirse que cada organismo individual que se encuentra alrededor de nosotros, está esforzándose hasta lo máximo para incrementar el número de individuos de su especie; que cada uno ha vivido luchando en algún periodo de su existencia; que las grandes destrucciones inevitablemente caen entre los jóvenes como en los viejos, durante cada generación o a intervalos recurrentes. El estar consciente de la destrucción y de la muerte es central a la evolución, y entendiendo su papel podemos empezar a reconsiderar si queremos seguir pensando tanto en la energía como en la información de la manera indiscriminada en que lo hemos hecho. Imaginemos un grupo de ballenas y que regresamos a la indiscriminada cacería de ellas como se hizo en el siglo XIX. Si estas ballenas se extinguieran, no solo perderíamos a un actor central de cierto ecosistema, sino que, como las ballenas son un tipo de inteligencia, una manera específica de entender el mundo, la pérdida sería una pérdida de conocimiento, que no va a trasmitirse más, que no evolucionará más. Imaginemos de la misma manera lo que sucedio en el siglo XVII cuando los colonizadores acabaron con etnias enteras y sus lenguajes desaparecieron completamente, asi como la manera de preparar sus alimentos, su musica, etc. La selección es una espada de doble filo. La razón de la selección, el porqué dentro de las especies muchos miembros están condenados a desaparecer antes de que transpasan su material genético, es la escasez de los 216 recursos. En otras palabras, la selección es la manera mediante la cual la naturaleza puede distribuir los recursos y ha sido capaz de conservar la energía. Porque tantos miembros de una especie dada perecen, las especies pueden sobrevivir. Al mismo tiempo, no debemos olvidar que en la muerte de cada miembro de una especie se tiene una pérdida de una pieza única de información. Es esta dicotomía pérdida-ganancia, la que requiere un balance. El intercambio de información por energía, el intercambio de recursos por una estampa genética menos, tiene que ser, en palabras de Darwin, constantemente puesto en “revisión”, de otra manera la población se merma o probablemente aumente vertiginosamente hasta que agote sus recursos y se prive de comida, hasta que consuma toda su energía. ¿Cómo puede la visión de Darwin sobre la selección redefinir el actual concepto, tanto de conservación, como de energía? La respuesta descansa en su énfasis en el balance, en la insistencia en que tal o cual sistema, pese a su crueldad y al sufrimiento que impone, está finamente sintonizado. Insistiendo en esto, lo que Darwin subraya es la manera en la cual un organismo complejo, un organismo cuya existencia depende de una molécula codificada con información compleja, depende también de una red de relaciones más ámplia. En otras palabras, para Darwin ni la información ni la energía puden ser transferidas al vacío, son parte de un sistema mayor. La visión de Darwin es por supuesto la verdadera semilla de la cual creció la ecología. Pero antes de discutir la ecología, veamos cómo, pensando en la información y la energía en un contexto más ámplio, podemos empezar a redifinir ambos conceptos. Para lograr esto debemos ubicarnos en un escenario a la vez simplista e improvisado. Es, por supuesto, difícil de discutir que actualmente los humanos somos parte de un ecosistema, aunque es innegable que 217 dependemos de los recursos del planeta, nuestra presencia en él ha sido, más que cualquier otra, la que ha conducido a transtornar los balances y “revisiones” que Darwin menciona. Sin embargo, porque nuestro escenario, pese a su naturaleza simplista, no está muy lejos de la realidad, puede servir para ilustrar. Nosotros extraemos nuestro sustento, nuestra energía, del alimento que consumimos. Nuestros cuerpos son fábricas que procesan lípidos, proteínas e hidratos de carbono y los convertimos en combustibles que no sólo mantienen el cuerpo, sino que lo reparan. Diferentes combustibles, ya sea que provengan de fuentes diferentes –lípidos, carbohidratos o proteínas– producen resultados diferentes. Los azúcares, por ejemplo, son buenos combustibles, pero se queman rápido, no permanecen. Por siglos, la dieta de la población en general parecía bastante balanceada cuando el alimento estaba disponible (uno no debe olvidar que la falta de alimento suficiente debida a los malos cultivos y a la miseria urbana ha estado presente en toda la historia de la civilización). Aun hoy, la dieta rural consiste principalmente de vegetales y se deja la carne para ocasiones especiales. Esta dieta balanceada aun está en las noticias cuando nos hacen notar que la dieta mediterránea parece ser más saludable que otras dietas del norte, más abundantes en grasas, Y esto es también evidente en América, donde hasta hace poco tiempo la dieta de los países de América Latina era mucho más saludable que las de Estados Unidos. La primera revolución culinaria llegó, como todas, pegada a los talones de otra revolución. Las dietas excesivas, ricas en grasas y azúcares, sóloestuvieron al alcance de la realeza y los pudientes. Careme, el primer chef que empezó a sistematizar lo que ahora llamamos cocina clásica, pasó la mayor parte de su vida sirviendo en las cocinas de la aristocracia. Sus platillos eran elaborados y empalagosos aun visualmente. Sin embargo, una 218 vez que la Revolución francesa depuso a la vieja aristocracia, muchos de los chefs que servían a los ricos y a los nobles, se encontraron sin trabajo. Fue entonces cuando el restaurant llegó a ser el lugar donde donde se iba a obtener un reconstituyente –en francés restaurative, de allí el nombre – un lugar donde se podía ir a probar los sabrosos y elaborados platillos que antes estaban reservados a los ricos, y que los pobres y la clase media sólo comían en las ocasiones muy especiales. Esta revolución resultó semántica, pues transformó el significado de la comida. El cordero, reservado para la primavera y la pascua, por ejemplo, estaba ahora disponible diariamente. Las cocinas se empezaron a desarrollar, no sólo en la línea de los productos locales, sino en la de las sabrosas grasas que eran utilizadas como saborizantes. Aún hoy podemos distinguir entre la cocina francesa y la taliana por la grasa que usan: la primera usa mantequilla y la segunda aceite de oliva. Mientras que esta revolución semántica en los hábitos alimentarios fue todavía tímida en cuanto a la dieta diaria se refiere, definitivamente impulsó o por lo menos se quedó corta con respecto a la subsecuente revolución culinaria. Como la anterior, la segunda revolución culinaria llegó en los talones de otra revolución, esta vez económica. Cuando la segunda guerra mundial llegó a su término, los Estados Unidos experimentaron una abundancia que ninguna otra nación había experimentado. El “sueño americano” (automóvil, casa, seguridad económica, etc.), llegó a estar cada vez más cerca de la satisfacción, por lo menos para muchos. Donde hay seguridad económica en alguna medida, siempre hay comerciantes dispuestos a tomar parte de la riqueza. Algunos de los comerciantes que se beneficiaron de una manera fenomenal de esta abundancia, fueron aquellos que estandarizaron e industrializaron los alimentos. En una cultura en la que 219 la comida había perdido su significado, en la que un asado era tan común como un pan, en la que la comida y la ocasión estaban ya divorciados, no fue difícil hacer de la carne, que estaba establecida como un alimento ocasional, el plato principal. Hoy, en su libro Fast Food Nation, Eric Schlosser nos lo recuerda: McDonald es el principal consumidor de carne de vaca en el planeta. Como tal, determina cuánta carne de vaca debe alimentarse, crecer, matarse y prepararse. Ellos están en la primera parte de nuestro escenario porque parecen ser los principales provedores de energía a gran escala para la población de todo el planeta. La pregunta es: ¿qué clase de energía proveen y a qué costo? Eric Schloesser argumenta que el costo de la “fast food” es abrumador puesto que somete a un esfuerzo excesivo tanto al jornalero no calificado como al ambiente. En su libro nos muestra que el cambio de la granja familiar a los “complejos industriales”, que ha permitido “dominar los mercados de productos de consumo uno tras otro”, se debe a tan “ecológico” costo. La industria del empaquetamiento de la carne ha pasado de ser “un trabajo altamente especializado y bien pagado, al más peligroso trabajo en Estados Unidos” realizado por jornaleros no calificados, “transitorios e inmigrantes”. A su vez, por todos los recursos naturales y humanos, el consumidor obtiene una nutrición pobre: “a medida que la gente come más a menudo fuera de su hogar, consume más calorías, menos fibra y más grasa”. La baja calidad de la comida se hace evidente al comprobar cómo, en las últimas décadas, a medida que las cadenas de fast food se han establecido en todo el planeta, la tasa de obesidad se ha incrementado. Uno de los argumentos centrales de Schloesser es que aunque lo parece la revolución de la fast food no es inevitable. De hecho, muchos de los que se niegan a aceptar la cultura de la fast food siguen aún ofreciendo opciones. 220 Una de estas opciones ante la absurda propuesta de la fast food de consumir grandes cantidades de energía para obtener poca energía adecuada que dar al consumidor, es una muy antigua. La comida hecha en casa es la respuesta a la baja eficiencia energética de la comida industrializada. Abramos cualquier libro de cocina étnica o regional y encontraremos no la fórmula de una industria, sino el conocimiento de los productos de la Tierra y su temporada, así como el conocimiento de cómo preparar los alimentos y cuándo deben comerse. Ésta es una clase especial de conocimiento y es bastante antigua. No sólo toma en cuenta los recursos, sino cómo se pueden aprovechar al máximo. En las dietas regionales encontramos gente interactuando con su medio ambiente, no sólo explotándolo. Lo que tenemos en nuestros dos ejemplos, el de McDonald y el de la comida hecha en casa, es la manera como la energía puede usarse. El primer ejemplo nos señala una transformación de energía de baja eficiencia; el segundo, una transformación un poco más eficiente, y además tenemos a nuestras neuronas procesando sabores, olores y texturas. El primero nos da un conocimiento bajo, de sabores artificiales, de texturas suaves. En otras palabras, con McDonald obtenemos información “procesada”. Cuando el proceso lo hacemos en forma no industrializada, nuestro cerebro se estimula y obtenemos información nueva. En lo que terminamos finalmente al ver nuestros dos platillos está el significado de la complejidad y su contraparte. Lo que hemos visto varias veces a lo largo de este capítulo es que la complejidad es la manera como la energía se conserva. Esta conservación ocurre porque en cualquier instante, el sistema, tomando energía de su entorno, produce más de la que tenía al principio. Lo opuesto a la complejidad, no es, como muchos podrían pensar, la simplicidad o el desorden, sino la basura, el desperdicio. El desecho 221 sucede cuando esas revisiones darwinianas no se producen y los sistemas se salen de balance. Imaginemos un ecosistema como puede ser un bosque en las cercanías o en medio de un área urbana; sus habitantes introducen muchas plagas, como pueden ser ratas, palomas, insectos nocivos, etc. Si el bosque es suficientemente grande, puede ser capaz de albergar mamíferos y aves depredadores, como zorras, aguilas y búhos. Los bosques de la serranía del Ajusco, el Desierto de los Leones o el bosque de Tlalpan, en alguna época grandes ecosistemas, nos pueden servir de ejemplo. Todos los animales que no son depredadores requieren, por supuesto, espacios para recorrer y alimentarse. Pero más importante aún, requieren una revisión, un control en la diseminación de su población. En estos bosques a los que nos referimos el problema actual es la sobrepoblación de plagas de todo tipo y son el mejor ejemplo de un sistema que ha perdido el balance. Los coyotes y tlacuaches, las serpientes de cascabel y los grandes búhos, fueron llevados a la extinción debido a una obsesiva y patológica caza desde comienzos del siglo XX. Sin control, cualquier población crecerá vertiginosamente, y esto ha sucedido en los bosques en cuestión. La falta de balance acabó con varias especies en ellos. De las restantes algunas han prosperado bién y otras han desaparecido. El gusano descortezador, las ratas, los perros, los gorriones carroñeros etc. sustituyeron a los cenzontles, los canarios, el conejo teporingo, etc. Los nuevos habitantes de éstos ahora mal llamado bosques, incluyendo a los humanos, que en mayor medida han propiciado la situación, están a punto de terminar con los recursos. La vegetación, por otro lado, no ha sido más afortunada; el bosque que cubría la mayor parte de esta zona se está muriendo, y se morirá si no se toman medidas para reducir las plagas. Las actuales especies están acabando con sus propios recursos. Y esta situación es la ejemplificación del desperdicio, de la basura. Éste es un 222 sistema que utiliza la energía en su propio perjuicio. Y al final, la suma de toda esta energía llegará al mínimo. La entropía al máximo. El material genético, tanto de las plantas como de los animales, no podra transmitirse más. Se llega al desgaste cuando la energía que se consume tiende a la “suma-cero” total.85 El reverso de la suma-cero, la contraparte, es por supuesto la complejidad. Mucha gente que ha malentendido a Teilhard de Chardin, ha discutido que en sus escritos uno puede ver el mismo tipo de misticismo predestinado que abunda en escritores como Bergson. Ellos argumentan que Teilhard de Chardin ha impuesto una flecha a la evolución, un sentido que es falso. Ciertamente aquí hay una lectura equivocada. En realidad los escritos de Teilhard de Chardin son sobresalientes en todos sus temas pero, en especial, son los mejores escritos sobre la evolución en todo el siglo XX, porque fue lo suficientemente presciente para eliminar la idea de pirámides en su discusión de la evolución y reemplazarlas por dos conceptos que son fundamentales para entender el universo evolutivo, la energía radial y la complejidad. Ambos conceptos son complementarios y, de hecho, la energía radial, por así decirlo, nos brinda la manifestación visual de la complejidad. Complejidad del funcionamiento de las estructuras que refleja la complejidad de su conocimiento. Hemos discutido en un capítulo previo la definición de energía radial. Pero para Teilhard, la imagen de la rueda con sus rayos disparandose hacia todas partes es más predominante que sólo describir una energía que trabaja por debajo de niveles detectables. Uno puede decir que una vez que él identificó la función de la energía radial, fue lo sufientemente astuto, como 85 Cuando hablamos de “suma-cero” (zero sum) nos referimos a este concepto según la teoría del juego, que discute que los sistemas complejos rechazan la suma-cero. 223 los geómetras griegos, para entender que lo que está informado a pequeña escala, tiende a realizarse a escalas más grandes. Si el dominio de la energía radial puede invertir la entropía y balancear las fuerzas, entonces esto se debe a que su estructura es eficiente: debe poder lograr aprovechar lo que consume, de manera que parezca que da más de lo que recibe. Pero hay más, al encontrar una estructura eficiente, uno encuentra una estructura que se replica a sí misma con ligeras variaciones. Esta idea de la réplica con variaciones es lo que las matemáticas fractales han aclarado más que ninguna otra disciplina. Como el caos, los fractales son una rama moderna de las matemáticas y, pese a su relativa novedad, sus consecuencias han sido penetrantes en otras ciencias. Lo que las matemáticas fractales sostienen son dos cosas. La primera es que existen estructuras iniciales que se replican a escalas más grandes. Uno de los principales ejemplos que usan son los mapas de las costas. Si se aumenta la escala gradualmente y se observa cómo varía la estructura de la costa, uno se encuentra que la misma geometría se repite con ligeras variaciones, a mejor y mayor escala cada vez. La segunda cosa que implican las matemáticas fractales es que al detectar estructuras que se replican con éxito en orden de ir en contra de la entropía y del desorden, éstas señalan ciertas guías para la posible “evolución” de una entidad o sistema. Para entender esto será útil regresar a nuestro mapa de la costa. La costa es una estructura que ha sido moldeada por la erosión y las fuerzas geológicas. Como estructura, se defiende de la presión y la gravedad, y si bien se erosiona lentamente, cede a lo largo de grandes periodos de tiempo. El proceso como que sus estratos, sus rocas, sus bancos de arena y aun sus arrecifes van conformandose, es lo que permite a la costa minimizar los efectos de fuerzas que la pueden destruir. Lo que la réplica de lo pequeño a 224 mayor escala logra es permitir la estabilidad de las estructuras mayores. Teilhard de Chardin entendió esto intuitivamente y encontró en la energía radial la semilla de toda organización de estructuras mayores; la semilla, en breve, de la complejidad. Quedan algunos pocos puntos que tratar acerca de esta energía y el porqué sirve de semilla a estructuras complejas. La estructura radial no es, sin emargo, jerárquica. A diferencia de la pirámide, que da prioridad y privilegia bases o crestas, y a diferencia de las flechas, que señalan un sentido, la energía radial solo permite interrelación e interdependencia. En otras palabras, la estructura radial crea redes para entender la evolución. La evolución, bajo esta luz, no es una especie de juego de mutaciones sin fin, que ocurre mediante ensayos y errores, ni algún fenómeno orquestado; por el contrario, es el probar la viabilidad de una estructura y, en ese probar, uno encuentra el aumento de posibilidades y de lo extenso de la red inicial. Muchos han encontrado la visión de Teilhard de Chardin meramente poética. Sin embargo, la energía radial es literal. Encontramos sus variaciones cada vez que volvemos la mirada y observamos la manera en la cual la naturaleza ha invertido la entropía, el caos y el desorden. La encontramos en el átomo; hasta donde sabemos, el modelo orbital ha sido reemplazado por uno más amorfo, y pese a esto, a lo amorfo del nuevo modelo, lo que encontramos ahí al final es un modelo de interdependencia entre los “rayos” y el centro. Encontramos otra variación impresionante en una de las más majestuosas estructuras que han emergido en el intento de la naturaleza para defenderse de la entropía: la molécula de ADN. Aquí, a diferencia de lo que sucede en el átomo, tenemos el principio de una estructura que se desenvuelve a partir de su modelo inicial que era estático. A pesar de todo los rayos centrados están ahí. Esta vez la interdependencia, 225 la red, es más profunda, y si lo es, esto se debe finalmente a que la estructura radial es capaz de guardar información. La red, que era solamente una cadena proteica, fue finalmente capaz, como sistema, de producir más que sí misma por un método diferente que la simple yuxtaposición, que es el método mediante el cual los átomos se ligan para formar materia estable. Ahora puede procesar la energía, el calor, la luz y polimerizarse, replicándose una y otra vez. Desde entonces, la historia es bien conocida y ha sido contada varias veces por algunas de las más eminentes mentes. 226 EPÍLOGO LA VISIÓN DE TEILHARD DE CHARDIN We expect a single man to give us all the answers and produce the “synthesis.” And then when the writer, hailed for giving us much, is discovered to have given us less than everything, we turn from him in reaction and disappointment: he has given us nothing. LIONEL TRILLING Lionel Trilling fue uno de los más prominentes críticos literarios del siglo XX. De gran inteligencia, fue una mente urbana que no cayó en muchas de las trampas en las cuales parecen haber caido otras mentes y muchos críticos literarios del siglo. Para él, el texto, trátese de un poema o una novela, de filosofía o de un ensayo, no es solamente una colección de palabras. La idea de autorreferencia, la idea de que los textos son algo cerrado en sí mismos y que no pueden relacionarse con el mundo en que vivimos, fue completamente extraña a él. De hecho, para Trilling la literatura fue un camino para comunicarse con el mundo. La literatura y el conocimiento como un todo, funcionan como una calle de dos sentidos. La vida de los pensadores, sus pesares y alegrias, sus rutinas, así como sus eventos extraordinarios, moldean su visión moral, estética y teológica, y articulando su visión, estos pensadores, a su vez, transforman la visión moral estética y teológica de los lectores. Brevemente, Trilling creyó que la literatura no solo tenía un contexto en la cultura, sino que tenía también relevancia en la historia de la cultura; que influenciaba nuestras vidas. Y sin embargo, en el pasaje que hemos escogido, da la apariencia de estar en completa oposición a lo que hemos venido argumentando a lo largo del libro. En principio, parecería estar diciendo que los autores son incapaces de lograr una síntesis, incapaces de dar respuestas. La cita está tomada del ensayo de Trilling sobre un trabajo de John Dos Passos, El que en realidad 227 es una alabanza a la trilogía de Dos Passos y laboriosamente cuenta sus logros literarios. Pero también registra una reacción crítica a la novela y de esta manera nos muestra cómo la cultura de la celebridad, la cultura de la fama, tiende a distorsionar las expectativas que nos creamos de los libros y de los autores. En otras palabras, lo que Trilling se pregunta finalmente es si estamos pidiendo lo correcto a los libros, cuando volvemos celebridades a los autores. En el mundo de los espectáculos, donde las estrellas se manufacturan para ser veneradas, es lógico que esperemos la perfección, lo impecable. Puesto que con los iconos de la pantalla nos emocionamos mediante la emoción de otro y satisfacemos muchas de nuestras necesidades, cuando llegamos a los libros esperamos lo mismo de ellos. Sin embargo, el modus operandi de su lenguaje y su conocimiento no es el mismo que el de los medios. Pensador y autor, de hecho, trabajan de manera completamente diferente, y aun cuando ambos pretenden darnos síntesis y respuestas, éstas sólo revelan su humanidad imperfecta, aunque también nos dan sus síntesis y respuestas hasta donde el lenguaje puede hacerlo, por medio de una retórica abreviada, con la urgente ayuda de metáforas y la necesidad de figuras en el habla. Pese a la naturaleza de tal conocimiento, seguimos idolatrando a los pensadores más alla de lo debido. Testimonio de esto, por ejemplo, es el status de celebridad de figuras como Stephen Hawking. Después de la publicación de su libro Historia del Tiempo, llegó a ser un sorprendente best seller, se convirtió en un gurú, no sólo entre la comunidad científica, donde es legítimamente reconocido como una de las mentes más agudas, sino también en los medios. Igualmente Stephen Jay Gould es otro científico que ha ganado un status de celebridad y lo ha usado para tener la última palabra en un par de casos. En los documentales o en los noticieros 228 encontramos este tipo de figura una y otra vez hasta que la cultura, que se concibe como conocimiento y pensamiento, se convierte en una mera penetración de sonidos repetitivos. La posibilidad de que los intelectuales adquieran un status en la cultura, no se debe sólo a la degeneración del pensamiento en sonidos repetidos, sino en lo que Trilling señala. En la actualidad, la gente no espera de los libros y el conocimiento lo que esperaba años atrás. Antes de que los medios masivos invadieran la manera de pensar y tener 15 minutos de fama, la gente entendía que uno adquiría conocimiento de los libros de manera acumulativa. Ningun libro tenía todas las respuestas, pero los libros correctos, en el orden correcto, formaban una educación. Ahora, aquellos que comercializan a los autores y a los intelectuales como celebridades, nos prometen darnos mesías que resolverán todos nuestros problemas espirituales o intelectuales. ¿Qué pasa cuando estos intelectos no logran resolver esos problemas? Entonces el juicio de los auditorios y de la crítica tiende a ser drástico, tiende a tener ese tipo de angustia que tienen sólo aquéllos quienes se dan cuenta de que se les ha mentido. Para muchos, este problema puede ser poco importante en la cultura actual. Sin embargo, es más pernicioso de lo que parece, puesto que la sobrevaloración del intelecto y sus consecuencias han establecido una nueva manera de valorar los antiguos trabajos. Hace algunas décadas, por ejemplo, uno podía darse cuenta de que aquellos estudiosos que querían valorar o escribir acerca de alguien como, digamos, Marx, iban y leían a Marx como podrían leer a cualquier otro autor. En otras palabras, a menos que se fuera de izquierdas, El capital tendría el mismo status que cualquier otro trabajo filosófico. Estos eruditos podían explicar algunas ideas, revisar algunas otras, etc. La más reciente biografía de Marx nos muestra cuán lejos nos 229 encontramos de aquéllos días. Ya no consideramos a Marx un importante intelectual del siglo XIX, sino como un profeta, y puesto que sus profecias han fallado, lo tomamos como un profeta defectuoso. De hecho, esta biografía de Marx, no habla para nada de EL capital; en vez de esto, se explaya en cada detalle de su vida personal que pudiera derribarlo de su pedestal de profeta. Marx, por supuesto, no ha sido la única víctima de esta tendencia. Freud y Nietzsche, Shostakovich y Schoenberg, están entre los muchos importantes e influyentes pensadores que han sufrido este tipo de tratamiento de la crítica. Y aun una reputación que pareció tan firme como la de Darwin, ha sufrido sus reveses. Entre las grandes mentes de este siglo, ninguno ha sufrido más desaires y malentendidos, y ninguno ha sido víctima tan grande de su tendencia intelectual como Teilhard de Chardin. La parte extraña es que ha habido un determinado o resuelto abandono y mal entendimiento hacia él. A diferencia de las de cualquiera de los intelectuales que hemos mencionado arriba, las ideas de Teilhard de Chardin no son de manera alguna amenazadoras para nadie fuera de la jerarquía de la Iglesia católica. Al contrario, su teoría es de total sentido común, y su posición no es la de ser el padre de algo86. Si la crítica se vuelve contra Freud, lo hace con el conocimiento de que él está amenazando la figura de los padres. Pero Teilhard de Chardin no ha tenido el mismo tipo de influencia. Así entonces, ¿por qué los malentendidos, por qué el rechazo?. El trabajo más importante de Teilhard de Chardin, El fenómeno humano, es sintético y da respuestas. El modo en que ofrece estas respuestas y la manera como sintetiza las diferentes disciplinas para llegar a sus 86 A Teilhard de Chardin se le ha achacado ser el padre de la New Age, de la tecnognosis, del internet y hasta de la globalización. 230 conclusiones, fueron por necesidad elípticos, y a causa de la envergadura y lo ambicioso del trabajo, pasó por alto los minuciosos detalles académicos. En pocas palabras, mientras muchos científicos evolucionistas gastaban página tras página en triviales definiciones, Teilhard de Chardin, en su mejor trabajo, aceptó esas definiciones a priori. Este proceder de Teilhard de Chardin es directamente responsable de su visión, puesto que no registró con minuciosidad las evidencias que a él le parecieron tan obvias y las asumió como verdades tratando de encontrar un mayor y más importante contexto. Fue su intento de escribir un libro que sintetizara y ofreciera respuestas importantes y vitales, combinado con su indiferencia por las convenciones académicas, lo que hizo que crítico tras crítico ignorara, rechazara e incluso rebajara su trabajo. Ha sido nuestro propósito, reparar el daño causado al trabajo científico de Teilhard de Chardin. De hecho, la mayor parte de este libro puede ser vista como un intento de llenar las lagunas que Teilhard de Chardin dejó cuando formuló su visión. Pero puesto que los científicos le dieron muy poca atención al tipo de trabajo que Teilhard de Chardin realizó, y han enderezado sus investigaciones en otra dirección, el trabajo ha resultado más que arduo. A menudo hemos tenido que reinterpretar complicadas teorías y señalar lo que muchos de sus exponentes se han negado a ver. A menudo nos hemos sentido como detectives mientras buscabamos la última pista cientifica para encontrar la pieza que se necesitaba en el rompecabezas. Y también, mientras escribíamos el último capítulo, nos sentimos más que estimulados al ver nuestro argumento completo de alguna manera rescatado, cuando al abrir un periodico leímos, junto a la fotografia de un trabajador que quitaba una mancha de una ventana de vidrio en la iglesia de St. Michael de Nueva 231 York, un encabezado que decía “La más diminuta de las partículas provocó un gran agujero en la teoría física”.87 A lo largo de este libro hemos señalado, por supuesto, la insuficiencia del modelo estándar. Hemos, de hecho, argumentado que para entender la materia y las fuerzas que la gobiernan, uno tiene que pensar en una fuerza más poderosa, que quizá pueda tener su propia manifestación material, pero cuya función primordial es revisar la manera en que todas las fuerzas y las partículas se comportan, portar el conocimiento y hacer surgir las leyes que rigen las estructuras emergentes. Hemos argumentado que el papel de estas “partículas” en la fluctuación cuántica que impulsó el big bang, fue seminal. Desafortunadamente, todavía tenemos que trabajar de buena fe en muchas partes, si no imaginando su existencia, deduciéndola de teorías como la de las supercuerdas, de donde se deduce también que seran difíciles de detectar pues se mueven en un “universo” virtual, paralelo al nuestro, pero de diez o más dimensiones que los físicos llaman Calabi Yau. Y, si tal cosa existe, podría hacer pedazos el más apreciado de los modelos científicos. La nueva partícula no ha revelado tanto como esperábamos; por lo menos, no hasta ahora. Pero junto al resurgimiento de la constante cosmológica de Einstein como un posible componente del universo, el descubrimiento de esta partícula, apunta en la dirección correcta. Trataremos ambos conceptos aquí. La partícula fue descubierta en un experimento llamado E821, donde muones creados por un acelerador de partículas llamado AGS (Alternating Gradient Synchrotron), fueron introducidos en un poderoso campo magnético, y la frecuencia de su oscilación se midió con una increíble precisión. Los físicos siempre han sabido que ésta frecuencia es afectada por 87 The New York Times, viernes 9 de Febrero de 2001, vol. CL… No. 51 659. Véase también Scientific American, abril de 2001, “Physics - Unexplained Moments.” p.17. 232 las propiedades del espacio mismo. De acuerdo con las leyes de la mecánica cuántica, que hemos señalado como las leyes que rigen el reino subatómico, el aparentemente vacío espacio es realmente un “mar” de lo que los científicos llaman “partículas virtuales”, partículas que aparecen brevemente y desaparecen, e interactuan con los muones. El modelo estándar, como también hemos discutido, muestra a los científicos cómo calcular los efectos que todas las partículas conocidas de ese “mar”, deben tener sobre la frecuencia de oscilación. Mientras que los cambios predichos siempre han sido medidos y ratificados, las nuevas mediciones difieren de tales predicciones, sugiriendo la existencia de una particula desconocida hasta ahora y que es indefinible en ese “mar” subatómico. Tanto la emergencia de esta perturbadora partícula, como la sospecha de que la constante cosmológica puede ser un factor que hay que tomar en cuenta, son para nosotros los más recientes indicios de que la visión de Teilhard puede ser rescatada algún día. Ambos elementos parecen desmentir la idea de que el universo es aleatorio y tiende al desorden, porque al nivel subatómico el nuevo descubrimiento prueba que el modelo estándar es insuficiente y, a nivel cósmico, la constante cosmológica sugiere que la fina sintonía del universo permite que la evolución pueda ser posible. Los escépticos, por supuesto, siempre estarán ahí. Mientras a uno le gustaría llenar cada hueco que Teilhard dejó, siempre algún antagonista de estas ideas discutirá contra ellas. Las voces de los escépticos son una presencia saludable en esta disciplina, pero el escepticismo, siendo saludable y natural, debe tener sus límites, y si uno fuera escéptico ante todas las cosas, ninguna teoría saldría a flote. Tomemos por ejemplo la teoría del big bang, enseñada en las aulas y actualmente aceptada como La Teoría sobre el principio del universo; el nombre big bang fue puesto de moda por el 233 celebrado físico teórico de Cambridge Fred Hoyle, como una descripción irónica de una teoría que él consideraba insostenible. Como muchos físicos, Hoyle favorecía la teoría del “estado estacionario”, una teoría que sostenia que nuevos átomos y nuevas galaxias se formaban continuamente en los vacíos mientras el universo se expandía, de modo que las propiedades promedio nunca variaban. En la época en que Hoyle se burló de lo que permanecería como la teoría del big bang, realmente no existía evidencia a favor de alguna de las dos teorías, porque las observaciones no habían avanzado lo suficiente sobre la expansión. Pero gradualmente, a medida que los investigadores se vieron forzados a afinar sus experimentos para confirmar alguna de las teorías, la evidencia del big bang surgió, y ésta fue la teoría que llegó a ser aceptada. Sin embargo, aún hoy tiene vacíos y los escépticos siguen cuestionando su validez. Tales ejercicios parecen ser más una pérdida de energía que intentos válidos de rectificar cualquier problema que se tenga con la teoría. Para la mayoría de los científicos, en otras palabras, el que la radiación de fondo tenga el espectro esperado, que la cantidad de neutrinos haya sido más alta, que la abundancia de deuterio no esté fuera de los parámentros esperados para que sobreviviera al big bang, son realmente las evidencias sobre las cuales una teoría importante descansa incontestable. Así que si una teoría es aceptada como tal, cuando parecen tenerse escasas pruebas, la pregunta es, ¿por qué la resistencia en el cambio de paradigmas que la visión de Teilhard de Chardin parece requerir? Aun cuando la tendencia de las ciencias parecen darle la razón, no existen las suficientes evidencias para regresar a la visión de Teilhard de Chardin. Nosotros esperamos que el armazón del libro sea suficiente para probar que Teilhard de Chardin está en el camino correcto. Su visión es simple: él tomó 234 la teoría de Darwin sobre la evolución y la aplicó al cosmos. En otras palabras, la evolución no empezó con una cadena proteica que se manejó para polimerizarse aquí en la Tierra. Los polímeros y su eventual descendencia fueron, para Teilhard de Chardin, sólo parte de un continuum, parte de un proceso que empezó con el big bang. Hemos visto como a nivel cósmico, la teoría de Teilhard de Chardin es fácil de probar. El big bang mismo, y la subsecuente expansión del universo, nos permite ver el cosmos en una dimensión temporal que es equivalente a una evolución. Más allá, la emergencia de elementos cada vez más pesados a partir de unos más ligeros por el uso de una estructura más bién simple, puede ser la mejor manera de ver cómo la complejidad se desarrolla a partir de leyes simples. La estructura del universo mismo, en otras palabras, la manera como el cosmos arregló los materiales que emergieron a lo largo de su evolución, suiguió un patrón fractal complejo, un patrón que se encuentra tanto en la evolución como en los ecosistemas, confirmándonos la visión de Teilhard de Chardin del universo como un todo. Muchos fenómenos de la naturaleza son fractales. Como previamente hemos visto, un fractal es un patrón con la característica matemática especial de que un fragmento, cuando se magnifica (se ve en una escala mayor) se parece al todo. Nuestro universo es fractal, pero no tan simple como una montaña, una costa o un árbol. Si fuera así, por supuesto no habría permitido la variedad que es necesaria para la evolución; es más, posiblemente estaría desprovisto de vida. Las estructuras cósmicas abarcan un ámplio rango de dimensiones: estrellas, galaxias, grupos y supergrupos de galaxias. Sin embargo, cuando el observador alcanza grandes escalas, éstas empiezan a repetirse; así un fragmento de 200 millones de años luz tiene parecido al universo entero. 235 Esta homogeneidad, la prolongada duración tanto de la expansión como de la emergencia de las estructuras, todo confirma lo que para Teilhard de Chardin fue crucial: la fina sintonía del universo. Pese a que es difícil para los científicos negarlo, esta fina sintonía es un hecho que tienen bastante reconocido. Pueden conceder que la intrincada complejidad se ha desplegado de leyes simples. Pueden también estar de acuerdo en que el hecho anterior no siempre está garantizado. Saben sin duda que el número tuvo que ser el preciso para que la complejidad emergiera de estas leyes sencillas. La más ligera variación pudo haber producido un aburrido, si es que no, estéril universo. Los científicos saben también que una vez que tocan esta fina sintonía del universo, una vez que empiezan a discutir este preciso diseño que ha permitido la emergencia de estructuras más y más refinadas que han alojado la complejidad, están llegando a esa región a la que se han rehusado a entrar en los últimos cincuenta años, están llegando al reino donde la ciencia tiene relevancia, donde la ciencia tiene respuestas públicas acerca de nuestro mundo y acerca de la realidad de que estamos aquí. Existen varias maneras de reaccionar a esta fina sintonia del universo. La primera respuesta es decir que podríamos no existir si esos números no fueran los que son. Muchos científicos toman una postura antifilosófica y pragmática al decir, “estamos aquí, así que no hay nada de qué sorprenderse”. El filósofo John Leslie ha ilustrado cuán errónea es esta manera de abordar la cuestión, con la siguiente parábola: Supongamos que usted se está encarando a un pelotón de fusilamiento. 50 excelentes tiradores apuntan, pero todos fallan. Si ellos no hubieran fallado, usted no habría sobrevivido para considerar con especial cuidado el asunto. ¿O lo dejaría tal 236 cual? Lo más probable es que se sintiera desconcertado y buscara la razón de su buena fortuna. Estamos aquí y desde tiempo inmemorial hemos ponderado la razón del por qué. Muchos de los más pragmáticos científicos nos dicen que busquemos en otra parte la respuesta. Y esto lo hacen a riesgo de las metas de la propia ciencia, puesto que, desde su inicio, la ciencia ha sido una de las principales herramientas para entender por qué estamos aquí. En realidad, es posible argumentar que el impulso original que está detrás del pensamiento científico es el de proveer respuestas. Las respuestas no siempre son simples; de hecho, pronto veremos cómo las respuestas que se encuentran en la visión de Teilhard de Chardin, no solamente no son simples, sino que nos imponen cambios difíciles en la manera en que pensamos, actuamos y vivimos. Teilhard de Chardin fue un creyente. Su creencia, en manera alguna era reductiva o simplista. Para él, realmente, la actitud de muchos que ven en la fina sintonía del cosmos la evidencia de un benéfico creador, podría parecer reductiva y fuera de lugar. Nos referimos por supuesto al argumento de un diseño férreamente determinista. John Poilkinghorne, el científico teólogo, quizá sea el más claro portavoz de este argumento. Para él, el universo no solo es “un viejo mundo cualquiera, sino que es uno especial, finamente sintonizado porque es la obra de un Creador cuya voluntad fue que así fuera”. El argumento de Poilkinghorne es bueno si lo que uno quiere es confirmar la creencia en un ser supremo, pero como muchos argumentos teológicos, no nos indica cómo debemos comportarnos en todos los aspectos, desde la manera de planear los experimentos, hasta la manera de alimentarnos. En realidad lo encontramos hasta peligroso, de la misma forma en que lo han sido muchos dogmas religiosos a través de la historia, 237 pues nos despoja de cualquier responsabilidad que no sea la que el correspondiente dogma teológico nos otorga. Para decirlo brevemente, contempla al universo –como la primera respuesta de los científicos escépticos– más allá de nuestro alcance y más allá de nuestra empresa, cuando falla en responder la pregunta que si fuera contestada podría determinar nuestro futuro comportamiento, porque como asegura Teilhard de Chardin, el hombre tiene ahora el destino de la evolución en sus manos. Si la visión de Teilhard de Chardin ha sido molesta para muchos, no es a causa de sus apuntalamientos teológicos, ni por su interpretación de la evolución. Si la teoría es amenazadora para muchos es porque da respuesta a las preguntas de una manera muy específica, y de esta manera nos descubre el modo de proceder como especie, como cultura, como civilización. La esencia de la visión de Teilhard de Chardin es lo que podríamos llamar ecológica, pero no una ecología ramplona y mediocre. Su ecología no se limita a ecosistemas o incluso al planeta, es una ecología cósmica. Pocos científicos han seguido las indicaciones de Teilhard de Chardin y menos aún las han aplicado en toda su amplitud. Pero es importante para nosotros ver como ha sido usada la teoría de Teilhard de Chardin, de manera que podamos ver los peligros de aplicarla y la manera en la que tales peligros pueden ser evitados. El más famoso portavoz de la visión teilhardiana puede ser J. E. Lovelock. En Gaia: A New Look at Life on Earth, Lovelock razona que “la Tierra es un organismo viviente; el aire, los océanos y la tierra, forman un sistema complejo, que puede ser visto como un solo organismo”. Lo que Lovelock en otras palabras llama Gaia es “un inmenso ser, que en su totalidad tiene el poder de mantener el habitat apto y confortable para la vida”. Para razonar su punto de vista, Lovelock señala una gran cantidad de 238 imposibilidades que Gaia ha tenido que superar. La atmósfera es una de éstas. Basado en la composición química total de la Tierra, ciertos gases atmosféricos que son escasos deberían ser más comunes y ciertos gases comúnes deberían ser escasos. La ley de la entropía pareciera estar en suspenso. De acuerdo con Lovelock, la única explicación de este fenómeno es que la “vida ha tomado una mano conductora. El más familiar ejemplo podría ser el bióxido de carbono. Además de ser un subproducto de la respiración de muchos seres vivos y de la oxidación de combustibles fósiles, este gas se produce naturalmente como resultado de varios procesos no biológicos, y por lo tanto debería ser un gas muy común. Dejando entrar y luego aprisionando la radiación solar, la Tierra pudo mantenerse caliente. La concentración de oxígeno puede ser otra prueba para la teoría de Gaia. El oxígeno es un gas escaso que se volvió común “artificialmente”. Hace alrededor de 3500 millones de años, en el amanecer de la evolución orgánica, la vida se sostuvo en la forma de unos simples seres anaeróbicos especificamente adaptados a un ambiente pobre en oxígeno. Durante mas de 1000 millones de años, dichos seres transformaron los gases comúnes en oxígeno, y entonces, hace aproximadamente 2000 millones de años, pudo tener lugar una de las más drásticas transformaciones de la evolución, el cambio a un metabolismo económico que quema oxígeno, lo cual hace posible el suministro de grandes cantidades de energía química y mecánica que posibilita un amplio rango biológico. El cambio fue posible porque el ecosistema que Lovelock llama Gaia balanceó la escasez de oxígeno reduciendo el dióxido de carbono a la mitad durante la fotosíntesis y separando el carbono para enterrarlo como turba, carbón o petróleo; en otras palabras, a través de la vida y muerte de las plantas. 239 La visión de Lovelock de una tierra como una forma viviente que se autobalancea, encaja bien con el argumento de Teilhard de Chardin. Sin embargo, la visión de Teilhard de Chardin es más vasta, más lograda. Aun, pese al optimismo de Teilhard de Chardin, evita muchas de las trampas inherentes a la teoría de Gaia. Para Lovelock, el dogma central es que la Tierra posée una potente, cibernética y muy subestimada capacidad para mantenerse saludable. Lovelock cree que la Tierra se puede curar a sí misma cuando su ambiente ha sido dañado. Es este optimismo el que ha confirmado el más fatal equívoco en la interpretación de Lovelock a la teoría de Teilhard de Chardin. Lovelock insiste en que lo que concierne al efecto de invernadero es trivial. La preocupación por la reducción de la capa de ozono es igualmente ridícula. La contaminación que las chimeneas despiden y que las tuberias vomitan en los rios son, de acuerdo con Lovelock, achaques menores que Gaia puede reparar. Lovelock comete aquí una imperdonable omisión para alguien que se dice científico. Olvida que las catástrofes pueden ser constructivas o destructivas según ocurran en largos o cortos lapsos. Si a un cuerpo humano le producimos muchas heridas a lo largo de toda su vida, es probable que se recupere, pero si esas mismas heridas se le provocan en una semana el individuo morirá porque el cuerpo no tendrá capacidad de regenerarse. Sin embargo, la teoría de Lovelock que al principio parece ecológicamente razonable, se empaña bajo su propio argumento y llega a ser una estéril y fría visión de la evolución y de la Tierra. Por esto falla y no puede responder a una pregunta fundamental: Si el planeta es un ser viviente, cuando el comportamiento equivocado de la humanidad hacia la Tierra progrese hasta el punto en que las heridas en Gaia sean lo suficientemente profundas para que siga con vida, pero esta vida ya no pueda sustentarnos, ¿deberá la ausencia del Homo sapiens, o la ausencia 240 de cualquier cosa viviente ser la prueba de una herida irreparable? ¿Deberá esto ser la prueba de que Gaia no pudo reparar todo el daño? La visión de Gaia es finalmente irresponsable en su optimismo y nos muestra el peligro inherente de tomar a la ligera una profunda visión como la de Teilhard de chardin. La visión de Lovelock ve la extinción y contesta “¿Y qué? ¿Qué si un puñado de especies se extingue? la extinción es un proceso natural, Darwin mismo lo dijo”. Biólogos y paleontólogos hablan de niveles de extinciones de fondo a lo largo de la historia de la vida. Estos niveles de fondo son las tasas rutinarias promedio a la cual las especies desaparecen. Esto está generalmente balanceado por la velocidad a la que las especies se desarrollan. Junto con la extinción, esto constituye otra forma de rotación. Las tasas de extinción en el remoto pasado no pueden ser calculadas con precisión por los huecos que existen en el registro fósil. Pero el paleontólogo David Jablonski ha elaborado un informe aproximado y ha colocado las anteriores extinciones en “quizá unas pocas especies por millón de años”. Unos pocos mamíferos, unos pocos peces, etc., cada millon de años. Tales pérdidas a tales proporciones pueden ser contrarrestadas por la velocidad de desarrollo de las especies. La extinción a estos niveles es un proceso sustentable. Y si éste fuera el único tipo de extinción, el argumento de Gaia sería sostenible. Pero hay otras extinciones. Junto a las extinciones de fondo, un cierto número de grandes eventos ha emergido Estos cataclismos son como periodos en la historia de la vida. Y como ya apuntamos, cuando suceden en tiempos adecuados son eventos o catástrofes constructivos. Estas extinciones masivas que son famosas, generalmente sirven como ejemplo en los libros de texto: la extinción del Cretáceo es una; la del Pérmico. Lo que caracteriza a estas extinciones masivas es que suceden en 241 breves periodos de tiempo.88 Consecuentemente, la tasa de extinción excede a la tasa de crecimiento y desarrollo de las especies. Cuando esto sucede, hay dos resultados calamitosos; la riqueza de la biosfera se desploma y los ecosistemas pierden su equilibrio. Con los ecosistemas destrozados, les toma a las especies millones de años llenar los huecos. El debate sobre las causas de las extinciones masivas en el pasado no será resuelto en breve, por lo que dejaremos de lado las teorías sensacionalista que sólo son ciencia-ficción, como la de la existencia de una “estrella muerta”, que orbita con nuestro Sol, ejerciendo una gravitación cósmica que arrastra una masiva cantidad de asteroides y los impulsa cerca de la Tierra cada 26 millones de años. Lo que realmente importa es entender lo que es una extinción masiva. De acuerdo con Jablonsky, se supone que una extinción es masiva cuando la tasa a la cual desaparecen las especies es el doble de la tasa de la extinción de fondo para muchos diferentes grupos de animales y plantas. Pero más terrorifico que esos remotos eventos es el hecho de que si analizamos la definición de Jablonsky y observamos el impacto ecológico que los humanos hemos producido en el planeta, estamos pasando justo ahora por una extinción masiva que se está produciendo en un brevisimo lapso, lo que la convierte en la más peligrosa de cuantas extinciones se hayan producido. En realidad, esta extinción masiva comenzo en el neolítico, cuando los grupos de cazadores nómadas de la Europa central despeñaban las manadas de Mamuts para obtener unos cuantos filetes, y ahí quedó la evidencia. Los 88 Tenemos que ser cuidadosos al hablar de brevedad en la escena cósmica. Según la teoría del equilibrio interrumpido, los largos periodos estables, donde sólo ocurren las extinciones de fondo, son de cientos de millones de años, y los breves lapsos a los que se refieren las extinciones masivas son de solo uno 2 a 5 millones de años. Una catástrofe 242 humanos de esta misma cultura neolítica establecidos en los bordes de los continentes empezaron a aventurarse a través del mar abierto en sus canoas de troncos ahuecados y colonizaron remotas islas, como Madagascar, Nueva Zelanda, Nueva Caledonia y el archipielago de Hawai. Esta colonización rápidamente acabó con algunas de las especies endémicas de aves. Desde la época de los viajes del neolítico, pasando por la colonización europea de Asia, Africa y el Nuevo Mundo, hasta nuestros dias, más de 20% de las especies de aves se han extinguido. Durante los últimos siglos, al hacerse concomitante la Revolución Industrial, la explotación de los recursos naturales llegó a su clímax, la tasa de extinción creció exponencialmente y el peligro se extendió desde las más frágiles y fácilmente extinguibles especies, hasta las plantas y animales más resistentes. Sin duda, si la presente tendencia continua –aunque lo más probable es que se incremente – dentro de pocas décadas habremos perdido la mayor parte de las especies de flora y fauna. Si la visión de Lovelock está tomada de la de Teilhard de Chardin, no la sigue correctamente. En nuestra opinión, la teoría de Gaia parece al principio bastante lógica y atractiva. El resultado del razonamiento de Lovelock, su creencia de que Gaia puede reparar sus heridas, defrauda la visión de Teilhard de Chardin. Como hemos discutido en capítulos previos, la piedra angular sobre la que descansan las ideas de Teilhard de Chardin, es su creencia en que el incremento de la complejidad es la flecha que guía la evolución. Y si la visión de Teilhard es relevante hoy día, es porque en una visión para la cual la máxima complejidad es el destino, nuestras actuales tendencias como cultura, nuestro comportamiento como especie, son destructiva sucedería en mucho menos tiempo, como podría ser una guerra atómica que acabara con todo signo vida. 243 completamente contrarias a esta visión. Por lo que debemos recordar que si extinguimos la mayor parte de la diversidad del planeta, perderemos la complejidad que se ha adquirido a lo largo de la evolución de la Tierra. Este reclamo es por supuesto una vieja cantaleta para muchos, y muchos están cansados y hastiados de oirla. Pero el número de expertos preocupados es sorprendente. Paul Ehrlich estima que actualmente la tasa de extinción es de cien veces más que el nivel de extinción de fondo (background level). Edward O. Wilson, investigador de invertebrados en las selvas lluviosas, estima que la actual pérdida de especies en estas selvas supera en mil veces el nivel normal. Lo que no dicen es que estos números nos llevan a la misma ominosa conclusión: nuestro impacto devastador sobre la biosfera es suicida. A la velocidad que vamos desvastando no sobreviviremos mucho como especie, por lo menos no como especie que pueda progresar, desarrollarse, evolucionar. Lovelock puede estar en lo cierto. Sí, la riqueza del ecosistema terrestre pudiera recuperarse, pero el contratiempo será profundo y devastador y le tomará a Gaia por lo menos 20 millones de años para reponerse. Las palomas y gorriones, las cucarachas, las ratas y los dientes de león, como nosotros, son mala hierba ecológica que probablemente sobrevivirá para heredar nuestro material genético que podría dar paso a una nueva diversidad. Quizá en el futuro pueda emerger algo llamado sabiduría y sensibilidad, y a eones de distancia de ahora, futuros paleontólogos encontrarán la evidencia y se maravillaran de lo que sucedió en el planeta, lo que causó vastas pérdidas en por lo menos seis épocas: Al final del Ordoviciano, en el Devónico superior, al final del Pérmico, del Triásico y del Cretácico y, 65 millones de años después, al final del Cuaternario, justo alrededor de la época cuando los regístros fósiles se mezclaron con los registros arqueológicos y se excavan huesos junto a canoas ahuecadas, 244 hachas de piedra, arados, veleros de tres mástiles, automoviles, envolturas de fast food, equipos de televisión, computadoras personales, trascavos y sierras de todo tipo. Para quien esta visión le parezca exagerada, y piensen que el ser humano es una blanca paloma, lleno de virtudes y dignidad, hay más malas noticias: según los últimos descubrimientos paleontológicos, resulta que en nuestros albores no estuvimos solos. Compartimos el planeta con por lo menos 15 especies de Homo a las cuales no permitimos evolucionar. El Homo sapiens nació con un desaforado instinto destructor. Parece que estuvo en lo correcto Albert Szent-Györyi cuando dijo que “el cerebro no es un órgano del pensamiento, sino de la sobrevivencia, como las zarpas y los colmillos. Está hecho de tal forma que nos hace aceptar como verdad cosas que solo son ventajas” (aparentemente). Como paleontólogo, Teilhard de Chardin estaba consciente de las extinciones. De hecho, su trabajo más teórico parece impulsado por ese conocimiento de las profundas pérdidas debidas a la extinción. El optimismo, sin embargo, proviene de lo ámplio y bien logrado de su visión, y si la vemos de más cerca, nos puede ayudar a entender las diferencias con sus seguidores. Porque, mientras escritores como Wright tienden a ser reductivos en sus intentos de reconciliar la visión de Teilhard de Chardin con el mundo moderno, y a menudo equiparan la noosfera con el internet y el comercio global, pensadores como Lovelock a menudo fallan en seguir a Teilhard de Chardin toda la ruta. Teilhard de Chardin, pensamos, estaría de acuerdo con varias de las premisas de Lovelock, Sin embargo, nosotros hemos encontrado otra gran diferencia. El reloj evolutivo de Lovelock comienza su marcha cuando Gaia empieza a hospedar moléculas que se 245 polimerizan. El reloj evolutivo de Teilhard de Chardin, por otro lado, empieza a marcar antes de lo que actualmente nos puede indicar el big bang. Como hemos visto a lo largo de todo el libro, la idea de que el universo es una evolución, sigue siendo altamente controversial. Los físicos encuentran la palabra evolución, cuando la aplican a la historia cósmica, demasiado metafórica, no lo suficientemente específica. Como también vimos, David Layzer es uno de los pocos científicos que han razonado, con argumentos sólidos, que el universo ha sido moldeado por la evolución. La visión de Teilhard de Chardin hace de la evolución la fuerza que configura la historia universal, no sólo la historia de la Tierra. Su aparente optimismo puede provenir del hecho de que concede tan fundamental influencia a la evolución. La palabra que entra aquí en vigor es “aparente”. Considerando nuestras circunstancias, las ideas de Teilhard de Chardin parecen opimistas. A pesar de todo, nuestras circunstancias ecológicas son sólo un pequeño grano de arena en cuanto a la visión de Teilhard de Chardin concierne. En realidad, nos gustaría argumentar que Teilhard de Chardin parece optimista si uno se niega a leerlo en sus propios términos, y sus propios términos implican un cambio paradigmático hasta lo más profundo en nuestra manera de razonar. Teilhard de Chardin demanda un cambio epistemológico. Este cambió epistemológico es análogo a lo que Kant definio como lo sublime. Para Kant, lo sublime era “un objeto [de la naturaleza] cuya representación determina a la mente a pensar en la inasequibilidad de la naturaleza como una representación de las ideas de la razón.” Lo que Kant propone como principio es mucho más simple que su densa prosa. Realmente, su definición parece sintetizar muchas de las ideas que pensadores antes que él propusieron como principio acerca del concepto de 246 lo sublime. Desde Longino, el primer escritor que efectivamente aclaró algunas de sus definiciones básicas, la pretensión de lo sublime es que los humanos pueden, en sentimientos y en palabras, trascender lo humano. Que, si algo, se encuentra más allá de lo humano –Dios o dioses, el demonio o la naturaleza–, es un asunto que se deja a cada escritor individual que aborda el concepto de lo sublime. En el centro de lo sublime, sin embargo, hay algo más allá de la dimensión humana. Brevemente, lo que el concepto de sublime ha permitido a través de las centurias, ha sido una vía creíble para tratar lo que puede ser llamado “superhumano”. El hecho de que la trascendencia más allá de lo humano este en el centro de lo sublime está tan interiorizado, que Kant encontró innecesario mencionarlo. En lugar de ésto, él vió la manera en la cual lo sublime es un momento que experimentamos mientras contemplamos una escena natural u otra cosa más allá de nuestra explicación, permitiendo un cambio epistemológico. Kant dividió lo sublime en tres estados. En el primer estado de lo sublime, la mente está en en una determinada relación con el objeto que contempla. Esta relación es habitual y más o menos inconsciente, éste es el estado de percepción normal, donde no hay disonancia ni discrepancia entre lo que se contempla y la manera en que se le entiende. Hay allí una tersa correspondencia entre lo interno y lo externo. En el segundo estado, la relación habitual entre mente y objeto se rompe repentinamente. Sorpresa o asombro es el resultado de este rompimiento que produce una desconcertante desproporción entre lo interno y lo externo. Esto ocurre porque el objeto que se contempló es excesivo para las capacidades semánticas de la mente. En la ciencia, este momento anuncia revoluciones. Los registros geológicos y los lapsos que parecen contener, pueden ser un buen ejemplo. Igualmente, la vastedad del espacio y los grandes lapsos que ha requerido la historia universal que nos precedió, 247 pueden ser ejemplos de objetos para los cuales la mente parece no estar lista o equipada para entender. En el tercer y final estado kantiano de lo sublime, encontramos que tenemos etiquetado algo que nos permite realizar un cambio epistemológico, puesto que la mente encuentra nuevas vías de entendimiento En realidad, el tercer estado se caracteriza por el hecho de que la mente recupera el balance de lo externo e interno y reconstruye una nueva relación entre ella misma y el objeto, de manera que la indeterminación que caracteriza el segundo estado se usa aquí como un trampolín para que la mente entienda y clarifique un orden trascendente. En otras palabras, en el planteamiento de Kant, el objeto que causa el sentimiento de lo sublime está interiorizado, y como tal, es capaz de permitir a la mente el decubrir nuevas vías de entendimiento. Teilhard de Chardin, por supuesto, nunca hubiera aplicado la idea de lo sublime a su visión. Su esfuerzo, hasta donde a él concierne, fue puramente científico y lo ciñó a la filosofía tanto como cualquier otro trabajo de ciencia lo hace, solamente por necesidad. Pero como el trabajo de gente como Einstein, que si no fue tan profundamente espiritual, sí fue espiritualmente inspirado, cuestionando el universo, no como una fórmula sino como un objeto maravilloso, como una creación de un ser más grande, el trabajo de Teilhard de Chardin está profundamente ligado a la trascendencia. Más aún, su trabajo no solamente proyecta respeto a la creación, sino que en realidad internaliza este respeto y lo canaliza para crear un nuevo entendimiento. Podemos decir que el momento sublime en Teilhard de Chardin, el momento de respeto, surge de su comprensión de que la evolución no es un accidente que ocurre en algun aislado planeta llamado Tierra. El momento en el que Teilhard de Chardin propone como principio que la evolución en la Tierra es solamente un fragmento en un 248 continuum que empezó en el big bang y el cual continuará con o sin nosotros en el futuro, hasta que el universo cumpla con su función. Teilhard de Chardin demandó de sí mismo, así como de los demás científicos, que cambiaran no solamente el modo de hacer ciencia, sino la manera en la cual conocemos y entendemos; de aquí nuestra pretención: su trabajo demanda un cambio epistemológico. Como hemos visto previamente, cuando la teoría del big bang lo propuso, muchos científicos lo rechazaron. Sin embargo, a medida que ganó aceptación en los circulos teóricos, forzó a los círculos de investigación a reenfocar y refinar sus métodos, así que gradualmente forzó a ambos a confirmar o refutar la teoría. Las ideas de Teilhard de Chardin demandan algo similar a mucha mayor escala. Los científicos que han criticado a Teilhard de Chardin, rechazan su trabajo por teleológico y antropocéntrico. Esta última acusación se debe, por supuesto, a un completo malentendido del trabajo de Teilhard de Chardin. Para él los humanos son la más grande manifestación de la evolución porque personifican la mayor complejidad. Al mismo tiempo, Teilhard de Chardin está consciente de que los humanos, como la evolución en la Tierra, son solamente un paso en un viaje más largo. La primera acusación, la que ve su trabajo como teleológico es, en efecto, correcta. El truco que los críticos de Teilhard de Chardin han usado, es semántico. Antropocéntrico y teleológico son palabras sucias en el lenguaje actual. Combinadas a menudo implican que el Homo sapiens es el fin de la teleología. Nada más lejos de la verdad en el método de Teilhard de Chardin. Su teleología es mucho más compleja que eso. El Homo sapiens, como tal, no es el propósito del universo. Es sólo un peldaño en un proceso más largo. El propósito del universo es nada menos que el Punto Omega. Éste es uno de los conceptos que Teilhard de Chardin acuñó y que ha sido 249 adoptado ampliamente por la comunidad científica. La adopción no siempre ha sido correcta ni fiel al espíritu teilhardiano. Para él, el Punto Omega es la síntesis última, por la que reconcilia su teleología con el verdadero concepto científico del “big crunch”, que para muchos científicos es otra prueba de que el universo no apunta a nada y que esta regido por el azar. Testimonio de esto, por ejemplo es la manera en que Stephen Hawking usa una y otra vez los agujeros negros como una pequeña versión de lo que sucederá en el “big crunch”, y demasiadas veces ha argumentado que la información engullida por un agujero negro llegaria a ser silenciada. La visión de Teilhard de Chardin es diametralmente opuesta a la de Hawking. Para él, el Punto Omega es el punto donde los “centros reflexivos del mundo… efectivamente” convergen. 250 BIBLIOGRAFÍA Albert, David Z., Quantum Mechanics and Experience, Cambridge: Harvard University Press, 1992. —— “Bohm’s Alternative to Quantum Mechanics,” Scientific American, mayo 1994 Aristóteles, Obras filosóficas, México, Conaculta /Océano, 2000. Barbour, Julian, The End of Time (The Next Revolution in Physics), Oxford University Press 2000, Oxford, 1999. Barnett, Lincoln, El universo y el doctor Einstein, México, Fondo de Cultura Económica, 1973. Berger, A. (ed.), The Big Bang and Georges Lemaitre, Dordrecht, Reidel, 1985. Bergson, Henri, La evolución creadora, Barcelona, Planeta-Agostini, 1994. Berlin, Isaiah, The Proper Study of Mankind: An Anthology of Essays, Nueva York, Farrar, Strauss Giroux, 2000 Birx, H. James, Interpreting Evolution (Darwin & Teilhard de Chardin), Buffalo, Prometheus Books, 1991. Bohm, David, Wholeness and Implicate Order, Boston, Routledge & Kegan Paul, 1988. —— , La totalidad y el orden implicado, Barcelona,Kairos, 1992. Bonan, Kathy y Yves Cohen, Comer con inteligencia, México, Hermes, 1990. Bondi, Hermann, Relativity and Common Sense. A New Approach to Einstein, Nueva Cork, Dover Publications, 1980. Bourges, Hector, Nutricion y alimentos, México, CECSA, 1987, (Colección Consejo Nacional para la enseñanza de la Biología). Braun, Eliezer, Caos, fractales y cosas raras, México, SEP-FCE-Conacyt, 1996, Colección La ciencia desde México, No. 150. Clark, Stuart, Towards the Edge of the Universe (A Review of Modern Cosmology), Londres, John Wiley & Sons/PRAXIS, 1997. Cohen, A. Bernard, The Newtonian Revolution, Londres, Cambridge University Press, 1983 Conway-Morros, Simon, The Crucible of Creation: The Burgess Shale and the Rise of Life, Los Angeles, Getty Center for Education in the Arts, 1999. Corbella, Joseph, E. Carbonel, S. Moya y R. Sala. Sapiens, El largo camino de los homínidos hacia la inteligencia, Barcelona, Península, 2000. Coveney, Peter y Roger Highfield, Frontiers of Complexity (The Search for Order in a Chaotic Word), Nueva York, Fawcett Columbune. Cuénot, Claude, Teilhard de Chardin: A Biographical Study, Londres, Burns & Oates, 1959. Cushing, James T., Philosophical Concepts in Physics (The historical relation between philosophy and scientific theories). Cambridge. Cambridge University Press. 1998 Charon, Jean E., El conocimiento del universo. Barcelona. Martínez Roca. 1968, Darwin, Charles. The Origin of the Species, (facsimile de la primera edición), Cambridge, MA, Harvard University Press, 1964 ——, El origen de las especies. Barcelona. Bruguera. 1967. Davies, Paul. Other Worlds (Space, Superspace and the Quantum Universe), Londres, Penguin Books. 1988. 251 ——, Sobre el Tiempo (La revolución inacabada de Einstein). Barcelona, Grijalbo Mondadori, 1996. Dawkins, Richard. The Blind Watchmaker: Why the Evidence of Evolution Reveals a Universe Without Design. Nueva York, W.W. Norton & Company. 1987 Deutsch, David. The Fabric of Reality: The Science of Parallel Universes and Its Implications. Londres. Penguin Books, 1997. Dobzhansky, Theodosius. Mankind Evolving. The Evolution of the Human Species. Boston, Yale University Press. 1962. Einstein, Albert. La teoría de la relatividad. Barcelona. Altaya. 1993. Colección Grandes obras del pensamiento. No. 4. —— , The Principle of Relativity. Nueva York, Dover. 1952. Evelyn Grim, John and Mary. Teilhard de Chardin. A Short Biography. Nueva York, Anima Books. 1984, Colección Teilhard Studies. No. 11. Ferris, Timothy. The Whole Shebang: A State of the Universe Report. Nueva York, Simon & Schulster. 1997 Feynman, Richard. Lectures in Physics, vol. III. Boston: Addison-Wesley. 1965. ——, The Character of Physical Law. Londres, Penguin Books, 1992. ——, y S. Weinberg. Las partículas elementales y las leyes de la física. Barcelona, Gedisa, 1991. Fortey, Richard. Life: A Natural History of the First Four Million Years on Earth. Nueva York. Knopf. 1997 Gargía-Colín, Leopoldo, Marcos Mazari, Marcos Moshinski, et al.. Niels Bohr: científico, filósofo, humanista. México. SEP-FCE-Conacyt, 1991. George, Pierre. El medio ambiente. Barcelona, Orbis, 1985. Gleick, James. Chaos (Making a New Science). Nueva York. Penguin Books. 1988. Gómez Marín, Edgar. Esto es el caos. México. Consejo Nac. para la Cultura y las Artes. 1995. Gould, Stephen Jay. Wonderful Life: The Burgess Shale and the Nature of History. W.W. Nueva York, Norton & Company, 1989. —— , Full House: The Spread of Excellence from Plato to Darwin. Three Nueva York, Rivers Press. 1996 Green, Brian. The Elegant Universe (Superstrings, hidden dimensions and the quest for the ultimate theory). Nueva Cork, W.W. Norton & Co., 1999. Gribbin, John. El punto Omega (La búsqueda de la masa perdida y el destino final del universo). México. CONACULTA/Alianza. 1990. ——, In Search of the Double Helix: Quantum Physis and Life. Nueva York. Bantam Books. 1985. ——, Q is For Quantum: An Encyclopedia of Particle Physics. Nueva York. Touchstone Books. 2000 Guitton, Jean, Igor y Grichka Bogdanov. Dios y la Ciencia. Argentina, Emece Editores, . 1992. Guth, Alan H., The Inflationary Universe: The Quest for a New Theory of Cosmic Origins. MA, Helix Books. 1997. Hacyan, Shahen. Del Mundo Cuántico al Universo en Expansión. SEP-FCE-Conacyt, México. 1994, Colección La Ciencia desde México. No. 129. 252 ——, El descubrimiento del universo. SEP-FCE-Conacyt, 1996, Colección La Ciencia desde México. No. 6. Hawking, Stephen W., Historia del tiempo (Del big bang a los agujeros negros). México. Crítica. 1988. Hawkins, Michael. Hunting Down the Universe: The Missing Mass. Primordial Black Holes and Other Dark Matters. MA, Helix. 1998. Heisenberg, Werner. La imagen de la naturaleza en la física actual. Barcelona. PlanetaAgostini. 1993. Heisenberg, Werner. Physics and Beyond. Nueva York, Harper and Row. 1971. Herbert, Nick. Quantum Reality: Beyond the New Physics. Nueva York, Doubleday. 1985. Hoffman, Banesh. The Strange Story of Quantum. Nueva York. Dover. 1959. Jablonski, David. “Causes and Consequences of Mass Extinctions: A Comparative Approach” In Elliott’s Dynamics of Extinction. Nueva York, John Wiley, 1986 ——, “Mass Extinctions: New Answers, New Questions.” In Kaufman and Mallory’s The Last Extinction. Cambridge, MIT Press, 1986 ——, “Extinctions: A Paleontological Perspective”. Science, vol. 253 16 agosto, 1991. Jammer, Max. The Conceptual Development of Quantum Physics. Nueva York, McGraw-Hill, 1966. Kane, Gordon. Supersymmetry: Unveiling the Ultimate Laws of Nature. Cambridge, MA, Helix Books, 2000. Kauffman, Stuart A., Investigations. Nueva York, Oxford University Press. 2000. ——, The Origins of Order (Self-organization and selection in evolution). Nueva York. Oxford University Press. 1993. Keegan, John. The First World War. Nueva York, Knopf.. 1999. Kragh, Helge. Quantum Generations. A History of Physics in the Twentieth Century. NJ, Princeton University Press, 1999. Layzer, David. Cosmogenesis: The Growth of Order in the Universe. Oxford. Oxford University Press. 1991 Lederman, Leon. The God Particle: If the Universe is the Answer, What is the Question? Nueva York. Delta. 1993. Lenay, Charles. La evolución (De la bacteria al hombre). Barcelona. RBA Editores. 1993. Lindley, David. Where Does the Weirdness Go: Why Quantum Mechanics is Strange but not as Strange as You Think. Nueva York, Basic Books. 1996. Lovelock, James. Gaia: A New Look At Life on Earth. Oxford. Oxford University Press. 2000. Lucas Hernández, Juan de Sahagún. Teilhard de Chardin (1881-1955). Madrid.Ediciones del Orto. 996. MacCarthur, Robert. Geographical Ecology: Patterns in the Distributions of the Species. NJ. Princeton U P. Princeton, 1984. Mach, Ernst. The Science of Mechanics. La Salle, IL, Open Court. 1960. Mandelbrot, Benoît. Los objetos fractales. Barcelona. Tusquets. 2000. McNeil, J.R. Something New Under the Sun: An Environmental History of the Twentieth Century World, Nueva York, W.W. Norton & Company, 2000 Medwar, Peter. “Critical Review of The Phenomenon of Man”. Mind 70. p. 99-106 253 Morris, Richard. Times Arrows: Scientific Attitudes Toward Time. Nueva York. A Touchstone Book. 1985 Newton, Isaac. Mathematical Principles of Natural Philosophy and His Systems of the World. Trans. Florian Cajori and Andrew Motte. Berkley, University of California Press. 1934. Pais, Abraham. Subtle is the Lord…The Science and the Life of Albert Einstein. Londres. Oxford University Press. 1982. Parker, Barry. Chaos in the Cosmos (The Stunning Complexity of the Universe). Nueva York. Plenum Trade. 1996. Patterson, James T. Grand Expectations: The United States, 1945-1974. Oxford.Oxford University Press. 1996. Penrose, Roger. La Mente Nueva del Emperador (En torno a la cibernética, la mente y las leyes de la física). México. CONACYT-FCE, 1996. Pérez Ransanz, Ana Rosa. Kuhn y el cambio científico. México. FCE, 1999. Popper, Karl R., Teoría cuántica y el cisma en física. Madrid. Tecnos. 1996. Prigogine, Ilya. The End of Certainty (Time, Chaos, and the New Laws of Nature). The Nueva York. Free Press. 1997. Provencal, Yvon. The mind of Society (From a Fruitful Analogy of Minsky to a Prodigious Idea of Teilhard de Chardin). Amsterdam. Gordon and Breach Pub. 1998. Provenzano, Joseph P., The Philosophy of Consciousus Energy (Answer to the ultimate questions). Nueva York, Winston-Derek, 1993. Rees, Martin. Before the Beginning: Our Universe and Others. MA, Addison Wesley Reading. Massachusetts. 1997. ——, Just Six Numbers: The Deep Forces that Shape the Universe. Nueva York. Basic Books. 2000 Ridley, Matt. Genoma. La autobiografía de una especie en 23 capítulos. Madrid. Taurus. 2000. Rowan-Robinson, Michael. Cosmology. Oxford. Clarendon Press. 1996. Russell, Bertrand. La perspectiva científica. México. Planeta/Ariel. 1992. Schifter, Isaac. La Ciencia del Caos. SEP-FCE-Conacyt, México. 1996, Colección La Ciencia desde México. No. 142. Schilpp, Paul Arthur. Albert Einstein: Philosopher Scientist. La Salle, IL: Open Court. 1969. Schlosser, Eric. Fast Food Nation. Nueva York. Houghton Mifflin 2001. Silk, Joseph. The Big Bang (The creation and evolution of the Universe). San Francisco, W. H. Freeman and Company, 1980. Simonnet, Dominique. En busca de la naturaleza perdida. El ecologísmo. México. Gedisa. 1987. Smolin, Lee. The Life of the Cosmos. Oxford. Oxford University Press, 1997. Stravinsky, Igor. Chronicle of My Life. London, Victor Golancz. 1936. Strikker, Allerd. The Transformation Factor: Toward an Ecological Consciousness. MA, Element. Rockford, 1992. Teilhard de Chardin, Pierre. Activation of Energy. Nueva York. HBJ. 1960. ——, El fenómeno humano. Madrid. Taurus. 1963. ——, La visión del pasado. Madrid. Taurus. 1966. 254 ——, Christianity and Evolution. Nueva York. A Harvest/HBJ Book. 1969. ——, Human Energy. Nueva York. Harper Harvest Book. 1969. ——, Toward the Future. Nueva York, A Harvest/HBJ Book. 1975. Tippler, Frank J., The Physics of Immortality: Modern Cosmology, God and the Resurrection of the Dead. Nueva York. Anchor Books. 1994 Torres, José Leonel. En el nombre de Darwin. México. FCE-Conacyt, 1995. Trefil, James S., 101 Things you don´t know about science and no one else does either. Nueva York. Mariner Books. 1996. Tresmontant, Claude. Introducción al pensamiento de Chardin de Teilhard. España. Taurus Ediciones. 1966. Vico, Gianbattista. Principios de una ciencia nueva sobre la naturaleza común de las naciones. Argentina.Aguilar. 1981. Waldrop, Michell. Complexity (The emerging science at the edge of order and chaos). Nueva York. Touchstone Book. 1993. Weinberg, Steven. The First Three Minutes (A modern View of the origin of the Universe). Nueva York. Basic Book. 1993. Wendt, Herbert. Antes del Diluvio. Barcelona. Noguer. 1968. Wendt, Herbert. Empezó en Babel (El descubrimiento de los pueblos). Barcelona, Noguer. 1961. Wendt, Herbert. Tras las Huellas de Adán. Barcelona. Noguer. 1967. Westfall, Herbert. Never at Rest: A biography of Isaac Newton. Londres. Cambridge University Press. 1980 Wheeler, John Archibald. Geons, Black Holes and Quantum Foam: A Life in Physics. Nueva York. W.W. Norton & Company. 1998. Whitrow, G. J., La Estructura del Universo (Introducción a la Cosmología). México. FCE, 1966. Breviarios. No. 61. Wilson, Edward O., “The Species Equilibrium” in Diversity and Stability in Ecological Systems. Brookhaven Symposia in Biology No. 22 ——, The Diversity of Life. Cambridge MA. Belknap Press. 1992 ——, Consilience (The unity of Knowledge). Nueva York. Alfred A. Knopf. 1998. ——, and Daniel S. Simberloff. “Experimental Zoogeography of Islands: Defaunation and Monitoring Techniques”. Ecology. vol 50. No.2 Wright, Robert. Non Zero: The Logic of Human Destiny. Nueva York. Pantheon Books.. 2000. Zohar, Dana. The Quantum Self: Human Nature and Consciousness Defined by the New Physics. Nueva York. Quill. 1991. ——, y Ian Marshall. The Quantum Society (Mind, Physics, and a new Social Vision). Nueva York. Quill/William Morrow. 1994