La energía como motor del universo Jaime Restrepo Cuartas Nota del Autor: En la realización de este ensayo, he usado información procedente de la mente de grandes pensadores, por tanto, y para respetar los derechos morales de ellos, he hecho uso de la citación, y los aportes están en las notas bibliográficas. La gran mayoría de los conceptos contenidos me han servido para hilar los acontecimientos desde la energía esencial (escalar u oscura), hasta la energía del pensamiento, y su consecuencia en la evolución del hombre, el proceso de concienciación colectiva de la humanidad. Lo que escribo en cursivas es lo conceptual que quisiera aportar, bien sea como crítica o como conclusión personal. Las fotos empleadas, muchas de las referencias y parte de los textos, han sido tomadas de buscadores como Google y Wikipedia enciclopedia libre, y serán referenciados de manera específica. El autor Índice Introducción Parte l 1. La energía -1.1. La energía radiante -1.2. La energía escalar (esencial u oscura) -1.3. Energía oscura (nuevo concepto) 2. Partículas -2.1. El átomo -2.2 Las partículas elementales -2.3 El concepto de materia oscura 3. La teoría del caos 4. Los elementos químicos -4.1. Metales -4.2. No metales -4.3. Metaloides 5. La atmósfera de la tierra 6. La masa 7. La resonancia -7.1. Las vibraciones 8. Teorías de la explosión y la implosión de la materia -8.1. Teoría del Big Bang -8.2. Teoría del Big Crunch -8.3. La teoría de los eones de Penrose 9. Los agujeros negros -9.1. Historia del agujero negro -9.2. Los agujeros negros supermasivos -9.3. La entropía en los agujeros negros -9.4. Los agujeros negros en la física actual -9.5. Descubrimientos recientes 10. Los pulsares Parte ll 11. El surgimiento de la vida -11.1. La teoría de la abiogénesis -11.2. La teoría de la panspermia -11.3. Las cianobacterias y la historia de la Tierra -11.4. La fotosíntesis oxigénica -11.5. La fijación de nitrógeno -11.6. Las microzimas 12. La resonancia en los seres vivos Parte lll 13. La evolución -13.1. La evolución de la vida en la tierra -13.2. La evolución -13.3. Historia del evolucionismo -13.4. Síntesis evolutiva -13.5 La variabilidad genética -13.6. La mutación -13.7. La recombinación genética -13.8. La genética de las poblaciones -13.9. El flujo genético -13.10 Los mecanismos de la evolución 14. La formación del hombre -14.1. Los preaustralopitecinos -14.2. Los australopitecinos -14.3. Los primeros Homo -14.4. El poblamiento de Europa y Asia -14.5. Nuevos orígenes en África. Hombre de Neanderthal y Cromagnón 15. Homo sapiens -15.1. La evolución del lenguaje -15.2 El origen y la evolución de la conciencia -15.3. El desarrollo del cerebro -15.4. La cerebración -15.5. La teoría de la mente de Roger Penrose -15.6. La evolución del cerebro humano fue un evento especial 16. La mente y el pensamiento -16.1. Tipos de pensamiento -16.2. El pensamiento en la tipología psicológica 17. La conciencia y el ser consciente -17.1. Definición de conciencia -17.2. Características de la conciencia -17.3. La superveniencia y la conciencia -17.4. La génesis de la conciencia 18. Conclusiones Notas bibliográficas PRÓLOGO Conocí al Doctor Jaime Restrepo Cuartas desde la década de los setentas del siglo anterior, cuando él realizaba estudios de fisiología, luego de haber terminado con méritos su formación como especialista en Cirugía General en la Universidad de Antioquia. Nos impactaba su inteligencia, habilidad quirúrgica, capacidad de trabajo y sobre todo su gran poder de síntesis, cualidades que lo hicieron destacarse como uno de los mejores profesores de la Facultad de Medicina, en donde realizó una brillante carrera sirviendo a la Alma Máter de Antioquia en todas las áreas del quehacer universitario. Durante su vida en la Universidad, debido a sus méritos, gozó del respeto y admiración de sus colegas y numerosos alumnos; ocupó de manera escalonada los cargos más honoríficos de la carrera profesoral, llena de aportes en producción intelectual reflejada en numerosos artículos científicos, capítulos de libros, textos de cirugía general, contribuciones a la medicina colombiana en técnicas quirúrgicas y manejo del trauma; fue pionero en trasplantes de órganos en donde se destaca la dirección del equipo quirúrgico que realizó el primer trasplante hepático en América Latina. Sirvió además a la Universidad desde la Dirección del Departamento de Cirugía, la Decanatura encargada de la Facultad y la Rectoría de la Universidad, cargos a los que se accedía obviamente por la capacidad de liderazgo, pero principalmente por méritos académicos. Pero el Doctor Restrepo no era desde esa época, solo un médico con conocimientos en la profesión y en la conducción de la vida universitaria. Era y continúa siendo un erudito, un hombre culto; escribió un ensayo sobre la historia de la medicina en Antioquia y varias novelas, al igual que numerosos artículos periodísticos sobre temas de actualidad de la vida nacional. Dirigió la Corporación para Investigaciones Biológicas, CIB, de Medellín, instituto de gran reconocimiento en el ámbito académico nacional e internacional y por su trayectoria, después de un periodo en la Cámara de Representantes, fue promovido por el Gobierno Nacional a la Dirección de Colciencias. Ahora, desde la Rectoría General de la Universidad de Santander, en el marco de la formación integral y la interdisciplinariedad, realiza un ciclo de ilustradas conferencias sobre el origen del Universo, el surgimiento de la vida en nuestro planeta y la evolución del hombre, haciendo énfasis en la aparición del lenguaje y el pensamiento, resultado del desarrollo evolutivo del sistema nervioso central, procesos naturales originados en la transformación de la energía. La profundización que hizo el Dr. Restrepo sobre los temas anteriores, lo llevaron a escribir este ensayo, en el que, partiendo de las teorías aceptadas como válidas por la comunidad científica internacional, nos hace un delicioso resumen sobre temas de cosmología, de física teórica, de química, de biología de antropología, paleontología, genética, historia, filosofía; cita a los filósofos griegos, Platón, Heráclito y Demócrito, a físicos como Isaac Newton, Albert Einstein, James Maxwell, Nicola Tesla, Edwin Hubble, Stephen Hawking, Peter Higgs y a Charles Darwin y su tratado sobre la evolución de las especies y la genética Mendeliana, a Teilhard de Chardin y a una pléyade de investigadores que incluyen a Norberto Keppe y Antoine Bechamp, entre otros, listado con el que, lejos de pretender la ostentación, se quiere resaltar el hecho de que el autor se basó en la revisión de una extensa bibliografía de autores reconocidos en la historia de la ciencia. El ensayo está escrito en una forma secuencial y en un lenguaje sencillo, para todos los públicos, sin pretender con esto quitarle rigurosidad al punto de vista del autor, que se resume en las conclusiones del mismo, en donde él advierte que su trabajo corresponde a una “posición conceptual y filosófica sobre el origen del Universo, el surgimiento de la vida y el sentido final de la existencia”. Asumir este tipo de posiciones, sustentadas en postulados científicos y someterlas al debate intelectual, al juicio crítico de los pensadores de la academia para que quienes a bien lo tengan, se pronuncien en cualquier sentido dentro de la argumentación lógica del pensamiento racional, para rebatir o enriquecer esta elaboración conceptual, se constituye en la esencia de la Universidad, del pensamiento científico; pensamiento que el Dr. Restrepo considera la manifestación más evolucionada de la energía. Para concluir esta presentación, defino al autor del ensayo como un hombre culto, en los términos del filósofo Javier Goma: “Es tener conciencia histórica, lo que conduce por fuerza a una conciencia crítica, autónoma y razonadora, que discrimina, en lo presente, aquello que merece conservarse de aquello que debe reformarse”. De este tipo de personas debería producir siempre la Universidad. William Reyes Serpa Decano de la Facultad de Salud de la Universidad de Santander Introducción El propósito de este ensayo es elaborar un concepto sobre la energía esencial, definida ella por las características de ser eterna, infinita, inconmensurable, omnipresente y en permanente movimiento, con la pretensión de ofrecer una forma de explicar la existencia del universo. Esta energía evoluciona en su interacción consigo misma, por medio de la formación de campos electromagnéticos, hacia la creación de las primeras partículas elementales con masa, hasta desarrollar el átomo como componente básico de la materia que hoy conocemos, para formar los elementos encontrados en la naturaleza. Primero, los más simples en su composición, como el hidrógeno, que da origen a los cuerpos celestes cual enormes masas de plasma, concentradas a su vez en nubes de gas, que por su fuerza de atracción comienzan a girar a inmensas velocidades y a adquirir una mayor densidad, y terminan por explotar, para luego transformarse en los cuerpos celestes existentes (galaxias, estrellas, planetas y otras formas estelares), los que, sometidos a grandes temperaturas y al bombardeo continuo de partículas, para el caso nuestro en un planeta sin atmósfera, alcanzan a formar los componentes básicos que le dan origen a la vida (vapor de agua, nitrógeno, carbono), y propician su transformación, por las condiciones especiales y singulares que se establecen. Y en ese proceso, por evolución continua durante miles de millones de años (suponiendo que estamos de acuerdo con la teoría del big bang), surge la vida, y luego el hombre, con su propias particularidades, y el desarrollo de tejidos especializados para cada una de las funciones de sus órganos, hasta la formación del más complejo de todos, el cerebro humano, que contiene la posibilidad de generar otro tipo de manifestaciones aún más sofisticadas, cual formas de energía cada vez más refinadas, como el pensamiento. El pensamiento, como un hecho nuevo, tiene la capacidad de hacer al hombre consciente de sí mismo, darle la posibilidad de almacenar información (memoria) y de elaborar otras funciones de la mente como el raciocinio, la abstracción, la imaginación, la creatividad y los sentimientos. A más de ello, aquella energía esencial, que ha evolucionado a través de la materia y se puede concentrar en un proceso de concienciación colectiva, logrará conseguir en el universo un equilibrio entre los sistemas estelares y los seres vivos existentes. La energía, a través de la materia por ella creada, y haciendo uso de sus formas más especializadas, le da finalmente sentido a la existencia. Es lo que existe antes y después del universo que conocemos, sin tiempo ni espacio; está en todo, en la materia conocida, en los seres vivos y en el llamado vacío. En la historia de la humanidad, desde que el hombre adquirió conciencia de sí mismo y comenzó a reflexionar sobre su propio ser y a encontrar lo que podría ser un sentido de su existencia, quiso explicar, a través de sus más reconocidos pensadores y filósofos, su presencia en el mundo y su conexión con todo lo visible, lo pensable y deducible, lo detectable e identificable, a través de la intuición, la reflexión, la indagación y la investigación. Dedujo, entonces, que ello, entre muchas otras cosas, podría ser dado por un fenómeno de creación continua y evolución a partir de una fuerza externa, superior, inexplicable, capaz de formar lo que hay en el universo y regirlo todo. Se imaginó entonces la existencia de los dioses, todavía con poderes muy terrenales según las necesidades propias del hombre, o de un Dios único, y a ellos o a él, les asignó el poder de crear todo lo existente, con lo cual se configuraron las corrientes idealistas, desde Platón (427–347 a. C.), quien diseñara la teoría del ser y el no ser en el reino de las ideas, en las que las predominantes eran, fuera del ser, la igualdad, la diferencia, el movimiento y el reposo (1), o le endosó a la materia, en sí misma, tal potestad, lo que ha dado origen a las diversas escuelas del pensamiento materialista, desde Heráclito (544– 484 a. C.), quien considerara que el principio de todo lo existente era el fuego (2). Existe la posibilidad, cada vez más clara, de que esa fuerza vital, a partir de la cual se inicia el universo, sea la energía esencial. Ella ha existido siempre y de ella surge todo lo que puede conocerse. Muchas cosas, hoy en día no explicadas, como las consideradas producto de fenómenos independientes de la materia, de naturaleza espiritual para algunos o que se definen como alma, o se interpretan como principio vital (el elan vital del que hablara Bergson), o algunas capacidades detectadas, mas no lo suficientemente explicadas, como la habilidad para adivinar y hacer premoniciones, la telepatía, la radiestesia o la intuición misma, u otra serie de fenómenos incomprendidos (3), e incluso el pensamiento, la conciencia y las demás expresiones de la mente humana, como la imaginación, pudieran tener su explicación en formas diferentes de energía; esa que ha evolucionado a través o por intermediación de la materia. No basta la investigación sin la capacidad del hombre de darle, por medio de la filosofía, un sentido a lo que descubre en la naturaleza. Parte l 1. La energía 1.1. La energía radiante Es aquella que se origina de las estrellas que existen en el universo, luego de la explosión inicial conocida como el Big Bang y que inundan el espacio existente. El objeto de este ensayo no trata sobre este tipo de energía, que es la más conocida y estudiada, y que se transmite en forma de ondas electromagnéticas. Está compuesta por fotones que viajan a una velocidad calculada en 300.000 kilómetros por segundo, en forma de ondas que se dispersan como cuantos de energía. Tiene la capacidad de penetrar los objetos o de ser absorbida por los organismos vivos, como las plantas, que la utilizan en sus procesos internos como el de la fotosíntesis. Su unidad de medida es el Joule (4), en honor de James Prescott Joule (1818—1889) y en ella se clasifican la luz, las ondas de radio, los rayos ultravioleta e infrarrojo, los rayos X y los Gamma o las microondas. El hombre es capaz de captar la luz por encima de la magnitud infrarroja, pero no lo hace con la ultravioleta, ni con los rayos X o los Gamma. La intensidad de la radiación depende de la cantidad de fotones por unidad de tiempo y el color se relaciona con la longitud de onda. La energía radiante es aplicada por el hombre para procesos como radio transmisión, televisión, telefonía, redes inalámbricas e internet. En medicina es útil en el diagnóstico y tratamiento de enfermedades y también se emplea en la industria, el transporte y la producción. La radiación ultravioleta sería letal para los humanos si no existiera en la atmósfera la capa de ozono que la captura e impide su ingreso, evitando de ese modo el daño sobre los seres vivos, en un fenómeno descrito por Charles Fabry (1867—1945) y Henry Buisson (1873—1944). 1.2 La energía escalar (esencial u oscura) “La ciencia no es sino una perversión en sí misma, a menos que tenga como objetivo final el mejoramiento de la humanidad”. Nikola Tesla (1856–1943). La energía libre, determinada por Gibbs como producto de una reacción química, no es tampoco el objeto de este ensayo, pues esta es el resultado mismo de la interacción de la materia evolucionada. Se atribuye el descubrimiento de la energía escalar en el concepto de Tesla, a James Clerk Maxwell (1831–1879), físico escocés, quien desarrollara además la teoría electromagnética. Él demuestra que la luz está compuesta por ondas de este tipo de energía. En los estudios de Maxwell (5) se apoyan muchos científicos posteriores a él, entre ellos Nikola Tesla, quien, desde el siglo XIX, habló de la posibilidad de captarla desde cualquier lugar del planeta y utilizarla al servicio de la humanidad, sin el uso de combustibles contaminantes, como el petróleo o el carbón. De ser posible su utilización, sería económica y amigable con el medio ambiente. Esta fue su obsesión, pero también la de otros científicos, como Albert Einstein (1879–1955), quien desarrolló, a partir de los estudios de los científicos anteriores, su teoría de la relatividad (1905) y luego de la relatividad general (1915), la que en su momento, y hasta el presente, goza de enorme aceptación en el mundo científico, pero, a la luz de los nuevos hallazgos o reflexiones, pudiera ser cuestionada como parte de un proceso natural del avance de la ciencia, o de interpretaciones diferentes de sus teorías y conceptos, según se puede consultar en su biografía (6). Nikola Tesla (ver foto) encontró que el vacío del universo no significa ausencia de algo, porque no esté pleno de materia, ni es simplemente el espacio por donde circula la energía; es ahí donde están la energía radiante y la energía escalar (esencial u oscura), en permanente movimiento. En otra época se denominó éter, y Aristóteles la consideraba el elemento más sutil, ligero y perfecto que ocupaba el vacío, también llamado el qi, como representación de la energía o el espíritu, en la filosofía oriental (Zhang Zai). La energía electromagnética llena el espacio que creemos vacío. “El poder eléctrico está presente en todas partes, en cantidades ilimitadas”, decía Tesla (7). La consideró capaz de mover cualquier máquina sin necesidad de combustibles. Se describe su presencia en el vacío del universo, «como un océano de energía infinita». La energía esencial es una magnitud escalar porque no requiere dirección ni sentido, como la vectorial. Dicha energía sin masa penetra la materia y puede incidir en sus procesos internos (8). Según Barden, Tesla fue un célebre inventor en temas de energía electromagnética, corriente alterna, motores de inducción, radio transmisión y diferentes tipos de transmisión inalámbrica, bobinas, dinamos, generadores y lámparas fluorescentes, entre otros (9), y siempre creyó que algún día el hombre podría recuperarla y ponerla al servicio de la humanidad, cuestión que hoy desarrolla el grupo de Trilogía Analítica dirigido por Norberto Keppe (1927), en el Brasil (10). Veamos lo que decía Tesla sobre esto, en una conferencia de octubre de 1927: “In order to overcome the inherent limitations of such machines, I next concentrated my efforts on the perfection of a peculiar transformer consisting of several tuned circuits in inductive relation which received the primary energy from oscillatory discharges of condensers. This apparatus, originally identified with my name and considered by the leading scientific men my best achievement, is now used in every wireless transmitter and receiver throughout the world. It has enabled me to obtain currents of any desired frequency, electromotive force and volume, and to produce a great variety of electrical, chemical, thermal, light and other effects, roentgen, cathodic and other rays of transcending intensities. I have employed it in my investigations of the constitution of matter and radioactivity, published from 1896 to 1898 in the Electrical Review in which it was demonstrated, prior to the discovery of radium by Mme. Sklodowska and Pierre Curie, that radioactivity is a common property of matter and that such bodies emit small particles of various sizes and great velocities, a view which was received with incredulity but finally recognized as true. It has been put to innumerable uses and proved in the hands of others a veritable lamp of Aladdin. As I think of my earliest coils, which were nothing more than scientific toys, the subsequent development appears to me like a dream” (11). 1.3. La energía oscura (nuevo concepto de la escalar o esencial) Hoy en día se considera que el 72 % del contenido energético del universo es energía oscura (esencial), que es la energía precósmica o energía existente antes del Big Bang, y su presencia se establece por el efecto que produce sobre la expansión del universo, como lo sugieren Peebles y Ratra (12). Ellos sostienen que en la cosmología actual, la energía oscura (que se considera sin masa o con masa no cuantificada), estaría presente en todo el espacio, produciendo una presión que acelera la expansión del universo, oponiéndose a la fuerza de la gravedad de la materia existente. Esto explica las observaciones recientes acerca de que el universo parece estar en expansión acelerada (ver foto de representación). dos temas relacionados con la energía oscura son la constante cosmológica y la quintaesencia. La constante cosmológica, en un principio fue propuesta por Einstein, y es una energía de densidad constante que llena el espacio en forma homogénea y se relaciona con la teoría cuántica de campos, y la quintaesencia (quinto elemento), es conocida como un campo dinámico, cuya densidad de energía puede variar en el tiempo y en el espacio. Las contribuciones de los campos escalares, que son constantes en el espacio, se incluyen en la constante cosmológica. El concepto de la constante cosmológica tiene su origen en la energía existente en lo que siempre se ha considerado el vacío, pero que en realidad no existe como tal. Los campos escalares, como lo proponen Peebles y Ratra, que cambian con el espacio, son difíciles de distinguir de una constante cosmológica, porque son demasiado lentos (12). La relación de la energía esencial con el quinto elemento es más clara actualmente. Los griegos consideraban la existencia de cuatro elementos esenciales: la tierra, el agua, el fuego y el aire. Los chinos eliminaron el aire y pusieron el metal y la madera. El hinduismo incorporó el éter, los japoneses el vacío (Godai), y Paracelso o Theophrastus Bombastus von Hohenheim (1493– 1541), lo buscó como la piedra filosofal que permitía la transformación de los elementos (desarrollando las teorías de la alquimia, concepto de más de dos mil quinientos años, conocido en todas las culturas de la humanidad, lo que demuestra el interés por encontrar algo más allá de lo material). Hoy se asimila por los deístas, “a la luz divina o energía que combate el mal”. Paracelso, según las apreciaciones de Marcelin Berthelot (1827–1907), sostenía que los cuatro elementos eran criaturas fantásticas que existían antes del mundo: en la tierra era el gnomo (enano fantástico), en el agua las nereidas (ninfas acuáticas), en el aire los silfos (espíritus del viento) y en el fuego las salamandras (hadas del fuego), pero lo cierto es que ha estado relacionada con lo oculto y esotérico (13) (ahora el quinto elemento pudiera asimilarse a la energía esencial como fuente de todo). Para descubrir si es verdad que la velocidad de expansión tiene modificaciones con el tiempo se requieren mediciones de mucha precisión, que es muy difícil tenerlas. La tasa de expansión se determina por parámetros específicos con una ecuación que los astrónomos han denominada «la ecuación de estado», como las conocidas de Peng y de Soave (14). “En física y química, una ecuación de estado es una ecuación constitutiva para sistemas hidrostáticos que describen el estado de agregación de la materia como una relación matemática entre la temperatura, la presión, el volumen, la densidad, la energía interna y, posiblemente, otras funciones asociadas con la materia” (15). La medición de la «ecuación de estado» de la energía oscura es un reto de la investigación actual, como se observa en los trabajos de Soave y Peng (14) y (15). No se debe confundir la energía oscura con la materia oscura, pues, aunque ambas forman la mayor parte de la energía del universo, la materia oscura es una forma de materia (posiblemente integrada por partículas elementales, unas con masa y otras sin masa), mientras que la energía oscura se asocia a un campo electromagnético que ocupa el espacio (y que según lo estamos deduciendo, lo ha creado todo, desde las partículas elementales, de las que se origina la materia conocida en el universo, hasta la constitución de los inmensos cuerpos celestes como las galaxias). En 1998, las observaciones de supernovas muy lejanas sugirieron que la expansión del universo está en un proceso de aceleración. (ver pintura La noche estrellada, de Van Gogh). Ello se confirma al medir la radiación de fondo de las microondas, y también utilizando el fenómeno conocido como «lentes gravitacionales» (que se forman cuando la luz que viene de un objetos distante con brillo muy alto, como un cuásar, se curva alrededor de una galaxia). Las supernovas de tipo 1a, por su luminosidad de magnitud absoluta, se emplean como «candelas estándar», para compararlas con un objeto luminoso de similar magnitud y mirar entre ellas el alejamiento que ocurre en la expansión del universo. La ley de Hubble, permite determinar que todas las galaxias lejanas se alejan de la Vía Láctea, porque se encuentra en ellas un desplazamiento al rojo en el espectro luminoso (este es el conocido efecto Doppler descrito por Cristian Andreas Doppler (1803–1853) que determina un corrimiento al rojo cuando los objetos se alejan y al azul cuando los objetos se acercan). De esta manera se puede calcular la edad de un objeto lejano. El valor que representa la expansión se llama «constante de Huble» y se mide con las «candelas estándar»; con ello se determina de una manera más precisa la expansión cosmológica, de tal manera que es posible relacionar el brillo observado, o magnitud aparente, con la distancia a la cual se encuentran los objetos (Ver: Daniel Kasen, “Astrophysics: The supernova has two faces,” News & Views, Nature 466: 37–38, 01 July 2010 y K. Maeda et al., “An asymmetric explosion as the origin of spectral evolution diversity in type Ia supernovae,” Nature 466: 82–85, 01 July 2010). Inicialmente se pensaba que la expansión del universo se frenaba por la fuerza de atracción ejercida por la gravedad, pero más adelante otros científicos, como Dragan Huterer, encontraron que la expansión se estaba acelerando, por lo que consideraron que debía existir algún tipo de fuerza que permitiera su expansión (16). Hoy se le atribuye este fenómeno a la energía oscura (que podría tener, incluso la capacidad, en un momento determinado, de estabilizar el universo por el equilibrio entre las fuerzas de expansión y las de gravitación, lo que implicaría que se siga produciendo mucho más materia en el universo). El satélite WMAP enviado por la NASA en el año 2001 para medir la radiación cósmica de fondo, con el objeto de corroborar las teorías sobre el origen del universo, establece con muy pocas posibilidades de error que el universo es plano. Las mediciones consideraron que la densidad crítica del universo es del 30%, lo que sugería que la cantidad de energía oscura y materia bariónica podría ser del 70%. Los estudios de David Spergel de la Universidad de Princeton indican que el 72% de la energía del universo es oscura, el 23% es de materia oscura (fría y caliente) y 5% de materia bariónica, o sea de partículas elementales con masa. La teoría de la estructura a gran escala del universo, que determina la formación de cuerpos celestes (estrellas, galaxias y agrupaciones galácticas), también sugiere que la densidad de materia en el Universo es sólo el 30 % de la densidad crítica (17). De algunos experimentos diseñados para probar la existencia de la energía oscura, el más conocido es el «Sistema de Detección Integrado Sachs-Wolfe», ideado en 1996 y utilizado por primera vez en el 2003 (Sachs, R. K.; Wolfe, A. M., 1967). “Perturbations of a Cosmological Model and Angular Variations of the Microwave Background”. Astrophysical Journal 147: 73). Quienes hicieron el experimento, propusieron buscar pequeños cambios en la energía de la luz, comparando la temperatura de la radiación con mapas de galaxias en el universo local. “De no existir la energía oscura, no habría correspondencia entre los dos mapas (el de fondo de microondas cósmico, distante, y el de la distribución de galaxias, relativamente cercano). Si esta existiera, sin embargo, se podría observar un fenómeno: los fotones del fondo cósmico de microondas ganarían energía —en vez de perderla— al pasar cerca de grandes masas”. El experimento se fortaleció con los trabajos del equipo de Tommaso Giannantonio (18), quien encontró más pruebas para la hipótesis sobre la existencia de la energía oscura. Esta se determina a partir de medidas muy estrictas de la expansión del universo. “Se sabe que es homogénea, no es densa, pero la física actual no conoce su interacción con las fuerzas fundamentales, solo con la gravedad. Como no es muy densa, unos 10−29 g/cm³, es difícil realizar experimentos para detectarla. La energía oscura tiene una gran influencia en el universo, pues es más del 72 % de toda la energía, y ocupa uniformemente el espacio interestelar” (18). George Gamow, Ralph Alper y Robert Hermann en 1948 estimaron la radiación cósmica de fondo, y luego Robert Dicke y Yakov Zel'dovich, en 1960, hablaron también del tema, que para algunos es la demostración de la explosión inicial o Big Bang. La energía de fondo contiene la energía y la materia oscuras, y le ha hecho pensar a los astrofísicos que el universo puede ser plano y que la masa que contiene es lo que facilita la expansión acelerada, que se pudo haber iniciado hace unos 9.000 millones de años. Si el universo fuera cerrado, la gravedad sería, en un momento determinado, mayor que la fuerza de expansión y se produciría el colapso o Big Crunch. (Como la energía esencial tiene la capacidad de crear materia, puede también crear la fuerza de atracción necesaria para lograr el equilibrio del universo y evitar la expansión definitiva que llevaría a la desaparición de la vida y de toda la materia existente). La energía oscura y el proceso de aceleración del universo ayudan a definir su antigüedad. Según Öztas y Smith (19), y teniendo en cuenta la existencia de la energía oscura, la edad del Universo puede ser de unos trece mil setecientos millones de años (de acuerdo con los datos del satélite WMAP, en 2003), lo que resolvería la paradoja de la edad de las estrellas más antiguas (A.M. Öztas y M.L. Smith (2006). «Elliptical Solutions to the Standard Cosmology Model with Realistic Values of Matter Density. International Journal of Theoretical Physics 45: pp. 925936). El futuro final del universo depende entonces de la naturaleza de la energía, y de la existencia o no de un sentido de la existencia humana (en la teoría antropocéntrica), lo que nos llevaría al plano teológico por existir una causa inicial y otra final. En ese punto las observaciones mas centradas y constantes son las de Teilhard de Chardin, en su extensa obra, lo que nos llevaría a estudiar más a fondo su obra). En cosmología se denomina «quintaesencia» (que se corresponde con el quinto elemento, en este caso la energía del vacío, antes llamado éter), a la densidad de la energía oscura, que provoca una aceleración exponencial de la expansión del universo. En algunos modelos la aceleración es tan rápida que superara las fuerzas de atracción nucleares (gravitacional), y podría destruir el universo en unos veinte mil millones de años. Este fenómeno se ha conocido como «El Gran Desgarro» (teoría del Big Rip o de la expansión eterna). De ahí nacen ideas especulativas sobre el futuro del universo, una de ellas sugiere que la energía oscura causaría una expansión divergente, que implicaría que la fuerza efectiva continuaría creciendo hasta dominar al resto de las fuerzas del universo. Bajo este escenario, la energía oscura finalmente destrozaría las estructuras reunidas bajo la gravitación, incluyendo galaxias y sistemas solares, y superaría a las fuerzas eléctricas y nucleares para destrozar todo lo existente, incluso los átomos mismos, lo que terminaría con el universo en una especie de dispersión total, y por tanto un enfriamiento progresivo, y seguramente nos llevaría a un retorno a la energía esencial. Por otro lado, se piensa que la energía oscura puede llegar a ser atractiva al formar más materia y fortalecer la fuerza de gravedad. Esto abre la posibilidad de que la gravedad pueda conducir a un universo que se contrae a sí mismo, en una especie de «Big Crunch», o a que se estabilice. Algunos como Roger Penrose hablan incluso de un modelo cíclico. Las medidas de aceleración son determinantes del destino final del universo en la teoría del Big Bang (de esta manera, se podría pensar —porque no lo deducen los físicos ya que no es un tema científico sino filosófico — que la energía esencial es la que crea toda la materia del universo y, así como la crea, la puede destruir o finalmente estabilizar). 2. Partículas 2.1. El átomo Desde Demócrito de Abdera (460-370 a. C.), y su maestro Leucipo de Mileto, contemporáneo suyo pero de quien se conoce poco (siglo V a. C.), quien fuera a su vez discípulo de Parménides de Elea (aproximadamente 540 a. C.), se consideró que la partícula elemental de la materia fuera el átomo; aquella porción de la materia que no tenía posibilidad de dividirse más. Para Demócrito (ver foto), y según la Enciclopedia Británica, el principio era lo lleno y el resto el vacío, es decir, lo uno era el ser y lo otro el no ser. El ser, según él, eran los átomos, y el no ser, el vacío. Pero el vacío no era simplemente la nada, pues el vacío existía de un modo efectivo, aunque de una manera distinta del ser material, que son los átomos. Los átomos fueron considerados por él como eternos, porque son los primeros, a partir de lo cual las cosas llegan a la existencia. El átomo sería la partícula más pequeña e indivisible, homogénea e incomprensible, eterna y en permanente movimiento. “El principio de todas las cosas es el átomo y el vacío que los contiene; todo lo demás es dudoso y opinable”, decía (20). Las propiedades de la materia varían según el agrupamiento de los átomos. Consideraba Demócrito que la mente estaba formada por átomos más ligeros, y el cuerpo por átomos más pesados. Creía que las percepciones sensibles se explicaban por la interacción entre los átomos de los efluvios, que partían de las cosas percibidas, y los átomos receptores. De igual manera, el alma estaba conformada por átomos de fuego, de rápido movimiento, como lo refiere Ferrater Mora (21) (Formas de energía distinta, transformada, podría decirse hoy en día). También Zhang Zai (1020–1077), en el marco de la filosofía del confucianismo (ver esquema sobre su legendaria figura), se refiere a que el qi, al condensarse se convierte en materia visible, y al disolverse se hace invisible a los ojos (Enciclopedia de la Filosofía). John Dalton (1776–1844), en consonancia con Demócrito, consideró, dos mil doscientos años después, que los átomos eran indivisibles e indestructibles, y diseñó la primera estructura atómica. Propuso una tabla de pesos atómicos en la que el átomo representaba una unidad, y colocó en ella el hidrógeno, el oxígeno, el nitrógeno, el azufre y el fósforo. Habló también acerca de que la combinación de átomos producía compuestos químicos (22). En 1897, el físico Joseph J. Thomson (1856–1940), descubrió el electrón, partícula de carga negativa, que se encuentra en las capas exteriores del átomo. En 1920, Rutherford encontró una partícula de carga positiva llamada protón, la que había sido sugerida antes por Goldstein, y luego, en 1932, una de carga neutra, llamada neutrón, descubierta por James Chadwick (1891–1974). Estas tres partículas componían el modelo atómico de Niels Bohr (1885–1962), mediante el cual se pueden descubrir los átomos que conforman la materia, o sea, los elementos químicos, algunos de ellos claves en la formación de los seres vivos. Se inicia así la época de la física cuántica. Paul Adrien Maurice Dirac (1902–1984) postuló la existencia de una antipartícula, con igual masa de la del electrón, pero con carga positiva, y la denominó el positrón. Su tesis se demostró en 1932 por efecto de la radiación cósmica. Cuando un electrón y un positrón chocan, se destruyen (más bien se transforman en partículas elementales sin masa o con masas no medibles), y producen una radiación de aniquilación. Las partículas que resultan al chocar, se llaman antipartículas. Se descubren así los antiprotones en 1955 y los antineutrones en 1956 como lo describen por separado Farmelo y Kragh al hablar de Paul Dirac (23) y (24). Las propiedades de las partículas elementales se estudian bombardeando con ellas núcleos atómicos u otras partículas, después de acelerarlas para darles mayor energía en los diferentes tipos de aceleradores de partículas (ver foto), ya sean lineales o circulares (el ciclotrón y el sincrotrón son versiones modernas). Las partículas se obtienen de la radiación cósmica de manera natural, que fue lo que debió ocurrir hace miles de millones de años con los bombardeos cósmicos, y otras veces se consigue con los aceleradores mismos desarrollados por el hombre como el Fermilab, que fue el primero de ellos (25). Después de este proceso de aceleración pasan por un detector, donde chocan con otras partículas. Los choques de ellas entre sí, y los cuerpos resultantes de estas interacciones, se observan como trazas en una placa fotográfica, como líquido en una cámara de burbujas, o como una nube en una cámara de niebla en expansión. La física cuántica se desarrolla con los trabajos de Max Planck (1858-1947) quien calculara la energía de un fotón (26), Niels Bohr (1885-1962) al aportar sus conceptos sobre las órbitas de los electrones (27) y Albert Einstein (1879-1955) al deducir la teoría de la relatividad general (28). Es a partir de 1960, que Murray Gell-Mann (1929) descubre algunas de las partículas contenidas en el átomo, como los quarks. A partir de allí, se predice la existencia de muchas otras partículas, consideradas en este momento como partículas elementales (29). Se derrumba, de ese modo, la teoría que señala que el átomo es indivisible, como fuera el pensamiento de Leucipo y su alumno Demócrito, e incluso como lo señalara Dalton, años más tarde. Comienza una verdadera revolución de la física que, aparentemente, consolida la materia como el origen de todo lo visible (y al mismo tiempo fortalece la idea de que existe algo anterior a ella capaz de crearlo todo, como la energía esencial), lo que para algunos es el reconocimiento de la figura de Dios, y para otros es darle a la materia misma o a su predecesor la energía, la potestad de la creación de la vida a partir de su propia evolución (O, tal vez, esto podría consolidar la idea, como lo proponemos —seguramente con muchos otros— de que todo es el resultado de una secuencia eterna e infinita del movimiento de la energía esencial. La energía movimiento, esencial, en interactuando permanente entre sí (aceptando el azar o de acuerdo con la teoría del caos [30] para algunos, o sin ella), a velocidades superiores a las que el hombre ha logrado presumir, da origen a partículas que en un principio no poseen masa, ni tienen carga eléctrica o de color, como los bosones (ver foto de Peter Higgs). Es predecible que la energía interactúe ella misma en su propio campo magnético, y los cambios, por muy pequeños que sean, podrían producir grandes transformaciones, una de ellas la formación de las partículas elementales que dan origen la materia conocida (Es una primera singularidad que desencadena toda una serie de fenómenos en el universo que conocemos. Podemos suponer hoy que las partículas elementales iniciales, en aquel infinito plasma de energía, sean los bosones, o algunas partículas anteriores a ellos, aún sin masa como las que hoy se postulan, los WIMP y los axiones). Estas partículas tienen su propio campo magnético, según Peter Higgs (1929), premio Nobel de física (2013), quien predijo la existencia de un nuevo bosón, conocido popularmente como la «partícula de Dios», la que se comprobó en el gran Colisionador de hadrones, CERN, de Ginebra; éste nuevo bosón se ha descrito como inestables por lo difícil que es detectarlo o que permanezca igual pues se desintegran fácilmente. Las partículas elementales sin masa, al interactuar entre ellas en su propio campo magnético y fusionarse, crean partículas con masa, con carga eléctrica o carga de color. Son los quarks, los fotones, los leptones, los muones, los gluones y, luego, los demás constituyentes del átomo. 2.2. Las partículas elementales Las partículas elementales son aquellas que no están constituidas por elementos más pequeños, ni se considera que tengan estructura interna. Las verdaderas partículas elementales según Clark son entonces más ligeras, como los bosones, los fermiones (que agrupan a los quarks) y los leptones, entre los cuales están los electrones y los neutrinos (31). Actualmente se discute la posibilidad de otras partículas, que harían parte de la materia oscura, como los axiones (que, se supone, son derivados de los fotones) y los WIMP (partículas masivas que interaccionan con la fuerza débil). Primero, se describieron algunas partículas del núcleo del átomo, como el protón, el neutrón y luego el electrón de su órbita. Luego, en el protón del núcleo se encontraron los hadrones formados por quarks, que se unen por una interacción fuerte entre ellas —la energía esencial es la causante, según Keppe— (32) o es por la existencia de otras partículas con esa capacidad, como los bosones. Los hadrones se dividen en dos tipos: los bariones y los mesones, y existen otra serie de partículas que se desintegran muy fácil en otras más ligeras, lo que se consideran resonancias. Un barión está formado por tres quarks de diferente carga de color (rojo, verde y azul, que se neutralizan entre ellos dando como resultado un color blanco), y los neutrones y protones que se consideran bariones del núcleo. A su vez, un mesón está formado por un quark y un antiquark. Si el quark es de color y el antiquark es de anticolor, también se neutralizan como una luz blanca. Los fermiones toman su nombre en honor a Enrico Fermi (1901-1954), quien desarrollara el primer reactor nuclear (1942), que permitió las reacciones en cadena de fisión nuclear, controladas. Se considera que los fermiones agrupan partículas elementales como quarks, leptones y bosones (ver gráfico). El universo como lo describe Brian R. Greene (1963) es de una enorme armonía (ver: «the elegant universe», Editorial Crítica, Drakontos, 2006). Los quarks y los leptones interactúan entre ellos por el intercambio de bosones. Se conocen tres generaciones de partículas elementales: 1. Electrón, neutrino electrónico, quark arriba y quark abajo; 2. Muón, neutrino muónico, quark extraño y quark encantado y 3. Tauón, neutrino tauónico, quark fondo y quark cima. Los que tienen materia son los quarks y los leptones, y los que no la tienen son los gluones, W y Z, los fotones y los gravitones. Se han descrito seis tipos de quarks, seis de leptones y cuatro de bosones que se dividen en dos grandes categorías: los fermiones y los bosones. Los leptones son partículas de spin 1/2, que no experimentan interacción fuerte. Tienen carga de color, y son seis (cada uno con su antipartícula): el electrón y el positrón, el muón y el antimuón, el tau y antitau, el neutrino y el antineutrino, el neutrino muónico y el antineutrino muónico, el tau neutrino y el tau antineutrino. Poseen masa, pero carecen de carga (33). Los bosones son partículas elementales con spin 0, 1 o 2, y entre ellos están el fotón, los bosones W y Z, el bosón X, los gluones, y los gravitones. Los bosones W y Z son partículas mediadoras de la interacción nuclear débil. El bosón Z tiene carga eléctrica cero (También es recomendable leer: Brian R. Greene, «The fabric of the cosmos: space, time and texture of reality. Edit. Crítica, Drakontos, 2005). El bosón conocido como «de Higgs», en honor a Peter Higgs (1929), y que se ha llamado «la partícula de Dios», por su enorme importancia, porque podría explicar cómo la energía se transforma en materia, no posee spin, ni carga eléctrica, ni masa, ni carga de color. Es inestable y se desintegra rápido, en un fragmento tan pequeño como un zeptosegundo. Este tiempo tan corto no se usa en la vida diaria, pero es de interés en ciertas áreas de la física o la química (en un segundo hay mil trillones de zeptosegundos según el Sistema Internacional de pesas y Medidas) (34). La existencia del bosón de Higgs, y del campo de Higgs asociado y propuesto por él, sería un método simple en los modelos de física de las partículas, y busca explicar la masa en las partículas elementales. Esta teoría postula la presencia de un campo que impregna el espacio, y las partículas elementales interactúan con él y adquieren masa. y las que no interactúan, no la consiguen. Este mecanismo explicaría también la enorme masa de los bosones vectoriales W y Z, y la ausencia de masa de los fotones. Las partículas W y Z y el fotón son bosones sin masa propia, pero los primeros muestran masa al interactuar fuertemente con el campo de Higgs, y el fotón no muestra masa porque no interactúa con el campo de Higgs. El bosón de Higgs ha sido objeto de una larga búsqueda en física de partículas (ver foto de placa impresionada con el bombardeo de partículas). Se comprobó su existencia recientemente, el 2 de julio de 2012, lo que ayudaría a demostrar un modelo que parecería más completo (35). Como lo analizan los físicos cuánticos entre ellos Wiener, de Cambridge, el fotón es el principal componente de la energía electromagnética. Es la partícula portadora de la radiación, llámense rayos X, gamma, ultravioleta e infrarrojos, o microondas u ondas de radio. Su masa invariable es cero, viaja a velocidad constante, no tiene carga eléctrica, su spin es 1, y su energía se mide en joules. Produce campos eléctricos y magnéticos, y no se desintegra espontáneamente en el vacío; hoy se postula que se descompone en otras partículas llamadas axiones. Se mueve por medio de ondas (cuantos de energía) y su energía depende de la frecuencia y no de la intensidad (36). Los gluones son partículas mediadoras de la interacción nuclear fuerte, sin masa, sin carga eléctrica, pero con carga de color. Un quark rojo se puede volver azul emitiendo un gluón. Existen ocho tipos de gluones que forman el denominado campo gluónico, en interacción con los quarks. 2.3. El concepto de la materia oscura La materia oscura (ver: Cf. Peter Schneider, «Cuestiones fundamentales de cosmología», Investigación y Ciencia, 405, junio de 2010, págs. 60-69), es la que no emite suficiente radiación electromagnética como para ser detectada, pero su existencia se deduce a partir de los efectos gravitacionales que causa en la materia visible, tales como las estrellas o las galaxias, así como en las anisotropías (características diferentes, dependiendo de la dirección) de las microondas detectadas en la radiación del fondo cósmico presente en el universo. No se puede confundir la materia oscura (que tiene partículas con materia), con la energía oscura (que no tiene partículas con masa conocida). De acuerdo con las observaciones actuales de estructuras mayores que una galaxia, así como la cosmología del Big Bang, la materia oscura constituye el 23% de la masa del universo observable y la energía oscura más del 72% (ver: David Spergel «17»). Fritz Zwicky (1898–1974) en 1933, propuso la existencia de la materia oscura porque se evidenciaban cambios en las velocidades de las órbitas de las galaxias por influencia de lo que se consideraba una masa no visible (37). Con ello se podría dar una explicación a lo que sostenía Nikola Tesla en 1927. Estas observaciones han sido corroboradas posteriormente. “Estas incluyen la velocidad de rotación de las galaxias, las lentes gravitacionales de los objetos de fondo producidos por los cúmulos de galaxias, tales como el cúmulo Bala (1E 0657-56, un cúmulo de materia caliente de dos galaxias que colisionaron y fueron descritas en el año 2006) y la distribución de la temperatura del gas caliente en galaxias y cúmulos de galaxias” (ver foto de cúmulo Bala). “La materia oscura también juega un papel central en la formación de las estructuras y la evolución de las galaxias, y tiene efectos medibles en la anisotropía de la radiación de fondo de las microondas. Estos hallazgos sugieren que las galaxias, los cúmulos de galaxias y el universo contienen mucha más materia que la que interactúa con la radiación electromagnética. Lo restante es llamado «el componente de materia oscura»”. Astrónomos como A. Diaferio y G. Angus de la Universidad de Torino y de Cape Town, respectivamente (38), describen que en la composición de la materia oscura se incluyen los neutrinos ordinarios, y otras partículas elementales recientemente postuladas como los WIMP (partículas masivas de materia oscura que interactúan débilmente) y los axiones (otras partículas de materia oscura propuestas que, se cree, pueden derivar de los fotones). “Además, la materia oscura existe en las estrellas enanas, los planetas y las nubes de gases no luminosos”. Se estima entonces que el componente primario de la materia oscura son las nuevas partículas elementales, llamadas colectivamente «materia oscura no bariónica». La materia oscura tiene más masa que el componente visible del universo. “En el presente, la densidad de bariones ordinarios, y la radiación en el universo, se estima que equivale a un átomo de hidrógeno por metro cúbico de espacio. Sólo entre el 5 % y el 9 % de la densidad de energía total en el universo (inferido de los efectos gravitacionales) es la que se observa directamente. Parte de la materia bariónica puede realizar una contribución a la materia oscura, pero es una pequeña porción. Todas las estrellas, galaxias y el gas observable, forman menos de la mitad de los bariones, y se distribuye en filamentos gaseosos, también llamados hebras cósmicas de baja densidad, como los observados en el 2008 por el telescopio XM- Newton de la agencia espacial europea (ver foto de nueves y hebras cósmicas). Estos forman una red por todo el universo, y en cuyos nodos se encuentran los cúmulos de galaxias. La determinación de la naturaleza de esta masa no visible es una de las cuestiones más importantes de la cosmología moderna y la física de partículas. Se ha puesto de manifiesto que los nombres «materia oscura» y «energía oscura» sirven como expresiones del desconocimiento que todavía existe sobre el tema”. El mismo Fritz Zwicky (39), del Instituto Tecnológico de California ( ver foto), aplicó en 1933 el teorema de Virial (ecuación que permite calcular la energía cinética total promedio de un sistema complejo) al cúmulo de un grupo de galaxias y obtuvo pruebas de masa no visible. “Zwicky estimó la masa total del cúmulo basándose en los movimientos de las galaxias cercanas a su borde. Cuando comparó esta masa estimada, con la que existía en el número de galaxias y con el brillo total del cúmulo, encontró que había cuatrocientas veces más masa de la esperada”. La presión ejercida por la gravedad en un cúmulo de galaxias, resultaba ser muy poca para la velocidad orbital del cúmulo, lo cual exigía que hubiese más cantidad de materia. Esto es conocido como el «problema de la masa desaparecida». Basándose en estos estudios, Zwicky dedujo que tendría que haber alguna forma de «materia no visible» que proporcionaría suficiente masa y gravedad. Las mayores evidencias acerca de la existencia de materia oscura se deducen de las investigaciones sobre los movimientos de las galaxias (ver: Collins G W, the Virial Theorem in stellar astrophysics. Pachart Press, 1978), en donde al aplicar el teorema de Virial la energía cinética total debería ser la mitad del total de la energía gravitacional de las galaxias y Zwicky encuentra que la energía cinética total es mayor. Si la masa gravitacional es debida a la materia visible de la galaxia, las estrellas alejadas del centro de las galaxias tienen velocidades mucho mayores que las predichas por el teorema de Virial (39). “La curva de rotación galáctica, que muestra la velocidad de rotación frente a la distancia del centro de la galaxia, no se puede explicar únicamente mediante la materia visible”. Las galaxias contienen un halo de materia oscura en su centro, con una simetría esférica y la materia visible se concentra en un disco central. Las galaxias de brillo débil, como la descrita por el divulgador científico Pablo Della Paolera en la constelación Virgo, son fuente de información para el estudio de la materia oscura, pues tienen baja proporción de materia visible, y poseen estrellas brillantes en el centro que facilitan la observación (ver foto de representación). A través de estudios realizados entre los años 1960 y 1970, Vera Rubin (1928), una astrónoma de Carnegie Institution of Washington, presentó sus hallazgos por mediciones en espectrógrafos que determinan con precisión la curva de velocidad de las galaxias espirales. Encontró que muchas estrellas en distintas órbitas de galaxias espirales giran a la misma velocidad angular, lo que implica que sus densidades son uniformes, independiente de la localización. Este resultado indica que la gravedad no se aplica de manera igual, y que más del 50 % de la masa de las galaxias está contenida en el oscuro halo galáctico (ver su libro:Rubin, Vera. Bright galaxies, dark matters. Woodbury, NY: AIP Press, 1997). Hoy, otros astrónomos han corroborado que muchas galaxias están dominadas por materia oscura y se cree que puedan existir galaxias oscuras. Si esto se confirma, habrá una nueva prueba para la teoría de la formación de las galaxias. Otra herramienta para detectar la materia oscura son, como lo habíamos observado, las lentes gravitacionales , que han permitido definir, cómo la materia oscura es mayor en el universo que la materia visible (Vera Rubin y Robert Rubin en: “Out of the Shadows”, Cambridge, 2006). La existencia de materia oscura resolvería inconsistencias en la teoría del Big Bang. Determinar cuál es la naturaleza de la materia oscura constituye uno de los problemas más importantes de la cosmología moderna. El hecho de que exista o no, afecta el destino del universo pues se sabe que el universo está en expansión, y si no hubiera materia oscura, la expansión continuaría para siempre. Si la hipótesis sobre la materia oscura es correcta, y dependiendo de la cantidad que exista, la expansión del universo podría disminuir, detenerse e, incluso, invertirse (lo que llevaría al otro fenómeno, conocido como Big Crunch). Sin embargo, la importancia de la materia oscura para el destino final del universo se considera relativa, y eso hace que la constante cosmológica y la energía oscura tengan mayor relevancia. 3. La teoría del caos Edward Lorenz (1917–2008) “construyó un modelo matemático simplificado que intentaba capturar el comportamiento convencional en la atmósfera”. Lorenz (ver foto) al estudiar las soluciones de su modelo, se dio cuenta de que alteraciones mínimas en los valores de las variables iniciales, resultaban en soluciones divergentes. Esta sensible dependencia de las condiciones iniciales fue conocida después como el «efecto mariposa». Su investigación dio origen a un interés importante en la teoría del caos. Lorenz se dedicó a explorar las matemáticas explicativas y publicó sus conclusiones en un trabajo titulado «Flujo determinístico no periódico». En él, describió un sistema relativamente simple de ecuaciones que dieron lugar a un patrón de la complejidad infinita, llamado «atractor de Lorenz» (40). La teoría del caos tiene, en los últimos años, una marcada influencia en las diferentes disciplinas, y ha penetrado algunas ciencias exactas, como la física, la química, las matemáticas y la biología, hasta producir una revolución científica. Einstein dio a luz la teoría de la relatividad en 1905 y, junto con la mecánica cuántica, se transformó el conocimiento de la naturaleza, hasta el punto de que hoy se asegura que “los físicos del siglo XX serán conocidos por la relatividad, la física cuántica y la teoría del caos” (41). La teoría del caos se ha popularizado con el ejemplo de lo que se llamó el «efecto mariposa». Los experimentos científicos de Lorenz demuestran que el clima es sensible a variaciones pequeñas, y que, de acuerdo con la Theorie analytique des probabilites: “el débil batir de las alas de una mariposa puede ser la causa de un huracán a miles de millas de distancia” (42). Es el efecto de una singularidad que desencadena variaciones impredecibles. Isaac Newton (1642–1727) formuló las leyes universales del movimiento aplicables a los cuerpos. La primera de ellas implica que si conocemos las condiciones y las fuerzas entre un conjunto de cuerpos dados, en un determinado momento, podemos predecir su comportamiento futuro durante todo el tiempo. Es la ley de la inercia que se fundamentó en los descubrimientos de Galileo Galilei (1564–1642). El conjunto de leyes que él estableció fueron suficientes para explicar y predecir el comportamiento de una serie de fenómenos diferentes. “Las leyes de Newton se probaron durante los últimos trescientos años y siguen siendo vitales en la ciencia de hoy”. La segunda ley es la de la gravedad. Es un fenómeno por el cual todos los objetos con una masa determinada se atraen entre ellos. Esta atracción depende de la masa; a más masa, mayor será la fuerza de atracción. Cada cuerpo en el universo obedece esta ley. “Junto con las leyes del movimiento, la de la gravedad nos explica cómo el movimiento de los planetas, y el del universo entero, puede ser entendido y predecible”. La tercera ley establece que a toda acción ocurre siempre una reacción igual y contraria. Es decir, las acciones mutuas de dos cuerpos siempre son iguales y dirigidas en sentido opuesto. Esta ley ayuda a desarrollar el cálculo matemático integral y diferencial. Esto le dio a los científicos la posibilidad de manejar el cambio continuo exacto, por primera vez (velocidad o aceleración). Lo que es claro hoy, con las contribuciones de Norberto Keppe (32), es que toda la materia tiene movimiento en doble sentido, lo que, según él, constituye una de las leyes del movimiento vibratorio. El trabajo de Newton (ver dibujo de representación del científico), y sus desarrollos, condujeron a una serie de avances en el conocimiento de la naturaleza. El movimiento producido por la caída de los cuerpos, el de la Luna y su relación con las mareas, podían ser por ejemplo predecibles, al igual que los movimientos de cada estrella en el sistema solar y, luego, de manera general, en el universo. “Planetas nuevos, como Urano, Neptuno y Plutón, fueron descubiertos cuando los astrónomos enfocaron sus telescopios hacia donde las leyes de Newton predecían que un planeta debía seguir el movimiento de los por entonces conocidos” (43). Parecía que nada podía estar más allá de la capacidad humana de entender el universo y predecir los fenómenos. Su trabajo fue decisivo para la comprensión de la naturaleza y dio lugar a la teoría del determinismo. Las leyes de Newton seguramente han sido superadas por otras que facilitan la comprensión de otros fenómenos, pero siguen siendo válidas para una amplia variedad de situaciones. El advenimiento de la mecánica cuántica (que se ocupa del comportamiento de la materia en escalas atómicas) en el primer cuarto del siglo XX, modificó de manera precisa el determinismo de dos maneras. En primer lugar, con el principio de incertidumbre, de Werner Heisenberg (1901–1976), que sostiene que “no se puede medir simultáneamente y de forma precisa la posición y el momento lineal de una partícula”. Cuanto más exactamente se conoce una partícula, mayor es la incertidumbre sobre la otra. Es una ley científica establecida, confirmado en diversas ocasiones. “Si recordamos que las leyes de Newton dependen de conocer la posición y velocidad iniciales para poder determinar el comportamiento futuro de una partícula, están claras las consecuencias que el principio de Heisenberg tiene para fustigar el determinismo” (44). En segundo lugar con la teoría del caos. Una variación muy pequeña de las causas produce enormes efectos y elimina las predicciones o posibilidades. El comportamiento diferente puede ser cierto en sistemas simples en los que se creía entender su funcionamiento. Es el caso de un péndulo, que ha sido el símbolo del comportamiento predecible y regular, pero, bajo ciertas condiciones —por ejemplo, al estar sometido a la influencia de la fuerza de atracción de unos imanes— comportarse de manera diferente, generando oscilaciones, lo que ha dado explicación al comportamientos en sistemas complejos abiertos y refiere situaciones impredecibles que dependen de los actores que participan. Otro ejemplo es el movimiento de solo tres cuerpos, que obedecen a la ley de la gravedad descubierta por Newton hace trescientos años. Tal sistema parecería ser simple, pero no lo es, y puede comportarse caóticamente o por lo menos de forma diferente (41). Hasta el siglo XX, materia, espacio y tiempo eran vistos por separado. La materia se movía por un escenario pasivo de espacio y tiempo. Con el desarrollo de la relatividad general, se pasó al concepto de que espacio, tiempo y materia están relacionados. La materia y su evolución, en un sentido fundamental, es la que da forma y determina el tiempo-espacio, los que a su vez afectan el comportamiento de la materia misma. (Es con el surgimiento de la materia, la aparición de los cuerpos celestes y su evolución, y sobre todo cuando el hombre es consciente de ello, que se originan los conceptos de tiempo y de espacio como lo señala Teilhard de Chardin). Incluso, la noción de «espacio vacío», el que aparentemente no contiene nada, ya no puede ser considerado como tal, porque está pleno de energía, como lo afirmaba Tesla. La mecánica cuántica predice que las partículas elementales existentes en el vacío pueden aparecer espontáneamente (es el caso de los bosones), los que aparecen por efecto de la interacción entre los campos electromagnéticos que se forman por los movimientos de acción y reacción, de la energía esencial, como lo sugirió Peter Higgs (Higgs, P. "Broken Symmetries and the Masses of Gauge Bosons". Physical Review Letters 13 (16): 508. 1964. 4. Los elementos químicos Los átomos de hidrógeno, en ese universo inicial de enormes nubes de gas, altas temperaturas e inmensas velocidades, formaron el helio, luego el carbono, y así sucesivamente hasta constituir todos los elementos conocidos, iniciando diferentes reacciones químicas que dieron lugar a otros compuestos. Un elemento químico es una unidad de materia conformada por átomos de la misma clase. En su forma más simple posee un número determinado de protones en su núcleo, haciéndolo pertenecer a una categoría única, clasificada con el número atómico, aun cuando éste pueda desplegar distintas masas atómicas. Un átomo con características físicas únicas, es aquella sustancia que no puede ser descompuesta mediante una reacción química, en otras más simples. No existen dos átomos de un mismo elemento con características distintas y, en el caso de que estos posean número de masa distinto, pertenecen al mismo elemento, aunque se conozcan como isótopos. También es importante diferenciar un elemento químico de una sustancia simple. Los elementos se encuentran en la tabla periódica son hasta hoy 118 (45). El ozono (O3) y el oxígeno (O2) son dos sustancias simples, cada una de ellas con propiedades diferentes. Y el elemento químico que forma estas dos sustancias simples es el oxígeno (O). Otro ejemplo es el elemento químico carbono, que se presenta en la naturaleza como grafito o como diamante (estados alotrópicos). Algunos elementos se han encontrado en la naturaleza, y otros obtenidos de manera artificial, formando parte de sustancias simples o de compuestos químicos. Otros, han sido creados artificialmente en los aceleradores de partículas o en reactores atómicos. Estos últimos elementos son inestables y solo existen durante milésimas de segundo. A lo largo de la historia del universo se ha ido generando una gran variedad de elementos químicos a partir del fenómeno conocido como núcleo-síntesis, en procesos atómicos fundamentalmente debidos a las explosiones de estrellas de neutrones (supernovas). Los nombres de los elementos químicos proceden de sus nombres en griego, latín, e inglés, o llevan el nombre de quien fuera su descubridor o la ciudad en donde se descubrieron. Estos fueron clasificados inicialmente por Dmitri Ivánovich Mendeléyev (1834–1907), un químico ruso, creador de la tabla periódica de los elementos (Consultar: Abbott, David, ed. (1986). «Mendeleiev, Dmitri Ivanovich». The Biographical Dictionary of Scientists. Nueva York: Peter Bedrick Books. (ver foto de Mendeléyev). Estos, en la actualidad, son: Hidrógeno (H): Del griego «engendrador de agua». Helio (He): De la atmósfera del Sol (el dios griego Helios). Se descubrió en 1868. Litio (Li): Del griego lithos, roca de color rojo muy intenso a la flama. Berilio (Be): De béryllos, esmeralda de color verde. Boro (B): Del árabe buraq. Carbono (C): Carbón. Nitrógeno (N): En griego nitrum, «engendrador de nitratos». Oxígeno (O): En griego «engendrador de óxidos», oxys. Flúor (F): Del latín fluere. Neón (Ne): Nuevo, del griego neos. Sodio (Na): Del latín sodanum, sosa, el símbolo Na, del latín natrium, nitrato de sodio. Magnesio (Mg): De Magnesia, comarca de Tesalia (Grecia). Aluminio (Al): Del latín alumen. Silicio (Si): Del latín sílex, sílice. Fósforo (P): Del griego phosphorus, «portador de luz», emite luz en la oscuridad porque arde al combinarse con el oxígeno del aire. Azufre (S): Del latín sulphurium. Cloro (Cl): Del griego chloros, amarillo verdoso. Argón (Ar): Del griego argos, «inactivo», los gases nobles son poco reactivos. Potasio (K): Del inglés pot ashes, «cenizas», el símbolo K proviene del griego kalium. Calcio (Ca): Del griego calx, «caliza», la caliza está formada por Ca2CO3. Escandio (Sc): De Scandia (Escandinavia). Titanio (Ti): De los titanes, los primeros hijos de la tierra, según la mitología griega. Vanadio (V): De la diosa escandinava Vanadis. Cromo (Cr): Del griego chroma, «color». Manganeso (Mn): De magnes, «magnético». Hierro (Fe): Del latín ferrum. Cobalto (Co): Del griego kobalos, «mina», versión de la mitología alemana. Níquel (Ni): Del sueco koppar nickel, y del alemán kupfer nickel, «cobre falso». Cobre (Cu): De cuprum, nombre de la isla de Chipre. Zinc (Zn): Del alemán zink, que significa «origen oscuro». Galio (Ga): De Gallia, nombre romano de Francia. Germanio (Ge): De Germania, nombre romano de Alemania. Arsénico (As): De arsenikon, «oropimente» y de auripigmentum, «amarillo». Selenio (Se): De Selene, nombre griego de la Luna. Bromo (Br): Del griego bromos, «hedor». Kriptón (Kr): Del griego kryptos, «oculto, secreto». Rubidio (Rb): Del latín rubidius, rojo muy intenso a la llama. Estroncio (Sr): De Strontian, ciudad de Escocia. Itrio (Y): De Ytterby, pueblo de Suecia. Circonio o Zirconio (Zr): Del árabe zargun, «color dorado». Niobio (Nb): De Níobe (hija de Tántalo). Molibdeno (Mo): De molybdos, «plomo», se confunde con el plomo. Tecnecio (Tc): De technetos, «artificial», porque fue uno de los primeros sintetizados. Rutenio (Ru): Del latín Ruthenia, nombre romano de Rusia. Rodio (Rh): Del griego rhodon, color rosado. Paladio (Pd): De la diosa griega de la sabiduría, Palas Atenea. Plata (Ag): Del latín argentum. Cadmio (Cd): Del latín cadmia, nombre antiguo del carbonato de zinc. Indio (In): Debido al color índigo, añil, que se observa en su espectro. Estaño (Sn): Del latín stannum. Teluro (Te): De tel-lus, «tierra». Antimonio (Sb): Del latín antimonium, el símbolo Sb, del latín stibium. Yodo (I): Del griego iodes, violeta. Xenón (Xe): Del griego xenon, «extranjero, extraño, raro». Cesio (Cs): Del latín caesius, color azul celeste. Bario (Ba): Del griego barys, «pesado». Lantano (La): Del griego lanthane, «yacer oculto». Cerio (Ce): Del asteroide Ceres, se encuentra en una aleación de hierro. Praseodimio (Pr): De prasios, «verde» y dídymos, «gemelo». Neodimio (Nd): De «nuevo gemelo (del lantano)». Prometio (Pm): Del dios griego Prometeo. Europio (Eu): De Europa. Gadolinio (Gd): Del mineral gadolinita, del químico finlandés Gadolin. Terbio (Tb): De Ytterby, pueblo de Suecia. Disprosio (Dy): Del griego dysprositos, «de difícil acceso». Holmio (Ho): Del latín Holmia, nombre romano de Estocolmo. Tulio (Tm): De Thule, nombre antiguo de Escandinavia. Lutecio (Lu): De Lutecia, antiguo nombre de París. Hafnio (Hf): De Hafnia, nombre latín de Copenhague. Tantalio (Ta): De Tántalo, un personaje de la mitología griega. Wolframio (W): Del inglés wolfrahm, o Tungsteno, del sueco tung sten, «piedra pesada». Renio (Re): Del latín Rhenus, nombre romano del río Rin. Osmio (Os): Del griego osme, «olor», debido al fuerte olor del OsO4. Iridio (Ir): De «arco iris». Platino (Pt): Por su similitud a la plata, encontrado en 1748 por Antonio de Ulloa. Oro (Au): De aurum, «aurora resplandeciente». Mercurio (Hg): Planeta, Dioscórides lo llamó hydrárgyros, hydra: «agua», gyros: «plata». Talio (Tl): Del griego », «tallo, vástago o retoño verde». Plomo (Pb): Del latín plumbum. Bismuto (Bi): Del alemán weisse masse, «masa blanca». Polonio (Po): De Polonia, en honor al país de origen de Marie Curie. Astato (At): Del griego astatos, «inestable». Radón (Rn): Del inglés radium emanation, «emanación radiactiva». Francio (Fr): De Francia. Radio (Ra): Del latín radius, «rayo». Actinio (Ac): Del griego aktinos, «destello o rayo». Torio (Th): De Thor, dios de la guerra escandinavo. Protactinio (Pa): Del griego protos, «primer» y actinium, «rayo luminoso». Uranio (U): Del planeta Urano. Neptunio (Np): Del planeta Neptuno. Plutonio (Pu): Del planetoide Plutón. Americio (Am): De América. Curio (Cm): En honor de Pierre y Marie Curie. Berkelio (Bk): De Berkeley. Californio (Cf): De California. Einstenio (Es): En honor a Albert Einstein. Fermio (Fm): En honor a Enrico Fermi. Mendelevio (Md): En honor a Dmitri Mendeléyev, precursor de la tabla periódica. Nobelio (No): En honor a Alfred Nobel. Lawrencio (Lr): En honor a E. O. Lawrence. Rutherfordio (Rf): En honor a Rutherford, científico del modelo atómico y la física nuclear. Dubnio (Db): En honor al Joint Institute for Nuclear Research de Dubna, Rusia. Seaborgio (Sg): En honor a Glenn T. Seaborg. Bohrio (Bh): En honor a Niels Bohr. Hassio (Hs): En reconocimiento al estado alemán de Hesse, en el que se encuentra el grupo de investigación alemán Gesellschaft für Schwerionenforschung (GSI). Meitnerio (Mt): En honor a Lise Meitner, matemática y física. Darmstadtio (Ds): En honor al lugar Darmstadt, en donde se localiza el GSI. Roentgenio (Rg): En honor a Wilhelm Conrad Roentgen, descubridor de los rayos X. Copernicio (Cn): En honor a Nicolás Copérnico, formulador de la teoría heliocéntrica. Flerovio (Fl): En honor a Georgi Flerov, físico nuclear soviético. Livermorio (Lv): En honor al Lawrence Livermore National Laboratory. A partir del número atómico 112, se nombra a los elementos con la nomenclatura temporal de la International Union of Pure and Applied Chemistry (IUPAC), en la que a cada elemento le corresponde como nombre su número en latín. La relación que tienen los elementos con la tabla periódica es que ella contiene los elementos químicos en una forma ordenada de acuerdo con su peso atómico, estableciendo los 118 elementos conocidos. Algunos se han encontrado en la naturaleza, formando parte de sustancias simples o compuestos químicos. Otros han sido creados artificialmente en los aceleradores de partículas o en reactores atómicos. Estos últimos son inestables y algunos sólo existen durante milésimas de segundo (45). Se dividen en: metales, no metales y metaloides. La primera clasificación de elementos conocida fue propuesta por Antoine Lavoisier (1743– 1794), quien sugirió que los elementos se clasificaran en metales, no metales y metaloides o metales de transición (ver foto). Aunque muy práctico, y todavía funcional en la tabla periódica moderna, fue rechazada debido a que había muchas diferencias tanto en las propiedades físicas como en las químicas (46). 4.1. Metales La mayor parte de los elementos metálicos son brillantes, conducen el calor y la electricidad, son maleables y dúctiles. Todos son sólidos a temperatura ambiente con excepción del mercurio (punto de fusión = –39 °C), que es un líquido. Algunos metales se pueden fundir ligeramente por encima de la temperatura ambiente, como el cesio a 28.4 °C y el galio a 29.8 °C, pero otros se funden a temperaturas muy altas. Por ejemplo, el cromo se funde a 1.900 °C. Los metales se oxidan al perder electrones, por tener energías de ionización bajas al sufrir reacciones químicas. Los más comunes tienen una relativa facilidad de oxidación. Muchos se oxidan con sustancias comunes como el O2 y los ácidos. Se utilizan con fines estructurales, fabricación de recipientes, conducción del calor y electricidad. Muchos de los iones metálicos cumplen funciones biológicas propias: hierro, calcio, magnesio, sodio, potasio, cobre, manganeso, cinc, cobalto, molibdeno, cromo, estaño, vanadio y níquel. 4.2. No metales Según Jérôme Lalande (46), los no metales varían en su apariencia, no son lustrosos y por lo general son malos conductores del calor y la electricidad. Sus puntos de fusión son más bajos que los de los metales (aunque el diamante, una forma de carbono, se funde a 700 °C en condiciones normales de presión y temperatura). Varios de ellos no existen en condiciones ordinarias como moléculas diatómicas, como los cinco gases (H2, N2, O2, F2, Cl2), uno líquido (Br2) y uno sólido volátil. El resto de los no metales son sólidos que pueden ser duros como el diamante o blandos como el azufre. Al contrario de los metales, los no metales son frágiles. Se encuentran en los tres estados de la materia a temperatura ambiente: son gases (como el oxígeno), líquidos (como el bromo) y sólidos (como el carbono). No tienen brillo metálico y no reflejan la luz. Muchos no metales se encuentran en los seres vivos: carbono, hidrógeno, oxígeno, nitrógeno, fósforo y el azufre. Otros son oligoelementos necesarios en el funcionamiento de los organismos vivos, como el flúor, silicio, selenio, yodo y cloro. 4.3. Metaloides Los semimetales (también conocidos como metaloides) comprenden una de las tres categorías de elementos químicos siguiendo una clasificación de acuerdo con las propiedades de enlace e ionización. Se caracterizan por presentar un comportamiento intermedio entre los metales y los no metales. Pueden ser brillantes u opacos, y su forma varía fácilmente. Los metaloides son mejores conductores de calor y de electricidad que los no metales, pero no tanto como ellos. No hay una forma unívoca de distinguir los metaloides de los metales verdaderos, pero generalmente se diferencian en que los metaloides son semiconductores antes que conductores. Son considerados metaloides los siguientes elementos: boro (B), silicio (Si), germanio (Ge), arsénico (As), antimonio (Sb), telurio (Te) y polonio (Po) (46). Dentro de la tabla periódica, los metaloides se encuentran en línea diagonal desde el boro al astato. Los elementos que se encuentran encima y a la derecha de la tabla son no metales, y los que se encuentran debajo a la izquierda son metales. Son elementos que poseen, generalmente, cuatro electrones en su última órbita. El silicio (Si), por ejemplo, es un metaloide ampliamente utilizado en la fabricación de elementos semiconductores para la industria electrónica, como rectificadores, diodos, transistores, circuitos integrados y microprocesadores. 5. La atmósfera de la tierra La atmósfera de la tierra (como se puede consultar enciclopedia en libre), Wikipedia, que hace propicias las condiciones para la vida y la evolución de las especies, está compuesta por: nitrógeno, con la mayor proporción en un 78.08 % (N2), oxígeno, con 20.95 % (O2), y luego le siguen, argón, con 0.93 %, CO2, 33,5 ppmv (medida de partes por millón en volumen), neón, 18,2 ppmv, hidrógeno, 5,5 ppmv, helio, 5,24 ppmv, metano, 1,72 ppmv, kriptón, 1 ppmv, óxido nitroso, 0,31 ppmv, xenón, 0,08 ppmv, CO, 0,05 ppmv, ozono, de 0,03 a 0,02 ppmv (cantidad variable), CFC, de 0.3 a 0.2 ppmv (variable) y vapor de agua, 1 % (variable). Las capas de la atmósfera son (47): Troposfera. Es la capa que está más cercana a la superficie terrestre, y allí se forma y desarrolla la vida (se conoce como bioesfera) y es en donde ocurren la mayoría de los fenómenos meteorológicos (ver diagrama). Tiene ocho kilómetros de espesor en los polos y alrededor de quince kilómetros en el ecuador. En esta capa, la temperatura disminuye con la altura, alrededor de 6,5 °C por kilómetro. La troposfera contiene un 75 % de la masa gaseosa de la atmósfera, y está constituida en lo fundamental por vapor del agua. Estratosfera. Es la capa que se encuentra entre los doce y los cincuenta kilómetros de altura. Los gases se encuentran separados formando capas o estratos de acuerdo con su peso. Una de ellas es la capa de ozono que protege a la Tierra de los rayos ultravioleta que provienen del Sol. Las cantidades de oxígeno y anhídrido carbónico son casi nulas y aumentan la proporción de hidrógeno. Actúa como regulador de la temperatura, que en su parte inferior es cercana a sesenta grados bajo cero y aumenta con la altura hasta los diez o diecisiete grados centígrados en la estratopausa (zona de contacto entre la estratosfera y la mesosfera). Mesosfera. Es la capa donde la temperatura puede disminuir (o descender) hasta los setenta grados bajo cero conforme aumenta su altitud. Se extiende desde la estratopausa hasta una altura de unos ochenta kilómetros, donde la temperatura vuelve a descender hasta unos ochenta o noventa grados bajo cero. Ionosfera. Es la capa que se encuentra entre los ochenta y noventa kilómetros de altura. Su límite superior es la termopausa. En ella existen capas formadas por átomos cargados eléctricamente, llamados iones. Al ser una capa conductora de electricidad es la que permite las transmisiones de radio y televisión por su propiedad de reflejar las ondas electromagnéticas. El gas predominante en este sitio es el hidrógeno. Allí se produce la destrucción de los meteoritos que chocan contra la superficie de la Tierra. Su temperatura aumenta por la ionización desde los setenta y tres grados bajo cero, hasta llegar a mil quinientos grados. Exosfera. Es la capa superior de la atmósfera terrestre. En ella, una molécula puede viajar hacia arriba moviéndose de manera tan rápida que logran alcanzar la velocidad de escape. Si se mueve por debajo de la velocidad de escape no podrá escapar del cuerpo celeste por efecto de la gravedad, ello debido a la baja densidad que tiene. Es la última capa antes del espacio exterior. Dado que no existe una frontera precisa entre el espacio exterior y la exosfera, esta es considerada parte del espacio ultraterrestre. Su composición incluye los gases más ligeros: hidrógeno, helio, dióxido de carbono y oxígeno atómico. Su límite inferior se llama termopausa o exobase, que oscila entre doscientos cincuenta a quinientos kilómetros, dependiendo de la actividad solar. El superior puede ser definido teóricamente por la altitud de aproximadamente ciento noventa mil kilómetros, la mitad de la distancia a la Luna. Esto es debido a que la zona de transición entre la atmósfera de la Tierra y el espacio interplanetario es la misma exosfera. Las atmósferas de otros planetas, como se observa en Wikipedia, enciclopedia libre, son así (ver gráfico): Venus. Posee una atmósfera densa. La forma de sus nubes es por la mayor velocidad del viento a baja latitud. Su presión atmosférica equivale a noventa atmósferas terrestres (equivalente a una profundidad de un kilómetro bajo el nivel del mar en la Tierra). Está compuesta por CO2 y una pequeña proporción de monóxido de carbono, nitrógeno, ácido sulfúrico, argón y partículas de azufre. La cantidad de CO2 de provoca en el planeta un efecto invernadero que eleva la temperatura de la superficie hasta cuatrocientos sesenta grados. Esto hace que sea más caliente que Mercurio y la temperatura no varía de forma significativa entre el día y la noche. A pesar de la lenta rotación de Venus, los vientos de la atmósfera superior le dan la vuelta al planeta en cuatro días, alcanzando velocidades de trescientos sesenta kilómetros por hora, y distribuyendo el calor. Además del movimiento de la atmósfera de oeste a este, hay un movimiento vertical que transporta el calor del ecuador hasta las zonas polares. La radiación solar casi no alcanza la superficie del planeta. La densa capa de nubes refleja al espacio la mayor parte de la luz del Sol, y gran parte de la luz que atraviesa las nubes es absorbida por la atmósfera. Marte. Su atmósfera es tenue, con una presión superficial de siete a nueve hectopascales (sistema internacional de medida de Pascal), frente a los mil trece hectopascales de la atmósfera terrestre, es decir, una centésima parte. La presión atmosférica varía con la altitud, desde nueve hectopascales en las depresiones más profundas, hasta un hectopascal en la cima del monte Olimpo (que es el mayor volcán conocido en el sistema solar). Está compuesta de dióxido de carbono (95,3 %) con un 2,7 % de nitrógeno, un 1,6 % de argón y trazas de oxígeno molecular (0,15 %), monóxido de carbono (0,07 %) y vapor de agua (0,03 %). La atmósfera es bastante densa y alberga tormentas de polvo que permanecen durante meses. Los vientos producen dunas de arena en los desiertos marcianos. La bóveda celeste es de color salmón por dispersión de la luz debido a los granos de polvo fino que proceden del suelo, y que contiene sales de hierro. A diferencia de la Tierra, no existe capa de ozono que bloquee la radiación ultravioleta. Las nubes que tiene son de vapor de agua o dióxido de carbono. Su débil atmósfera produce un efecto invernadero que aumenta la temperatura en la superficie unos cinco grados, mucho menos que lo observado en Venus y en la Tierra. En las latitudes extremas, la condensación del dióxido de carbono forma nubes de cristales de nieve carbónica. Júpiter. Su atmósfera se extiende hasta profundidades de unos diez kilómetros, donde la enorme presión comprime el hidrógeno molecular y lo transforma en un líquido metálico. En el fondo, se sospecha la existencia de un núcleo rocoso formado de materiales densos. En la parte alta de la atmósfera existen bandas paralelas al ecuador, en las que puede encontrarse lo que se llama la «gran mancha roja», que al parecer es una tormenta con más de trescientos años de antigüedad. Se observan nubes de diferentes colores que reflejan su formación a distintas alturas y con diferentes composiciones. Júpiter tiene un potente campo magnético que provoca auroras polares. Saturno. Su atmósfera posee bandas oscuras y zonas claras similares a las de Júpiter, aunque la distinción entre ambas es menos clara. Hay fuertes vientos en la dirección de los paralelos. En las capas altas se forman auroras por la interacción del campo magnético planetario con el viento solar. Urano. Este planeta cuenta con una gruesa atmósfera formada por una mezcla de hidrógeno, helio y metano, que pueden representar un 15 % de la masa planetaria, y le dan el color característico. Neptuno. La atmósfera de Neptuno está formada por hidrógeno, helio y un pequeño porcentaje de gas metano, que le otorga un color azul verdoso. Sus partículas están levemente separadas por causa de la temperatura, que es de menos doscientos grados, semejante a la de Urano, que está ubicado más cerca del Sol, por lo que se estima que tiene una fuente interna de calor. Titán (ver foto). Es el único satélite conocido con una atmósfera mucho más densa que la de la Tierra, con una presión en la superficie, de una vez y media la de nuestro planeta, y con una capa nubosa más opaca, formada por aerosoles de hidrocarburos que ocultan la superficie y le dan un color naranja. Al igual que en Venus, la atmósfera de Titán gira más rápido que su superficie y está compuesta en un 94% de nitrógeno y es la única de todo el sistema solar rica en este elemento (aparte de nuestro planeta), con trazas de hidrocarburos que constituyen el resto (incluyendo metano y etano). La presión parcial del metano es del orden de cien hectopascales, y este gas cumple un papel similar al del agua en la Tierra, formando nubes en su atmósfera. Estas nubes causan tormentas de metano líquido que descargan precipitaciones importantes en la superficie. Se producen unos cincuenta litros por metro cuadrado de precipitación anual (48). Las atmósferas más tenues que existen son las de: La Luna. Tiene una atmósfera insignificante, por la baja gravedad, incapaz de retener moléculas de gas en su superficie. La totalidad de su composición aún se desconoce. El programa Apolo identificó átomos de helio y argón, y en 1988, las observaciones encontraron que también había iones de sodio y potasio. La mayor parte de los gases en su superficie, provienen de su interior. Mercurio. Tiene una atmósfera tenue, constituida por helio, con trazas de argón, sodio, potasio, oxígeno y neón. La presión parece ser sólo una cienmilésima parte de la presión atmosférica en la superficie de la Tierra. Los átomos de su atmósfera son arrancados de la superficie del planeta por el viento solar. Ío. Tiene una fina atmósfera de dióxido de azufre y otros gases que proceden de erupciones volcánicas. Difieren de los volcanes terrestres porque expulsan dióxido de azufre. Ío es el cuerpo del sistema solar con mayor actividad volcánica. La energía para mantener esta actividad proviene de la disipación por efectos de marea, producidos por tres lunas que se encuentran en resonancia orbital (Júpiter, Europa y Ganímedes). El fenómeno es conocido como la resonancia de Laplace. Algunas de las erupciones emiten material a más de trescientos kilómetros de altura. La baja gravedad de Ío permite que parte de este material sea expulsado de la luna, distribuyéndose en un anillo que cubre su órbita. Europa. Observaciones del telescopio espacial Hubble indican que tiene una atmósfera muy tenue (de diez a once bares de presión en la superficie) compuesta especialmente de oxígeno cuyo origen no es biológico, a diferencia del oxígeno de la atmósfera terrestre. Es probable que se genere por la luz del sol y las partículas cargadas que chocan con la superficie helada de Europa, produciendo vapor de agua, que se disocia en hidrógeno y oxígeno. El primero consigue escapar de la gravedad, pero el segundo no. Encélado. Las investigaciones hechas por la sonda Cassini revelan la existencia de una atmósfera de vapor de agua (aproximadamente del 65 %) que se concentra sobre la región del Polo Sur, en un área que tiene pocos cráteres. Dado que las moléculas de la atmósfera poseen una velocidad más alta que la de escape, se piensa que lo que sale al espacio se restaura a través de la actividad geológica. Las partículas que escapan son la principal fuente del anillo E, que está en la órbita del satélite y tiene una amplitud de ciento ochenta mil kilómetros. Ariel. Es uno de los veintisiete satélites naturales de Urano. Su atmósfera está compuesta por amoníaco gaseoso y además existe en forma líquida en su superficie. También se ha descrito que tiene agua en su interior. Tritón. Tiene un diámetro inferior al de la Luna terrestre, y posee una atmósfera pequeña de nitrógeno (99,9 %), con pocas cantidades de metano (0,01 %). La presión atmosférica es de sólo catorce microbares (un microbar es igual a 9,8 atmósferas). La sonda Voyager 2 consiguió observar una fina capa de nubes en una imagen que hizo de su contorno. Estas nubes se forman en los polos y están compuestas por hielo de nitrógeno; existe también niebla fotoquímica, hasta una altura de treinta kilómetros, compuesta por varios hidrocarburos semejantes a los encontrados en Titán, y que llegan a la atmósfera expulsados por los géiseres. Se cree que los hidrocarburos contribuyen al aspecto rosado de la superficie. Plutón. también tiene una atmósfera tenue, formada por nitrógeno, metano y monóxido de carbono, que se congela y colapsa sobre su superficie a medida que el planeta se aleja del Sol. Es esta evaporación —y posterior congelamiento— lo que causa las variaciones en el albedo del planeta (porcentaje de radiación que la superficie refleja), detectadas por medio de fotómetros fotoeléctricos, en la década de 1950, por Gerard Kuiper (1905–1973). A medida que el planeta se aproxima al Sol, los cambios se hacen menores. Las modificaciones del albedo se repiten, pero a la inversa, a medida que el planeta se aleja del Sol rumbo a su afelio (punto más alejado del Sol de la órbita de un planeta). Sedna, Quaoar y 2004 DW. Son cuerpos menores del sistema solar y no se sabe con certeza la composición de sus atmósferas, aunque se cree que tienen hidrógeno, metano y helio. 6. La masa La masa, según concepto de la física, es la medida de la cantidad de materia que posee un cuerpo (ver: MacMasters, D.M. «1964». Gran Enciclopedia del Mundo. Bilbao: Durvan, S.A. de Ediciones. B1.-1.021-1964). Es una propiedad intrínseca de los cuerpos que determina la medida de dos conceptos: masa inercial y masa gravitacional. La unidad utilizada para la medición en el Sistema Internacional de Unidades es el kilogramo (kg). Es una magnitud escalar. No debe confundirse con el peso, que es una magnitud vectorial que representa una fuerza. Tampoco debe confundirse con la cantidad de sustancia o peso de ella, cuya unidad, en el Sistema Internacional de Unidades, es el mol. El concepto de masa surge de la confluencia de dos leyes: la gravitación universal y la ley de la atracción entre dos cuerpos. La masa gravitatoria es una propiedad de la materia en virtud de la cual dos cuerpos se atraen. Por la segunda ley (o principio) de Newton, la fuerza aplicada sobre un cuerpo es directamente proporcional a la aceleración que experimenta, denominándose a la constante de proporcionalidad «masa inercial del cuerpo». Hablando en términos simples, hay que distinguir entre masa y peso. “Masa es una medida de la cantidad de materia de un objeto; peso es una medida de la fuerza gravitatoria que actúa sobre el objeto”. Para Einstein (1879–1955) (ver foto) la gravedad es una propiedad del espacio-tiempo: una deformación de la geometría del espacio-tiempo por efecto de la masa de los cuerpos. No parece obvio que la masa inercial y la masa gravitatoria coincidan. Sin embargo, todos los experimentos muestran que sí. Newton, para quien peso e inercia son propiedades independientes de la materia, propuso que ambas cualidades fueran proporcionales a la cantidad de materia, a la cual denominó «masa». Sin embargo, para Einstein, como lo describe Byron Preiss (49), la coincidencia de masa inercial y masa gravitacional fue un dato crucial y uno de los puntos de partida para su teoría de la relatividad y, por tanto, una forma de poder comprender mejor el comportamiento de la naturaleza. Según Einstein, esa identidad significa que “la misma cualidad de un cuerpo se manifiesta, de acuerdo con las circunstancias, como inercia o como peso”. Esto llevó a Einstein a enunciar el «principio de equivalencia»: “las leyes de la naturaleza deben expresarse de modo que sea imposible distinguir entre un campo gravitatorio uniforme y un sistema referencial acelerado”. Así pues, masa inercial y masa gravitatoria son indistinguibles y, consecuentemente, cabe un único concepto de masa como sinónimo de cantidad de materia, según formuló Newton. Los conceptos de Einstein son controvertidos por un pensador contemporáneo, Norberto Keppe (1927), en «A nova física» (50), al considerar que las propias partículas, que poseen en sí mismas la energía escalar, se constituyen como resultado de la fusión atómica entre fuerzas repulsivas y atractivas, según el concepto de Nikola Tesla de resonancia escalar. En palabras de D. M. McMaster (51), en la «Gran Enciclopedia del mundo», Bilbao, 1964, “la masa es la expresión de la cantidad de materia de un cuerpo, revelada por su peso, o por la cantidad de fuerza necesaria para producir en un cuerpo cierta cantidad de movimiento en un tiempo dado”. En la física clásica, la masa es una constante de un cuerpo. En física relativista, la masa es función de la velocidad que el cuerpo posee respecto al observador. Además, la física relativista demostró la relación de la masa con la energía, lo que se probó en las reacciones nucleares. Por ejemplo, en la explosión de una bomba atómica queda patente que la masa es una magnitud que trasciende a la masa inercial y a la masa gravitacional. La ley de conservación de la masa, ley de conservación de la materia o ley de Lomonósov-Lavoisier, es una de las leyes consideradas fundamentales en las ciencias naturales. Fue elaborada por el ruso Mijaíl Lomonósov (1711–1765) en 1745 y por el francés Antoine Lavoisier en 1785. Se puede enunciar de la siguiente forma: “en una reacción química ordinaria la masa permanece constante, es decir, la masa consumida de los reactivos es igual a la masa obtenida de los productos”. Una salvedad que hay que tener en cuenta es la existencia de las reacciones nucleares, en las que la masa se modifica de forma sutil al producir energía. En estos casos, en la suma de masas, hay que tener en cuenta la equivalencia entre masa y energía. Esta ley permite una mejor comprensión de la química (A. A. Logunov, 1998, curso de teoría de la relatividad y de la gravitación, Universidad Estatatal de Lomonósov, Moscú, ISBN 5-88417-162-5. La ley de la conservación de la energía o primera ley de la termodinámica, afirma que la energía no puede crearse ni destruirse, sólo se puede cambiar de una forma a otra, por ejemplo, cuando la energía eléctrica se transforma en energía calorífica. “En la primera ley de la termodinámica se establece que al suministrar una determinada cantidad de energía térmica (Q) a un sistema, esta cantidad de energía será igual a la diferencia del incremento de la energía interna del sistema (ΔU), menos el trabajo (W) efectuado por el sistema”. (Ver:Thomson, W. (Lord Kelvin) (1851). «On the Dynamical Theory of Heat, with Numerical Results Deduced from Mr Joule’s Equivalent of a Thermal Unit, and M. Regnault’s Observations on Steam». Transactions of the Royal Sociey of Edinburgh 20: 261–268, 289–298. Aunque la energía no se pierde, se transforma de acuerdo con la segunda ley de la termodinámica, lo que constituye un proceso irreversible. La entropía de un sistema aislado debe permanecer constante, pero no es posible devolver el proceso al estado físico anterior, porque en el transcurso generó un trabajo. Así, un sistema físico aislado puede cambiar su estado a otro con la misma energía, pero con una energía menos eficiente. Por ejemplo, un movimiento con fricción es un proceso irreversible por el cual se convierte energía mecánica en energía térmica. Esa energía térmica no puede convertirse de nuevo en energía mecánica ya que, como el proceso opuesto no es espontáneo, es necesario aportar energía extra para revertirlo. En el trabajo cotidiano, las máquinas y los procesos desarrollados por el hombre funcionan con un rendimiento menor al ciento por ciento, lo que se traduce en pérdidas de energía y por tanto de recursos económicos o materiales. Ahí lo que se produce es una transformación de la energía. Según Logunov en su curso sobre la teoría de la relatividad general y la gravitación (Análisis contemporáneo del problema. Versión en español. Editorial URSS, Moscú, 1999), una primera dificultad para generalizar la ley de conservación de la energía de la mecánica clásica, a la teoría de la relatividad, está en que en mecánica relativista no podemos distinguir adecuadamente entre masa y energía. Así, de acuerdo con esta teoría, la sola presencia de una partícula material de masa m en reposo, respecto de un observador, implica que dicho observador medirá una cantidad de energía asociada a ella dada por la fórmula de Einstein, E = mc2. Otro hecho experimental contrastado es que en la teoría de la relatividad no es posible formular una ley de conservación de la masa análoga a la que existe en mecánica clásica, ya que esta no se conserva. Así, en mecánica relativista no existen leyes de conservación separadas para la energía no asociada a la masa, y para la masa sí es posible formular una ley de conservación «masa–energía» o energía total. Dentro de la teoría de la relatividad especial, la materia puede representarse como un conjunto de campos materiales a partir de los cuales se forma el llamado tensor de energíaimpulso total, y la ley de conservación de la energía se expresa en relatividad especial, usando el «convenio de sumación» de Einstein. La materia se inicia desde aquellas partículas elementales con masa y carga eléctrica o de color, hasta los átomos, los elementos y toda la materia conocida desde la aparición del Big Bang (teoría), o de las diferentes explosiones y el bombardeo de partículas, hasta la formación de las galaxias, las estrellas, los planetas, y la vida con sus diferentes expresiones; y de ahí, el surgimiento de la vida consciente, encarnada por el hombre. Pero además de la materia visible, están la materia y la energía oscuras, juntas suman un 95% de la energía total del universo, lo que no haría lógico que energía, en este concepto, sea igual a masa por velocidad al cuadrado, y por tanto sería necesario reformular la ley de Einstein o, por lo menos, particularizarla para cierto tipo de fenómenos por ejemplo en un universo cerrado. 7. La resonancia La resonancia, como refieren Vázquez y Lamadrid, en la «Gaceta médica mexicana» (52), son un conjunto de fenómenos relacionados con los movimientos periódicos, en los que se produce reforzamiento de una oscilación, al someter el sistema a una frecuencia determinada. Puede ser de varios tipos: la acústica, que ocurre bajo ciertas amplitudes sonoras como resultado de la coincidencia de ondas similares en frecuencias, es un caso particular de resonancia mecánica. En música, la resonancia se refiere a los sonidos elementales que acompañan al principal en una nota musical y comunican un timbre particular a cada voz o instrumento. En mecánica, es la resonancia de una estructura o cuerpo en la amplitud del movimiento de un sistema debido a la aplicación de otras fuerzas en fase con el movimiento. En electrónica, la resonancia eléctrica es el fenómeno que se produce al coincidir la frecuencia propia de un circuito con la frecuencia de una excitación externa. En electromagnetismo se refiere a la resonancia magnética nuclear, tecnología utilizada tanto en química como en medicina. En astronomía, la resonancia orbital se produce cuando los periodos de traslación o de rotación, de dos o más cuerpos, guardan entre ellos una relación expresada en fracciones de números enteros. En química, es el sistema de enlace entre los átomos de una molécula que, debido a la compleja distribución de sus electrones, obtiene una mayor estabilidad que con un enlace simple y esta distribución de electrones no fluctúa, en contra de lo que su nombre hace pensar. En física de partículas, las resonancias son hadrones de corta vida que se desintegran por medio de la fuerza fuerte en otras partículas más ligeras. Generalmente, no se las considera partículas independientes, sino estados energéticos excitados de otras partículas. 7.1. Las vibraciones El estudio de las vibraciones se refiere a los movimientos de los cuerpos y a las fuerzas asociadas (Ver: Landau y Lifshitz: Mecánica, Ed. Reverté, Barcelona, pp. 29-30, 1991). Cuando la vibración es amplia se convierte en oscilación. Todos los cuerpos que poseen masa y elasticidad son capaces de vibrar. Una vibración mecánica es el movimiento de una partícula o cuerpo que oscila alrededor de una posición de equilibrio. La mayoría de las máquinas y estructuras experimentan vibraciones hasta cierto grado, por lo que su diseño requiere la consideración de este efecto dinámico debido a que ocasiona un aumento en los esfuerzos y tensiones. Una vibración se produce cuando el sistema es desplazado desde una posición de equilibrio estable a otra. El sistema tiende a retornar a la anterior posición, bajo la acción de fuerzas de restitución, elásticas o gravitacionales, moviéndose de un lado a otro hasta alcanzar su posición de equilibrio. El intervalo, necesario para que el sistema efectúe un ciclo completo de movimiento, se llama periodo de vibración. El número de ciclos por unidad de tiempo define la frecuencia, y el desplazamiento máximo del sistema desde su posición de equilibrio, se denomina amplitud de vibración (ver Billah y Scanlan. El puente de Tacoma) (53). Los sistemas oscilatorios se clasifican en lineales o no lineales. Para los lineales rige el principio de superposición, y las técnicas matemáticas, empleadas para su tratamiento, están bien desarrolladas (ley de Hooke o de elasticidad). Al contrario, las técnicas para el análisis de sistemas no lineales es más complicada. Según los análisis de Walter Lewis sobre la Ley de Hooke (54), existen vibraciones libres y las forzadas. Un sistema elástico tiene una vibración libre por efecto de un impulso inicial, donde el movimiento es mantenido por las fuerzas de restitución inherentes al mismo. El la vibración libre, el sistema vibrará en una o más de sus frecuencias naturales, dependiendo de la distribución de su masa y su rigidez y al aplicarle fuerzas perturbadoras desde afuera, la resultante es una vibración forzada. Si la excitación es oscilatoria, sea periódica o no, como la de un sismo, el sistema es obligado a vibrar a una frecuencia de excitación; si ésta coincide con una de las frecuencias naturales del sistema, se produce una resonancia y se desencadenan oscilaciones grandes. De este modo, la falla por resonancia, de estructuras como puentes o edificios entraña riesgos. Por este motivo, el cálculo de las frecuencias naturales de vibración es importante en el diseño sísmico de las estructuras. Norberto Keppe (1927), en su libro sobre la Nova física (55), establece que la energía proviene de los átomos que la toman de la energía esencial que existe en el universo, y establece cuatro leyes del movimiento vibratorio. La primera, es que no existe ningún elemento que carezca de movimiento vibratorio. La segunda, es que la vibración constituye la esencia de la existencia. La tercera, es que si el objeto no vibra se desintegra. Y la cuarta, la energía esencial no cesa de vibrar y es infinita. En este movimiento, de acción y reacción, se centra el fenómeno de la vida en el universo, y ello le sirve para cuestionar, por un lado, a Newton, que ve el movimiento de los cuerpos desde afuera y no desde adentro y, por otro, a Einstein, que deriva todo la energía del movimiento que generan los astros al producirse un campo gravitacional, y no de la captación de la energía esencial que hay en el exterior de las cosas o de la energía vibracional del interior de los cuerpos existentes. 8. Teorías de la explosión y la implosión de la materia Se discute si hubo una explosión inicial (Big Bang), si las explosiones son múltiples y eternas (Big Crunch) o si el universo, en proceso de expansión, llegará al colapso final (Big Rip). Antes de la explosión inicial o de .las explosiones sucesivas, debió existir la energía esencial y ella, en sí misma, se recrea, por su capacidad de formar lo que existe con masa, que es finita y puede volverse a convertir en energía esencial, y que, con el surgimiento de una forma de energía muy elaborada: el pensamiento del hombre, alcanza a saber que, tarde o temprano, puede volver a su estado inicial como una forma más de energía, pero esta vez con la capacidad de pensarse a sí mismo, ser consciente de su existencia e intervenir en el futuro del universo, lo que finalmente le da sentido a la existencia. 8.1. Teoría del Big Bang En 1948, el ucraniano George Gamow (1904–1968) planteó la teoría del Big Bang (ver representación) como una forma de explicar el origen del universo. Su propuesta se basaba en la radiación de fondo de las microondas que llenan el espacio vacío (56). Esta teoría se apoya en los modelos de Alexander Friedmann (1888–1925), George Lemaître (1894–1966), Howard Percy Robertson (1903–1961) y Arthur Geoffrey Walker (1909–2001), quienes utilizaron la teoría de la relatividad de Albert Einstein para explicar el universo en permanente movimiento. Se apoya también en los hallazgos del astrónomo Edwin Hubble (1889–1953) sobre el corrimiento hacia el rojo en el espectro electromagnético y de las galaxias que se encuentran más allá de la vía láctea. Esto demostraría la teoría de un universo en expansión. Dicha expansión se mide con espectrómetros, según el efecto Doppler (Christian Andreas Doppler 1803–1853). Con base en estas investigaciones se calcula en trece mil setecientos millones de años la antigüedad del universo. Como podemos deducir del pensamiento de Hawking desarrollado en su libro: “Historia del tiempo: del Big Bang a los agujeros negros” (57), se debe suponer, que antes de esa explosión, el universo estaba lleno, de manera homogénea, de una energía cada vez más densa. Dicha energía, por un cambio de fase, una singularidad especial, al parecer un enfriamiento según Max Planck (ver su autobiografía científica de 1949), se expande de manera exponencial, lo que se conoce como inflación cósmica. Es la época del surgimiento de partículas elementales en un plasma también homogéneo, en el que, por un cambio de temperatura, se origina la combinación de elementos, lo que crea los bariones (protón y neutrón, según Planck), para formar el átomo de hidrógeno. Esto se conoce como núcleo-síntesis primordial. Ahora se sabe que no son inicialmente los bariones sino los bosones y otras partículas elementales sin masa. De ahí surgen el hidrógeno, el helio, el deuterio y las nubulosas conformadas por los primeros elementos, cada vez más densas, y por efecto de la fuerza de la gravitación, se desarrollan densidades infinitas, y la concentración de esa energía, desencadena, según la teoría del Big Bang, lo que fue la explosión inicial. Esto da origen a la radiación universal, la formación de la luz y la radiación de fondo. Según sugirió Tesla, viene en todas las direcciones desde el espacio infinito, y según Arno Penzias (1933) y Robert Wilson (1936), es isotrópica y constante. Estos científicos, con el uso de antenas y receptores ultrasensibles, captaron, en laboratorios de la empresa Bell, en 1963, los ruidos del espacio, que se aceptaron como formas de transmisión en microondas (58), y que en un principio se creyó que pudieran ser mensajes extraterrestres. Stephen Hawking (1942), ha desarrollado un concepto sobre las leyes básicas que gobiernan el universo (ver foto), entre ellas, la existencia de los llamados agujeros negros que absorben la energía de la materia circundantes, pero que también, según él, emiten partículas subatómicas como chorros de energía (acaso convirtiéndose en energía esencial, como una forma de transformar la materia de nuevo en energía). En 1965, en Cambridge, con Roger Penrose (1931), probaron que algunas de las singularidades especiales pueden formarse a partir del colapso de inmensas estrellas moribundas (59). Estos científicos mostraron que la teoría general de la relatividad de Einstein implica que el espacio y el tiempo tienen un principio en el Big Bang, y un final dentro de los agujeros negros (60) y (61). Los resultados de sus deducciones muestran la necesidad de unificar la relatividad general con la teoría cuántica de Planck, el otro gran desarrollo científico de la primera mitad del siglo XX (62). En el libro «Naturaleza del espacio y tiempo» (The nature of space and time), Hawking y Penrose (60), conciben la singularidad como una zona del espacio-tiempo, en donde no se puede determinar una magnitud física relacionada con los campos gravitatorios, por ejemplo la curvatura. “Numerosos ejemplos de singularidades aparecen en situaciones realistas en el marco de la «relatividad general», en soluciones de las ecuaciones de Einstein, entre los que cabe citar la descripción de agujeros negros (como puede ser la métrica de Schwarzschild) o a la descripción del origen del universo (métrica de Robertson-Walker)”. Desde el punto de vista de las matemáticas, es difícil adoptar una definición de singularidad (ver estudios de Geroch sobre singularidad en la relatividad general), pues hablaríamos de puntos que automáticamente no pertenecen al espaciotiempo (63), cuyas huellas se pueden encontrar en el tejido del espacio-tiempo (ver representación). Un agujero negro de Schwarzschild, también conocido como agujero negro estático, según Roland Steinbauer y Mark Heinzle (64), se define por un solo parámetro, la masa m. El agujero negro de Schwarzschild es una región del espacio-tiempo delimitada por una superficie imaginaria, llamada horizonte de sucesos. La frontera del agujero establece un espacio del cual ni siquiera la luz puede escapar, de ahí el nombre de agujero negro. Dicho espacio, forma una esfera perfecta en cuyo centro se halla la singularidad especial; su radio recibe el nombre de radio de Schwarzschild. La fórmula de dicho radio depende únicamente de la masa del agujero (ver representación). Como se describe en Wikipedia, la enciclopedia libre, al hablar del Agujero negro de Schwarzschild o agujero negro estático: “La teoría de la relatividad predice que, dentro de un agujero negro de Schwarzschild, aparecerá una hipersuperficie límite teórica tal, que al acercarnos a ella el tensor de curvatura crece y crece sin límite. Ese tipo de objeto geométrico se conoce como singularidad espacio- temporal, y puede entenderse como un límite a partir del cual el espacio-tiempo no puede ser modelado dentro de la teoría (se supone que cerca de la singularidad los efectos cuánticos son importantes). Además, el espacio- tiempo, dentro de la región de agujero de Schwarzschild, es geodésicamente incompleto para cualquier geodésica temporal dentro del agujero, lo cual significa que una partícula en caída libre, dentro del agujero, pasado un tiempo finito, alcanzará la singularidad indefectiblemente. Actualmente, no se dispone de ninguna teoría que nos diga qué pasa exactamente cuando una partícula alcanza la singularidad”. En el caso de Schwarzschild la singularidad es de tipo temporal y allí las partículas que se mueven a mayor velocidad dentro del agujero desaparecerían, volatilizadas (se supone que como energía esencial o como energía bariónica). Ese hecho encaja con el carácter temporal de la singularidad, a diferencia de una singularidad espacial que se entiende más bien como un lugar geométrico. 8.2. Teoría del Big Crunch La expansión indefinida del universo lleva a la hipótesis de un enfriamiento progresivo y la muerte final de todo lo existente o Big Rip, pero también ha dado origen a la teoría que postula la competencia entre la fuerza de expansión originada por la explosión inicial y la fuerza de la gravedad impuesta por la materia existente. Si la fuerza de la gravedad termina siendo mayor, declina la expansión, se estabiliza el universo y luego sobreviene el colapso o Big Crunch. Un físico, divulgador científico, Paul Davies lo describiría más o menos así: “La fase de contracción y los procesos físicos serían casi simétricos a la fase de expansión. En primer lugar, por la finitud de la velocidad de la luz, los astrónomos empezarían a ver cómo el desplazamiento al rojo de las galaxias cesa, primero, de las más cercanas, y, luego, de las más alejadas, y pasarían todas a un desplazamiento que vendría del rojo al azul. La temperatura aumentaría y llegaría un momento en el que la fase de contracción seguiría, y con ella el aumento de la temperatura hasta que las galaxias se fundirían en una, mientras, la temperatura del fondo de radiación subiría y empezaría a poner en peligro la supervivencia de las formas de vida que existieran por entonces en planetas de tipo terrestre. En un momento determinado, dicha temperatura sería superior a los trescientos grados kelvin, impidiendo a los planetas antes mencionados deshacerse del calor acumulado y acabando por hacerse inhabitables. Más adelante, y con una contracción cada vez más acelerada, el universo se convertiría en un lugar infernal e inhabitable, al menos para seres como nosotros” (65). Según Marcelo Bär en «El destino del universo es disgregarse» (66): “Se considera que las estrellas serían destruidas por sus propias colisiones y el aumento de temperatura del universo, llegaría a ser tan alto que las estrellas no podrían deshacerse del calor acumulado y pasarían a absorberlo del exterior, hasta volver a concentrar tanta energía que volverían a explotar en un nuevo Big Bang. Tras ello se formarían más agujeros negros y el plasma de elementos sería cada vez más caliente. El aumento de temperatura destruiría, primero, los átomos y luego las partículas elementales, sólo dejando quarks y seguramente otras partículas como los bosones. Los agujeros negros empezarían a fusionarse entre sí, y a absorber materia, hasta dar lugar a un único superagujero negro que significaría el fin del espacio, del tiempo, y de todo lo existente, así que como es incomprensible saber qué había antes de la “gran explosión”, tampoco puede saberse que habría después del colapso”. Seguramente volveríamos a la energía esencial inicial, en un infinito plasma que daría luego inicio a otro Universo. 8.3. La teoría de los eones de Penrose El inglés Roger Penrose establece la teoría del «gran rebote», y en sus publicaciones, tras analizar los datos del satélite WMAP (Wilkinson Microwave Anisotropy Probe), encuentra ciertos patrones circulares que aparecen en el fondo de microondas del espacio cósmico, que sugieren que el espacio y el tiempo no empezaron a existir en el Big Bang, sino que nuestro universo existe en un ciclo continuo de rebotes que llama eones. Según él, lo que actualmente percibimos como nuestro universo, no es más que uno de esos eones. Hubo otros antes del Big Bang, y habrá otros después (60 y 61) (Teoría factible, al igual que los universos paralelos, si tenemos en cuenta que para la energía no puede existir el concepto de espacio y tiempo). 9. Los agujeros negros Los agujeros negros pueden producirse por el colapso gravitatorio de una estrella que está perdiendo su energía y han sido estudiados por científicos como: Robert Oppenheimer, Roger Penrose y Stephen Hawking, entre otros. En su libro titulado «Historia del tiempo. Del big bang a los agujeros negros», Hawking en 1998, refiere el proceso de formación de los agujeros negros (68). Este se establece con la muerte de una estrella conocida como «gigante roja» (estrella de gran masa), en la cual existe una extinción de su energía radiante. Tras varios miles de millones de años de vida, la fuerza gravitatoria de dicha estrella comienza a ejercer fuerza de atracción sobre sí misma, originando una masa cada vez más concentrada en un pequeño volumen, convirtiéndose de este modo en una «enana blanca». En este punto, el curso prosigue hasta el colapso definitivo por un fenómeno que se conoce como el la «autoatracción gravitatoria», lo que la convierte de ser «enana blanca» a ser un agujero negro. En esta estrella la fuerza de atracción es tan fuerte que atrapa hasta la luz que ella misma posee. “En palabras simples, un agujero negro es el resultado final de la acción de la gravedad extrema llevada hasta el límite posible”. La gravedad, que es la que proporciona la estabilidad de una estrella o de un planeta, hace comprimir las moléculas hasta que los átomos se fusionan, los electrones se juntan con el núcleo y con los protones formando neutrones y neutrinos, lo que finalmente la convierte en una estrella de neutrones que puede desencadenar una reacción atómica en cadena que hace irreversible el proceso y da lugar a un agujero negro, “que es una región del espacio-tiempo, limitada por lo que se ha llamado horizonte de sucesos”. Los detalles sobre qué sucede con la materia que cae más allá de este horizonte, dentro de un agujero negro, no se conocen porque, en una escala infinitesimal solo la teoría cuántica de la gravedad podría explicarlo. El agujero negro es pues un lugar del espacio en donde existe una enorme concentración, tan elevada, que se desarrolla un campo gravitatorio sin igual, lo que no permite que ninguna partícula material, ni siquiera la luz, pueda escapar de ahí. Según Hawking (57), un agujero negro puede emitir alguna radiación, especialmente en forma de fotones. La radiación emitida por algunos agujeros negros (como ocurre con Cygnus X-1) no procede del agujero, sino de su disco de acreción o de acrecimiento (disco de materia que gira alrededor de un agujero negro o de una estrella de neutrones). “La gravedad de un agujero negro, o curvatura del espacio-tiempo, provoca una singularidad envuelta por una superficie cerrada, llamada horizonte de sucesos. Esto fue previsto por las ecuaciones de campo de Einstein. El horizonte de sucesos separa la región del agujero negro, del resto del universo y es la superficie límite del espacio a partir de la cual ninguna partícula puede salir, incluyendo los fotones. Dicha curvatura es estudiada por la relatividad general, la que predijo la existencia de los agujeros negros y fue su primer indicio”. En los años setenta, Hawking, Ellis y Penrose (ver: Hawking, S. Singularities and the Geometry of Space-time. 2014), demostraron varios teoremas importantes sobre la ocurrencia y geometría de los agujeros negros. Antes, en 1963, Roy Kerr (67), había demostrado que en un espaciotiempo de cuatro dimensiones los agujeros negros debían tener una forma esférica, determinada por tres parámetros: su masa m, su carga eléctrica total e y su momento angular l. Se cree que en el centro de la mayoría de las galaxias (entre ellas la Vía Láctea) existan agujeros negros. Su presencia se deduce por observaciones astronómicas, en especial por la emisión de rayos X de las estrellas binarias y las galaxias activas. Según imágenes del telescopio espacial Hubble, en el núcleo de la galaxia elíptica gigante M87, por ejemplo, hay evidencia de un agujero negro supermasivo, y desde sus campos magnéticos se observa la salida de un potente chorro de materia (67). 9.1. Historia de los agujeros negros El geólogo inglés John Michell (1724-1793), en su artículo (ver: Michell, John (1784). On the Means of Discovering the Distance, Magnitude, &c. Philosophical Transactions of the Royal Society of London 74: 35), describió en 1783 una masa tan densa que incluso la luz no podía escapar de ella. En ese tiempo la teoría de Newton sobre gravitación y el concepto de velocidad de escape prevalecían entre los científicos. Michell calculó que un cuerpo celeste que tenga un, radio quinientas veces el del Sol, y su misma densidad, tendría, en su superficie, una velocidad de escape igual a la de la luz y sería, por tanto, invisible. En 1796, el matemático francés PierreSimon Laplace (1749–1827), explicó en su libro «Exposition du Systeme du Monde» una idea similar. En 1915, Einstein desarrolló la relatividad general y demostró que la luz era influenciada por acción de la gravedad (69). Luego, Karl Schwarzschild encontró una explicación a las ecuaciones de Einstein, en donde un cuerpo pesado podría absorber la luz. Hoy se conoce que el radio de Schwarzschild es el radio del horizonte de sucesos de un agujero negro que no gira. En 1930, Subrahmanyan Chandrasekhar (1910–1995), matemático hindú, demostró que un cuerpo con una masa crítica (ahora conocida como límite de Chandrasekhar), que no emita radiación, colapsa por su propia gravedad, porque no hay nada que frene ese proceso (ver: «The mathematical theory of black holes», Subrahmanyan Chandrasekhar, Oxford University Press, 1988). En 1939, Robert Oppenheimer (1904–1967), consideró que una estrella masiva podría sufrir un colapso gravitatorio y dar lugar a la formación de un agujero negro (70) y (71). Esta teoría no fue objeto de mucha atención hasta después de la Segunda Guerra Mundial (72). En 1967, Stephen Hawking y Roger Penrose probaron que los agujeros negros son soluciones a las ecuaciones de Einstein, y que en determinados casos no se podía impedir que se crease un agujero negro a partir de un colapso. La idea tomó fuerza con los avances científicos y experimentales que llevaron al descubrimiento de los púlsares o estrellas de neutrones. Poco después, en 1969, John Wheeler (1911–2008), acuñó el término «agujero negro», para designar lo que anteriormente se llamó «estrella en colapso gravitatorio completo» y usó la frase «agujero de gusano» para nombrar las entidades creadas como hipótesis en 1916 por el austriaco Ludwig Flamm, y la de «agujero negro» a las sugeridas por Karl Schwarzschild también en esa época. También fue uno de los principales difusores del principio antrópico que adoptaría luego Teilhard de Chardin para defender el sentido de la existencia, con el surgimiento de la conciencia y el pensamiento (160). En el prefacio de «El principio cosmológico antrópico» John Barrow escribía: “no es únicamente que el hombre esté adaptado al universo. El universo está adaptado al hombre. ¿Imagina un universo en el cual una u otra de las constantes físicas fundamentales sin dimensiones se alterase en un pequeño porcentaje en uno u otro sentido? En tal universo el hombre nunca hubiera existido”. Este es el punto central del principio antrópico. Según este principio, en el centro de todo el diseño del universo subyace un factor dador de vida humana(73). Esta teoría, al parecer, defiende la existencia de un Dios creador de todo lo existente, pero en la filosofía de Teilhard de Chardin esa creación no tiene lugar en un tiempo determinado sino que es continua (160) y lo refiere al expresar: “Dios no hace las cosas, hace que se hagan las cosas”. 9.2. Los agujeros negros supermasivos Cuando hay millones de masas solares, se podrían encontrar agujeros negros en el corazón de muchas galaxias como el de la galaxia OJ 287, o el que se refiere que existe en la vía Láctea enla constelación de Sagitario (ver: O'Neill, Ian. Universe Toda, ed. «Beyond Any Reasonable Doubt: A Supermassive Black Hole Lives in Centre of Our Galaxy, 2008». Se forman cuando una estrella de masa 2,5 veces mayor que la del Sol se convierte en supernova y se produce una implosión. Su núcleo se concentra en un volumen cada vez más pequeño. Se postularon por primera vez en la teoría de la relatividad general. Los microagujeros negros son hipotéticos, y más pequeños que los estelares. Si son demasiado pequeños, pueden llegar a evaporarse en un período relativamente corto mediante emisiones de radiación (según Hawking), lo que podría ser una explicación al fenómeno de que la energía busca reciclar la materia nuevamente en energía esencial, es decir, volver al comienzo. Este tipo de entidades físicas se postula en teorías de la gravedad cuántica, pero no pueden ser producidos por un proceso convencional de colapso gravitatorio, pues se requieren masas superiores a las del Sol. Según Jimeno Romero y Cembranos (74), basados en las ecuaciones de Albert Einstein, y según tres parámetros esenciales: masa, carga y momento angular, consideran que un agujero negro es cualquier masa que sufre un colapso gravitatorio. Proponen la siguiente clasificación en estos cuatro tipos: 1. El más sencillo posible es el de Schwarzschild, que no rota ni tiene carga (64). 2. Otro, que es estático, con simetría esférica, y que posee masa y carga eléctrica, es el de ReissnerNordstrøm (Hans Reissner (1874-1967) y Gunnar Nordstrøm (1881-1923)). 3- El de Roy Kerr (1934), que se encuentra en rotación y no tiene carga. Un agujero negro de Kerr (67), sería una región no isótropa delimitada por un horizonte de sucesos y una ergoesfera, y tiene diferencias significativas con respecto al de Schwarzschild. Su frontera describe una región donde la luz aún puede escapar, pero cuyo giro induce altas energías en los fotones que la cruzan (ver representación). Debido a la conservación del momento angular, este espacio es elíptico y en su interior se encuentra un horizonte de sucesos único con su respectiva singularidad, que por su rotación tiene forma de anillo. 4- Se habla de un agujero negro de Kerr-Newman (Ezra Newmann (1903)) si posee carga. En las cercanías de un agujero negro se forma un disco de acrecimiento, compuesto de materia, con momento angular, carga eléctrica y masa, la que es afectada por la enorme atracción gravitatoria del mismo. Si atraviesa el horizonte de sucesos, se incrementa el tamaño del agujero (74). Los efectos que producen los agujeros negros son visibles desde la Tierra por la desviación momentánea que producen sobre posiciones de galaxias o de estrellas conocidas, cuando los haces de luz procedentes de las mismas, transitan por ese sitio. Uno de los efectos más controvertidos de la existencia de un agujero negro, es su aparente capacidad para disminuir la entropía del universo. Si se entiende que entropía es la parte de la energía que no puede utilizarse para producir trabajo, eso violaría los fundamentos de la termodinámica, ya que toda materia y energía electromagnética que atraviesa dicho horizonte de sucesos, de alguna forma, conserva su energía (o la materia se convierte y se expulsa como energía esencial o materia bariónica). Otra de las implicaciones de un agujero negro supermasivo sería la probabilidad de que fuese capaz de generar su propio colapso completo, convirtiéndose en una singularidad desnuda de materia como lo propone Hawking (75), pero convertida en energía esencial o en partículas elementales. 9.3. La entropía en los agujeros negros En termodinámica, la entropía es una magnitud física que describe lo irreversible de los sistemas termodinámicos. La palabra entropía procede del griego ἐντροπία, y significa «evolución» o «transformación». Rudolf Clausius (1822–1888) le dio nombre y la desarrolló durante la década de 1850 y fue Ludwig Boltzmann (1844–1906) encontró la manera de expresar matemáticamente este concepto, desde el punto de vista de las probabilidades. Existe una fórmula conocida como de Bekenstein-Hawking para la entropía de un agujero negro (76). Hawking admite que la entropía de la materia se conserva en el interior de un agujero negro. Según él, a pesar de la imposibilidad física de escapar a un agujero negro, estos pueden terminar evaporándose, por lo que se ha llama «radiación de Hawking» a una fuente de rayos X que escapa del horizonte de sucesos (un verdadero reciclaje de la materia en energía esencial). El legado de Hawking, es significativo, al explicar la entropía gravitacional intrínseca, lo que implica que la gravedad introduce elementos impredecibles. La hipótesis de que los agujeros negros contienen entropía y que ésta es finita, requiere que los agujeros negros emitan radiaciones. “La explicación es que la radiación emitida escapa del agujero negro, de una región de la que el observador exterior no conoce más que su masa, su momento angular y su carga eléctrica. Eso significa que son igualmente probables todas las combinaciones o configuraciones de radiaciones de partículas que tengan energía, momento angular y carga eléctrica iguales. Esta condición implica que no se cumplirán las condiciones de los teoremas mencionados anteriormente y, por tanto, estos no pueden ser aplicados para predecir la existencia de singularidades y de agujeros negros”. Los datos experimentales no permiten deducir si la correcta es la teoría de relatividad general de Einstein o la teoría relativista de la gravitación de Logunov (1926). Tampoco puede darse por cierto que los agujeros negros sean una consecuencia de la gravitación (77). 9.4. Los agujeros negros en la física actual Según Paul McGarr: “Los fenómenos físicos se explican mediante dos teorías, en cierto modo contrapuestas, y basadas en principios incompatibles: la primera es la mecánica cuántica, que explica la naturaleza de lo muy pequeño, donde predominan el caos y la estadística, y admite casos de evolución temporal no determinista. La segunda, la relatividad general, que explica la naturaleza de lo muy pesado y afirma que en todo momento se puede saber con exactitud dónde está un cuerpo, siendo esta teoría totalmente determinista” (41). Ambas parecen confirmadas y es necesario discernir “si se aplica la cuántica por ser algo muy pequeño, o la relatividad por ser algo tan pesado” (cuestiones que Hawking y Penrose intentan unificar). Hasta no disponer de una física más avanzada, no se conseguirá explicar la naturaleza de este fenómeno. 9.5. Descubrimientos recientes En 1995, un equipo de investigadores de la Universidad de California —UCLA—, dirigido por Andrea Ghez (78), mediante simulación demostró la posibilidad de la existencia de agujeros negros supermasivos en el núcleo de las galaxias (ver representación). Hechos los cálculos mediante el sistema de óptica adaptativa se verificó que algo deformaba los rayos de luz emitidos desde el centro de nuestra galaxia (la Vía Láctea). esta se produce por un agujero negro supermasivo denominado Sagittarius A, como lo vimos anteriormente. En los años 2007 y 2008 con experimentos de interferometría en radiotelescopios se midió el tamaño del agujero negro supermasivo en el centro de la Vía Láctea, al que se le calcula una masa cuatro y medio millones de veces mayor que la del Sol y una distancia de veintiséis mil años luz (unos doscientos cincuenta y cinco mil billones de kilómetros respecto de la Tierra). Este sería poco activo, pues ha consumido gran parte de la materia bariónica de su horizonte de sucesos y porque emite grandes cantidades de radiación al exterior. En la actualidad se cree que los agujeros negros sirven en la constitución de las galaxias y la formación de nuevas estrellas (o contribuyen con el reciclaje de la materia en energía esencial). (Ver trabajos de la astrofísica turca y profesora de la Universidad de Harvard, Feryal Özel (1975). Según se puede referenciar en Wikipedia, enciclopedia libre, “el mayor agujero negro de masa estelar conocido hasta la fecha se descubrió en el año 2007 y fue denominado IC 10 X-1. Está en la galaxia enana IC 10, situada en la constelación de Casiopea, a una distancia de 1,8 millones de años luz (diecisiete billones de kilómetros) de la Tierra, con una masa de entre veinticuatro y treinta y tres veces la de nuestro Sol”. En abril de 2008, la revista Nature publicó un estudio realizado en la Universidad de Turku (Finlandia), en donde un equipo de científicos dirigido por Mauri Valtonen (79, 80), descubrió un sistema binario, un blázar (fuente de energía compacta proveniente de un agujero negro cuyo rayo apunta a la tierra, lo que lo diferencia de un cuásar) denominado OJ 287, en la constelación de Cáncer. “Tal sistema parece estar constituido por un agujero negro menor, que orbita en torno a otro mayor, siendo la masa del mayor de dieciocho mil millones de veces la de nuestro Sol, lo que lo convierte en el mayor agujero negro conocido. Se supone que en cada intervalo de rotación el agujero negro menor, que tiene una masa de cien millones de soles, golpea la ergosfera del mayor dos veces, generándose un cuásar. Situado a tres mil quinientos millones de años luz de la Tierra, está relativamente cerca de esta para ser un cuásar”. Los blazares son núcleos activos galácticos caracterizados por emitir chorros de energía. El hecho de que podamos observarlos explica la intensidad de los distintos tipos de blazares, algunos de ellos con velocidades superlumínicas dentro de los primeros parsecs (medida de longitud astronómica) de sus chorros. Elena Seifina, Nikolai Saposhnikov y Lev Titarchuk, cientificos de la NASA (The Astrophysical Journal Volume 789 Number 1. Elena Seifina et al. 2014), han identificado el más pequeño de los agujeros negros, el J 1650, ubicado en la constelación Ara (o Altar) de la Vía Láctea. Tiene una masa similar a 3,8 soles y veinticuatro kilómetros de diámetro, y se habría formado por el colapso de una estrella. Estas son las dimensiones mínimas que puede tener un agujero negro, ya que una estrella, al colapsar y producir un fenómeno de menor masa, se transformaría en una estrella de neutrones. 10. Los pulsares Según Hester y Loll de la Universidad del Estado de Arizona (ver Astrophysical Journal 533 (1), L29-L32, 2008), un pulsar es una estrella de neutrones con un fuerte campo electromagnético, que emite radiación periódica, como un pulso (ver representación), e induce la emisión de estas radiaciones electromagnética a intervalos regulares relacionados con el periodo de rotación del objeto, lo que puede verse desde la tierra por instantes; esto se conoce como el «efecto faro». Las estrellas de neutrones giran sobre sí mismas varios cientos de veces por segundo. “Un punto de su superficie puede estar moviéndose a velocidades de hasta setenta mil kilómetros por segundo”. Suelen tener un tamaño de entre diez y veinte kilómetros y la fuerza centrífuga generada a esta velocidad, es enorme, y es su potente campo gravitatorio (dada su enorme densidad) el que evita su destrucción. “El efecto combinado de la enorme densidad de estas estrellas, con su intenso campo magnético (generado por los protones y electrones de la superficie girando alrededor del centro a semejantes velocidades) causa que las partículas que se acercan a la estrella desde el exterior (como, por ejemplo, moléculas de gas o polvo interestelar), se aceleren a velocidades extremas y realicen espirales cerradas hacia los polos magnéticos de ella”. Esto hace que emitan chorros de radiación electromagnética. La señal emitida por el primer pulsar detectado, tenía un periodo de 1,33730113 segundos. Este tipo de señales únicamente se puede detectar con radiotelescopios. En julio de 1967 Jocelyn Bell y Antony Hewish (81), detectaron señales de radio de corta duración, a intervalos regulares y pensaron que podrían haber establecido contacto con una civilización extraterrestre. “Tras la búsqueda de explicaciones, se descubrieron tres nuevos pulsares que emitían en radio a diferentes frecuencias, por lo que pronto se concluyó que estos objetos debían ser producto de fenómenos naturales”. Hewish recibió en 1974 el Premio Nobel de Física por este descubrimiento y el desarrollo de un modelo teórico. Jocelyn Bell, una estudiante, fue quien advirtió la primera señal de radio. Hoy se conocen más de seiscientos pulsares con periodos de rotación que van desde el milisegundo a unos pocos segundos, con un promedio de 0,65 segundos. El más famoso se encuentra en la Nebulosa del Cangrejo, se denomina PSR0531+121, tiene un periodo de 0,033 segundos y se localiza en el mismo lugar en el que astrónomos chinos registraron una supernova en el año 1054, durante el reinado del emperador Renzong de la dinastía Song, lo que le ha permitido a los científicos establecer la relación entre supernova y estrella de neutrones, al determinar que esta es un remanente de la explosión de aquélla. Parte ll 11. El surgimiento de la vida La vida surge por medio de la evolución a partir de las partículas elementales, que como resultado de un proceso armónico (teoría de un principio ordenador que pudiera ser la energía misma), o como producto de una singularidad que genera una alteración inicial (teoría del caos), que no indicaría la existencia de un sentido, terminan por organizar la materia con los elementos que le dan origen a la vida (el carbono y el agua). Excluyendo las teorías religiosas sobre la existencia de un ser superior (Dios), creador del cielo y de la tierra y de todas las especies que en ella existen, bien sea como una creación única o en el tiempo, y haciendo las cosas, o dejándolas hacer como expresara Teilhard de Chardín, hay dos teorías que tienen un gran significado según la investigación existente: 1. “La primera, es la abiogénesis (griego: ἀ-βίο-γένεσις (a-bio-genésis), ἀ-/ἀν- “no” + βίος- “vida” + γένεσις“origen/principio”, “el origen de la vida a partir de la no existencia de esta”) o el origen de la vida en la Tierra, que ha iniciado en las ciencias de la naturaleza estudios especializados cuyo objetivo es dilucidar cómo y cuándo surgió la vida”. Una de las opiniones de mayor arraigo en el ámbito científico es la teoría de que la vida comenzó a partir de la materia inorgánica, por condiciones especiales de radiación y por el bombardeo de partículas, en algún momento del período comprendido entre cuatro mil cuatrocientos millones de años y dos mil a dos mil setecientos millones de años —cuando se dieron las condiciones para que el agua pudiera condensarse en vapor por primera vez—. Allí aparecieron los primeros indicios de vida—. (Ver referencia de Wikipedia, enciclopedia libre: Simon A. Wilde, John W. Valley, William H. Peck y Colin M. Graham, Evidence from detrital zircons for the existence of continental crust and oceans on the Earth 4.4 Gyr ago. Nature 409, 175-178 (2001). 2. “Y la segunda, es la panspermia, que reúne ideas e hipótesis como las del inglés Freeman Dyson, acerca de un posible origen extraterrestre de la vida, que habría sucedido durante los últimos trece mil setecientos millones de años de evolución del universo, luego de la explosión del big bang o de las explosiones de supernovas que tienen que ver con la formación de planetas, galaxias o cometas, que viajan a enormes distancias llevando en sus fragmentos embriones de vida” (82). Ambas teorías tienen un proceso común a partir de la materia y bajo ciertas condiciones que hicieron posible la transformación, pero evolucionan en sitios diferentes del universo; la abiogénesis en la tierra misma y la panspermia, en otros sistemas solares. 11. 1. Teoría de la abiogénesis La primera teoría con la que se trató de explicar la aparición de la vida, desde Aristóteles, fue la de la generación espontánea. Luego se usó la palabra abiogénesis, término acuñado por Thomas Huxley (1825–1895) en 1870, para explicar que la vida compleja (de origen animal y vegetal), podría surgir de manera espontánea a partir de la materia inorgánica, en oposición a su origen a partir de otros organismos vivos (autogénesis). El origen de la vida no es abordado por la teoría de la evolución de sus precursores (Darwin y Wallace), pues esta se ocupa de los cambios que se producen en los seres vivos en su relación con el medio, y no del origen e interacciones de las moléculas de las que proceden. Por supuesto, no se sabe mucho sobre las etapas tempranas, previas al desarrollo de la vida, y la investigación sobre el origen de la vida se enfoca en la bioquímica inicial que se origina de las moléculas simples y evoluciona a las más complejas, de una manera progresiva y constante. Tampoco está claro cómo fueron los primeros desarrollos de la vida, aunque se postulen algunos seres iniciales como los nanobios y no hay consenso sobre la existencia de un solo antepasado común. Se ha propuesto que el inicio puede haber sido por replicación de moléculas de ARN, o por el ensamblaje de células simples, nanocélulas, que pudieran haber sido las primeras proteobacterias quimioheterotrofas como las cianobacterias. La replicación es cualquier proceso por el cual se puede hacer una copia de sí misma. Las células, en ambientes adecuados, se reproducen por división celular (ver figura). En ese proceso, primero el ARN y luego el ADN se replican y ese camino puede transmitirse a la descendencia. La mayoría de los científicos consideran que los organismos existentes comparten ciertas características —como la existencia de una estructura celular y de un código genético— relacionadas con el origen de la vida. Se considera que las bacterias pudieron haber sido los primeros organismos vivos, pues existe la evidencia fósil que lo demuestra. La vida en la Tierra se basa en dos elementos sustanciales: el carbono y el agua (83 y 84). Ver los trabajos de Bennett J. O y los del alemán David Schulze Makuch. “El carbono proporciona un sistema estable para las sustancias químicas complejas y puede ser extraído del medio ambiente, sobre todo del dióxido de carbono. El único elemento diferente con propiedades químicas similares es el silicio, que forma estructuras mucho menos estables y como la mayoría de sus compuestos son sólidos, sería más difícil de extraer para los organismos”. Ahí tenemos pues, de la naturaleza y de los gases existentes en el planeta, el primer elemento; el otro es el agua. “El agua es un excelente solvente y tiene otras propiedades útiles: sus tres estados, sólido, líquido y gaseoso, hecho que permite, por ejemplo, que el hielo flote, lo que le ayuda a los organismos acuáticos a sobrevivir debajo del hielo en épocas de invierno. Además, sus moléculas son eléctricamente positivas y negativas, lo que les permite formar una gama más amplia de compuestos, de lo que otros solventes pudieran tener. Otros buenos solventes, como el amoníaco, sólo son líquidos a temperaturas tan bajas que las reacciones químicas pueden ser demasiado lentas para sustentar el principio de la vida. Organismos basados en una bioquímica alternativa, como serían los que tuvieran como base el silicio, pueden ser posibles en otros planetas con condiciones propicias”. El científico de California Gerald Joyce explica en sus trabajos en Nature como la investigación sobre el origen de la vida puede explicarse por la capacidad del ADN de auto replicarse y de producir descendencias similares, así como desarrollar su propio metabolismo, alimentarse, repararse y hacer uso de las membranas plasmáticas para permitir que los alimentos entren a las células y salgan los desechos. El replicador por excelencia es el ácido desoxirribonucleico. “La estructura del ADN y la replicación de los sistemas son mucho más complejas que las del replicador original, que se considera es el ARN. El descubrimiento de que algunas moléculas de ARN pueden catalizar su propia replicación y la construcción de proteínas, lleva a la hipótesis de que las primeras formas de vida se basaban enteramente en el ARN, como las proteobacterias” (85). Como se define en Wikipedia, enciclopedia libre: “El ácido ribonucléico (ARN o RNA) es un ácido nucléico formado por una cadena de ribonucleótidos. Está presente tanto en las células procariotas como en las eucariotas, y es el único material genético de ciertos virus (virus ARN). El ARN celular es lineal y de hebra sencilla, pero en el genoma de algunos virus es de doble hebra. Es la molécula que dirige las etapas intermedias de la síntesis proteica. El ADN no puede actuar solo, y se vale del ARN para transferir esta información vital durante la síntesis de proteínas (producción de las proteínas que necesita la célula para sus actividades y su desarrollo). Varios tipos de ARN regulan la expresión génica, mientras que otros tienen actividad catalítica. El ARN es, pues, mucho más versátil que el ADN”. Según Ralf Dahm (2005), los ácidos nucleicos fueron descubiertos en 1868 por Friedrich Miescher (1844–1895), que los llamó nucleica pues los aisló del núcleo celular (86). Más tarde, se comprobó que las células procariotas, que carecen de núcleo, contienen ácidos nucleicos. Desde 1930 se sospechaba del papel del ARN en la síntesis de proteínas y fue el español Severo Ochoa (1905–1993), ganador del Premio Nobel de Medicina en 1959, quien descubrió cómo se sintetizaba el ARN. En 1965 Robert W. Holley (1922–1993), halló la secuencia de setenta y siete nucleótidos de un ARN de transferencia de una levadura, con lo que obtuvo también el Premio Nobel de Medicina en 1968. En 1967, Carl Woese (1928–2012), comprobó las propiedades catalíticas de algunos ARN y sugirió que las primeras formas de vida usaron ARN como portador de la información genética. En 1976, Walter Fiers (1931) y sus colaboradores determinaron la secuencia completa del ARN del genoma de un virus ARN. De acuerdo con Robert Holley el ARN puede actuar como biocatalizador. Al asociarse a otras proteínas forma ribonucleoproteínas y es el ARN el que produce las reacciones . “Se conocen cinco tipos de ribozimas; tres de ellos llevan a cabo reacciones de automodificación, como eliminación de intrones o autocorte, mientras que los otros (ribonucleasa P y ARN ribosómico) actúan sobre substratos distintos. Así, la ribonucleasa P corta un ARN precursor en moléculas de ARN, mientras que el ARN ribosómico realiza el enlace peptídico durante la síntesis proteica ribosomal” (87). Trevors y Abel de Canadá, en el 2004, describen que las ribozimas, como componentes de los ribosomas, fabrican proteínas, y pudieron haber formado un mundo de ARN en los que habría individuos, pero no especies. (Ver: Cech, T.R. «The ribosome is a ribozyme». Science 289 (5481), 2000). “Las mutaciones y la transferencia horizontal de genes hicieron que los descendientes de cada generación fueran propensos a tener genomas diferentes de los progenitores”. El ARN fue sustituido en la evolución por el ADN, que es más estable y tiene la capacidad de construir genomas (ver gráfico del ARN y ADN). Hoy ha sido posible producir pequeñas moléculas autoreplicantes de ARN en los laboratorios, pero aún persisten dudas sobre la posibilidad, de manera natural, de sintetizar ARN. Las ribozimas se formaron de ácidos nucleicos como el ANP, TNA o GNA que han sido sustituidas luego por el ARN según opinión de Hoenigsberg, H. «Evolution without speciation but with selection: Luca, the Last Universal Common Ancestor in Gilbert’s RNA world». Genetic and Molecular Research 2 (4), 2003. “En el año 2003 se propuso que el sulfuro de metal poroso precipitado pudo haber ayudado a la síntesis del ARN a unos cien grados centígrados (212 °F) y a una presión del fondo oceánico cerca de fuentes hidrotermales. En esta hipótesis, las membranas lipídicas serían los últimos componentes importantes de las células en aparecer y hasta entonces las protocélulas serían confinadas a los poros” (88) y (89). El ADN, ácido desoxirribonucleico, descubierto por James Watson (1928), Francis Crick (1916– 2004) y Maurice Wilkins (1916–2004), es un ácido nucleico formado por el acoplamiento de una base purínica (adenina) con una pirimidina (timina). Contiene cantidades iguales de citosina y guanina ligadas al hidrógeno y de adenina con timina, construyendo una doble hélice en movimiento que produce la energía necesaria en los organismos vivos (90). Como lo describe Sergio Ferrer en “El verdadero Sentido de la vida”, el ADN contiene las instrucciones genéticas para el desarrollo y funcionamiento de los organismos vivos conocidos y algunos virus, y es responsable de la transmisión hereditaria. Las moléculas de ADN almacenan la información, pues tiene las instrucciones para construir otros componentes, como proteínas y moléculas de ARN. Esto refiere así: “Los segmentos de ADN que llevan esta información genética son llamados genes, pero las otras secuencias de ADN tienen propósitos estructurales o toman parte en la regulación del uso de esta información genética. Desde el punto de vista químico, el ADN es un polímero de nucleótidos, es decir, un polinucleótido. Un polímero es un compuesto formado por muchas unidades simples conectadas entre sí, como si fuera un largo tren formado por vagones. En el ADN, cada vagón es un nucleótido, y cada nucleótido, a su vez, está formado por un azúcar (la desoxirribosa), una base nitrogenada (que puede ser adenina→A, timina→T, citosina→C o guanina→G) y un grupo fosfato que actúa como enganche de cada vagón con el siguiente. Lo que distingue a un vagón (nucleótido) de otro es, entonces, la base nitrogenada, y por ello la secuencia del ADN se especifica nombrando sólo la secuencia de sus bases. La disposición secuencial de estas cuatro bases a lo largo de la cadena (el ordenamiento de los cuatro tipos de vagones a lo largo de todo el tren) es la que codifica la información genética: por ejemplo, una secuencia de ADN puede ser ATGCTAGATCGC. En los organismos vivos, el ADN se presenta como una doble cadena de nucleótidos, en la que las dos hebras están unidas entre sí por unas conexiones denominadas puentes de hidrógeno” (91). Después de setenta años del descubrimiento de Miescher se han logrado identificar los componentes y la estructura de los ácidos nucleicos (92). En 1919, Phoebus Levene (18691940), identificó que un nucleótido está formado por una base nitrogenada, un azúcar y un fosfato. En 1930 con su maestro Albrecht Kossel demostraron que la nucleína es un ácido desoxirribonucleico (ADN) formado por citosina (C), timina (T), adenina (A) y guanina (G)), el azúcar desoxirribosa y un grupo fosfato, y que el nucleótido está compuesto por un azúcar unido a la base y al fosfato. En 1937 William Astbury mostró que el ADN tiene una estructura regular. Luego el alemán Günter Wächtershäuer (1938), mostró la forma de producir proteínas a partir de materiales inorgánicos como el monóxido de hidrógeno y el sulfuro de hidrógeno, por medio de catalizadores de sulfuro de hierro y de níquel, con temperaturas altas y presiones moderadas, “aunque requieren una etapa de doscientos cincuenta grados centígrados (482 °F) y una presión equivalente de la que se encuentra al menos siete kilómetros (4,349598344 mi) debajo de la roca. Por tanto, se sugirió que la síntesis de proteínas autosostenible pudo haber ocurrido cerca de fuentes hidrotermales” (93). Las membranas celulares del ARN tienen una pared doble formada por lípidos. “Los experimentos que simulan las condiciones de la Tierra primitiva han reportado la formación de lípidos, y que estos pueden hacerlo espontáneamente de liposomas, de doble pared, para luego reproducirse a sí mismas. A pesar de que no son portadores de información de ácidos nucleicos, estarían sujetos a la selección natural para la longevidad y la reproducción. Los ácidos nucleicos como el ARN pudieron haberse formado con más facilidad dentro de los liposomas. El ARN es complejo y existen dudas sobre si se puede producir de una manera no biológica en la naturaleza” y Algunas arcillas existentes en los primeros tiempos, favorecen el proceso, según sugieren A.G. Cairms-Smith y J.P. Ferris (94) y (95). Las denominadas «alfombras microbianas» son capas de arcillas, con colonias de bacterias y otros organismos que se encuentran en un entorno químico que favorece su reproducción por la existencia de una cadena alimentaria. «Los estromatolitos (del griego στρώμα, strōma, «cama/alfombra» y λίθο, litho, «piedra») descritos en los trabajos de Cairs-Smith, “son estructuras estratificadas diversas, formados por la captura y fijación de partículas carbonatadas por parte de cianobacterias, que viven en aguas someras, hacen fotosíntesis, liberan oxígeno y retiran de la atmósfera grandes cantidades de dióxido de carbono, para formar carbonatos que, al precipitarse, dan lugar a formas raras, como pilares, y se constituyen en alfombras microbianas que migran hacia arriba para evitar ser sofocados por los sedimentos depositados en ellos por el agua” (96). En el año 2006, en Australia, se descubrieron alfombras de estromalitos en rocas de hace tres mil quinientos millones de años. “En las modernas alfombras, bajo el agua, la capa superior está compuesta de cianobacterias fotosintéticas que crean un ambiente rico en oxígeno, mientras que la capa inferior se encuentra libre de él y, a menudo, está dominada por el sulfuro de hidrógeno, emitido por los organismos que viven allí” (96). De acuerdo con los trabajos de Blankenship referidos en Wikipedia, enciclopedia libre: “Se estima que la aparición de la fotosíntesis oxigénica por las bacterias en las alfombras microbianas, aumentó la productividad biológica por un factor de entre cien y mil veces” (97). El agente reductor es el agua y el oxígeno aumenta, bajo ciertas condiciones, la eficiencia metabólica. Hace dos mil cuatrocientos millones de años se formó la atmósfera de la Tierra y el oxígeno fue el componente principal y contribuyó al desarrollo de organismos celulares más complejos de tipo multicelular. “Las cianobacterias tienen la mayor cantidad de mecanismos bioquímicos de todos aquellos organismos que forman la alfombra (ver foto). Por tanto, son los más autosuficientes del sistema, y se adaptan bien, tanto como alfombras flotantes, como al constituir el primer fitoplancton, lo que proporciona la base de la mayoría de las cadenas tróficas marinas” (97). 11.2. La teoría de la panspermia La hipótesis de un origen extraterrestre de la vida aumenta las probabilidades en la tierra por el bombardeo permanente de meteoritos y el paso de cometas que dejaban sus restos sobre el planeta . La vida se puede formar en cualquier lugar del universo y luego extenderse a otros mundos. “Eso no invalida la posibilidad de que se desarrolle la vida simultáneamente en diferentes lugares del universo, si las condiciones son similares”. La teoría se fundamenta en la existencia de bacterias resistentes a altas temperaturas como las existentes en aquellas épocas en las que no existía una atmósfera que protegiera. Desde la antigüedad hay la creencia de que la vida vienen desde el cosmos, pues filósofos como Anaxágoras (98), expresaron que todas las cosas partían de semillas o de partículas elementales (99 y 100). Por otra parte, el astrónomo Sir Fred Hoyle (1915–2001) también apoyó la idea de la panspermia al comprobar que ciertos organismos terrestres (algunas bacterias como las cianobacterias y algas o líquenes) resistentes en medio de condiciones adversas y extremas, de manera eventual, pueden viajar por el espacio y colonizar otros planetas. En 1958, Hoyle hizo un descubrimiento esencial sobre lo que se ha conocido como la nucleosíntesis inicial del carbono que se podría formar en el núcleo de las estrellas. Consistía en que el carbono se podría formar allí por efecto de las altas temperaturas de las radiaciones termonucleares y ello fue esencial para el origen de la vida en nuestro planeta (101). Su trabajo alrededor de estas reacciones químicas y sus contribuciones sobre las estructuras internas estelares permitieron profundizar en el conocimiento de la nucleosíntesis, es decir, la generación de elementos pesados a partir del hidrógeno y del helio que se producen en el interior de las estrellas, lo que permite explicar la formación de elementos más pesados como el carbono, el silicio y el oxígeno. Este descubrimiento fue realizado con el físico norteamericano William Fowler (1911–1995), quien recibió por ello un Premio Nobel de Física en 1983, compartido con Subrahmanyan Chandrasekhar (1910–1995), otro de los grandes astrofísicos estudiosos del interior de las estrellas. De acuerdo con los estudios, hechos por separado, de Chapman, Cavalier-Smith y Guillermina Goñi “En el proceso de formación de la vida, debieron intervenir bacterias que tienen la capacidad de sobrevivir en ambientes extremos de humedad y temperatura. Unas de ellas son las cianobacterias (Cyanobacteria, del griego Κυανός, kyanós, «azul») que son capaces de realizar fotosíntesis oxigénica y fijación de nitrógeno. Son los únicas algas procariotas (sin núcleo verdadero), que llevan a cabo ese tipo de fotosíntesis, por ello también se les denomina oxifotobacterias. Las cianobacterias se llaman así por su color azul (literalmente son algas azules o verdeazuladas). Los análisis genéticos recientes han venido a situar a las cianobacterias entre las bacterias gram-negativas (102). Además, son bacterias que han estado viviendo sobre nuestro planeta por más de tres mil millones de años. Su tamaño va de 1 µm hasta varios micrómetros” (103). 11.3. Las cianobacterias y la historia de la Tierra Se considera que las cianobacterias son las responsables de la formación de la bioesfera a través de la fotosíntesis oxigénica en un periodo que pudo ser de unos mil quinientos millones de años. Este fenómeno sigue ocurriendo, pero en la actualidad juegan ese papel algunos tipos de algas eucarióticas como las diatomeas, los dinoflagelados y los haptófitos o cocolitofóridos. Además, siguen siendo el principal suministro de nitrógeno para las cadenas tróficas de los ambientes marinos. De acuerdo con las publicaciones de Guillermina Goñi, la capacidad de usar el agua como donador de electrones en la fotosíntesis, evolucionó una sola vez en el antepasado común de las cianobacterias, y los datos geológicos indican que este evento, que jugó un papel esencial, tuvo lugar hace dos mil cuatrocientos cincuenta millones de años. “Hace unos dos mil millones existía una biota diversa de cianobacterias, que fueron las principales productoras primarias de oxígeno durante la era Proterozoica (dos mil quinientos a quinientos cuarenta y tres millones de años atrás), y el poder reductor de los océanos favoreció el desarrollo de organismos fotoautótrofos, o sea de bacterias que utilizan la luz solar como fuente de energía para fijar nutrientes orgánicos a través de enzimas, como la NADPH reductasa, y que a la vez son capaces de fijar nitrógeno” (104). Al final del Proterozoico aparecieron las algas verdes y en el Mesozoico (doscientos cincuenta y uno a sesenta y cinco millones de años) los dinoflagelados, cocolitoforales y diatomeas suplieron la actividad de las cianobacterias. Según Oren (105), las cianobacterias son claves en los ecosistemas marinos como productoras primarias de oxígeno y como agentes fijadores de nitrógeno, el cual pueden tomar directamente de la atmósfera. Herrera y Flores, en el 2008, al describir las cianobacterias la consideran de un tamaño superior al de la mayor a de las bacterias, su citoplasma tiene corpúsculos llamados carboxisomas que contienen enzimas que fijan el CO2 y gránulos de glucógeno, cita oficina, polifosfatos, tilacoides y vesículas llenas de gas. Además, poseen unas vesículas aplastadas formadas por invaginación de la membrana plasmática (con la que suelen conservar comunicación o contacto), donde reside el aparato molecular de la fotosíntesis. “La envoltura está constituida, como en todas las bacterias gram-negativas, por una membrana plasmática y una membrana externa, situándose entre ambas una pared de mureína (péptido glucano). Las más comunes son unicelulares cocoides (esferoidales), a veces agregadas en una cápsula mucilaginosa, o formando filamentos simples. Los filamentos pueden aparecer agregados en haces, envueltos por mucílago, o de una manera que aparenta ramificación. Existen además cianobacterias que forman filamentos con ramificación verdadera” (106). Los filamentos de las cianobacterias son como una especie de plasmodesmos con funciones especializadas y unas células especiales llamadas heterocistes. Estas son grandes y de pared gruesa y en su pared tienen celulosa con capacidad de fijar el nitrógeno mediante un proceso diferente al de la fotosíntesis. Otro tipo de células especializadas son los acinetos que tienen un citoplasma granuloso con una sustancia llamada citoficina. 11.4. La fotosíntesis oxigénica Como hemos visto entonces, las cianobacterias parecen haber sido las bacterias que iniciaron el proceso de la fotosíntesis en la tierra y por esa razón son las primeras responsables de crear la atmósfera, lo que formó la biosfera y permitió que se crearán las condiciones necesarias para la evolución de ellas y de otros organismos vivos a lo largo de toda la existencia y permanencia de la vida (Ver gráfico). Como en el proceso se requiere un potente reductor o sea una fuente de electrones, se considera que estos se producen del agua de mar (H2O) y al tomarse el hidrógeno se libera el oxígeno que llena la atmósfera, que hoy constituye una característica esencial del planeta Tierra (Jorge E. Saénz Guarin «La fotosíntesis» Universidad Nacional de Colombia. Facultad de Ciencias, Bogotá 2012). 11.5. La fijación de nitrógeno Las cianobacterias captan el nitrógeno (N2) del aire, en donde se encuentra de manera abundante, por medio de la enzima nitrogenasa que se encuentra en los heterocistes, y lo reduce a amonio (NH4+), el cual es aprovechable por las células. En las plantas, la fotosíntesis se realiza en el día y la fijación del nitrógeno en la noche. Algunas cianobacterias pueden ser simbiontes de algunas plantas como los helechos, o sea que ejercen una simbiosis o interacción biológica con ellas, según el término de simbiosis de Heinrich Anton de Bary (1831-1888), lo cual permite incorporar nitrógeno a las plantas y favorecer la cadena alimentaria (Ver: Smil V. Cycles of Life. Scientific American Library, 2000) 11.6. Las microzimas Se les denominó en un comienzo «los coloides de la luz» o «polvo cósmico» y se consideró que daban origen a la vida biológica. Es decir que este «polvo cósmico» es la parte más pequeña de vida que existe en el universo. Esta apreciación coincide con la teoría de la panspermia. En este planeta lo conocemos con diversos nombres, pero es la misma materia primaria del inicio de la vida. Bechamp los llamó microzimas, otros las llaman nanobacterias y recientemente un grupo australiano los denomina «nanobios», ya que miden solo treinta nanómetros. Los primeros nanobios fueron descubiertos en 1998 por un grupo de científicos, dirigidos por Philippa Uwins de la Universidad de Queensland de Australia (107), en las profundidades de la corteza terrestre, muy por debajo de la plataforma continental de Australia. Presentan distintas morfologías, que presumiblemente podrían corresponder a diferentes etapas de su ciclo vital. En la actualidad se intenta secuenciar su ADN. Estos seres son los más pequeños organismos microscópicos que conocemos. Todos los microorganismos conocidos por la ciencia (bacterias, hongos, levaduras, microbios, etc.), así como las células y los glóbulos sanguíneos, están formadas a partir de estos seres nanoscópicos o microzimas. La vida de un ser vivo empieza y termina en ellos. El término «nanobio» se utilizó para diferenciarlos de los microbios. Se pueden confundir con las nanobacterias, que serían más grandes y por ello, diferentes. Los nanobios tienen un tamaño entre veinte y ciento cincuenta nanómetros de longitud, es decir, diez veces más pequeño que las bacterias más pequeñas conocidas, y tienen una morfología similar a un actinomycetes y algunos tipos de hongos. Actualmente, existe un debate científico en relación con la naturaleza de estas estructuras o formas de vida, ya que tienen algunos componentes de los organismos vivos como carbono, oxígeno y nitrógeno y otros no tan típicos, como el silicio. Antonie Béchamp (1816–1908), biólogo francés, consideró que la enfermedad causa gérmenes (ver foto). Fue el primero que sintetizó el preantibiótico «ácido paminofenilarsénico». Defendió que “todas las materias orgánicas naturales (materias que vivieron alguna vez), protegidas absolutamente contra los gérmenes atmosféricos, invariable y espontáneamente, se alteran y fermentan porque ellas necesariamente tienen dentro de sí mismas los agentes de su espontánea alteración, digestión y disolución”. Con su investigación, Béchamp fundó las bases del pleomorfismo (la supuesta habilidad de los organismos de cambiar de unas formas a otras). Afirmó que las células de nuestro cuerpo no son atacadas por los gérmenes externos que portan las enfermedades, como afirma la teoría hoy en día aceptada, de Louis Pasteur (1822–1895), quien fuera su contradictor, sino que nuestras células se deterioran o se dañan por el estrés de la vida diaria o por toxinas introducidas (físicas o químicas), y que se degeneran hasta un punto en el que se debilitan, envenenan o enferman. Bajo esta situación aumenta su condición ácida, destruye su propio tejido mediante el uso de lo que él llamó microsomas que están siempre presentes en la célula. Básicamente, Béchamp descubrió que las células se autodestruyen si se contaminan o degeneran por un fenómeno conocido como apoptosis. Se debe mantener la célula sana y fuerte y de ese modo se desempeñará bien, pero si esto no ocurre y la célula se deteriora, los pequeños microsomas reaccionan a las condiciones pobres de ácidos de la célula o al daño causado por sustancias foráneas como las toxinas, y las fermentarán y destruirán (108). Algunos creen que Pasteur desarrolló la teoría del monomorfismo con base en el trabajo de Antoine Béchamp y que él mismo no comprendió estos hechos hasta mucho tiempo después. Desde los primeros años del siglo XX varias publicaciones han dado testimonio de esto. Antoine Béchamp fue un investigador contemporáneo de Pasteur. Sus estudios cubrían la biología, la microbiología, la química y la patología. Su trabajo fue extensamente documentado en los círculos científicos. Algunos contradictores acusan al famoso Pasteur de plagiar y distorsionar estos descubrimientos y ganar de ese modo un lugar inmerecido en la historia del pensamiento médico. Béchamp (109), recogió los puntos fundamentales de su teoría en su libro Blood and its Third Element. Frente al monomorfismo, Béchamp sostenía que los microorganismos podían desarrollarse a través de varias formas dentro de su ciclo de vida. Todos los microorganismos participan de esta propiedad. También descubrió que en la sangre habitan microbios que él llamó microzimas y tienen un papel importante en la fisiología. Se llaman genéricamente endobiontes, término que popularizó Günther Enderlein (1872–1968). Se les denomina así porque viven en el interior de otros organismos, de manera simbiótica sin afectarlos negativamente y se encuentran como remanentes en los fósiles o en las rocas calizas. También han recibido otros nombres, como biones por Wilhelm Reich (1897–1957), o somatides por Gastón Naessens (1924). Estos organismos cambian de forma para adaptarse a modificaciones del terreno y pueden volverse patógenos. Para Béchamp, la causa de la enfermedad está en el organismo mismo, es decir, la enfermedad siempre viene de adentro. Béchamp intentó demostrar que Pasteur estaba errado, ya que durante una infección esos organismos no entran de afuera sino que se encuentran adentro. Esta es la teoría del pleomorfismo. Claude Bernard (1813–1878) entró en esta discusión argumentando que lo más importante en el proceso de la enfermedad era el terreno del paciente, cuestión que Pasteur reconoció como válida, antes de morir. Los microbios cambian y se desarrollan como resultado de cambios en el terreno en el cual viven. La enfermedad como proceso biológico se desarrolla dependiendo del medio interno. El aspecto determinante del terreno es el pH según lo refiere Keith L. Manchester (110). Estos pequeños cuerpos tenían, según Béchamp, el poder de moverse, y eran más pequeños que cualquier microfito visto en fermentación; eran los fermentos más poderosos que encontrados. Su poder de movimiento y fermentación hizo que fueran considerados organismos vivientes. También creyó que podrían ser muy antiguos, y rastreó el bloque de caliza que había usado; vio que provenían del periodo terciario. Encontró que ese corte de piedra sin exponerse al aire, tenía maravillosos poderes fermentativos que él remontó a los mismos pequeños cuerpos que había encontrado en la fermentación en sus experimentos más tempranos. Concluyó que ellos debían haber vivido en la piedra por muchos miles de años, lo cual se comprueba con los descubrimientos de Philippa Uwins (107). En 1866 envió a la Academia de Ciencia una memoria titulada «El papel de la tiza en las fermentaciones butíricas y lácticas y el organismo vivo contenido en él». En este estudio, denominó a esos pequeños cuerpos como «microzimas», derivado del griego y que significa «pequeños fermentos». También estudió las relaciones de las microzimas de la tiza con las granulaciones moleculares de las células animales y vegetales, con muchos más exámenes geológicos, y escribió un estudio titulado «Sobre las microzimas geológicas de varios orígenes». Para Béchamp, no es exageración decir que la existencia del hombre depende de la actividad de las bacterias. Sin las bacterias no podría haber ninguna cosa viviente en el mundo. Cada animal y planta debe su existencia, a su vez, a la fertilidad de la tierra, y esta depende de la actividad de los microorganismos que habitan la tierra. Las bacterias encontradas en el hombre y en los animales no causan enfermedad. Tienen la misma función que las encontradas en la tierra, o en los desechos, o en cualquier otra parte en la naturaleza. Están allí parar reconstruir el tejido muerto o los tejidos enfermos, para reciclar los desperdicios, y se sabe bien que no quieren —o no pueden— atacar los tejidos saludables. Son parte necesaria de la vida humana, y permanecen con nosotros si vivimos sanamente, como Béchamp lo sostuvo. 12. La resonancia en los seres vivos Las fuentes de energía pueden ser tan grandes que los sistemas biológicos no las soportan (como lo rayos cósmicos o el exceso de luz solar). Para protegernos, la naturaleza las transforma en vibraciones con menos energía. Se captan en la atmósfera y se transforman en otras formas de energía, tolerables. En las células de los organismos vivos se transforma a través de las mitocondrias y esto se realiza según la frecuencia que posean, por ejemplo los rayos ultravioleta entran en resonancia con la piel y ayudan a formar la vitamina D, o en las células de las plantas la transformación se produce por medio de la fotosíntesis, así se absorbe el gas carbónico para formar oxígeno y metabolizar el carbono. Por otra parte, los excesos pueden producir daños como el envejecimiento, el cáncer de piel o las quemaduras. El doctor Winfried Otto Schumann (1888-1974) descubrió un efecto de resonancia en el sistema Tierra-ionósfera, que se conoce como «resonancia Schumann» (111). En física se le denomina «onda transversal-magnética». Se ha comprobado que estas ondas vibran en la misma frecuencia que las ondas cerebrales del ser humano (y además de los mamíferos); es decir a 7,8 hertz (ciclos por segundo). es bastante común que la física ignore lo que no se puede explicar. Alemania y Austria han experimentado con las resonancias, se han desarrollado y formulado nuevos proyectos en física cuántica con la frecuencia de Schumann, considerada una constante normal biológica. A esta frecuencia estamos conectados los seres humanos y la Tierra, que nos contiene, se comporta como un enorme circuito eléctrico. El científico ruso Georges Lakhovsky (1870–1942), creador del oscilador de ondas múltiples, defendió el criterio de que las células de los seres vivos emiten y reciben radiaciones electromagnéticas. Supuso que la enfermedad es causada por un desequilibrio oscilatorio de las células vivas (112). El tipo de vibración a la que funcione el organismo, determina la vitalidad o enfermedad de sus células. Su teoría se resume en que las células de los organismos vivos están en resonancia con dos tipos de radiaciones: las que provienen del suelo (véase «resonancia Schumann», corriente telúrica) y la radiación cósmica y solar. Si las células del organismo vibran de manera armónica, en consonancia con dichas radiaciones, el ser vivo mostrará un estado de vitalidad y bienestar. Cualquier cambio en la frecuencia de la resonancia celular resultará en un desequilibrio que se expresa como una enfermedad. Siguiendo sus investigaciones, Lakhovsky determinó que dicha pérdida de la frecuencia de oscilación celular podía ser corregida si se irradiaba con una forma especial de energía, a la frecuencia original de las células. En ese caso, las células reconocen la frecuencia irradiada como su propia frecuencia de oscilación natural, y vuelven a resonar a dicha frecuencia, recuperando la vitalidad perdida (113). Parte lll 13. La Evolución De aquellas primeras formas de vida, como los nanobios a los organismos unicelulares, y de ahí a los multicelulares, y luego a la complejidad del reino vegetal y el animal, las interfaces subsiguientes, y el prodigio de la evolución, dependen de condiciones propicias en un universo que sigue formando estrellas y planetas, y que se mueve de manera ininterrumpida por efecto de la energía esencial. 13.1. La evolución de la vida en la Tierra Haciendo un recuento histórico y como lo describe Mauricio Antón (1961), los estudios químicos basados en isótopos de carbono, hechos en las rocas del eón arcaico, sugieren que las primeras formas de vida se encontraban en la Tierra hace más de tres mil ochocientos millones de años, en la era Eoarcaica (ver gráfico), y hay evidencias geoquímicas —tales como la reducción microbiana de sulfatos— que se han conseguido en la era paleoarcaica, hace tres mil cuatrocientos setenta millones de años (114) y (115). Los estromatolitos —capas de roca formadas por microorganismos— se conocen en estratos de tres mil cuatrocientos cincuenta millones de años (116), mientras que los microfósiles filiformes más antiguos, morfológicamente similares a las cianobacterias, se encuentran en estratos de sílex de tres mil cuatrocientos cincuenta millones de años, como los hallados en Australia (117), o los nanoorganismos descubiertos en 1998 por la doctora Philippa Uwins. Asimismo, los fósiles moleculares derivados de los lípidos de la membrana plasmática, y del resto de la célula — denominados biomarcadores—, confirman que organismos similares a cianobacterias habitaron los océanos arcaicos hace más de dos mil setecientos millones de años (118). Estos microbios fotoautótrofos y las algas, liberaron oxígeno a la atmósfera, que comenzó a acumularse hace dos mil doscientos millones de años y transformó la tierra. La aparición de la fotosíntesis y la acumulación de oxígeno, puede rastrearse a través de los depósitos laminares de hierro y bandas rojas, producto de los óxidos de hierro. La respiración celular aeróbica, debió aparecer hace dos mil millones de años. Las células procariotas (sin núcleo), capaces de desarrollar la fotosíntesis, emplean los plastos de su estructura (orgánulos celulares que acumulan sustancias requeridas en los procesos químicos) para realizar la quimiosíntesis. Se estima que habitaron la Tierra desde hace tres a cuatro mil millones de años. Recordemos que fue Alexander I. Oparín (1894–1980), quien propuso que del H, el N, el C y los gases metano y amoníaco, por efecto de las altas temperaturas y las radiaciones, desarrollaron reacciones químicas, que dieron origen a los primeros aminoácidos y luego a las proteínas, base de las precursores celulares (119). Durante los siguientes miles de millones de años mantuvieron su morfología y organización celular. El siguiente cambio sustancial en la estructura celular lo constituyeron las células eucariotas, que surgieron a partir de bacterias incorporadas en su propia estructura, formando una asociación denominada por el alemán Antón de Bary (1831-1888) endosimbiosis. Las bacterias envueltas, y su célula hospedante, iniciaron un proceso de coevolución, en el que las bacterias dieron origen a las mitocondrias o hidrogenosomas. Un segundo evento independiente de endosimbiosis, con organismos similares a las cianobacterias, llevó a la formación de los cloroplastos en las algas y las plantas. La evidencia, tanto bioquímica como paleontológica, indica que las primeras células eucarióticas surgieron hace unos dos mil a mil quinientos millones de años, aunque los atributos más significativos de la fisiología de los eucariotas se presentaron previamente (ver: Lynn Margulis «Simbiosis in cell evolución», Freeman, New York, 1992). La historia inicial de la vida sobre la Tierra se da con las células procariotas, las eucariotas unicelulares y las arqueas, desde hace unos seiscientos setenta millones de años (ver gráfico), momento en el que los primeros organismos multicelulares aparecieron en los océanos, en el período denominado Ediacárico. Estos seres, se relacionan con otros organismos que más adelante serían los prominentes, como los poríferos o los cnidarios (ver: Droser y Gehling en la revista Science 319:1660-1662). No obstante, algunos paleontólogos sugieren que la biota ediacara es una rama extinta, y por tanto un «experimento fallido» que llevó a evolucionar a otros organismos unicelulares no relacionados. “La evolución de los organismos pluricelulares ocurrió, entonces, en múltiples eventos independientes, en organismos tan diversos como las esponjas, algas pardas, cianobacterias, hongos mucosos y mixobacterias” (ver: la evolución biológica, Dale Káiser Annual Review Genetics 35:103-123, 2001). Poco después, hubo una gran diversidad biológica en un período de apenas diez millones de años, lo que se conoce como la explosión cámbrica, que conllevó una diversificación si precedentes. Este periodo se documenta con los fósiles encontrados en los sedimentos de Burgess Shale, en Canadá (120). Durante esta época, se describen la mayoría de los filos animales y una gran cantidad de linajes únicos que se extinguieron luego. La mayoría de los animales modernos aparecen en este tiempo. Para visualizar este período es conveniente leer «La visión del pasado» de Teilhard de Chardin (143). Se considera que el fenómeno que desencadenó la explosión cámbrica fue la acumulación de oxígeno en la atmósfera por efecto de la fotosíntesis. Hace quinientos millones de años, las plantas y los hongos colonizaron la Tierra y este proceso fue seguido por la aparición de los insectos. Los anfibios lo hicieron hace alrededor de trescientos millones de años, seguidos por los primeros amniotas. Después, hace unos doscientos millones de años, surgieron los mamíferos y hace cien millones, las aves. Sin embargo, los organismos microscópicos dominan la Tierra, pues la mayor parte de las especies y la biomasa terrestre (bioesfera), está constituida por células procariotas (121). Anaximandro (610–546 a. C.), filósofo griego, fue el primero en ofrecer una idea elaborada sobre este tema. Sostuvo que “la base de toda materia es una sustancia eterna que se transforma en todas las formas materiales conocidas comúnmente. Esas formas, a su vez, cambian y se funden en otras, de acuerdo con la regla de la justicia, es decir, una especie de equilibrio y proporción”. Varios filósofos griegos de la antigüedad discutieron ideas similares. Anaximandro (ver figura) propuso que los primeros animales vivían en el agua y que los animales terrestres fueron generados a partir de ellos. Empédocles (490–430 a. C.) escribió acerca de un origen no sobrenatural de los seres vivos, sugiriendo que la adaptación no requiere un organizador o una causa final. Aristóteles (384–322 a. C.), uno de los filósofos griegos más influyentes y además el primer naturalista y cuyo trabajo se conserva, hace observaciones e interpretaciones, que reflejan el conocimiento en la época. No obstante, es notable el esfuerzo de Aristóteles en exponer las relaciones existentes entre los seres vivos como una scala naturae —tal como se describe en Historia Animalium—, en la que los organismos se clasifican de acuerdo con una estructura jerárquica, «escalera de la vida» o «cadena del ser». Aristóteles los ordena según la complejidad de sus estructuras y funciones, y los asimila con los organismos que muestran una mayor vitalidad y capacidad de movimiento, descritos como «organismos superiores» (122). La evolución de la vida sobre la tierra la constituyen las transformaciones que se producen en el tiempo y le han dado origen a diferentes formas de vida. El concepto, aunque ha existido desde épocas remotas fue introducido en el siglo XVIII por Charles Bonnet (1720-1793) un biólogo suizo con una obra llamada «Considerations sur les corps organisés». En esta obra, propone la creación de los seres vivos y luego la evolución por un proceso de gradación continua. En los siglo XVIII y XIX la idea que configura la evolución biológica fue trabajada por científicos como Christian Pander, Jean Baptiste Lamarck y Charles Darwin. Diferentes autores han postulado el paso de especies del mismo género, pero muchos lo han negado. JeanBaptiste Lamarck (1744–1829) formuló la primera teoría de la evolución (ver foto). Propuso que los organismos, eran formas estáticas creadas por Dios que habían evolucionado desde formas simples, por su capacidad de adaptarse al ambiente. Los cambios generaban necesidades que los modificaban y estas nuevas características se heredaban. Se apoyó, para la formulación de esta teoría, en la existencia de restos de formas intermedias extintas. Lamarck debió enfrentar las creencias religiosas sobre la creación de las especies y su inmutabilidad, defendida por uno de los personajes más influyentes de la época, Georges Cuvier (1769-1832), quien pensaba que las formas intermedias eran simplemente formas extinguidas por los desastres naturales (ver: Georges Cuvier en Dictionnaire historique des sciences physiques te naturelles, París, 1857). El concepto de que la vida evolucionó a partir de un ancestro común fue formulado por algunos filósofos griegos, y la hipótesis de que las especies se transforman continuamente fue postulada por Charles Darwin (1809-1882), con su libro El origen de las especies (123). Fue Darwin, (ver foto) en 1859, quien consolidó la evolución como una teoría científica (124). Él y Alfred Russel Wallace (1823-1913), propusieron por separado la selección natural como uno de los mecanismos fundamentales de la evolución de las especies (125). Estas propuestas se complementaron con las teorías genéticas de Gregor Mendel (1822-1884) y los estudiosos posteriores a él, que propusieron la llamada «teoría sintética». Según ella, los cambios genéticos se producen en el tiempo y en las diferentes generaciones, como mecanismos de selección natural, por factores como las mutaciones, las migraciones de genes o los flujos genéticos que van ocurriendo en las especies y en las mezclas de los individuos (ver: Bronowski, J. (19081974). El sentido común de la ciencia. Colección Historia/Ciencia/Sociedad, no. 146, Barcelona). Sus divulgaciones han contribuido a aclarar estos temas (126). 13.2. La evolución La teoría de un ancestro común en la evolución de las especies sobre la Tierra es un hecho documentado que posee infinidad de pruebas científicas, como las referidas por Dawkins en el 2004 (127). Muchas especies surgen y luego desaparecen en el proceso. Las que permanecen han tenido condiciones adecuadas para sobrevivir, luego las posibilidades de permanecer se incrementan en ambientes favorables. La variedad sobre la tierra es enorme y mientras más alejadas estén unas especies de otras más diferentes son, pero es un hecho que entre ellas se comparten muchas características anatómicas y fisiológicas, lo que indica la relación genética existente entre ellas. Esto se ha conocido como parentesco homólogo cuando embriológicamente son similares o análogo si su origen es distinto, pero comparten la misma función. También es posible encontrar rudimentos de lo que fueron en otra época órganos similares en antepasados, como vestigios de patas, de cola, de notocordio, de caparazones, de dientes, de hendiduras branquiales y otras (ver: «La visión del pasado» 143). Las bacterias y las arqueas que son procariotas tienen muy pocas características comunes y por tanto no es fácil definir sus ancestros por los fósiles encontrados, lo que hace necesario que se investiguen características genéticas o bioquímicas. Según Fox: “todas las células utilizan el mismo conjunto básico de nucleótidos y aminoácidos. El desarrollo de la genética molecular ha revelado que el registro evolutivo reside en el genoma de cada organismo y que es posible datar el momento de la divergencia de las especies a través del reloj molecular producido por las mutaciones. Por ejemplo, la comparación entre las secuencias del ADN del humano y del chimpancé ha confirmado la estrecha similitud entre las dos especies y ha arrojado luz acerca de cuándo existió el ancestro común de ambas” (128). 13.3. Historia del evolucionismo Fue con la publicación de «El origen de las especies», de Charles Darwin, que la teoría de la evolución comenzó a ser aceptada. Alfred Russel Wallace (1823–1913) refirió en una carta sus hallazgos sobre la selección natural, y eso impulsó a Darwin a publicar su trabajo que para ese entonces estaba en desarrollo. Por tanto, comparte el crédito con Wallace sobre la teoría de la evolución (llamada también, con razón, teoría de Darwin–Wallace). Los hallazgos de Darwin cambiaron la opinión científica que se tenía con respecto a la evolución de la vida, pero no fue suficiente para explicar lo concerniente a las diferentes especies ni para explicar el sentido o no de la existencia, y una de sus propuestas conocida como de la pangénesis no tuvo la suficiente acogida y requirió el paso del tiempo, hasta la llegada de los siglos XIX y XX y los descubrimientos de Gregor Mendel en genética, que complementaron los conceptos sobre la revolución iniciada. Cuando en 1900 se estudiaron los trabajos de Gregor Mendel (ver foto) sobre la naturaleza de la herencia, que datan de finales del siglo XIX, se dio una discusión entre los llamados mendelianos, como Charles Benedict Davenport (1866-1944), un defensor de la teoría eugenésica que defendía que mediante la manipulación genética se podría mejorar la raza humana (ver «Heredity in relation to Eugenics, 1911» y la escuela de los biométricos como Walter Frank Raphael Weldon (1860-1906) y Karl Pearson (1857-1936), que aplicaron la estadística a la evolución e insistieron en la variabilidadad como un elemento fundamental en la evolución, no explicable por un análisis únicamente mendeliano. Pero todos estos modelos fueron conciliados y fusionados con el trabajo del biólogo y estadístico Ronald Fisher (1890– 1962). Este enfoque, se conoció como la teoría sintética de la evolución y apreció entre los años 1930 y 1940 (129). El término «Neodarwinismo» fue utilizado en 1895 por el naturalista y psicólogo inglés George John Romanes (1848–1894) en su obra «Darwin and after Darwin», y se remonta a la época de August Weissmann (1834-1914), quien al contrario de Lamarck, postula que por mecanismos reproductivos se originan variedades de individuos en cada generación y no solamente es por la herencia. En la selección natural actúa la variabilidad que se produce con cada reproducción sexual, cuestión que complementa el modelo de Darwin. Alfred Wallace en su «Exposición of the theory of natural selección» en 1889, popularizó el concepto de «Darwinismo» e incorporó de paso las conclusiones de Weismann (130). 13.4. Síntesis evolutiva La teoría sintética de Fisher incorpora al «neodarwinismo» elementos de biología, genética y paleontología. En ello intervinieron muchos científicos como el ruso Theodosius Dobzhansky (1900–1975), el naturalista y taxónomo alemán Ernst Mayr (1904–2005), el zoólogo británico Julian Huxley (1887–1975), el jesuita geólogo y paleontólogo Teilhar de Chardin (1882—1955), el paleontólogo americano George G. Simpson (1902–1984), el zoólogo germano Bernhard Rensch (1900–1990) y el botánico estadounidense George Ledyard Stebbins (1906–2000). Julián Huxley es quien une esos conceptos en su libro Evolución: la síntesis moderna (1942), en el que también introdujo el término «biología evolutiva». De hecho, Huxley en «Evolution: the modern synthesis», 1942, fue el primero en señalar que la evolución “debía ser considerada el problema central de la biología, y cuya explicación debía ser abordada mediante hechos y métodos de cada rama de la ciencia, desde la ecología, la genética, la paleontología, la embriología, la sistemática, la anatomía comparada y la distribución geográfica, sin olvidar otras disciplinas como la geología, la geografía y las matemáticas”, e incluso, podría decirse que sin olvidar la filosofía como lo hizo el jesuíta francés Teilhard de Chardín. La llamada «síntesis evolutiva moderna» explica por medio de modelos estadísticos y matemáticos los mecanismos de la evolución y otros fenómenos como la capacidad de adaptación o la variabilidad de las especies. Theodosius Dobzhansky definió la evolución del siguiente modo: “la evolución es un cambio en la composición genética de las poblaciones. El estudio de los mecanismos evolutivos corresponde a la genética poblacional”. Este esquema de pensamiento llevó al concepto biológico de especie, desarrollado por Mayr en 1942 y que describe Lewontin al referirse a la genética de Dobzhansky, al hablar de las poblaciones naturales, en 1981: “una comunidad de poblaciones que se entrecruzan y cuya forma reproductiva está aislada de otras comunidades” (131). Al ampliar los conceptos de la evolución, se puede trascender de la selección natural y la herencia mendeliana, pues aparecen, a más de la variabilidad de las diferentes poblaciones, los cambios propiciados por el medio ambiente o por efecto de las mutaciones que se consideran casuales pero que se producen de manera progresiva en la evolución. En general se observa que existen épocas en las que no hay cambios significativos y todo parece transcurrir lentamente y otras en las que los cambios se producen en forma de saltos cuantitativos, lo que coincide muchas veces con periodos de grandes cambios en la geología de la tierra o con catástrofes como consecuencia de fenómenos naturales, en los que se extinguen muchas especies y aparecen o se consolidan otras. Según el concepto de Eduardo Fernández Valiente en la revista Arbor (2002), 677:17-40, “El genoma es una red compleja de genes interconectados, sujetos a múltiples regulaciones en cascada, con secuencias móviles, capaces de transponerse y reordenarse”. Según Pigliucci en su trabajo con Muller sobre la síntesis extendida de la evolución (132): “Los procesos de regulación epigenética, la modularidad de los complejos proteicos, la presencia de transposones y retrotransposones, las pautas de lectura de un gen a través del procesamiento del ARN mensajero y la transferencia lateral de genes, son algunos de los aspectos que emergen del conocimiento del genoma y que son difícilmente compatibles con la idea de la lenta acumulación de mutaciones como único agente causal de la variabilidad genética”. Del mismo modo, Kidwell al hablar de los elementos que se transponen (ver: Transposable elements en «The Evolution of the genome». Elsevier, 2005): transposón o considera que un elemento genético transponible es una secuencia de ADN que puede moverse de manera autosuficiente a diferentes partes del genoma de una célula, en un fenómeno conocido como transposición. En el proceso se causan mutaciones en el genoma y estos genes, se denominan «saltarines». Al modificarse el ADN por el paso de un gen codificador de un cromosoma a otro, se produce una variabilidad que puede ser significativa. Se conocen como epigenéticos aquellos factores no genéticos que intervienen en el desarrollo y le dan la expresión a un organismo (ver Waddington 1905-1975), sin que se produzca un cambio en la secuencia de los nucleótidos del ADN (ver figura) en un proceso que puede ser reversible y heredable. Ello explica algunos sucesos que se presentan en las bacterias, como la transformación, la transición y la conjugación, que son independientes de la reproducción y se hacen por transferencia de genes de una misma generación. Woese y sus colaboradores (133), anotan por ejemplo que las células eucariotas, como las arqueas, desarrollan transferencias, lo que explica procesos de simbiosis o cooperación entre organismos que crean estructuras nuevas más complejas, con propiedades diferentes. 13.5. La variabilidad genética Como lo refieren Wu y Lin en sus mapas de arquitectura genética (134), el genotipo de un individuo depende de su genética y del ambiente en el que vive o al que ha estado sometido durante su existencia. La evolución es el cambio de la genética con el paso del tiempo. “La variación de una población para un gen determinado, desaparece cuando un alelo llega al punto de fijación. Es decir, cuando ha desaparecido totalmente de la población o cuando ha reemplazado a las otras formas alternativas de ese mismo gen. La variabilidad surge en las poblaciones naturales por mutaciones en el material genético, migraciones entre poblaciones (flujo genético), y por la reorganización de los genes a través de la reproducción sexual”. En la variabilidad también intervienen los intercambios de genes entre especies, aunque conserven la mayor parte del genoma. 13.6. La mutación La mutación genética producida por exposición a la radiación o a agentes químicos e incluso por acción de algunos virus, origina modificaciones del ADN que se puede transmitir genéticamente y originar efectos positivos o negativos sobre el fenotipo de los organismos (135). Como se puede ver en «Evolución biológica», en: Wikipedia, enciclopedia libre: “Los estudios realizados sobre la mosca de la fruta (drosophila melanogaster), sugieren que si una mutación determina un cambio en la proteína producida por un gen; ese cambio será perjudicial en el 70 % de los casos, y neutro —o levemente beneficioso— en los restantes”. Existen diferentes tasas de mutación dependiendo de la frecuencia, si es alta significa mayor capacidad de adaptación a los ambientes y si se producen alteraciones nocivas que puede facilitar la extinción de individuos y de especies (136). Fenómenos como la duplicación, permiten copias nuevas con un camino diferente. La recombinación crea nuevas secuencias de ADN originan funciones diferentes, y las mutaciones cromosómicas tienen efecto sobre la variabilidad con efecto sobre la descendencia (137) o la fertilidad (138). 13.7. La recombinación genética En la recombinación de genes existe redistribución de fragmentos de ADN entre los cromosomas durante la meiosis o la mitosis, lo que tiene los efectos de una mutación, originando cambios que pueden transmitirse en la descendencia y aumentar la diversidad o la variabilidad. Estos fenómenos también pueden ser favorables o desfavorables. En ella no se alteran las frecuencias entre los alelos pero pueden producir combinaciones únicas con aumento de la variabilidad genética. Los genes que son cercanos unos a otros se heredan juntos, lo que se conoce como «ligamiento», y forman lo que se llama un «haplotipo» y cuando en ellos, uno de los alelos es beneficioso, generalmente por efecto de una especie de barrido, se hacen más comunes en la población descendiente (139). 13.8. La genética de las poblaciones Según Michael Lynch, la genética de poblaciones es la disciplina biológica que suministra los principios teóricos de la evolución. Una población está conformada por una serie de individuos de la misma especie que comparten una misma área geográfica y poseen una herencia genética. Los genes que poseen las especies forman su patrimonio genético, representado por un alelo determinado pero pueden variar, y eso es lo que les da la variabilidad fenotípica que los hace diferentes (140). Dicha variabilidad facilita el mejoramiento genético y por ende la conservación en el proceso evolutivo. Si no existiera la variabilidad la evolución sería más difícil. 13.9. El flujo genético Además de la variabilidad, la recombinación y las mutaciones, el flujo genético, que se refiere al intercambio de genes entre las diferentes poblaciones de la misma especie, es otro fenómeno definitivo en la evolución. Como lo expresara Peter Gogarten de California el flujo genético se puede producir por inmigración y cruzamiento de individuos. “La transferencia de genes entre especies involucra la formación de híbridos o la transferencia horizontal de genes. La inmigración y la emigración de individuos en las poblaciones naturales pueden causar cambios en las frecuencias alélicas, como también la introducción —o remoción— de variantes alélicas dentro de un acervo genético establecido. Las separaciones físicas en el tiempo, espacio o nichos ecológicos específicos que pueden existir entre las poblaciones naturales, restringen o imposibilitan el flujo génico. Además de estas restricciones al intercambio de genes entre poblaciones, existen otras —denominadas “mecanismos de aislamiento reproductivo” (141). De igual manera, según Elizabeth Pennisi, bióloga de la universidad de Cornell, si la distancia entre las especies es lejana suele existir infertilidad, pero a veces ocurren procesos de hibridación como el que existe entre el asno y la yegua para producir la mula. Estos híbridos suelen ser estériles por la diferencia cromosómica, que no permite el adecuado desarrollo de la meiosis. “La hibridación es, sin embargo, un mecanismo importante de formación de nuevas especies en las plantas, ya que la poliploidía —la duplicación de todo el juego de cromosomas de un organismo— es tolerada con más frecuencia en las plantas que en los animales, y restaura la fertilidad en los híbridos interespecíficos debido a que cada cromosoma es capaz de aparearse con un compañero idéntico durante la meiosis” (142). Se discute, por supuesto, como lo expresara el sacerdote jesuita y paleontólogo Teilhard de Chardin, si la vida surgió de un organismo inicial único, a partir del cual se desarrolló el árbol entero de las especies, o si, por el contrario, se originó de un inmenso rocío que cubrió el planeta con miríadas de gérmenes iniciales, en los que ya estaba preformada la pluralidad futura de las formas vivientes (143). Esto, para defender la tesis de la pluralidad de phylum, en la que el estudio de las especies precedentes muestra una enorme variabilidad. De Chardin también considera que el análisis de la evolución no puede ser considerado a partir de especies particulares cada vez más complejas, sino de una biósfera, en donde se tengan en cuenta todas las formas en su conjunto (144). 13.10. Los mecanismos de la evolución En conclusión, se pudiera hablar de que los dos mecanismos esenciales en la evolución, según los avances logrados desde los estudios iniciales de Wallace y Darwin, son la selección natural y los cambios genéticos. La selección natural, permite la supervivencia de algunas especies en los procesos de competencia frente a fenómenos adversos, naturales o de competencia, y los cambios genéticos, establecen la variabilidad necesaria para la creación de nuevas especies que responden a las necesidades del medio o se adecuan más fácil a él. Todo esto depende del tamaño de las poblaciones, pues una población escasa, frente a condiciones adversas, desaparece más fácil o no deja vestigios que puedan detectarse. En la paleontología, para detectar una especie se requiere que esta esté plenamente establecida sobre la tierra y tenga un número suficiente de individuos que deje huellas. 14. La formación del hombre Producto de ese proceso incesante de la evolución, desde la aparición de los primeros seres vivos, y luego de tantas opciones de vida, tanta diversidad y tal número de combinaciones, surge la línea de los homínidos y luego el hombre. Y, nace además, lo magnífico de él, la especialización de cada uno de sus tejidos, en especial el cerebro (ver representación de un Homo clasificado com Australophitecus). La evolución humana constituye el llamado proceso de hominización, y se explica por la evolución biológica de la especie desde sus ancestros más primitivos, hasta el estado actual. El estudio de estas facetas requiere un análisis interdisciplinar en el que se reúnen conocimientos procedentes de ciencias diversas y complementarias, como la genética, la antropología física, la paleontología, la estratigrafía, la geocronología, la arqueología, la neurología y la lingüística. El término «humano», en el contexto de su evolución, se refiere a los individuos del género Homo. Sin embargo, los estudios de la evolución humana incluyen otros homínidos, como el Ardipithecus ramidus y el Australopithecus anamensis. Los científicos, como Guillén-Salazar de la Universidad Complutense de Madrid, han estimado que las líneas evolutivas de los seres humanos y de los chimpancés se separaron entre hace cinco y siete millones de años. A partir de esta separación, la estirpe humana siguió ramificándose, originando nuevas especies, todas extintas en la actualidad, a excepción del Homo sapiens (145). 14.1. Los preaustralopitecinos De acuerdo con Wikipedia, enciclopedia libre, los primeros homínidos bípedos posibles son el Sahelanthropus tchadiensis (con una antigüedad de seis o siete millones de años), el Orrorin tugenensis (de unos seis millones de años) y el Ardipithecus ramidus (entre 5,5 y 4,5 millones de años). Los fósiles de estos homínidos son escasos y de pequeños fragmentos, y no existe un acuerdo general sobre si eran bípedos. Teilhard de Chardin, en su libro «La visión del pasado» (143), considera que los fósiles aparecen cuando una especie se ha implantado por largo tiempo, por lo cual se requieren muchos individuos y algún grado de sedentarismo. Esto explicaría que ancestros que no hubieran podido asentarse por largos periodos, dejaran pocas huellas. No obstante, tras el descubrimiento del esqueleto casi completo, apodado «Ardí», se han podido resolver algunas dudas al respecto. Por ejemplo, la forma de la parte superior de la pelvis indica el carácter bípedo y el hecho de caminar con la espalda recta. Sin embargo, el primer dedo del pie, dirigido hacia adentro (de manera similar a las manos), en lugar de ser paralelo, indica su manera de caminar apoyándose en la parte externa de los pies, lo que no le facilita recorrer grandes distancias (ver representación de Homo habilis). 14.2. Los australopitecinos De los primeros homínidos bípedos, se encuentran esqueletos muy completos del género Australopithecus, como el de la famosa «Lucy», descubierta por Donald Johanson (1943) en Etiopía (146). La variedad afarensis es de un homínido extinto, que existió entre los 3,9 y tres millones de años en la región de la tribu Afar en el Africa. El individuo de contextura delgada y grácil, habitó sólamente en la región del Este, en especial en Etiopía, Tanzania y Kenia. La mayoría de los paleontólogos aceptan que es uno de los precursores del género Homo. Fue descubierto el 24 de noviembre de 1974 por Donald Johanson, Yves Coppens y Tim White en el yacimiento de Hadar, valle del río Awash, en Etiopía (ver Johanson, D.; White, T.D. y Coppens, Y. (1978): A New Species of the Genus Australopithecus (Primates: Hominidae) from the Pliocene of Eastern Africa. Kirtlandia, 28: 1-14). El río Awash era un lugar habitado por la tribu «Afar», de donde resulta el nombre de afarensis. El hallazgo fue apodado «Lucy» (ver esqueleto de Lucy). Es el Australopithecus mejor conservado, descubierto hasta ese momento. Por la disposición de su pelvis se comprobó que tenía la capacidad para caminar erguido, como los humanos, lo cual permite deducir que la posición bípeda fue anterior al desarrollo del cerebro. El estudio de su dentadura aclaró aspectos evolutivos de los homínidos y de su forma de alimentarse, y permitió el hallazgo simultáneo de otros géneros parecidos, como el del Paranthropus. Los restos de Lucy se encontraron con otros doce individuos de la misma especie —incluidos los cráneos— que conformaron lo que se ha llamado «la primera familia» (147 y 148). Su desaparición se atribuye a los cambios climáticos ocurridos hace unos 2,8 millones de años que llevaron a la aparición de zonas desérticas extensas sobre las sabanas en las que habitaba y que dieron lugar a la formación de un ecosistema estepario. Como resultado del desplazamiento entre ellos, algunos Australopithecus terminaron por alimentarse de vegetales de muy escaso valor nutritivo, y por ello desarrollaron un aparato masticador fuerte, lo que seguramente llevó a dar origen a otras variedades como el Paranthropus que existieron entre 2,6 a1,1 millones de años en el Africa Oriental y Meridional (ver: Broom, Robert (1942): «The hand of ape-man Paranthropus robustus». Nature, 149: 513). Los Australopithecus, según Leakey se hicieron carnívoros, lo que parece haber contribuido a la formación de los primeros Homo (149). De acuerdo con los trabajos de José Cervera y Juan Luis Arsuaga, entre otros tipos de Australopithecus se han clasificado los siguientes: el Australopithecus anamensis, que es un homínido primitivo, de molares anchos y esmalte dentario espeso, que ocuparon la zona de Kenia entre 4,2 y 3,9 millones de años. El Australopithecus afarensis, con capacidad para transmitir algunos sonidos (que quizás fueron unas primeras formas de lenguaje), y que tenían un tamaño similar a los actuales chimpancés; existieron entre 3,9 y 2,7 millones de años. El Australopithecus bahrelghazali es el único encontrado fuera de África oriental, y recibió su nombre del oasis de Bahr-el-Ghazal, en Chad. Vivió entre cuatro y tres millones de años. Está también el Australopithecus africanus, con un cráneo grande, y una capacidad cerebral de unos 450 cm³, que vivió entre 3 y 2,5 millones de años. Además, existió el Australopithecus garhi, con especiales características craneales y faciales, de una capacidad craneal de unos 450 cm³, del que existen indicios de haber usado la piedra como instrumento, y que vivió hace 2,5 millones de años. El Australopithecus sediba, con una mezcla de características entre el Homo y Australopithecus, paleontólogos y que consideran algunos como un antepasado directo de los humanos; vivió hace dos millones de años, siendo el Australipithecus más recientemente encontrado. Se discute si el Kenyanthropus platyops pertenece a este género o debe clasificarse como un género diferente (150). Hoy se piensa en la conveniencia de separar el Paranthropus de los Homínidos y la correcta asignación de Homo habilis y Homo rudolfensis como Homo, o como Australopithecus. Robert Broom (1866–1951) acuñó el término Paranthropus para denominar unos fósiles de homínidos encontrados en Sudáfrica, distribuidos desde el sur, como el Paranthropus robustus, o en la región centro oriental, como el Paranthropus boisei, hallado en Etiopía y cuyo primer cráneo fue hallado por Mary y Louis Leakey en 1959. Este homínido tiene una antigüedad calculada en 1,8 millones de años (ver cráneo de Australopithecus). 14.3. Los primeros Homo No se sabe con certeza qué especie originó los primeros miembros del género Homo. Se han propuesto al Australophitecus africanus, el Australopithecus afarensis, el Australopithecus garhi, y los Paranthropus, como el robustus o el bosei. Pero, no hay un acuerdo general. También se ha sugerido que el Kenyanthropus platyops pudo ser un antepasado. Se consideran pertenecientes al género Homo aquellos capaces de elaborar herramientas de piedra, pero este concepto ha sido puesto en duda en los últimos años, porque se considera que el Australopithecus ghari también tuvo esa capacidad pues hace 2,5 millones de años, empleó herramientas de piedra muy simples y por eso se incluyen como partícipes de la industria lítica conocida como «olduvayense». Las herramientas de piedra más antiguas proceden de la región de Afar (Etiopía) y su antigüedad se estima en unos 2,6 millones de años, pero no se han encontrado fósiles de homínidos asociados a ellas. De esta fase se han descrito dos especies: Homo rudolfensis y el Homo habilis, que habitaron África Oriental entre 2,5 y 1,8 millones de años atrás. El volumen craneal de estas especies oscila entre seiscientos cincuenta y ochocientos centímetros cúbicos (ver el texto: “La formación de la humanidad” de Richard Leakey. RBA Editores, S. A. Barcelona (1993). 14.4. Los poblamientos de Europa y Asia. Migraciones. Esta época en la etapa más confusa de la evolución humana. Ocurrió hace unos 1,8 millones de años con un sucesor de los Homo rudolfensis y el Homo habilis, el llamado Homo ergaster. Su volumen craneal tiene entre ochocientos cincuenta y ochocientos ochenta centímetros cúbicos. Es similar al Homo erectus, y ha sido llamado el Homo erectus africano. Hay fósiles del Homo ergaster y del Homo habilis en Dmanisi (Georgia), con esa antigüedad, lo que demuestra su temprana salida de África. Esa primera migración permitió diferenciar dos linajes descendientes del Homo ergaster: el Homo erectus, que migró al extremo Oriente (conocidos como Sinanthropus en China y Pithecanthropus en Java) y los Homo antecessor y Homo cepranensis en Europa (España e Italia). Por su parte, los miembros de Homo Ergaster que permanecieron en África desarrollaron un modo más elaborado de tallar la piedra y es lo que constituye la cultura Achelense (hace 1,6 o 1,7 millones de años). El Homo erectus pobló Asia Oriental hasta hace solo unos cincuenta mil años. Por su parte, en Europa se tiene constancia de la presencia humana desde hace casi un millón de años (como Homo antecessor). Sin embargo, se han hallado herramientas de piedra más antiguas, no asociadas a restos fósiles, en diversos lugares. La consideración de que el Homo antecessor sea un antepasado común del Homo neanderthalensis y del Homo sapiens, ha sido descartada por los mismos investigadores que descubrieron dichos restos como Eudald Carbonell y Juan Luis Arsuaga (151) y (152). De acuerdo con Gary Stix en el texto: «Huellas de un pasado lejano»: “los últimos representantes de esta fase de nuestra evolución son el Homo heidelbergensis, en Europa, que supuestamente está en la línea evolutiva de los neanderthales, y el Homo rhodesiensis, en África, que sería el antepasado del hombre moderno. Una visión conservadora de esta etapa de la evolución humana reduce todas las especies mencionadas a una, Homo erectus, considerada una especie politípica de amplia dispersión, con numerosas subespecies y poblaciones interfértiles, pero genéticamente interconectadas” (153). 14.5. Nuevos orígenes en África. Hombres de Neanderthal y Cromagnón. Al final de esta etapa se puede decir que existían al menos tres especies que compartían un ancestro común o tuvieron una evolución paralela, y vivieron durante el mismo periodo hace un millón de años (ver Matthias Krings, Anne Stone y otros, al estudiar las secuencias de ADN del hombre de Neanderthal (154). Estas son: el Homo neanderthalensis, el homínido de Denisova y el Homo sapiens. El Neanderthal (ver representación), aparece en Europa y en el Oriente Medio hace doscientos treinta mil años y se adaptó al clima frío para sobrevivir durante las últimas glaciaciones. Medía 1,65 metros, era de contextura pesada, dentadura prominente y musculatura robusta. Su configuración no le permitía recorrer grandes distancias, pero sí ser buenos caminantes. Tenían una fonética limitada por la ubicación de la laringe. Los hombres no sobrepasaban los cuarenta años y las mujeres los treinta. El estilo de herramientas líticas utilizadas por los neanderthales en el Paleolítico medio se conoce como la «cultura musteriense», así llamada por haber sido encontradas por primera vez en el yacimiento arqueológico Le Moustier en Francia (ver artículo de Valladas H. y colaboradores, en Nature, 332:6078). El «Hombre de Denisova», vivió hace cuarenta mil años en los montes Altai de Siberia y convivió con el Neanderthal y el Sapiens. Los fósiles más antiguos de Homo sapiens datan de unos doscientos mil años y se encuentran en Etiopía. Decía Eudald Carbonell en el libro «Homínidos: las primeras ocupaciones de los continentes» (155), al referirse al Homo sapiens: “Hace unos noventa mil años llegó al Medio Oriente donde se encontró con el Hombre de Neanderthal que huía al sur de la glaciación que cubría Europa. El Homo sapiens siguió su expansión y hace unos cuarenta y cinco mil años llegó a Europa Occidental (Francia); paralelamente, el Hombre de neanderthal se fue retirando, empujado por H. sapiens, a la periferia de su área de distribución (Península Ibérica, mesetas altas de Croacia), donde desapareció hace unos veintiocho mil años”. Los estudios genéticos del H. neanderthal permiten considerar que se trata de una especie diferente al Homo sapiens y no una subespecie de él, pues comparte muy poco de su estructura genética. Además, al parecer se separaron desde hace unos seiscientos sesenta mil años. El Hombre de Cromañón (ver representación) es el nombre con el cual se designan los fósiles de Homo sapiens, asociados a las cuevas francesas con pinturas rupestres, que se denominan de esta manera. Los primeros hallazgos fueron del geólogo y paleontólogo francés Louis Lartet (18401899). Datan de unos cuarenta mil a diez mil años en el comienzo del Paleolítico superior. Según Alberto Solano, en el texto «Educación y ciencia»: “El uso del concepto «hombre de cromañón», como alternativo a otras denominaciones, en la actualidad está abandonado por los prehistoriadores y paleontólogos. Sin embargo, puede encontrarse su uso en las publicaciones, normalmente como sinónimo de Homo sapiens en el Paleolítico, sin más precisiones”. Se encuentra en las poblaciones de Europa Occidental y convivió con el Homo neanderthal. Según el historiador español Ángel Paule Rubio (1932) la convivencia de estos homínidos “se ha demostrado por fósiles hallados en las cuevas de Châtelperron. Sus características, a partir de los huesos fósiles descubiertos hasta ahora (unos cuatrocientos individuos), son: esqueleto robusto, pelvis ancha, extremidades cortas y robustas, tórax en barril, arcos supraorbitarios resaltados, frente baja e inclinada, faz prominente, mandíbulas sin mentón y gran capacidad craneal (1.550 cm³). Vivían en grupos sociales organizados, formados por alrededor de unos treinta miembros, casi todos con parentesco (clanes). Dominaban el fuego y podían fabricar herramientas rústicas que incluían huesos y piedras”. 15. Homo sapiens. Es la forma como hoy se designa al Hombre de Cromagñón. De acuerdo con profesores e historiadores como Enríquez, De la Cruz, Mendez o Laverde, los parientes vivos más cercanos a nuestra especie son los grandes simios: el gorila, el chimpancé, el bonobo y el orangután. Los mapas del genoma humano actual, indican que el Homo sapiens comparte casi el 99 % de los genes con el chimpancé y con el bonobo (ver foto). El genoma de un individuo de nuestra especie tiene una diferencia de solo el 0,27 % respecto al genoma del Pan paniscus (chimpancé enano o bonobo), y de 0,65 % respecto al genoma de los gorilas. Los fósiles más antiguos conocidos del Homo sapiens tienen una antigüedad cercana a los doscientos mil años, y proceden del sur de Etiopía (ver formación Kibish del río Omo), y por ello esta región es considerada la cuna de la humanidad (véase Hombres de Kibish). A estos restos fósiles le siguen en antigüedad los del Homo sapiens idaltu, con unos ciento sesenta mil años. En los restos encontrados del Homo sapiens se encuentran aspectos de la cara y del cráneo similares a las del chimpancé. existe una diferencia crucial que tiene que ver con que el neonato humano no está desarrollado en el momento del parto, y su crecimiento se prolongas durante los cuatro primeros años de vida, lo que hace que el niño permanezca durante estos años bajo la protección de la madre, antes del desarrollo de las áreas visuales del cerebro. Según Timothy G Bromage: “Tal es el estado de premadurez del Homo sapiens, que mientras un chimpancé neonato tiene una capacidad cerebral de un 65 % de la de su estado adulto, o la capacidad de Australopithecus afarensis era en el momento del parto de un 50 % respecto a la de su edad adulta, en el Homo sapiens recién nacido, tal capacidad no supera el 25 % de la que tendrá a los 45 años.... Para que el cerebro humano se desarrolle, se requiere de estimulación y afecto” (165). El hombre apenas si puede tener una percepción visual de su propio ser (estadio del espejo, descrito por Jacques Lacan en 1933), entre los seis y ocho meses (164). Solo los chimpancés, los gorilas, orangutanes, elefantes y delfines parecen tener percepción de su imagen reflejada (Ver: Gordon Gallup, reconocimiento de los chimpancés, Science 167: 86-87, 1970). 15.1 La evolución del lenguaje Antes de hablar del surgimiento del lenguaje se dio en el grupo Homo el proceso de cerebración que es una etapa de desarrollo complejo del sistema nervioso central y muy específicamente del cerebro, en donde fueron surgiendo la conciencia de existir y de relacionarse con el entorno, la intuición, la memoria y seguramente otras funciones mentales, en estado incipiente. Quien primero habló del lenguaje fue Lord Monboddo (1714-1799) en su libro «The origin and progress of man and language», escrito en 1773. Los chimpancés, tiene un lenguaje muy simbólico que realiza por medio de una mímica simple, pero el lenguaje más complejo, se logra a partir de sonidos acústicos que se van articulando de manera progresiva y ello implica la presencia de cambios físicos, por ejemplo en la morfología de la cara y del aparato fonador, como se describe a continuación en «Evolución del lenguaje simbólico» (Wikipedia, enciclopedia libre): “En efecto, observemos la orofaringe y la laringe: en los mamíferos, a excepción del humano, la laringe se encuentra en la parte alta de la garganta, de modo que la epiglotis cierra la tráquea al beber e ingerir comida. En cambio, en el Homo sapiens la laringe se ubica más abajo, lo que permite a las cuerdas vocales la producción de sonidos más claramente diferenciados y variados. Pero, al no poder ocluir completamente la epiglotis, la respiración y la ingesta deben alternarse para que el sujeto no se ahogue. El acortamiento del prognatismo, que se compensa con una elevación de la bóveda palatina, facilita el lenguaje oral. Otro elemento de relevante importancia es la posición y estructura del hioides, su gracilidad y motilidad permiten un lenguaje oral lo suficientemente articulado”. Estudios hechos en la Sierra de Atapuerca (España) muestran que el Homo antecessor, hace ochocientos mil años, era capaz de emitir un lenguaje oral articulado como para ser considerado simbólico (ver Eudald Carbonell: «La colina mágica. Altapuerca, perdidos en la colina», 2004). Se considera sin embargo, que el Homo habilis, hace dos millones de años, para fabricar utensilios, debían tener también un lenguaje oral articulado, así fuera incipiente, lo que le permitía transmitir la información necesaria. “Además de las condiciones mencionadas, imprescindibles para la aparición de un lenguaje simbólico, se debe hacer mención de la aparición del gen FOXP2, que resulta básico para la posibilidad de tal lenguaje y del pensamiento simbólico” (156). El lingüista sueco Peter Gärdenfors (1949), en su libro «¿Cómo el Homo se convirtió en sapiens?» (157), considera que el lenguaje es el último estadio que lleva al surgimiento de la consciencia, por lo menos en sus etapas más avanzadas. Algo que para Teilhard de Chardin es la centración de la conciencia en un proceso colectivo (159). Primero ocurrieron las sensaciones, desencadenadas por los sentidos en su contacto con el medio, luego la atención, que da lugar a la memoria cuando es repetitiva y también a las emociones que el contacto con el exterior desencadenan, y más adelante sobrevienen los pensamientos, la capacidad de planificar, el surgimiento del «yo», el libre albedrío y, por último, el lenguaje. Estas facultades no son exclusivas del hombre; se reconoce que los mamíferos tienen algún grado de conciencia, emociones, y seguramente pensamientos. Los chimpancés alcanzan a llegar mas lejos y pueden articular algún lenguaje simbólico, pero los humanos son los que alcanzan un mayor grado de conciencia sobre su existencia y son capaces de desarrollar un verdadero lenguaje. Como lo anota Francisco J. Rubia en su conferencia ante la Real Academia Nacional de Medicina en el año 2010: “La consciencia, es el mayor enigma de la ciencia y la filosofía”, y al citar al filósofo australiano David Chalmers (1966), al psicólogo californiano Michael Gazzaniga y a otros como Gerald Edelman (1929), expresa: “Todos los animales tienen un cierto grado de consciencia, pero solo los mamíferos y las aves tienen corteza que les permite representaciones separadas de la realidad, por lo que pueden adivinar (intuición) y planificar. Los pensamientos son, a su vez, representaciones internas del mundo, lo que permite a los animales que los tienen, separarse del mundo inmediato, pudiendo crear más de un curso posible de acción”. Para Gärdenfors la presencia del «yo», es un fenómeno emergente, una propiedad que surge de una red de funciones cognoscitivas relacionadas entre sí (147). El lenguaje, por su parte, es un estadio final en el hombre y requiere una representación interna más sofisticada, que es lo que caracteriza el lenguaje simbólico. Esta situación en otros animales, no parece estar separada de la realidad del mundo exterior. 15.2. El origen y evolución de la conciencia La bióloga norteamericana Lynn Margulis (1938–2011) consideró que la conciencia es una propiedad tan antigua como la vida de los organismos unicelulares simples, hace miles de millones de años (esto lo comparte Teilhard de Chardín (159), incluso al indicar que existe de algún modo en la materia). El neurofisiólogo australiano John Eccles (1903–1997), pensaba que la conciencia había surgido en el neocórtex de los mamíferos, mientras otros científicos y pensadores creen que la conciencia surge por la necesidad de comunicación con otros individuos. Es decir, la conciencia es cercana a la aparición del lenguaje. Entre quienes piensan así, está el filósofo austriaco Karl Popper (1902–1994), quien decía que “la conciencia emerge con el lenguaje, tanto ontogenética como filogenéticamente”. La conciencia le da al hombre la capacidad de reflexionar sobre sus actos, lo que le facilita la supervivencia. Al entender nuestra propia mente, entendemos la de los demás, lo que establece una ventaja en la evolución. La mente humana se desarrolla en cuatro estadios, que coinciden con el crecimiento cognitivo y que se describen en el libro «El yo y su cerebro» (158). Según Rubia, catedrático de la Universidad Complutense de Madrid: “Los homínidos más antiguos estaban limitados a representaciones episódicas del conocimiento. La memoria episódica era útil para aprender asociaciones de estímulo-respuesta, pero no podía recuperar memorias si no existían señales del entorno; es decir, no podía pensar. Estos seres episódicos vivían sus vidas en el presente”. Para Teilhard de Chardin (159), la conciencia representa la más clara diferenciación del hombre con las demás especies, especialmente por su desarrollo, lo que incluso debería ser suficiente para catalogarlo en un orden distinto. Con esto, se puede llegar en un proceso colectivo, a una especie de superconciencia (concienciación colectiva) que le daría la capacidad de intervenir en el universo para transformarlo. Cuando el Homo sapiens adquiere el lenguaje es capaz de construir relatos contar historias e interpretar . Hace unos cincuenta mil años, los humanos comenzaron a hacer pinturas rupestres que reflejaban su relación con el medio exterior. Finalmente, nace la escritura, hace unos diez mil años, y con ello la capacidad de representación simbólicas. Hoy en día se considera que el cerebro posee unos diez mil millones de células corticales. De ellas, mil millones se relacionan con las funciones corporales, y el resto se utilizan en las demás funciones de la mente. Hay también nueve mil millones de conexiones con las otras neuronas del sistema. El cerebro de un Australopithecus, a diferencia del hombre, tendría tres mil quinientos millones de neuronas relacionadas con el cuerpo, el gorila dos mil millones, y el chimpancé dos mil cuatrocientas millones. El Homo habilis unas cuatro mil quinientas millones de neuronas y el Homo erectus siete mil. En relación con el volumen craneal, el Australopithecus tenía un cerebro de quinientos centímetros cúbicos, el gorila cuatrocientos cincuenta, el Homo habilis setecientos, el Homo erectus, entre novecientos cincuenta y mil cincuenta, y el Homo sapiens mil trescientos. Sin embargo, parece que el número de células no es el determinante en el proceso de celebración. El lingüista y neurólogo alemán Eric Lenneberg (1921–1975) dice que el cambio más importante durante la expansión cerebral fue la interconexión entre las células (ver: Biological Foundations of Language. New York: John Wiley & Sons, 1967). 15.3. El desarrollo del cerebro Miles de millones de células, cientos de miles de millones de circuitos, una concentración enorme de energía que se expresa de manera diferente en el movimiento, en los sentidos, en los procesos físicos, fisiológicos y bioquímicos y que en el cerebro, el órgano más especializado de la evolución, terminan produciendo una forma superespecializada de energía: el pensamiento. 15.4 La cerebración Tanto la cerebración como la corticalización son fenómenos biológicos anteriores a la aparición de los homínidos. Sin embargo, en estos, y en especial en el Homo sapiens, la cerebración y la corticalización adquieren un grado superior, hasta el punto de que Teilhard de Chardin (1881–1955) (159) y (160), en el marco de la corriente del transformismo (ver foto), enunció su teoría de la noósfera y la noogénesis. Se trata de una teoría del pensar inteligente, que se basa en la evolución del cerebro. Establece que el proceso de hominización le da al hombre una jerarquía diferente, que le permite, a partir de la conciencia, lograr un grado cada vez mayor de conciencia hasta un punto Omega como meta de la evolución. A partir de esa tendencia del universo, y guiado por una ley que el denomina «de la complejidadconciencia», De Chardin vislumbra ese punto como “una colectividad armonizada de conciencias, que equivale a una especie de superconciencia colectiva: la Tierra, cubriéndose no solo de granos de pensamiento, contándose por miríadas, sino envolviéndose de una sola envoltura pensante hasta formar precisamente un solo y amplio desarrollo del pensamiento, a escala sideral. Se trata de la pluralidad de las reflexiones individuales agrupándose y reforzándose en el acto de una sola reflexión unánime”. La evolución se estaría convirtiendo en un proceso cada vez más opcional. Esto refleja los problemas sociales del aislamiento y de la marginalización como inhibidores de la evolución, ya que esta requiere una unificación del sentido de existir. Ningún futuro evolutivo aguarda a la persona si no es en asociación con los demás. La humanidad, según De Chardin, tiene propiedades independientes extraordinarias, como la conciencia, producto de una singularidad especial, que nos hace pensar que debe existir un nuevo orden, el cual se constituye con el «acontecimiento humano»; de ahí el sentido antropocéntrico que él le da a la evolución (161). De acuerdo con los estudios de Beals Kenneth el cerebro del Homo sapiens es uno de los más grandes si se compara con la masa corporal y consume por lo menos un 20% de la energía del organismo, su volumen oscila entre 1.200 y 1.400 cm3, pero su desarrollo y sus funciones dependen más de su estructura que del volumen. “El Homo neanderthalensis pudo haber tenido un cerebro incluso de mayor tamaño que el de nuestra especie, pero la morfología de su cráneo demuestra que la estructura cerebral era diferente: escasa frente, poco desarrollo de los lóbulos frontales y, en especial, muy poco desarrollada la corteza prefrontal. El cráneo de Homo sapiens tiene una frente prominente y más alto el occipucio (cráneo más abovedado), lo que permite el desarrollo de los lóbulos frontales. De todos los mamíferos, el Homo sapiens es el único que tiene la faz ubicada bajo los lóbulos frontales” (162). Las variantes que ocurrieron en la posición del hueso esfenoides jugaron un papel importante en la evolución del cerebro. Se sabe también que el cerebro al evolucionar comenzó a especializar diversas áreas, la de Wernicke (asociación auditiva), la de Broca (lenguaje y comprensión) o la gustativa, olfatoria, visual, auditiva, somato-sensorial y la de la memoria. Fue Eric Lanneberg (1921-1975), neurólogo y lingüista quien primero desarrolló una teoría alrededor de la forma como se adquirió el lenguaje (163). Ya vimos con Víctor M. Longa, el significado del descubrimiento del gen FOXP2", en el lenguaje articulado y el desarrollo de las áreas del lenguaje y de la síntesis que se desarrolla en los lóbulos frontales (156). El crecimiento del número de células del cerebro permitió otras funciones como la lateralización que tiene que ver con las diferentes funciones de los hemisferios. En el izquierdo, por ejemplo, están las áreas simbólicas del lenguaje. Por otro lado, el desarrollo intelectual seguramente necesitó evolucionar durante milenios. Hoy en día se calcula que los primeros registros artísticos pudieron haber ocurrido hace unos setenta y cinco mil años y los grafismos hace unos cuarenta mil. Según Delgado y Ruiz en «Prácticas y teorías físicas del mundo antiguo», los primeros asentamientos humanos que se correspondían con el desarrollo de una cultura, se establecieron en la Mesopotamia, entre dos ríos, el Tigris y el Eúfrates, una región fértil que ofrecía condiciones para el desarrollo de la agricultura. Las primeras escrituras aparecen hace unos cinco mil años en el valle del Nilo en la antigua Mesopotamia.. La civilización Sumeria, 3250 a.C., incluyó la construcción de las primeras ciudades. Sumerios, asirios y babilonios conformaron tres culturas durante tres milenios que sobresalieron por su desarrollo. 15.5. La teoría de la mente de Roger Penrose Lo que ha vuelto famoso a Roger Penrose (1931), además de criticado, es su teoría sobre la mente. El punto de vista de Penrose es que debe haber algo de naturaleza no computable en las leyes físicas que describen la actividad mental. “Este argumento tiene como base el teorema de la incompletitud de Kurt Gödel, que habla de la imposibilidad de una demostración formal de una proposición matemática, aunque para el entendimiento humano esta sea de hecho verdadera” (166). También se apoya en las ideas del anestesiólogo Stuart Hameroff (1947). Tanto Penrose (167), como Hameroff (168), postularon que la mente y el cerebro son dos entidades separables (cuestión que no es razonable, pues la mente y el pensamiento son formas avanzadas del desarrollo del cerebro, cuyo tejido es el más especializado de la evolución). Hameroff, un médico anestesista, lo hace a través de sus estudios sobre los microtúbulos y el citoesqueleto celular, especialmente en las neuronas, mientras que Penrose lo hace desde el teorema de la incompletitud (ver representación). El modelo que defiende Penrose, junto con Hameroff, trata de explicar sucesos difíciles de entender a través de las neurociencias, y para ello se apoya en aspectos revisados de la teoría cuántica (por ejemplo, el concepto de coherencia), así como la existencia de un fenómeno físico, inédito hasta ahora, que parece darse en el interior de las neuronas cuando la función de onda cuántica se colapsa por sí misma en una reducción objetiva. Después de esta colaboración, Penrose publicó su segundo libro sobre la conciencia, Shadows of the Mind (169). Cada neurona, según él, tiene una gran cantidad de microtúbulos, lo que aumenta de manera creciente la capacidad del cerebro y el agua que contiene, llamada «agua vicinal», mantiene el estado de coherencia cuántica. “La acción de los anestésicos generales podría interferir en la actividad microtubular, hipótesis apoyada por el hecho de que estos anestésicos también actúan sobre seres simples, por ejemplo: amebas o paramecios”. Penrose sugirió que ninguna máquina de computación podrá ser inteligente como un ser humano, ya que los sistemas formales algorítmicos (o sea, los sistemas de instrucciones secuenciadas sobre los cuales están construidas las computadoras) nunca les otorgarán la capacidad de comprender y encontrar verdades, que los seres humanos poseen (169). 15.6. La evolución del cerebro humano fue un evento especial Los genes que controlan el tamaño y la complejidad del cerebro han experimentado una evolución mucho más rápida en seres humanos que en primates no humanos u otros mamíferos, según indica el estudio del genetista Bruce T. Lahn (1969) en «La evolución del cerebro humano fue un evento especial». “La evolución acelerada de estos genes en el linaje humano fue impulsada por una selección fuerte. En los antepasados de los seres humanos, el tener cerebros más grandes y más complejos parece haber tenido una ventaja mayor que en otros mamíferos”. Estos rasgos permitieron que individuos con «mejores cerebros» dejaran más descendientes. Como resultado, las mutaciones genéticas que produjeron cerebros más grandes y complejos se diseminaron rápidamente. Esto condujo, en última instancia, a una aceleración dramática de la evolución en los genes que controlan el tamaño y la complejidad del cerebro. Lahn considera que su estudio resuelve este interrogante (170). Lahn y sus colegas publicaron su investigación en 2004. Realizaron su estudio en doscientos catorce genes involucrados en el desarrollo y la función del cerebro. Miraron los cambios de las secuencias del ADN en la evolución de: los seres humanos, los monos macacos, las ratas y los ratones. “Los seres humanos y los macacos compartieron un antepasado común hace veinte o veinticinco millones de años, mientras que las ratas y los ratones están separados por dieciséis y veintitrés millones de años de evolución. Las cuatro especies compartieron un antepasado común hace cerca de ochenta millones de años. Los seres humanos tienen cerebros extraordinariamente grandes y complejos, incluso cuando se los compara con los de macacos y de otros primates no humanos”. El cerebro humano es varias veces más grande que el del macaco —incluso teniendo en cuenta el tamaño del cuerpo— y “es mucho más complicado en términos de estructura”. Este índice acelerado de evolución se relaciona con fuerzas selectivas en el linaje humano que favorecieron los cerebros más grandes y complejos. “El linaje humano parece haber sido sometido a regímenes selectivos diferentes al compararse con otros linajes” (171). 16. La mente y el pensamiento El pensamiento es la creación más importante de la mente. Es, por tanto, una actividad del intelecto. Los pensamiento son de tipo racional, abstracto, creativo, artístico, o producto de la imaginación. Además, tiene características que lo diferencian de otros procesos y no necesita de la presencia de los objetos sensibles para que estos existan, pero su función más importante, por lo menos en la evolución, ha sido la de resolver problemas por medio de la capacidad de razonar. Todos los procesos mentales (pensamientos, ideas, razonamientos, imaginación, recuerdos, memoria, ilusiones, sensaciones o emociones), son procesos cerebrales, es decir, son el producto de las funciones mentales, que se han ido desarrollando en el transcurso de la evolución en ese tejido especializado que llamamos cerebro, de manera especial en una de las líneas de los homínidos denominado Homo sapiens. Sin embargo, aún estamos lejos de saber cuáles son los mecanismos cerebrales intrínsecos que generan cada una de estas actividades mentales y todavía se especula sobre ellos, lo que hace que el hombre, haciendo eco a su estado de atraso comparativo, separe algunas funciones, que acepta como materiales, de otras que considera espirituales, ajenas a su propio ser material. Así lo pensaban los creadores del epifenomenalismo como Bonnet y Huxley, y así lo reconoce actualmente Norberto Keppe en su libro: «A nova física da metafísica desinvertida» (50), del que hicimos referencia con anticipación. El concepto de mente ha ido cambiando a lo largo del tiempo. El médico francés La Mettrie (1709–1751) concibió la mente como algo material y determinó que las neuronas, una vez interconectadas, hacían funcionar la materia cerebral. De acuerdo con Howard Gardner (172), en «Estructura de la mente» (1993) y otros autores como José Luis Pinillos en su libro «La mente humana» (2001), el proceso mental es lo que conocemos como entendimiento, que es la capacidad de producir pensamientos, ser creativos, aprender, hacer uso del raciocinio, percibir, emocionarse, almacenar datos, tener imaginación y desarrollar la voluntad, además de otras habilidades cognitivas heredadas de los animales como la intuición. Hay quienes, en la actualidad, hacen un paralelo entre el cerebro y el funcionamiento de equipos que han venido adquiriendo un enorme desarrollo como los computadores. Pero a partir de la segunda mitad del siglo XX el término conciencia se hace indispensable, para comprender mejor cómo y por qué actuamos (ver monografía sobre la emoción de Daniel Becerra Uzcátegui). Aunque todavía existe confusión sobre el significado de la conciencia, existen estudios que revelan los diferentes estados de conciencia e inconciencia, e indican el estado de actividad cerebral en cada uno de ellos. Cuando el sujeto está despierto, el cerebro emite unas ondas determinadas, y cuando entra en un sueño profundo, por efecto de la relajación, las ondas se hacen grandes y lentas (ver «Electroencefalografía» de Rafael Barea Navarro de la Universidad de Alcalá). 16.1. Tipos de pensamiento El pensamiento se considera deductivo cuando parte de lo general para llegar a lo particular y de su elaboración podemos sacar conclusiones. Es inductivo cuando a diferencia del anterior, parte de lo particular para llegar a lo general. De ese modo es constructivo. Su base son las evidencias que predicen los acontecimientos. El Analítico es el que permite, con base en el análisis de situaciones concretas tener una comprensión de lo que ocurre y buscar más fácil la solución de los problemas. El Creativo estimula nuevos conocimientos y desarrolla la innovación (Ver «Inteligencia creativa» de Corbalan (2003). El Crítico analiza aspectos no contemplados o cuestionados e incorpora la duda como un elemento de comprensión (Ver a Linda Eder y Richard Paul en guía para el pensamiento crítico, 2003). El Complejo tiene en cuenta los diferentes componentes, de un modo sistémico (Ver Edgar Morin «Inteligencia de la complejidad» (1999). También han sido catalogados como instintivo, sistémico, o abstracto (ver escultura del artista Auguste Rodin). Robert Mills Gagné (1916–2002), psicólogo y pedagogo, define la solución de problemas, al utilizar los pensamientos, como “una conducta ejercida en situaciones en las que un sujeto debe conseguir una meta, haciendo uso de un principio o regla conceptual” (173). La solución de problemas exije procesos de razonamiento complejo y no simples actividades asociativas. “Se considera que cualquier persona pasa por tres fases a la hora de solucionar un problema: preparación, producción y enjuiciamiento. En la fase de preparación se hace un análisis e interpretación de los datos. Si el problema es complejo, se subdivide en problemas elementales para facilitar la tarea. En la fase de producción interviene la memoria, que se emplea para recuperar los recursos que estén a nuestro alcance y nos sirvan para llegar a una solución eventual. En la última fase o del enjuiciamiento, lo que se hace es evaluar la solución, contrastándola con la experiencia, para considerarla como buena o no. Comprender el lenguaje de la mente es una labor difícil. Es necesario, por un lado, conocer la fisiología neuronal, los cambios bioquímicos y fisiológicos, y conocer los aspectos psicológicos, entre los que se encuentran los pensamientos, los sentimientos y las experiencias” (173). 16.2. El pensamiento en la tipología psicológica El psicólogo Carl Jung (1875–1961), en su libro «Tipos psicológicos», propuso la existencia de cuatro funciones en la conciencia, entre las cuales se encuentra el pensamiento (ver foto de Carl Jung). Las tres funciones restantes son la sensación, la intuición y el sentimiento. Estas cuatro funciones se modifican por dos actitudes: introversión y extraversión. A partir de esta teoría se desarrolló el indicador «Myers–Briggs» que cuenta con dieciséis combinaciones (ocho tipos más que en la tipología junguiana clásica) de las cuales, cuatro son del tipo pensamiento: INTP, Introvertido, Perceptivo. Intuitivo, Pensamiento, ISTP, Introvertido, Sensitivo, Pensamiento, Perceptivo. ENTJ, Extravertido, Intuitivo, Pensamiento, Calificador. ESTJ, Extravertido, Sensitivo, Pensamiento, Calificador. Los dos primeros, pertenecen al pensamiento introvertido con orientación intuitiva y sensitiva respectivamente. Los dos últimos, al pensamiento extravertido con orientación intuitiva y sensitiva (174). 17. La conciencia y el ser consciente En español conciencia, sinónimo de consciencia, es el conocimiento que el ser humano tiene de sí mismo y de tener la facultad de hacer posible esta capacidad. Ser consciente (diccionario de María Moliner), “es tener conciencia de sus actos, estar en posesión de todos sus sentidos, saber lo que se hace y conocer el significado de lo que se hace” (175). «La conciencia (del latín conscientia, “conocimiento compartido”, “ser conscientes de ellos” es diferente de “consciencia”) se define, en general, como el conocimiento que un ser tiene de sí mismo y de su entorno, o se refiere a la moral, o bien a la recepción normal de los estímulos del interior y el exterior. Conscientĭa significa, literalmente, “con conocimiento” (del latín cum scientĭa). En la especie Homo sapiens, la conciencia implica varios procesos cognitivos interrelacionados. Se traduce del griego synéidēsis, de syn —“con”— y éidēsis — “conocimiento”—, de modo que significa conocimiento, o conocimiento con uno mismo». Tal como se refiere en Wikipedia, enciclopedia libre, la conciencia se refiere al saber de sí mismo, al conocimiento que el espíritu humano tiene de su propia existencia, estados o actos. Conciencia se aplica también a lo ético, a los juicios sobre el bien y el mal de nuestras acciones. Lo cognitivo es lo que pertenece al conocimiento y este se refiere a la información que se tiene adquirida por el aprendizaje y se almacena en el cerebro. La conciencia necesita de los sentidos para conectarnos con el medio externo y puede ser sensitiva y abstracta. Se ha comprobado que algunas especies animales tienen una conciencia rudimentaria de sí mismos. Ver los textos de Edmundo Husserl (1859-1938) sobre fenomenología (176) y Merleau Ponty (1908-1961) sobre la percepción (177). Existen dudas sobre la naturaleza de la conciencia, su surgimiento, si la poseen o no los animales, por lo menos en cierto grado, y no se sabe aún si la conciencia, como fenómeno cognitivo, es el resultado de la complejidad de las funciones mentales o de otros factores desconocidos. Según Jean Piaget (1896–1980), el desarrollo humano parte de los reflejos que él denomina arcaicos y que se trasmiten genéticamente, y el niño nace con algunos esquemas básicos que le permiten relacionarse con el medio. Estos serían los primeros esfuerzos por comprender la realidad y actuar en consecuencia. Sin embargo, y sería uno de los grandes descubrimientos de Piaget, autor de la «Teoría del desarrollo del niño», el pensar se despliega desde una base genética, mediante estímulos socioculturales, y se configura por la información que el sujeto recibe a lo largo de la vida. Esta información la aprende de un modo activo, por más inconsciente y pasivo que parezca el procesamiento de la información (178). Es entonces la relación entre lo genético, el desarrollo del cerebro y la experiencia sensorial. Estas teorías han sido rebasadas actualmente en la era de la informática. El filósofo australiano David J. Chalmers (1966) distingue entre los problemas simples y los complejos de la conciencia. “Los problemas simples tratan la conciencia como una facultad mental más y analizan temas como la discriminación entre estímulos sensoriales, la integración de la información para guiar el comportamiento o la verbalización de estados internos; cómo se integran los datos sensoriales con la experiencia del pasado, cómo focalizamos la atención o lo que distingue el estado de vigilia del sueño. Pero, el problema complejo de la conciencia es saber cómo los procesos físicos cerebrales dan lugar a la conciencia, cómo las descargas de millones de neuronas pueden producir la experiencia consciente, la experiencia subjetiva” (179). Si ser consciente implica la existencia del «yo» y este «yo», como lo dice la investigación en el campo, es una ficción, ¿qué consecuencias tendría este hecho para la conciencia? (180). El psicólogo californiano Michael Gazzaniga (1939) considera el hemisferio izquierdo como dominante para las funciones cognoscitivas, y el derecho como deficiente para resolver problemas complejos. Sus resultados de investigación le hacen concluir que el hemisferio derecho tiene una experiencia consciente diferente a la del izquierdo (181). Aunque ambos hemisferios son conscientes, la conciencia del izquierdo supera la del derecho. Sin embargo no se identifica el grupo neuronal que maneje la conciencia y en estos aspectos existe un vacío entre las funciones cerebrales y la experiencia subjetiva según el filósofo de Harvard, Joseph Levine (1905–1987). La cuestión radica en cómo superar el abismo entre lo objetivo y lo subjetivo. Es un planteamiento similar a la discusión entre cuerpo/alma o mente/cerebro, que han planteado los filósofos desde hace dos mil años (Y que continúa, precisamente porque aún estamos atrasados en investigaciones de este tipo). Otra cuestión que se plantea es la siguiente: si un sistema, como el cerebro, puede resolver problemas y procesar información de manera inconsciente, ¿para qué sirve la conciencia? Algunos filósofos afirman que cuando comprendamos el funcionamiento del cerebro, el concepto de conciencia se disipará del mismo modo que otras teorías que han pasado a ser obsoletas (182) (Esto sin olvidar que la conciencia es un concepto sobre una de las funciones del cerebro, y el ser consciente un concepto subjetivo). 17.1. Definición de conciencia Como lo expresara el profesor de la Universidad Complutense de Madrid, Francisco Rubia (1938), en su conferencia en el 2010, frente a la Academia Nacional de Medicina: «La consciencia el mayor enigma de la ciencia y la filosofía», recogiendo los conceptos de los mayores estudiosos de estos temas como William James, Roger Penrose, David Chalmers,: Michael Gazzaniga, Gerard Edelman y Peter Gärdenfors, entre otros: “La conciencia es un concepto que entendemos intuitivamente, pero que es difícil o imposible de describir adecuadamente en palabras. Se puede decir que conciencia es el estado subjetivo de apercibir algo, sea dentro o fuera de nosotros mismos. No existe ninguna definición consensuada de la conciencia. Pero conciencia significa experiencia subjetiva, o sea, lo opuesto a la objetividad. En algunos escritos la conciencia es considerada sinónimo de la mente. Pero la mente incluye procesos mentales inconscientes, y puede definirse como el funcionamiento del cerebro para procesar información y controlar la acción, de manera flexible y adaptativa. La conciencia tiene contenidos, pero aunque pueda tener una enorme variedad de ellos no puede tener muchos al mismo tiempo. La conciencia no es un fenómeno pasivo como respuesta a estímulos, sino un proceso activo de interpretación y construcción de datos externos, y de la memoria relacionándolos entre sí. Se ha equiparado la conciencia a la vigilia, pero estar despierto no es lo mismo que ser consciente de algo en el sentido de apercibirse de algo. En el sueño podemos apercibir imágenes mentales visuales o auditivas”. La experiencia consciente se aplica a todos los actos voluntarios que intervienen en las decisiones que asumimos. Para el profesor de psicología de la Universidad de Princeton, Philip Johnson–Laird (183), “el cerebro es un sistema organizado jerárquicamente que procesa información en paralelo y cuyo nivel más alto, que controla la conducta, corresponde a la conciencia, aunque interacciona con varios subsistemas inconscientes. Se ha considerado a la conciencia íntimamente relacionada con la memoria operativa, la atención y el procesamiento controlado. La memoria operativa es importante para la solución de problemas, la toma de decisiones y la iniciación de la acción. La relación con la atención es clara: prestar atención a algo es ser consciente de ese algo. El ejemplo más clásico de atención selectiva es la capacidad que tenemos de seleccionar información interesante en medio de un gran ruido de fondo. También se ha considerado la conciencia como sinónimo de autoconciencia. Pero como se puede ser consciente de muchas cosas que no son la propia persona, hoy se estima que la autoconciencia es una forma especial de la conciencia”. Rubia opina que en otras culturas se utilizan dos palabras distintas, que en español se traducen por conciencia. «Awareness», que se traduce por «apercepción», o sea, ser consciente, y «consciousness», que se traduce por «conciencia». Esta diferenciación —según él— es importante, ya que en el inglés se conjugan las dos palabras como «unconscious awareness», que se traduciría por «apercepción inconsciente», lo que establece una ambigüedad. “Algunos autores definen la apercepción como un estado en el que tenemos acceso a cierta información que puede usarse para controlar la conducta. “La conciencia está siempre acompañada de apercepción, pero la apercepción no tiene por qué estar acompañada por conciencia. Se pueden distinguir dos tipos de conciencia. La conciencia primaria, que es la experiencia directa de percepciones, sensaciones, pensamientos y contenidos de la memoria, así como imágenes, ensueños y sueños diurnos. La conciencia reflexiva es la experiencia consciente per se. Este tipo de conciencia es necesaria para la autoconciencia, que implica darse cuenta de ser un individuo único, separado de los demás, con una historia y un futuro personales. La conciencia reflexiva incluye el proceso de integración, o sea, de observar la propia mente y sus funciones; en otras palabras: conocer que se conoce. En realidad, la experiencia consciente en el humano adulto normal implica tanto la conciencia primaria, como la conciencia reflexiva”. Recientemente, en su libro «El cerebro espiritual», expresa que la espiritualidad aparece en estados alterados de la conciencia, por ejemplo con el uso de alucinógenos y separa lo que llama conciencia egoica que es responsable de la realidad cotidiana, de la límbica que es la segunda realidad (Ver: Rubia F. El cerebro espiritual. Editorial Fragmenta, Madrid 2015). 17.2. Características de la conciencia William James (1842-1910), padre de la psicología norteamericana (ver foto), en sus «Principios de Psicología», describe cinco características de alto nivel de la conciencia, que aún siguen vigentes. Son las siguientes: a. Subjetividad: Todos los pensamientos son subjetivos, pertenecen a un individuo y son solo conocidos por ese individuo. b. Cambio: Dentro de la conciencia de cada persona, el pensamiento está siempre cambiando. c. Intencionalidad: La conciencia es siempre de algo, apunta siempre a algo. d. Continuidad: James utilizó siempre la expresión «curso de la conciencia» para dar a entender que la conciencia parece ser siempre algo continuo. e. Selectividad: Aquí James se refirió a la presencia de la atención selectiva, o sea que en cada momento somos conscientes de solo una parte de todos los estímulos. Para Rubia, la teoría clásica ha sido postulada por el psicólogo norteamericano, William James, en el siglo XIX (184). “Para James, la conciencia es una secuencia de estados mentales conscientes, siendo cada uno experiencia de de estos algún estados la contenido concreto. James pensaba también que la conciencia tiene que haber tenido un propósito evolutivo, por lo que trataba la conciencia como una función, y no como una entidad”. Ver William James, «Un universo pluralista» (185). En el siglo XVIII, el biólogo suizo Charles Bonnet (1720–1793) introdujo el término epifenomenalismo, que adoptó Thomas Huxley (1825- 1895) que separa mente y cuerpo y que establece que la mente, que es inmaterial, no posee influencia sobre el cuerpo. Postula de ese modo que la conciencia que considera una propiedad de la mente es espiritual, teoría que asumen Karl Popper (1902-1904) y John Eccles (19031997). Esta teoría, sin embargo, no alcanza a explicar la experiencia subjetiva, ni la relación entre cuerpo y espíritu (186). (No aceptan, pues, que todo es producto del desarrollo del cerebro y sus intrincadas conexiones, aún no desentrañadas de manera suficiente. Mejor andaba William James cien años antes que Popper y Eccles, quienes parecen no aceptar que es una forma de energía producida por intermedio de las células del cerebro). 17.3. La superveniencia y la conciencia El biólogo Gerald M. Edelman, en el «Universo de la conciencia», propone que la conciencia sea el producto de la interacción de un grupo de neuronas con la corteza cerebral, en especial las del tálamo (187). Nicholas Humprey considera que existen lo que él llama «bucles de realimentación reverberantes sensoriales». La idea, en ambos, es que el cerebro se reconoce a sí mismo, y esto es lo que determina es estado de conciencia. Entre estas disyuntivas surge la idea del monismo que considera que la mente y el cuerpo son una misma sustancia, al estilo de Spinoza (1632-1677) para quien existía una misma sustancia con dos propiedades. De una manera similar, para el filósofo británico Bertrand Russell (1872–1970), lo mental y lo físico son diferentes formas de conocer la misma cosa, la primera se conoce por la conciencia, y la segunda por los sentidos. La conciencia es, básicamente, otro sentido, uno que, en lugar de percibir colores, olores o sonidos, percibe la verdadera naturaleza del cerebro, que es lo que de cierta manera también revela Gerard Edelman en su estudio (188). Según Amadeo Muntané Sánchez, de la Universidad de Navarra, en su trabajo sobre la consciencia: “la conciencia es el estado de conocimiento de uno mismo y del entorno por la cual el individuo realiza sus funciones perceptivas, intelectuales, afectivas y motoras. Desde el punto de vista neurológico, la consciencia se manifiesta en su actuación mediante la actividad cerebral, y se considera como un complejo de unidades de información que tienen su base material en el cerebro. En el sistema nervioso central existen neuronas implicadas y mecanismos neurobiológicos que se relacionan con la conciencia. Es conocido el llamado sistema activador reticular que controla la actividad del sistema nervioso central, en el que está incluido la vigilia y el sueño”. Es pues, una definición clara de que la conciencia es una función más del cerebro. “En este sistema se incluyen estructuras como el tronco cerebral, en donde se localiza la formación reticular, que es un conjunto de núcleos nerviosos formados por neuronas. Estos núcleos tienen formas y dimensiones diversas. Además, en el sistema se incluyen el tálamo y la corteza cerebral. El tálamo es una estructura cerebral que recibe e integra la información que posteriormente llega a la corteza cerebral mediante los circuitos tálamo-corticales (ver esquema). La conciencia representa la actividad de toda la corteza cerebral, es decir, no debe comprenderse centrándose en una región cerebral, sin considerar la relación de esta región con las demás. Por lo tanto, la conciencia se relaciona neurofisiológicamente con las áreas cerebrales corticales de asociación”. Ver también los trabajos de María Luisa Moro Esteban sobre el cerebro: lo neurológico y lo trascendental (189). La conciencia posee entonces un carácter subjetivo. Esto se comprueba por la capacidad de respuesta. Uno percibe por los sentidos, se impresiona con ellos, y responde de una u otra manera, dependiendo de su capacidad de ser consciente o no de un hecho específico. Es decir, el yo se manifiesta en el estado de ser consciente. Para John Rogers Searle (1932), en «Misterio de la conciencia», se debe hablar de una especie de naturalismo biológico, o sea que la respuesta neuro-biológica del cerebro se expresa como conciencia (190). En otras palabras, el hombre es consciente de algo de manera subjetiva y solo con los hechos expresa objetivamente su ser consciente. 17.4. La génesis de la conciencia Como lo veíamos por los estudios de la Universidad de Navarra, específicamente de Amadeo Mountané, “la activación, a nivel del sistema reticular en el tronco del encéfalo, genera impulsos nerviosos que se transmiten a la corteza cerebral a través del tálamo. Esto nos permite la experiencia consciente. Esta activación puede estar motivada por estímulos sensitivos y sensoriales que originan impulsos en la propia corteza cerebral, así como estímulos que pueden originarse en el cíngulo, el hipocampo, el hipotálamo y los ganglios basales” (ver gráfico). hoy en día se sabe que en las sinapsis existen movimientos iónicos y flujo de neurotrasmisores, pero no existe claridad sobre el modo como se desencadena en la célula cerebral la conciencia como tal y el ser consciente. Comentan Silva y Zagmutt que “llegar a formular una teoría explicativa de la conciencia equivaldría a develar el mayor misterio de las ciencias humanas y biológicas. Lamentablemente, aún no estamos en condiciones de llegar a tal formulación teórica” (191). David Chalmers en «The conscious mind» coincide con Eccles en afirmar que la conciencia depende de las actividades neuronales. Chalmers comenta: “contra el reduccionismo defenderé que las herramientas de la neurología no pueden proporcionar una explicación completa de la experiencia consciente, aunque tengan mucho que ofrecer....Sin embargo, explicar la conciencia subjetiva constituye el «problema duro», pues aunque lleguemos a localizar y describir los grupos de neuronas que reciben o componen las sensaciones, siempre nos seguirá resultando difícil explicar por qué y cómo esa activación llega a producir la experiencia subjetiva que tenemos de los colores, sonidos, gustos, así como de nuestro mundo interior, sentimientos” (180). Chalmers considera que el desarrollo de la ciencia permitirá descubrir los mecanismos íntimos de estas funciones. Será cuestión de tiempo. Si se realiza la separación quirúrgica de los hemisferios del cerebro, no se afectan muchas de las funciones cerebrales como el aprendizaje o la memoria. El hemisferio derecho se relaciona con funciones como la intuición y algunos eventos emocionales como la imaginación o la creación intelectual. El hemisferio izquierdo tiene que ver con la expresión verbal, el lenguaje, lo simbólico y el análisis matemático (192). La integración de ambos hemisferios se hace a través de las conexiones neurológicas, que le dan al cerebro una función integradora (193). El neurofisiólogo colombiano Rodolfo Llinás (1934), afirma que el tálamo, que está conectado a diferentes regiones de la corteza cerebral, sostiene un «diálogo» continuo entre sus neuronas y las de la corteza cerebral. Del mismo modo lo afirma Amadeo Mustané de la Universidad de Navarra, considerando que en ese diálogo: “se produce una oscilación que se expande y se transmite mediante un «barrido» desde la corteza frontal, hasta la corteza occipital, cada 12,5 milésimas de segundo. Esta dinámica está basada en los potenciales de acción, y en el paso del estado polarizado al despolarizado de millones de neuronas que se ponen en acción en este tiempo”. Esto significa que las experiencias de la realidad se integran en un brevísimo lapso en la corteza frontal, parietal, occipital y temporal. Llinás (ver foto) postula que este barrido es el que nos permite unificar todas estas experiencias polisensoriales, y el que nos da la sensación de continuidad y de unidad del mundo externo. Hoy en día se trabaja sobre medidas hechas con el llamado «magneto-encefalógrafo», que pueden registrar los campos magnéticos de las células nerviosas, los cuales son muy débiles. Estos equipos tienen la ventaja de hacer registros de mayor profundidad que los que se logran con el electroencefalograma, pues registra fluctuaciones de voltaje, debidas a las corrientes eléctricas, que fluyen a través de las membranas de las neuronas. Este aparato muestra que el intervalo en el cual se pueden percibir dos eventos, llamado cuanto psicofísico, dura 12,5 milésimas de segundo (194). La conciencia es uno de los temas más complejos y apasionantes en el estudio de la fisiología cerebral. Aún con las teorías expuestas, no se logran explicar los mecanismos neuronales precisos, o los efectos físico-químicos que tienen lugar en el proceso de «ser consciente». Habrá mucho por avanzar en la investigación de éste y muchos otros fenómenos de la mente. Es un hecho comprobable que existe un sustrato anatómico y neuro-biológico para su desarrollo, lo cual se corresponde con el hecho de que lesiones encefálicas, como traumatismos craneoencefálicos, hemorragias, infartos cerebrales, tumores o sustancias tóxicas, pueden dar lugar a trastornos de la conciencia por afectación de las estructuras neuronales o de las funciones neuroquímicas de transmisión. Sin embargo, aunque es necesaria la concurrencia del tejido nervioso en la elaboración de la conciencia, hay autores que desconocen esa relación. Esto llevaría nuevamente a creer, como ocurre con muchos de los tratadistas que hemos mencionado, a que se pueden separar las funciones mentales de una base orgánica, lo que sería desconocer que la conciencia es una forma de expresión de la energía que requiere de la materia evolucionada en el cerebro, a través de sus células especializadas y de sus intrincadas conexiones, y que necesita, para expresarse, precisamente de esa base material, cuestión en la que he querido enfatizar. 18. Conclusiones finales Quisiera postular, de manera secuencial, una serie de fenómenos que pueden consolidar una posición conceptual y filosófica, por supuesto compartida con otros, sobre el origen del universo, el surgimiento de la vida, la evolución de la materia sobre la tierra, y el sentido final de la existencia, que no son explicables únicamente a partir del desarrollo científico y que requieren de una interpretación filosófica. Antes del universo que conocemos, y como elemento esencial de todo desarrollo ulterior, y al saber además que no tenemos evidencias para demostrar algo diferente, existía la energía esencial, también llamada escalar, o en los tiempos modernos energía oscura, por no poseer masa (y en el pensamiento de Teilhard de Chardín «energía extracósmica»). De ella, al crear por su movimiento intrínseco (vibracional según el concepto de Keppe) campos electromagnéticos (50), surgen las partículas elementales, primero sin materia conocida o capaz de ser detectada, como el bosón (incluido del bosón de Higgs, recientemente descubierto), el fotón, el gluón, y luego el resto de las partículas hoy descubiertas como los: protones, neutrones, electrones, quarks, neutrinos, y muones, y podrían existir muchas otras como las recientemente postuladas, los WIMP y el axión. Luego de que ellas aparecieran y se formaran los primeros elementos químicos, en especial el hidrógeno, sobrevino la formación de inmensas nubes de esta materia gaseosa inicial (con base en el hidrógeno y el helio). Después, y dado este fenómeno, se han postulado teorías como la del Big Bang, que explicarían el surgimiento del universo con todos los cuerpos estelares que los astrónomos han inferido por sus hallazgos con el uso de los telescopios, y que los astrofísicos han interpretado por sus deducciones científicas, principalmente matemáticas, en donde continúan, de manera ininterrumpida (como si la creación continuara), fenómenos como las explosiones sucesivas (supernovas, por ejemplo), que dan originen a nuevas estrellas y formaciones de galaxias, y que crean nuevos elementos químicos, por procesos de fisión nuclear natural. El surgimiento de enormes nubes de gas que giran a grandes velocidades, desarrollan inmensas temperaturas, y por su masa, dan originen a una creciente fuerza de atracción (la gravedad). Así mismo, la aparición de elementos como el hidrógeno, el oxígeno, el carbono y el nitrógeno y los procesos de núcleo síntesis inicial, que se desarrollan por condiciones especiales de humedad, bombardeo de partículas y altas temperaturas, permiten establecer la formación de los primeros aminoácidos simples, que se unen para formar cadenas como las del ARN y ADN. Estas cadenas, a su vez, adquieren la capacidad de reproducirse, e inician la formación de las células vivas primigenias, procariotas y luego eurocariotas (nanobios, microzimas) y, posteriormente, las cianobacterias. Se crean entonces, en un comienzo, una serie de organismos unicelulares, no necesariamente en un solo lugar, que después forman organismos pluricelulares, los que se expanden de manera exponencial en el periodo cámbrico, por las condiciones existentes, especialmente las otorgadas por el desarrollo de fenómenos como la fotosíntesis, la formación de una atmósfera de gases en el planeta (a base de CO2, nitrógeno, oxígeno y ozono) y la fijación del nitrógeno, estableciendo las condiciones necesarias para el origen de una gran variedad de especies, que evolucionan en diferentes líneas, una de ellas la del hombre actual, poseedor del órgano más especializado que existe en la naturaleza, el cerebro, con la capacidad de formar lo que llamamos «la conciencia», que le permite hacernos a los hombres conscientes de sí y de nuestra existencia, y crear por medio de diferentes funciones de la mente, como la memoria, una nueva forma de energía: el pensamiento, capaz de desarrollar una etapa superior en la evolución, característica que le permitirá incidir en la naturaleza y actuar en el universo mismo, y que establece, como concepto filosófico, el verdadero sentido de existir. La conciencia, esa propiedad intrínseca del «Homo sapiens», hasta ahora poco explicada por la ciencia, debe ser considerada otra función del cerebro, adquirida y desarrollada después de que este adquiere un importante grado de especialización en su mayor complejidad y en su relación con el medio externo. Ella nos permite capturar la información a través de los sentidos, almacenarla en lo que llamamos la memoria y procesarla. En primer lugar, ser conscientes de existir, y luego adquirir la capacidad de utilizarla para interpretar, imaginar, razonar, ser creativos e intervenir sobre la naturaleza. Ser consciente es un fenómeno subjetivo y, por tanto, individual, y los demás apenas reconocerán nuestra capacidad de ser conscientes de algo, con base en nuestros hechos. Pero el ser consciente individual debe evolucionar hacia la conciencia colectiva de la que nos hablara Teilhard de Chardin. Esto debería permitir la participación, cada vez mayor, del hombre, en lo colectivo, para alcanzar, a partir de la investigación, formas más avanzadas de intervención sobre la tierra e incluso sobre el universo. Eso le daría un verdadero sentido a la existencia del hombre como tal. Todo el fenómeno de la evolución de la energía hasta el logro de un individuo que por su desarrollo alcanza a ser consciente de sí mismo y de lo que lo rodea, y se vuelve actuante y con capacidad de decidir, es lo que configura ese sentido del que hablamos. Y este no está en el simple hecho de existir o en la capacidad que ha adquirido por hacer uso del conocimiento, sino en la posibilidad de perpetuar su especie y la existencia misma del universo, a partir de un desarrollo científico y de adquirir un grado tal de concienciación colectiva, que lo haga actuar en beneficio de la estabilidad y el equilibrio del universo. La energía esencial, eterna y omnipresente, existe desde siempre, y es el motor de todo el universo, pero también tiene la capacidad de destruir toda la materia que ella misma ha creado, así sea para volver a comenzar. Pero lo hará si se requiere una nueva oportunidad, y así podría ser eternamente. En este punto vale la pena estudiar más a Teilhard de Chardin, para explorar su tesis de que la conciencia está presente de alguna forma, así sea de manera elemental, en la materia misma, quizás como una forma de energía. Una de las explicaciones actuales del retorno a las formas esenciales de energía desde la materia creada por ella misma, es la teoría del «Big Crunch», o la de los eones (o rebotes, en ciclos permanentes de explosiones y colapsos) de Roger Penrose. Todo se forma de la supuesta explosión inicial, y todo regresa al momento inicial con el colapso que resultaría cuando la masa y su fuerza de gravedad superan la fuerza de expansión. Lo que se observa de manera limitada con los agujeros negros, pudiera ser el destino final, en un agujero negro universal; volver a fundirse todo en la energía esencial para comenzar otra vez. Ello implica que lo que se ha creado desaparecería y con ello la vida y el hombre mismo, lo que sería inexplicable si se pretende que haya un sentido para la existencia (que es lo que defiende Teilhard de Chardín), o, tal vez, demostraría la incompetencia de un ser (el hombre) que se supone fue creado por la energía esencial para actuar sobre el universo y permitirle que, con su inteligencia colectiva, y haciendo uso de la investigación, logre encontrar la manera de buscar el equilibrio entre las fuerzas de la naturaleza. O que este proceso se pudiera dar en otro planeta con seres similares. Una de las formas que tiene la energía de reciclarse en el universo serían los agujeros negros. Absorben la materia y la convierten en energía esencial o en partículas elementales, algunas de las cuales —hoy en día se sabe según los conceptos de Hawking— son expulsadas por ellos mismos como radiaciones de energía que llenan el espacio. Posteriormente, los agujeros se disuelven y desaparecen. Se supone que han hecho su trabajo, si lo que se requiere es mantener la entropía del universo. Estrellas, planetas y todo el material cercano a su fuerza de atracción (horizonte de sucesos) desaparecen en su interior y se convierten de nuevo en energía esencial. El surgimiento de la vida en la Tierra (y muy posiblemente en otros lugares del universo), se perfila desde un ancestro común, a partir de la materia inorgánica, la que por condiciones especiales de altas temperaturas, humedad y bombardeo de partículas, da lugar a la formación de los primeros aminoácidos, y luego las proteínas, las células primordiales, los nanobios, las microzimas, las cianobacterias y el resto de la vida sobre el planeta; muy seguramente este proceso ha ocurrido y ocurrirá en muchos otros sistemas estelares, pero no necesariamente a partir de una sola célula primordial, porque las condiciones favorables debieron existir en muchos lugares del planeta, y posiblemente en los planetas de diferentes sistemas estelares. Pudieron haber sido miríadas de células que evolucionaron de manera diferente, de acuerdo con las condiciones específicas, como lo advierte Teilhard de Chardin en su libro «Visión del Pasado» (143). Ambas teorías —la de la abiogénesis o la de la panspermia— deben ser posibles en el universo, pero una vez presentes en algún sistema estelar, la posibilidad de colonizar se abre camino, bien sea por fenómenos inherentes a la evolución misma del universo, o porque las formas de vida inteligente en él, ayuden en el proceso de expansión. El hombre de la Tierra empieza a ponerse en capacidad de sembrar atmósferas de oxígeno en otros planetas y llevar allí la vida, y del mismo modo, este fenómeno puede haber ocurrido o estar ocurriendo en los planetas de otros sistemas solares. Las células del cerebro humano que se alimentan de millones de conexiones, que reciben informes todo el tiempo desde los órganos sensoriales, que almacenan información, que diferencian entre la razón y el sentimiento, que nos llevan a conocer el amor y otro tipo de sensaciones de dicha y de tristeza, producen una nueva y maravillosa forma de energía: el pensamiento autónomo, con su capacidad de razonar, hacer uso de la abstracción, investigar, imaginar y ser creativos. Las emociones (miedo, pasión, placer, ira, tristeza) son el resultado de fenómenos fisicoquímicos que afectan nuestros órganos, haciéndolos reaccionar a los efectos hormonales o a la liberación de sustancias como las aminas y los neurotrasmisores. Los sentimientos (el amor físico, el odio) también deben ser otras formas de reacción de nuestro organismo sobre lo que nos agrada o desagrada y su efecto, muy posiblemente, también está mediado por sustancias que responden a estos estímulos. ¿Podrían estas nuevas formas de energía que se radian desde nosotros mismos, dar explicación a muchos efectos extrasensoriales, llamados paranormales, como la telepatía, y la radiestesia, por ejemplo? Hoy en día existen avances como el magneto-encefalógrafo, que no solo describe las ondas tradicionales del sueño y la vigilia, sino que traducen los impulsos que nacen del cerebro a energía electromagnética, en forma de pensamientos, de ideas simples o complejas, y que eventualmente se pudieran traducir a un lenguaje conocido. Nada raro sería que en el futuro esos aparatos, cada vez más sofisticados, alcancen a ser capaces de leer o interpretar el pensamiento. ¿Es el pensamiento un cerebrón, algo similar a un bosón, un WIMP, un axión, una forma de energía inmaterial que viaja a velocidades no medibles aún, y que podría captarse como una energía electromagnética y decodificarse; o es una forma de energía con masa, que pudiera ser medible, con particularidades todavía desconocidas? Estamos cerca de saberlo. Desde la antigüedad, con Anaximandro, vemos que el concepto de la existencia de una sustancia eterna, existe, como lo estamos analizando con la energía esencial. Sin embargo, igual conceptualización ha sido discutida entre los antiguos chinos seguidores de Confucio, por ejemplo Zhang Zai (1020–1077), quien expresara que «cuando el qi (energía) se condensa, adquiere forma material visible en el mundo externo, y al disolverse se hace invisible a nuestros ojos, y eso no significa que no exista nada» (vacío) (195) y (196). Lo más cercano al concepto de Dios es la energía esencial, por su carácter eterno, infinito, inconmensurable, omnipresente, en permanente movimiento y capaz de crearlo todo, desde las partículas elementales hasta los universos conocidos y los seres vivos existentes, incluido el hombre y su órgano más especializado, el cerebro, que por su grado de concienciación colectiva, le permitirá intervenir en la naturaleza misma para transformarla y, por qué no, contribuir con el equilibrio del Universo. Es ella (la energía esencial), la que ha existido siempre y la que tiene la potestad de crear, destruir y repetirse de manera infinita. Fotos y gráficos 1. Nikola Tesla. 2. Gráfico de la energía oscura (70 % de la energía del universo). 3. Pintura de Vincent Van Gogh «La noche estrellada». 4. Imagen que representa a Demócrito de Abdera (460-370 a. C.). 5. Imagen de Zhang Zai (1020-1077). 6. Foto de un acelerador de partículas. 7. Peter Higgs (1929), predijo la existencia del bosón, descubierto en junio de 2012. 8. Representación gráfica de las partículas elementales. 9. Destello en placa fotográfica de las partículas después del bombardeo del átomo. 10. Representación de la colisión de dos galaxias (cúmulo Bala). 11. Representación de las formas filamentosas de la materia oscura. 12. Fritz Zwicky (1933), teorema virial. 13. Representación de galaxia con halo de materia oscura. 14. Eduard Lorenz (1917-2008). Efecto mariposa. 15. Imagen de Isaac Newton (1642-1727). 16. Dimitri Ivánovich Mendeléyev (1834-1907). 17. Antoine Lavoisier (1743-1794). 18. Gráfico sobre las capas de la atmósfera de la tierra. 19. Gráfico sobre los planetas del sistema solar. 20. Titán y su densa atmósfera. 21. Albert Einstein (1879-1955). 22. Representación gráfica del Big Bang. 23. Representación de un agujero negro. 24. Representación del agujero negro de Schwarzschild. 25. Representación del Big Crunch. 26. Stephen Hawking (1942). 27. Representación gráfica de la entropía. 28. Representación gráfica de Sagittarius en la Vía Láctea. 29. Representación gráfica de chorros de energía en un agujero negro. 30. Representación gráfica de un pulsar. 31. Representación de las protobacterias. 32. Composiciones del ARN y ADN. 33. Cianobacterias. 34. Fotosíntesis oxigénica. 35. Antoine Béchamp (1816–1908). 36. Microzimas. 37. Capas geológicas en la tierra. 38. Esquema de la evolución desde el Big Bang hasta nuestros días. 39. Anaximandro (610-546 a. C.). 40. Jean Baptiste Lamarck (1784-1829). 41. Charles Darwin (1823-1913). 42. Gregor Mendel (1822-1884). 43. Representación del ADN. 44. Mitosis y meiosis. 45. Figura de un homo (Australophitecus). 46. Representación del Homo habilis. 47. Esqueleto de Lucy (Australopithecus afarensis). 48. Cráneo de Australophitecus africanus. 49. Figura del hombre de Neanderthal. 50. Figura del hombre de Cromañón. 51. Foto de un bonobo (comparte más del 90 % de los genes del hombre). 52. Gráfico de Ethiopía, surgimiento de Homo." 53. Cerebro humano. 54. Teilhard de Chardin (1881–1955). 55. Teoría de Penrose sobre el teorema de la incompletitud de Gödel. 56. Estatua de «Le penseur» de Auguste Rodin. 57. Carl Jung (1875–1961). 58. William James (1842–1910). 59. Diagrama de las conexiones tálamo-corticales. 60. Diagrama de un corte transversal del cerebro. 61. Rodolfo Llinás (1934). Notas bibliográficas 1. Danilo Cruz. El Mito del rey filósofo: Platón, Marx, Heidegger, Bogotá, Planeta, 1989. 2. Agustín García Calvo, Razón común. Lecturas presocráticas II, Madrid, Ed. Lucina, 1985. 3. Jean-Paul Corsetti, Historia del esoterismo y de las ciencias ocultas, Buenos Aires, Larousse, 1993. 4. W. Thompson, On an absolute thermometric scale founded on Carnot's theory of the motive power of heat, and calculated from Regnault's observations, Philosophical Journal, 1848. 5. I. Tolstói, James Clerk Maxwell. A Biography, Chicago University, 1983. 6. Colección grandes biografías. 59, Planeta, Barcelona, 2004. 7. W.C. Wysock et al., Who was the real Nikola Tesla?, Antenna measurement techniques association, 2001. 8. N. Tesla, The eternal source of energy of the Universe. Origin and intensity of cosmic rays, Nueva York, 1932. 9. T. Barden, El secreto final de la energía libre, 2010. 10. Norberto Keppe, A nova física da metafísica desinvertida, Sao Paulo, Protón, 1996, pp. 32– 34 y 38–40. 11. Nikola Tesla, Worldwide system of wireless transmission of energy, 1927. 12. P. J. E. Peebles y Bharat Ratra, «The Cosmological Constant and Dark Energy [La constante cosmológica y la energía oscura]», Reviews of Modern Physics, núm. 75, pp. 559–606. Véase: Steven Weinberg, Cosmology. Oxford University Press, 2008. 13. Marcelin P. E. Berthelot, Los orígenes de la alquimia, trad. José Valero Bernabéu, MRA, 2001. 14. G. Soave, «Equilibrium constants for a modified Redlich-Kwong equation of state», Chem. Eng. Sci., núm. 27, 1972. 15. D.Y. Peng y D.B. Robinson, «A New Two-Constant Equation of State», Industrial and Engineering Chemistry: Fundamentals, núm. 15, 1976, pp. 59–64. 16. Dragan Huterer, «Prospectos para probar la energía oscura a través de medidas de distancia a supernovas», Physical Review, núm. 60, 1999. 17. D. N. Spergel et al., «Three year Wilkinson Microwave Anisotropy Probe (WMAP)», Observations: Implications for Cosmology, 2006. 18. Tommaso Giannantonio et al., «The significance of the integrated Sachs-Wolfe effect revisited», Cosmology and Extragalactic Astrophysics, 2012. 19. A.M. Öztas y M.L. Smith, «Elliptical Solutions to the Standard Cosmology Model with Realistic Values of Matter Density», International Journal of Theoretical Physics, núm. 45, 2006, pp. 925–936. 20. Democritus, Encyclopaedia Britannica, 2006. 21. J. Ferrater Mora, Diccionario filosófico. Demócrito, Barcelona, Ariel, 1994. 22. A. J. Rocke, «John Dalton and the origins of atomic theory», Social research, núm. 72, diciembre de 2007, pp. 125–158. 23. Graham Farmelo, The strangest man: The hidden life of Paul Dirac. Mystic of the atom, Basic Books, 2009. 24. Helge Kragh, Paul Adrien Maurice Dirac: A scientific biography, Cambridge University Press, 1990. 25. I.F. Ginzburg y A. Schiller, «Search for a heavy magnetic monopole at the Fermilab Tevatron and CERN LHC», Phys. Rev., núm. 57, pp. 6599–6603, 1998. 26. A. Einstein y Max Planck, Experientia docet, 2010. 27. N. Bohr, The Bohr-Einstein letters, Nueva York, Walker and company, 1971. 28. A. Einstein. El significado de la relatividad, Espasa Calpe, 1971. 29. Murray Gell-Mann, Beauty and truth in physics, 2007. 30. J. M. González-Miranda, Syncronization and control of chaos. An introduction for scientists and engineers, Imperial College, 2004. 31. John Clark, The essential dictionary of science, Barnes and Noble, 2004. 32. Norberto Keppe. A nova física da metafísica desinvertida, Sao Paulo, Protón, 1996. 33. Brian R. Greene, The elegant universe, Editorial Crítica, Drakontos, 2006. También: The fabric of the cosmos: space, time and the texture of reality. Edit. Crítica, Drakontos, 2005. 34. The international system of units. International Bureau of Weights and Measures (BIPM), 2006, p. 133. 35. «The Higgs boson: Why scientists hate that you call it the "God particle"», National Post, diciembre de 2011. 36. Wiener, N. Differential Space, Quantum Systems, and Prediction. Cambridge: The Massachusetts Institute of Technology Press.1966. 37. F. Zwicky, «Die Rotverschiebung von extragalaktischen Nebeln», Helvetica Physica Acta, núm. 6, pp. 110-127. 1933. 38. Diaferio A., Angus G. W. The acceleration scale, modified Newtonian Dynamics and Sterile Neutrinos. Astrophysics Cosmology, arX1v:1206.6231v1, june 2012. 39. F. Zwicky, «Sobre las masas de nebulosas y cúmulos de nebulosas», Astrophysical Journal, núm. 86: 217, 1937. 40. Edward Lorenz, «Deterministic nonperiodic flow», J. Atmósfera Sci., núm. 20, 1963, pp. 130–141. 41. Paul McGarr, «Order out of chaos», disponible en: www.marxisme/chaos/1990. 42. Pierre Simon Laplace, Theorie analytique des probabilites, 3.ª ed., t. VII, París, 1820. 43. Antonio J. Durán, Newton. Vida, pensamiento y obra, Madrid, Planeta, 2008. 44. J.J. O'Connor y E.F. Robertson, Werner Karl Heisenberg. Biography, 2003. 45. P. Atkins y L. Jones, Principios de química. Los caminos del descubrimiento, Buenos Aires, Médica Panamericana, 2006. 46. Jerome Lalande, «An Account of the Life and Writings of Lavoisier», Philosophical Magazine, núm. 9, 1801, pp. 78–85. 47. Stanley E. Manahan, Introducción a la química ambiental, Reverté, 2007. 48. Nahum Méndez Chazarra, «La Geología de Titán», Journal of Feelsynapsis, 2011, pp. 15– 20. 49. Byron Preiss, Einstein y su teoría de la relatividad, Madrid, Anaya, 2001. 50. Norberto Keppe, A nova física da metafísica desinvertida, Sao Paulo, Protón, 1996, pp. 2931. 51. D.M. MacMaster, Gran enciclopedia del mundo, Bilbao, Durvan, 1964. 52. J. Vázquez-Lamadrid et al., Gaceta Médica Mexicana, núm. 147, julio a agosto de 2011. 53. K. Billah y R. Scanlan, «Resonance, Tacoma narrows bridge failure, and undergraduate physics textbooks», American Journal of Physics, núm. 59, 1991, pp. 118–124. 54. Walter Lewin, «Hooke's Law, Simple Harmonic Oscillator», Classical Mechanics, Cambridge, MIT OCW, 1999. 55. Keppe, op. cit., pp. 43–48. 56. Gamow, George. La investigación del átomo. México, DF. 1956 57. Hawking, S. W., Historia del tiempo: del Big Bang a los agujeros negros. Barcelona: Círculo de Lectores, 09/1991. 58. Wilson, R. W.; Penzias, A. A. "Isotropy of Cosmic Background Radiation at 4080 Megahertz". Science 156 (3778): 1100–1101. 1967. 59. Roger Penrose y Stephen Hawking, Cuestiones cuánticas y cosmológicas, Alianza Editorial, 1995. 60. Roger Penrose y Stephen Hawking, La naturaleza del espacio y el tiempo, Debate, 1996. 61. Roger Penrose et al., Lo grande, lo pequeño y la mente humana, Cambridge University Press, 1999. 62. Stephen Hawking y G. F. R. Ellis, The large scale structure of space-time, Cambridge, Cambridge University Press, 1973. 63. Geroch, R. What is a singulariry in General relativity? Annals of Physics 48, 526-40, 1968. 64. J. Mark Heinzle y Roland Steinbauer, «Remarks on the distributional Schwarzschild geometry», J. Math. Phys, núm. 43, 2002. 65. Paul Davis, Los últimos tres minutos del universo. Conjeturas acerca del destino final del universo, Debate, 2001. 66. Marcelo Bär, El destino del universo es disgregarse, editorial Axxón, 2009. 67. Stephen Hawking, Historia del tiempo. Del big bang a los agujeros negros, editorial Crítica, 1988. 68. S. Hawking, A brief history of time, Bantam Press, 1988. 69. Robert M. Wald, General Relativity, Chicago University Press, 1984. 70. Robert Julius Oppenheimer, La ciencia y el conocimiento común, España, Consejo Superior de Investigaciones Científicas, 1995. 71. Robert Julius Oppenheimer, Hombre y ciencia. Un desafío al mundo, Buenos Aires, Espasa– Calpe, 1950. 72. Paul Stratern, Oppenheimer y la bomba atómica, Siglo veintiuno, 1999. 73. John D. Barrow y Frank J. Tipler, The Anthropic Cosmological Principle, 1986. 74. Jimeno Romero, Pablo. Agujeros negros de Kerr-Newman en teorías f (Kerr-Newman black holes, 2011. D 74: 087501. J. A. R. Cembranos, Phys. Rev. D 73 064029; S. Nojiri y S. D. Odintsov, Int. J. Geom, 2006 75. S. Hawking, Singularities in collapsing stars and expanding universes with Dennis William Sciama. Comments on astrophysics and space physics, vol. 1, 1969. 76. John D. Bekenstein, «Entropy content and information flow in systems with limited energy», Phys. Rev., núm. 30, 1984, pp. 1669–1679. 77. A. A. Logunov, Curso de teoría de la relatividad y de la gravitación, Moscú, Universidad Estatal de Lomonósov, 1998. 78. Andrea Ghez, «Unveiling a black hole at the center of the Milky Way», 2003. 79. M. Valtonen y H. Karttunen, The Three-Body Problem, Cambridge University Press, 2006. 80. G. G. Byrd et al., Cosmology: Foundations and Frontiers, Moscú, 2007. 81. Anthony Hewish. «Pulsars and High Density Physics», Science, núm. 188, junio de 1975, pp. 1079-1083. 82. Freeman J. Dyson, Los orígenes de la vida, Cambridge University Press, 1999. 83. J. O. Bennett, What is life? Beyond UFOs: The Search for Extraterrestrial Life and Its Astonishing Implications for Our Future, Princeton University Press, 2008, pp. 82–85. 84. D. Schulze–Makuch y L. N. Irwin, «The prospect of alien life in exotic forms on other worlds», Naturwissenschaften, núm. 93, abril de 2006, pp. 72–155. 85. G. F. Joyce, «The antiquity of RNA-based evolution», Nature, núm. 418, 2002, pp. 214–221. 86. R. Dahm, «Friedrich Miescher and the discovery of DNA», Dev Biol, núm. 278, 2005, pp. 88–274. 87. R. R. Holley et al., «Structure of a ribonucleic acid», Science, núm. 147, 1965, pp. 62–65. 88. J. T. Trevors y D. L. Abel, «Chance and necessity do not explain the origin of life», Cell Biol. Int., núm. 28, 2004, pp. 29–39. 89. P. Forterre et al., «The nature of the last universal ancestor and the root of the tree of life, still open questions», BioSystems, núm. 28, 1992, pp. 15–32. 90. Keppe, op. cit., pp. 89–92. 91. Sergio Ferrer, «El verdadero sentido de la vida», Journal of Feel sinapsis, 2011, pp. 119-127. 92. R. Dahm, op. cit. 93. G. Wächtershäuser, «Origin of life. Life as we don't know it», Science, núm. 289, 2000, pp. 1307–1308. 94. A. G. Cairns–Smith, «An approach to a blueprint for a primitive organism», en: C. H. Waddington, Towards a Theoretical Biology, Edinburgh University Press, 1968, pp. 57–66. 95. J. P. Ferris, «Prebiotic Synthesis on Minerals: Bridging the Prebiotic and RNA Worlds» y «Evolution: A Molecular Point of View», Biological Bulletin, núm. 3, vol. 196, pp. 311–314. 1999. 96. A. G. Cairns–Smith, op. cit. 97. Blankenship, R.E.; Bebout, BM; Des Marais, DJ. Molecular evidence for the evolution of photosynthesis. 6. p. 4–6. 2001. 98. Felix M. Cleve, «The Philosophy of Anaxagoras: An attempt at reconstruction», en: Nijhoff, ed., The Philosophy of Anaxagoras: As reconstructed, Nueva York, King's Crown Press, 1973. 99. Patricia Curd, Anaxagoras of Clazomenae: Fragments and Testimonia: a text and translation with notes and essays, Toronto, University of Toronto Press, 2007. 100. Daniel W. Graham, «Empedocles and Anaxagoras: Responses to Parmenides», en: A. Long, The Cambridge Companion to Early Greek Philosophy, Cambridge, Cambridge University Press, 1999, pp. 159–180. 101. Fred Hoyle, Mathematics of Evolution, Acorn Enterprises, 1999. 102. L. E. Chapman et. al., «Generic Assignments, Strain Histories and Properties of Pure Cultures of Cyanobacteria», Journal of General Microbiology, vol. 111, pp. 1-61. 2000. 103. T. Cavalier-Smith, «The neomuran origin of archaebacteria, the negibacterial root of the universal tree and bacterial megaclassification», Int. J. Syst. Evol., 2002, pp. 7-76. 104. Guillermina Goñi et. al., «Flavodoxin-mediated electron transfer from Photosystem I to Ferredoxin-NADP+ reductase in Anabaena: Role of Flavodoxin hydrophobic residues in proteinprotein interaction», Biochemistry, núm. 47, 2008, pp. 1207-1217. 105. A. Oren, «A proposal for further integration of the cyanobacteria under the Bacteriological Code», Int. J. Syst. Evol. Microbiol., núm. 54, 2004, pp. 1895-1902. 106. A. Herrero y E. Flores, ed., The Cyanobacteria: Molecular Biology, Genomics and Evolution, Caister Academic Press, 2008. 107. Philippa Uwins et. al., «Novel nano–organisms from australian sandstones», American Mineralogist, núm. 83, 1998, pp. 1541–1550. 108. Antoine Béchamp, Les Microzymas, ed. J.B. Baillière, 1990. 109. Antoine Béchamp, The Blood and its Third Anatomical Element, 1912. 110. Keith L. Manchester, Antoine Béchamp: père de la biologie. Oui ou non?, 2001. 111. Winfried Otto Schumann, «U.S. Patent 2,297,256», Tube control, septiembre de 1942. 112. Georges Lakhovsky, Cellular Oscillation. Shared Experimental Research, Gaston Doin, 1931. 113. Georges Lakhovsky, The Cabal: History of a Discovery. Cellular Oscillation, Gaston Doin, 1934. 114. Mauricio Antón, El secreto de los fósiles, Aguilar, 2006. 115. S. J. Mojzis, et. al., «Evidence for life on earth before 3,800 million years ago», Nature, núm. 384, 1996, pp. 55–59. 116. A. C. Allwood et. al., «Stromatolite reef from the Early Archaean era of Australia», Nature, núm. 441, 2006, pp. 714–718. 117. A. G. Cairns-Smith, «An approach to a blueprint for a primitive organism», en: C. H. Waddington, Towards a Theoretical Biology, Edinburgh University Press, 1968, pp. 57–66. 118. A. Lazcano y S.L. Miller, «How long did it take for life to begin and evolve to cyanobacteria», Journal of Molecular Evolution, núm. 39, 1994, pp. 546–554. 119. Encyclopaedia Britannica. Alexander Ivánovich Oparín nació el 2 de marzo de 1894 (18 de febrero, según el calendario juliano) en Uglich, cerca de Moscú. 120. R. Dawkins, The Ancestor's Tale. A Pilgrimage to the Dawn of Life, Weidenfeld & Nicolson, 2004. 121. T. J. Algeo y S. E. Scheckler, «Terrestrial-marine teleconnections in the Devonian: links between the evolution of lana plants, weathering processes, and marine anoxic events», , núm. 353, 1998, pp. 113–130. 122. Martin Heidegger, «La sentencia de Anaximandro», en: Sendas perdidas o Caminos de bosque, trad. José Rovira Armengol, Buenos Aires, Losada, 1960. 123. Ch. Darwin, The origin of species by means of natural seleccion, Londres, Murray Albemarle street, 1859. 124. Ch. Darwin, The Story of the Man and His Theories of Evolution, Londres, Andre Deutsch, 2008. 125. Michael Shermer, In Darwin's Shadow: The Life and Science of Alfred Russel Wallace, Oxford University Press, 2002. 126. J. Bronowski, El ascenso del hombre, trad. A. Ludlow Wiechers y BBC, Bogotá, Fondo Educativo Interamericano, 1979. 127. R. Dawkins, The Ancestor's Tale. A Pilgrimage to the Dawn of Life, Weidenfeld & Nicolson, 2004. 128. G. Fox et. al., «How close is close: 16S RNA sequence identity may not be sufficient to guarantee species identity», Int J Syst Bacteriol, núm. 42, 1992, pp. 166–160. 129. Ronald Fisher. «The correlation between relatives on the supposition of Mendelian inheritance», Trans. Roy. Soc. Edinb., núm. 52, 1918, pp- 399–433. 130. A. R. Wallace, Darwinism: An Exposition of the Theory of Natural Selection, with Some of Its Applications, Londres, Macmillan and Company, 1889. 131. R.C. Lewontin et. al., ed., Dobzhansky's Genetics of Natural Populations I-XLIII, Nueva York, Columbia University Press, 1981. 132. Pigliucci, M., & Muller, G. (Eds.). Evolution: The Extended Synthesis. Cambridge, MA: MIT Press. 2010. 133. C. R. Woese et. al., «Towards a natural system of organisms: Proposal of the domains Archaea, Bacteria and Eucarya», Proc. Natl. Acad. Sci., Estados Unidos, 1990. 134. Wu R, Lin M. «Functional mapping: how to map and study the genetic architecture of dynamic complex traits». Nat. Rev. Genet. 7 (3): pp. 229–37. 2006. 135. Burrus V, Waldor M. «Shaping bacterial genomes with integrative and conjugative elements». Res. Microbiol. 155 (5): pp. 376–86. 2004 136. A. M. Fernández Peralta, «Fundamentos moleculares y citogenéticos de la variación genética», en: Genética, España, Ariel, 2002. 137. E. L. Tatum et. al., «Biochemical Mutant Strains of Neurospora Produced by Physical and Chemical Treatment», American Journal of Botany, vol. 37, núm. 1, 1950, pp. 38–46. 138. W. S. Klug et. al., Conceptos de Genética, 8.ª ed, Madrid, Pearson Prentice Hall, 2006, pp. 213–239. 139. S. J. Gould, La estructura de la teoría de la evolución, Barcelona, Tusquets, 2004. 140. Fisher, R. A. The Genetical Theory of Natural Selection. Complete Variorum Edition. Oxford University Press. Appendix 2. 1999. 141. Peter Gogarten, Esalen Canter for theory and research. Horizontal Gene Transfer - A New Paradigm for Biology by Ph.D. Evolutionary Theory, An Esalen Invitational Conference, November 5-10, 2000. 142. Elizabeth Pennisi, «Microbiology. Researchers Trade Insights About Gene Swapping», Science, vol. 305, 2004. 143. Teilhard de Chardin, La visión del pasado, Madrid, Taurus, 1966, p. 35. 144. Theilhard de Chardin, op. cit. p. 74. 145. F. Guillén–Salazar, Existo, luego pienso: los primates y la evolución de la inteligencia humana, Madrid, Ateles, 2005. 146. D. Johanson y M. Edey, El primer antepasado del hombre, Barcelona, Planeta, 1982. 147. Johanson, D. y White, T.D.: On the Status of Australopithecus afarensis. Science, 203: 321330. 1980. 148. D. Johanson et. al., «A New Species of the Genus Australopithecus (Primates: Hominidae) from the Pliocene of Eastern Africa», Kirtlandia, núm. 28, 1978, pp. 1-14. 149. M. G. Leakey et. al., «New hominin genus from eastern Africa shows diverse middle Pliocene lineages», Nature, núm. 410, 2001, pp. 433-440. 150. J. Cervera et. al., Un millón de años de historia, Plot y Complutense, 1998. 151. JL. Arsuaga e I. Martínez, La especie elegida, Madrid, Temas de hoy, 2001, pp. 117–124. 152. Juan Luis Arsuaga, El collar del Neandertal, 2.ª ed. Barcelona, Plaza & Janés, 2002. 153. Gary Stix, Huellas de un pasado lejano, Investigación y Ciencia, núm. 384, 2008, pp. 12-19. 154. Matthias Krings et. al., Neandertal DNA Sequences and the Origin of Modern Humans, Cell, núm. 90, 1997, pp. 19–30. 155. Carbonell, Eudald. Homínidos: las primeras ocupaciones de los continentes. (primera edición). Barcelona: Editorial Ariel. p. 514, 2005. 156. Longa, Víctor M. Sobre el significado del descubrimiento del gen FOXP2, ELUA (Estudios de Lingüística. Universidad de Alicante), 20, 2006, págs. 177-207. 157. P. Gärdenfors, How Homo became Sapiens, Oxford University Press, 2003. 158. Karl Popper, El yo y su cerebro. Una discusión a favor del interaccionismo. Este libro aborda diversos problemas relacionados con la filosofía de la mente, alguno de ellos ya tratados en Conjeturas y refutaciones. 1977 159. Teilhard de Chardin, La visión del pasado, Taurus, 1966. 160. Teilhard de Chardin, El fenómeno humano, Madrid, Taurus, 1955. 161. Teilhard de Chardin, op. cit. 162. L. Beals Kenneth. Brain Size, Cranial Morphology, Climate, and Time Machines, Current Anthropology, núm. 25, 1984, vol. 1. 163. Lanneberg Eric, Biological Foundations of Language, John Wiley and sons, New York, 1967. 164. Jacques Lacan. Le stade du miroir comme formeteur the fonction du je, nous qu'elle telle est dans l'expérience révélée psychanalytique, en: Ecrits, París, Seuil, 1966. 165. Bromage, T.G., McMahon, J., Thackeray, J.F., Kullmer, O., Hogg, R., Rosenberger, A.L., Schrenk, F., Enlow, D.H. Craniofacial architectural constraints and their importance for reconstructing the early Homo skull KNM-ER 1470. Journal of Clinical Pediatric Dentistry 33: 43-54. 2008. 166. Raymond Smullyan, Gödel's Incompleteness Theorems, Oxford University Press, 1992. 167. Penrose, Roger, Las sombras de la mente: hacia una compresión científica de la consciencia, Editorial Crítica, 1996. 168. S. Hameroff. Consciousness, neurobiology and quantum mechanics, en: J. Tuszynski, ed., The Emerging Physics of Consciousness, 2006. 169. Roger Penrose, Shadows of the mind. A search for the missing science of consciousness, 1994. 170. B. T. Lahn. Could interbreeding between humans and Neanderthals have led to an enhanced human brain?, Howard Hughes Medical Institute, noviembre de 2006. 171. Bruce T. Lahn. Genetic basis of human brain evolution. Trends in neurosciences, núm. 31, 2008, pp. 637–644. 172. Howard Gardner, Estructuras de la mente, Bogotá, Fondo de Cultura económica, 1993. 173. R. M. Gagné, La instrucción basada en la investigación sobre el aprendizaje, México, Universidad Iberoamericana, 1986. 174. C. G. Jung y Hans Schmid-Guisan, The Question of Psychological Types: The Correspondence, 2012. 175. María Moliner, Diccionario de uso del español, Madrid, Gredos, 1988. 176. Edmund Husserl, Ideas relativas a una fenomenología pura y una filosofía fenomenológica, trad. José Gaos, México, Fondo de Cultura Económica, 1986. 177. Merleau Ponty, Fenomenología de la percepción, París, Gallimard, 1945. 178. Jean Piaget, Inteligencia y afectividad, Buenos Aires, AIQUE, 2001. 179. David Chalmers, La mente consciente: en busca de una Teoría Fundamental, 1996. 180. David J. Chalmers, The conscious mind. In search of a fundamental theory, Oxford University Press, 1996. 181. M. S. Gazzaniga et. al., Cognitive Neuroscience: The Biology of the Mind, 3.ª ed., W.W. Norton, 2008. 182. J. E. Bogen, «On the neurophysiology of consciousness», Consciousness and Cognition, núm. 4, 1995, pp. 52–62 y 137–158. 183. Philip N. Johnson-Laird, Computer and the Mind: An Introduction to Cognitive Science, Harvard University Press, 1998. 184. Francisco J Rubia. Conferencia: La consciencia es el mayor enigma de la ciencia y la filosofía. Real Academia Nacional de Medicina, Madrid 2010. 185. William James, Un universo pluralista. Filosofía de la experiencia, Buenos Aires, Cactus, 2009. 186. John C. Eccles y Y. Hans, El cerebro y la mente, Herder, 1984. 187. G. M. Edelman, A Universe of Consciousness: How matter becomes imagination, Nueva York, Basic Books, 2000. 188. Gerard Edelman, Second Nature: Brain Science and Human Knowledge, Yale University Press, 2006. 189. Amadeo Muntané Sánchez la consciencia. María Luisa Moro Esteban et. al., El cerebro: Lo neurológico y lo trascendental, España, Universidad de Navarra, 2008. 190. Searle, John Rodgers. El misterio de la conciencia. Ediciones Paidós Ibérica, 2000. 191. Silva J., Zagmutt A. Conciencia y autoconciencia: Un enfoque constructivista. Revista Chilena de Neuropsiquiatría, núm. 53, 1999. 192. G. M. Shepherd, Neurobiology, Nueva York, Oxford University Press, 1983. 193. S.W. Kuffler et. al. From neuron to brain, 1984. 194. R. Llinás y P. S. Churchland, ed., The Mind-Brain Continuum, Cambridge, MIT, 1996. 195. Zhang Zai, The Internet Encyclopedia of Philosophy, Retrieved, octubre de 2008. 196. C. Chang, The development of Neo-confucian thought, Connectituc, Greenwood Press Publishiers, 1977, p. 172.