El significado de la expansión Cuando Einstein introdujo en 1917 su modelo relativista de un universo estático, casi nada de lo expuesto anteriormente era conocido, por lo que no es sorprendente que fuera considerado una posibilidad viable. Hubiera sido un paso sencillo, matemáticamente hablando, pasar de un su modelo al de un universo en expansión. El hecho de que Einstein no hiciera mención alguna a la posibilidad de la expansión, y por tanto de que su idea de un espacio-tiempo estático era una hipótesis ad hoc, nos da una buena idea de cuan revolucionario era este último paso. Ahora sabemos que un universo estático tiene problemas conceptuales, aparte, claro está, del hecho observacional de que el universo se expande. Si la Relatividad General es válida, una distribución estática de masa es gravitacionalmente inestable, por lo que, incluso con el actual grado de homogeneidad, no persistiría mucho más allá del tiempo de una vida de una estrella de tipo solar. La misma situación se presentaba dentro de la teoría newtoniana pero, a diferencia de Einstein, éste parecía consciente del problema. En su Óptica de 1704 se preguntaba: "¿Qué impide que las estrellas fijas caigan las unas sobre las otras?". La respuesta que dio Newton a este dilema fue que en un universo infinito no habría centro y por tanto no existiría un lugar especial hacia donde se dirigiría el colapso de la materia: "Pero si la materia estuviera distribuída a través de un espacio infinito, ésta no podría reunirse en una masa; sino que una parte podría reunirse en una masa y otra parte en otra, hasta producirse un número infinito de grandes masas, dispersadas a grandes distancias una de la otra a través de todo el espacio infinito. Y así podrían haberse formado el Sol y las estrellas fijas, asumiendo que la materia fuera de una naturaleza "lúcida". (La referencia a la materia "lúcida" se refiere a la creencia de Newton de que el Sol y las estrellas estaban hechas de una materia diferente a la que se encuentra en la Tierra). Newton cometió un error de razonamiento: en un espacio infinito ¡sí que la materia puede colapsar sobre sí misma uniformemente a través de todo el espacio y sin elegir un centro determinado!, contrariamente a lo que podría indicarnos la intuición. En 1917, de Sitter exploraba en un artículo las implicaciones astronómicas del modelo de Einstein. En él señalaba que era posible otra solución de las ecuaciones de campo de la Relatividad General para un universo que es homogéneo, isótropo y cuya ecuación de campo fuera la misma propuesta por Einstein. La solución de de Sitter requería que la densidad de materia del universo fuera despreciable, es decir, que el universo fuera esencialmente vacío. El modelo predecía un desplazamiento al rojo de los objetos lejanos que aumentaba con la distancia, el que fue denominado efecto de scattering de de Sitter. La posible constatación de este efecto fue lo que llevó a Hubble a sus fructíferas observaciones de la relación entre desplazamiento al rojo y distancia. Pero la evidencia observacional era la de un universo que estaba lejos de ser vacío. Esto podría ser un fuerte argumento a favor de la solución de Einstein de un universo lleno de materia, pero los datos tampoco encajaban. La solución de este callejón sin salida fue divulgada en 1930 por el sacerdote y astrónomo belga Georges Édouard Lemaître (1894-1966). Nacido el 17 de Julio de 1894 en Charleroi, Bélgica, Lemaître prestó servicios en la Primera Guerra Mundial donde ganó medallas al valor. De personalidad más bien agresiva, fue expulsado de la clase de preparación militar por desafiar una respuesta incorrecta de su maestro en un problema de balística. Durante una tregua en la guerra, Lemaître leyó un libro sobre cosmología de Poincaré y quedó impresionado por los desafíos que éste planteaba. En 1927 publicó en una desconocida revista belga la que ahora es la aceptada solución de un universo lleno de materia en expansión, originalmente investigada por el físico ruso Alexander Friedmann en dos artículos: uno de 1922, donde se ocupaba del caso de un universo con una geometría cerrada del mismo tipo que la del modelo de Einstein, y otro en 1924 donde estudió el caso de una geometría abierta en un universo infinito en eterna expansión. Entre 1927 y 1933, Lemaître esbozó la más antigua versión de la teoría del Big Bang. La llamó "la hipótesis del átomo primitivo". Sugería que el universo había nacido de un solo cuanto de energía y trató, sin éxito, de interesar a Einstein y de Sitter en su teoría. En 1927 buscó a Einstein en la Quinta Conferencia Solvay de Bruselas a fin de defender sus ideas, pero Einstein estuvo brusco y seco: "sus cálculos son correctos, pero su visión física es abominable". El viejo maestro de Lemaître, Sir Arthur Stanley Eddington (1882-1944), probablemente el científico más influyente de la época, tampoco estaba dispuesto a hablar de comienzos cósmicos. En un artículo de Nature de 1931 escribía: "Filosóficamente, la noción de un principio para el presente orden de la Naturaleza es repugnante". El 9 de mayo de 1927, Lemaître publicaba sus ideas en la revista Nature, en una misiva que ha sido llamada a veces "la carta magna de la teoría del Big Bang". Cinco años más tarde, Eddington rectificó su actitud publicando un manuscrito que le había entregado Lemaître y que había convenientemente archivado, lo que constituyó un signo definitivo de aprobación. ¿Qué se entiende por un universo en expansión?. La expansión no es más que el incremento con el tiempo de la distancia entre cualquier par de galaxias lejanas. Se suele utilizar para representar este hecho la analogía de un globo donde hemos pintado una serie de puntos a modo de galaxias. La goma podría representar al espacio y a medida que inflamos el globo los puntos se alejan unos de otros. Pero el lector debería tener cuidado en llevar esta analogía demasiado lejos. Algunas personas plantean inmediatamente por qué no todos los objetos se están expandiendo: por ejemplo¿por qué no aumenta la distancia entre el Sol y la Tierra?. La respuesta es que los sistemas unidos bajo la fuerza gravitatoria no están en expansión debido a que el efecto gravitatorio local domina sobre la tendencia a la expansión. Por ejemplo, la galaxia Andrómeda, que se encuentra a unos dos millones de años luz de distancia, está unida gravitacionalmente al Grupo Local de galaxias, del que nuestra Vía Láctea forma parte. Andrómeda no se está alejando de nosotros, sino que de hecho se acerca a una velocidad de unos 100 km/s. Otra interpretación posible de la expansión sería que se está creando continuamente espacio entre las galaxias, pero esto nos confunde más que aclararnos las ideas. Podemos desde luego seguir haciendo cosmología con el mismo poder de predicción sin plantearnos este tipo de cuestiones, al igual que podemos estudiar la cinemática de un proyectil sin entender en profundidad lo que es el espacio, el tiempo o la gravedad. A todos nos intriga el significado profundo del tiempo, del espacio y de todas estas cuestiones, y por supuesto es un reto para la ciencia el profundizar en el conocimiento de estos conceptos, que de hecho es a donde nos ha llevado la Relatividad General. Pero la ciencia tiene que basar sus predicciones en magnitudes que podamos observar, es decir, que nuestras definiciones tienen que ser operacionales. La definición de expansión del universo es operacionalmente muy concreta y precisa: "el universo se expande en el sentido de que dos galaxias distantes se alejan con una velocidad de la forma v = dD/dt = H D, donde D es la distancia entre las galaxias y H la constante de Hubble en cualquier instante de la vida del universo". Aquí hay varias cuestiones fundamentales que aclarar: ¿Qué queremos decir con "dos galaxias distantes"?. Dos galaxias que no estén unidas gravitacionalmente. Normalmente las galaxias forman parte de cúmulos y éstos a su vez se agrupan en supercúmulos. Por tanto resulta comprometido cuando tenemos que medir la velocidad de expansión, si además tenemos velocidades peculiares de las galaxias relativas al centro de gravedad del cúmulo del que forman parte, e incluso la velocidad peculiar del propio cúmulo con respecto al centro del supercúmulo al que pertenece. De esto se deduce que el trabajo observacional tiene más triquiñuela de la que podría parecer a primera vista. ¿Qué entendemos exactamente por distancia en un universo dinámico y con una geometría diferente de la habitual?. La distancia que aparece etiquetada como D en la expresión anterior representa a una magnitud que no se puede observar. Imagínese el lector una cadena ideal de galaxias típicas que yacen cercanas unas a otras a lo largo de la línea de visión entre nosotros y una galaxia lejana, y supongamos que en mismo instande de la vida del universo cada observador mide la distancia a la galaxia que tiene más próxima de una forma trivial, como enviando una señal de radar y esperando su rebote. Sumando todas esas subdistancias obtenemos la distancia etiquetada por D. Ahora bien, nuestras distancias observables son aquellas que inferimos de los diámetros aparentes, de la luminosidad aparente o del desplazamiento al rojo que presentan las galaxias. Por lo tanto, lo mejor que puede hacer un cosmólogo observacional es eliminar la distancia D y relacionar las cantidades observables como el diámetro aparente, la luminosidad aparente y el desplazamiento al rojo. ¿Qué ocurre cuando la distancia es suficientemente grande para que la velocidad v = dD/dt de alejamiento de una galaxia sea igual a la velocidad de la luz?. ¿Estamos ante una violación de la Relatividad Restringida?. La distancia D a la que la velocidad de expansión se extrapola hasta la de la luz es conocida como radio de Hubble y es de uno 4,000-5000 Mpc (depende por supuesto del verdadero valor de la constante de Hubble). Ésta esfera de Hubble delimita la parte del universo donde las galaxias se alejan del observador a mayor velocidad que la de la luz de la parte sublumínica. Este hecho no viola el principio de relatividad restringida, puesto que esa velocidad superrelativista consiste en realidad en la suma de velocidades relativas de observadores cercanos situados a lo largo de la línea que conecta las galaxias, cada uno de los cuales ve que la relatividad restringida describe perfectamente lo que ocurre en su inmediata vecindad. A medida que avanza el tiempo sin embargo el universo disminuye su ritmo de expansión (en el caso más sencillo) y galaxias antes superlumínicas pueden convertirse en sublumínica. En otras palabras, el radio de Hubble aumenta con el tiempo. En principio, aunque parezca poco intuitivo, se pueden observar galaxias situadas más allá del radio de Hubble!!! (ver ejemplo). Las galaxias más lejanas que podemos en principio observar son aquellas que tienen un desplazamiento la rojo infinitamente grande. La distancia a la que se encuentran estos objetos se denomina un horizonte de eventos porque los objetos que se encuentran más allá de esta distancia son inobservables aún en principio (ver horizontes en cosmología) Con la anterior definición de distancia, la relación v = H D es una consecuencia teórica del Modelo Estándar del Big Bang y es válida para cualquier distancia. Pero no debemos confundir esta relación con la ley de Hubble. La ley de Hubble relaciona el desplazamiento al rojo con la distancia observable. Este desplazamiento al rojo puede ser explicado de la siguiente manera: si imaginamos un rayo de luz que parte de una galaxia lejana y tenemos en cuenta que la luz viaja a una velocidad finita, cuando esta luz llegue al observador el universo será mayor que cuando fue emitida (ver figura abajo). Por tanto, los valles y crestas de la onda de luz no llegarán con una frecuencia menor que la que tenían en el momento de la emisión, es decir, la longitud de onda estará alargada y por tanto la radiación observada estará desplazada hacia la zona roja del espectro electromágnético. Esta interpretación coincide con la debida a efecto Doppler cuando la distancia considerada corresponde a tiempos muchos menores que el tiempo de Hubble. Cuando las distancias son del orden del radio de Hubble, las relaciones entre desplazamiento al rojo y distancia observada se vuelve más compleja, tal y como el mismo Hubble había sospechado. Analogía del globo para dos instantes diferentes de la expansión del universo. Los puntos amarillos representan galaxias o cúmulos de galaxias (en general estructuras ligadas gravitatoriamente). Se puede observar la analogía de las onda de luz (en azul) estirándose debido a la expansión del universo (en rojo) como interpretación estándar del desplazamiento al rojo. Por último podríamos discutir la causa de que el universo se expanda. El único atisbo de repuesta que tenemos hoy en día proviene del campo de la física de partículas: la productiva idea de unos primeros estadios del universo donde la expansión fue de una manera exponencial y muy brusca, conocida como modelo inflacionario. El modelo inflacionario llegó a la cosmología para explicar algunos hechos curiosos que en el Modelo Estándar no tienen explicación satisfactoria. El problema de la curvatura nula, relacionado con la convegencia del valor de la densidad hacia la densidad crítica a medida que nos acercamos en el tiempo a la singularidad inicial. El problema del horizonte cosmológico, relacionado con la homogeneidad del universo: si miramos en direcciones opuestas del cielo encontramos el mismo tipo de estructuras, aún cuando algunas de estas regiones no han estado causalmente conectadas. ¿Cómo se explica entonces que se parezcan tanto las unas a las otras?. La suavidad de las perturbaciones gravitatorias que originaron las galaxias. Si estas perturbaciones hubieran sido un poco más intensas, el universo estaría lleno de objetos muertos, tales como agujeros negros y materia ultradensa. Las galaxias y estructuras que vemos hoy en día jamas se hubieran formado. Si hubieran sido algo menores el universo podría ser mucho más homogéneo y pobre en estructuras. Por último está un problema más propio de la física de partículas que es el de la inexistencia de monopolos magnéticos. La aparente solución de todos estos problemas han convertido al escenario inflacionario en un modelo muy atractivo para explicar los primeros estadios de la expansión. Me gustaría dejar bien claro, sin embargo, que el modelo de universo inflacionario no es parte todavía del Modelo Estándar puesto que observacionalmente sólo pueden comprobarse sus predicciones mirando en la estructura de las variaciones de la radiación cósmica de fondo, un campo observacional que todavía está en pañales. Según este escenario la causa de la expansión provendría de la existencia, en los primeros estadios de la vida del universo de un valor muy elevado de la constante cosmológica. Dicha constante fue introducida por Einstein para salvar su modelo estático, hecho comentado anteriormente. Su interpretación teórica no es muy satisfactoria, pero valdría decir que añade un término a las ecuaciones de campo de la Relatividad General con un efecto repulsivo que compensa la tendencia al colapso de la materia. El valor de esta constante ha sido otra de las controversias de la cosmología actual. Argumentos basado en teorías cuánticas de campos (donde la constante cosmológica está relacionada con la densidad de energía del vacío) han establecido un valor de ésta que es hasta ¡120 órdenes de magnitud! mayor que la que se deduce de una simple evidencia astronómica. Esta evidencia indica que el valor de la constante cosmológica tiene que yacer muy próximo a cero, de otra manera el universo bien hubiera colapsado sobre sí mismo hace ya mucho tiempo si el valor fuera negativo, bien, en caso contrario, se hubiera expandido tan rápidamente que no hubiera dado tiempo a que se formaran las acumulaciones de materia que dieron posteriormente lugar a las galaxias. Ésta es una coincidencia numérica notable, que a unos hace plantear la plausible posibilidad que, de un número que pueda tomar en principio un gran rango de valores, y que esté observacionalmente tan cercano a cero, y que además fue introducido innecesariamente en la teoría, su valor sea nulo. Sin embargo, existen otras coincidencias numéricas que ya fueron señaladas tan pronto como en 1937 por Paul Dirac (1902-84) y reanalizadas posteriormente por Robert H. Dicke (n. 1916) del grupo de teóricos de Princeton, lo que llevó a estos últimos a la formulación de lo que se conoce como Principio Antrópico. La versión fuerte de este principio nos dice que "el universo ha de ser tal que admita en su seno la creación de observadores conscientes en alguna de sus fases". Pero esto representa un cambio demasiado radical respecto al concepto clásico de lo que entendemos por una explicación científica, asemejándose más a la tradicional visión religiosa. Un poco más aceptable podría ser una versión más débil de este principio que podríamos enunciar como: "aquello que es factible observar está delimitado por las condiciones necesarias para nuestra presencia como observadores". Este enunciado no es más que un enunciado de un tipo de principio de selección que tendría perfectamente sentido dentro de escenarios inflacionarios (como inflación caótica de Linde) donde es posible la existencia de innumerables universos con propiedades bien diferentes. En dichos escenarios es una perogullada que sólo existirían observadores en aquellos universo que, como el nuestro, poseen condiciones apropiadas para el desarrollo de las formas biológicas superiores. Aun así, muchos piensan recurrir sistemáticamente a un principio de este tipo dentro de una ciencia empírica resultaría algo descorazonador, si no inadmisible. Una discusión mucho más detallada se puede encontrar en el artículo El Argumento del Diseño y El Principio Antrópico. seguir línea principal del texto En el principio... Bueno, lo que en realidad estamos llamando el principio aquí es el universo cuando la temperatura rondaba los 100,000,000,000 K. El universo ya había existido al menos por una pequeña fracción de segundo y estaba dominado por radiación con unas pequeñas trazas de materia. La radiación estaba en forma de fotones, neutrinos y antineutrinos. La materia estaba en forma de electrones, positrones y una pequeña concentración de protones y neutrones (denominados nucleones) - aproximadamente un nucleón por cada 1,000 millones de partículas -. A estas temperaturas y densidades tan extremas (la densidad equivalía a unos 3,800 millones de veces la densidad del agua) todas estas entidades se comportan como partículas. Eso significa que están todo el tiempo colisionando entre ellas, casi como lo harían un montón de canicas que estuvieran bien empaquetadas en un container. En el universo primitivo no existían "paredes" físicas que contuvieran a esas partículas, sino que el elevado número de colisiones y la rapidez de éstas jugaban perfectamente el papel de "paredes del universo". Sin embargo, esas "paredes" no eran estáticas, sino que a medida que se producían las colisiones el universo aumentaba de tamaño. La expansión del universo producía una disminución de la densidad de energía que tenía que distribuirse en un volumen cada vez mayor. Este proceso implicaba a su vez una disminución de la temperatura del universo, proceso que continúa ocurriendo hoy en día. Las colisiones entre partículas tenían tres importantes consecuencias. La primera es que el universo estaba en equilibrio térmico. Para dar al lector una idea de lo que esto significa, vamos a fijarnos en un vaso de agua a 40 grados. La temperatura de un objeto es una medida de la energía media del movimiento (energía cinética) de sus moléculas. Pero no todas las moléculas tienen la misma energía cinética correspondiente a una temperatura de 40 grados, sino que existen moléculas con menos energía y moléculas con más energía. Una representación del número de partículas para cada valor de la energía tendría la siguiente apariencia [average temperatura significa temperatura media] Sin embargo, todas esas moléculas están continuamente colisionando con las moléculas de su alrededor, por lo que se producen intercambios de energía. Este hecho produce que las moléculas cambien continuamente de energía. El equilibrio térmico se consigue cuando el número de moléculas que tienen una determinada energía no cambia con el tiempo con gran aproximación. Esto es posible si por cada molécula que cambia su energía en una colisión, existe otra molécula que ocupa el lugar de la anterior después de que su energía previa haya cambiado en otra colisión cualquiera. En el universo primitivo, debido a la rapidez de las colisiones entre las partículas, existía una condición casi perfecta de equilibrio térmico. La importancia de este hecho radica en que hace posible que podamos hacer cálculos precisos de lo que sucedía con la materia en aquellas circunstancias. Las otras dos consecuencias de esas colisiones están relacionadas con las interacciones que se producen entre las partículas que colisionan. La primera interacción que puede ser considerada era la constante aniquilación y producción de electrones y positrones. Uno de los descubrimientos más famosos del siglo XX es la equivalencia entre la masa y la energía: bajo condiciones adecuadas, la energía se puede convertir en materia y viceversa. La conversión de energía en materia no se observa comúnmente en nuestro entorno porque éste es demasiado frío y no hay presión suficiente. Pero con las densidades y temperaturas que reinaban en el universo primitivo, esta conversión era el pan de cada día. Los fotones () se convertían en electrones (e-) y positrones (e+) (proceso conocido como producción de pares). Estos fotones no podían producir partículas más pesadas (como nucleones por ejemplo) por no poseer suficiente energía. Los electrones y positrones terminarían por colisionar con sus respectivas antipartículas y convertirse de nuevo en fotones (a lo que nos referiremos como aniquilación) La segunda interacción fue la conversión de protones en neutrones y viceversa. Esas partículas atómicas pesadas estaban ya presentes "en el principio" y estaban continuamente transmutándose una en otra mediante las siguientes reacciones: "En el principio", debido a la alta densidad de energía, las colisiones entre las partículas ocurrían de forma tan rápida que las reacciones de conversión de protones en neutrones y viceversa se equilibraban de tal manera, que su número, aunque pequeño, era muy aproximadamente el mismo. Pero esa igualdad se rompió casi inmediatamente debido a que los neutrones son ligeramente más pesados que los protones. Por tanto, se necesita un poco más de energía para cambiar de un protón a un neutrón que viceversa. Al principio esto no tenía ninguna influencia porque había gran cantidad de energía en los alrededores. Pero como esta densidad de energía decrecía continuamente con la expansión, cada vez había menos energía disponible para cada colisión. Este hecho empezó a inclinar la balanza hacia la formación de protones, por lo que en número de protones empezó a ser mayor que el de neutrones y a medida que bajaba la temperatura la diferencia fue cada vez más notable. De acuerdo con las ecuaciones, 13.82 segundos después "del principio", la temperatura había descendido hasta unos 3,000,000,000 K. En este momento se produjo una drástica reducción de la población de electrones y positrones. La razón: de nuevo la expansión del universo. A medida que los electrones y positrones se aniquilaban mutuamente, la longitud de onda de los fotones producidos aumentaba y disminuía, por tanto, su energía de tal manera que ya no era posible que volvieran a producir pares de electrones-positrones Hasta este momento (sobre unos tres minutos después "del principio") no hubo nucleosíntesis (formación de núcleos atómicos) debido a la alta densidad de energía. Para que se cree un núcleo es necesario que se produzca una colisión entre nucleones y que éstos permanezcan enlazados. En el universo primitivo, la reacción clave fue la colisión de un protón y un neutrón para formar un núcleo de deuterio (isótopo del hidrógeno). Las colisiones entre protones y neutrones habían estado ocurriendo desde "el principio", pero sus energías eran demasiado alta para permitirles enlazarse y formar un núcleo de deuterio. Este hecho impediría que se produjeran núcleos más pesados. Este tipo de situación, donde un producto intermedio es un enlace débil en un proceso de síntesis global, es llamada un "cuello de botella". Una vez este "cuello de botella" es superado, las reacciones restantes pueden llevarse a cabo. En el universo primitivo, una vez el "cuello de botella" debido al deuterio fue superado, las trazas cada vez más estables de deuterio podrían producir reacciones nucleares que llevarían a la formación del Helio. Esto podría suceder según los dos caminos que se describen a continuación PRIMER CAMINO Los núcleos de deuterio colisionan con un protón formando 3He, y seguidamente con un neutrón formando 4He SEGUNDO CAMINO El deuterio colisiona primero con un neutrón formando 3H (habitualmente conocido como tritio), y posteriormente con un protón para formar de nuevo 4He Este núcleo fue el más pesado que se formó en el universo primitivo, debido a que en el momento en que esto fue posible, la densidad de energía ya era demasiado baja para permitir que los núcleos colisonarán con suficiente energía para fundirse. En el momento en que comenzó la nucleosíntesis, la abundancia relativa de protones y neutrones era: 13% de neutrones y 87% de protones. Todos los neutrones fueron utilizados para formar los núcleos de Helio. Los protones quedarían de esa manera como núcleos de hidrógeno. Por lo tanto, tenemos que en el momento en que se completó la nucleosíntesis primigenia, el universo consistía en prácticamente un 25% de He y un 75% H (en peso) con ligeras trazas de otros elementos ligeros. Más abajo se muestra una gráfica que resume el resultado de la nucleosíntesis en el universo primitivo. La gráfica muestra la abundancia relativa de diferentes núcleos (eje vertical) durante las primeras tres horas del universo. El eje horizontal ha sido etiquetado con el tiempo en segundos (parte superior) y la temperatura equivalente a ese periodo en la parte inferior. Para aquellos lectores que no estén acostumbrados al uso de una escala logarítmica, se ha añadido una línea discontinua que incida un nivel de abundancia del 1%. Cualquier cosa por debajo de esta línea corresponde a abundancias de menos del 1% de la masa total presente. Como se pude ver en las curvas de la gráfica, a temperaturas más altas, sólo existían protones y neutrones, con más de los primeros. Pero a medida que disminuía la temperatura, hay un incremento de la cantidad de deuterio y núcleos de helio. Justo por debajo de mil millones de grados aparece una cantidad significativa de deuterio y helio, y una disminución de la abundancia de protones y neutrones. Éste es el "cuello de botella" del deuterio que habíamos mencionado previamente. El uso de todos los neutrones libres y algunos protones, causa que la curva de la abundancia de neutrones caiga abruptamente y la de los protones tenga un pequeño bache. La abundancia de deuterio sólo crece hasta este punto porque éste es un estado intermedio en la formación del helio. Por lo que a medida que se crea deuterio, se consume rápidamente para completar la síntesis del helio. Una vez se han usado todos los neutrones, su abundancia disminuye. El paso final en la formación de los elementos fue la captura de los electrones libres por parte de los núcleos para formar los átomos neutros (proceso conocido curiosamente como recombinación a pesar de que es la primera vez que se ligaban electrones y núcleos). Pero los electrones tenían aún suficiente energía para y el proceso de recombinación no ocurriría de forma masiva hasta que transcurrieran unos 700,000 años. La captura de los electrones para formar los átomos tuvo una consecuencia importantísima: sin electrones libres, la radiación electromagnética (los fotones) ya no tenían con quién interactuar y el universo se volvería transparente al paso de ésta. Esto significó que los fotones serían capaces de expandirse junto con el universo. Esos fotones que acabaron por ser libres tenían energías altísimas que se traducía en longitudes de onda muy cortas. Pero la expansión del universo causó el alargamiento de esta longitud de onda. Esos fotones de longitud de onda alargada debida a la expansión son a los que nos referimos cuando hablamos del fondo cósmico de microondas. Éste es un remanente del Big Bang. Hemos sido capaces de medir la intensidad de este fondo de radiación que se ajusta casi perfectamente a lo que predicen los cálculos teóricos. Ésta ha sido una de las evidencias más rotundas a favor de la imagen del universo que proporciona el modelo del Big Bang. Las abundancias relativas de elementos que predicen los cálculos de nucleosíntesis primordial dependen drásticamente de la densidad de bariones [B h2 = densidad de bariones/densidad crítica (H0/100)2]. En la figura se muestran las abundancias relativas de Helio, Deuterio y Litio. La banda amarilla muestra el rango que permite las observaciones actualmente: obsérvese que ya es un hecho extraordinario que las observaciones se ajusten con tanta precisión a la teoría. Esto implica (según sea la indeterminación de la constante de Hubble) una densidad de bariones en algún lugar entre una centésima y seis centésimas de la densidad crítica. Una historia detallada del desarrollo del modelo de nucleosíntesis primigenia y la detección del fondo cósmico de microondas puede ser vista aquí.