COSMOLOGIA EN LA TEORIA GENERAL DE LA RELATIVIDAD Rafael Zamora Ramos 1 Índice Introducción ............................................................................................... 3 Relatividad general y cosmología ............................................................. 3 La métrica de Friedmann-Robertson-Walker ......................................... 5 Las ecuaciones de Friedmann .................................................................... 10 El contenido de energía y materia del universo .................................... 12 Modelos cosmológicos ................................................................................ 15 El espacio de Einstein-de Sitter y otros universos espacialmente planos ............ 15 Universos dominados por materia con k general ................................................... 17 Datos experimentales ................................................................................. 21 Ley de Hubble........................................................................................................... 21 Medidas de distancias astronómicas ........................................................................ 22 Estructuras a gran escala ....................................................................... 27 La edad del Universo ................................................................................................ 29 La edad de los elementos químicos. .................................................................. 29 Datación radiactiva de una estrella vieja .......................................................... 30 La edad de los cúmulos de estrellas más viejos................................................. 30 La edad de las enanas blancas más viejas ......................................................... 30 Materia oscura .......................................................................................................... 32 Primeras evidencias de materia oscura ............................................................ 32 Evidencias aún más rotundas ............................................................................ 32 Materia oscura no bariónica ............................................................................. 33 Tipos de materia exótica no bariónica.......................................................... 34 Materia oscura fría ............................................................................................ 35 Energía Oscura ......................................................................................................... 35 Radiación de fondo de microondas .......................................................................... 36 Supernovas de tipo Ia y aceleración del universo.................................................... 40 La constante de Hubble ............................................................................................ 43 Algunos problemas con los desplazamientos al rojo ............................................... 44 El universo primitivo.................................................................................. 45 Alternativas al Big Bang ............................................................................ 45 Inflación ...................................................................................................... 46 Bibliografía ................................................................................................. 50 2 Introducción Utilizaremos como hipótesis de trabajo el principio cosmológico, es decir que a grandes escalas el universo es homogéneo e isótropo llegado al resultado de una métrica de curvatura constante llamada métrica de Friedmann-Robertson-Walker en la que podemos distinguir tres casos diferenciados: espacio cerrado, abierto hiperbólico y parabólico. Resolveremos las ecuaciones de Einstein según esa métrica y para las posibles distribuciones de energía materia, comparando los resultados con los datos experimentales del corrimiento al rojo y del a constante de Hubble. Haremos pues una posible descripción de la evolución del universo desde su origen Big Bang hasta sus posibles finales. Veremos los problemas que surgen en la observación y las hipótesis de materia oscura y energía oscura. Veremos a su vez las dificultadas para la interpretación de los datos astrofísicos y su discusión por parte de diferentes sectores de la comunidad científica. Relatividad general y cosmología Cosmología (del griego teoría del universo) es probablemente el área de conocimientos más antigua. Aún, hasta hace poco, sólo podríamos contestar a algunas de sus preguntas más básicas. Esta pobre situación ha cambiado dramáticamente en los últimos años pasados gracias a medidas precisas de una amplia gama de parámetros cosmológicos. Obviamente es imposible encontrar una solución exacta de las ecuaciones de Einstein que describe el universo entero con todo detalle. Pero esto tampoco es lo que pretende la cosmología que describe la dinámica del universo entero a muy grandes escalas, donde la influencia de galaxias individuales e incluso cúmulos de galaxias son meramente perturbaciones despreciables (del orden de 100 Mpsc). El primer principio es el Principio Cosmológico, que pretende decir algo sobre la forma del universo. La idea es que, sea como sea la evolución del universo, en cualquier momento su aspecto es el mismo en todos los puntos y en todas las direcciones. En cualquier momento, el universo es homogéneo e isótropo a muy grandes escalas. Por lo tanto, el Principio Cosmológico implica que la métrica del universo se puede escribir como una familia de hipersuperficies (superficies tridimensionales) espaciales, cada una homogénea e isótropa, que representan el universo a un tiempo t constante y juntos describen la evolución en el tiempo. Un espacio que es homogéneo e isótropo es máximamente simétrico, es decir, tiene el número máximo de simetrías. Matemáticamente, las variedades que son máximamente simétricos son espacios con curvatura constante, una propiedad que se refleja en la siguiente condición sobre el tensor de Riemann: ℛ = − (1) donde la constante K está relacionada con el radio de curvatura. 3 Principio Cosmológico fija casi completamente la forma de la métrica. La validez del Principio Cosmológico parece estar confirmados mediante las observaciones astronómicas del espacio profundo con radioondas y rayos X cósmicos indican que el universo efectivamente es bastante homogéneo a escalas de 109 años luz. Pero la mejor indicación del la veracidad del Principio Cosmológico llegó en 1965, cuando Penzias y Wilson descubrieron la radiación cósmica de fondo de microondas, correspondiendo a la radiación térmica, proveniente de un cuerpo negro con una temperatura de T = 2,7K . Esta radiación cósmica de fondo es en realidad el residuo de la radiación térmica de un pasado mucho más caliente del universo y fue predicha por el físico ruso George Gamov (1904 - 1968) en 1948, como una consecuencia directa del modelo del Big Bang. La radiación cósmica de fondo, que nos proporciona información sobre cuando el universo todavía era muy joven, resulta ser muy isótropa, confirmando de manera extraordinaria el Principio Cosmológico. En realidad no fue hasta 1992 cuando el satélite COBE logró medir las primeras anisotropías en la radiación de fondo, cuyas fluctuaciones son sólo del orden de ∆T /T ∼ 10−5. El segundo principio básico de la cosmología relativista es el Postulado de Weyl, que intenta modelar el contenido de materia del universo. Igual que el Principio Cosmológico afirma que las fluctuaciones de densidad son muy pequeñas a escala cosmológica, el Postulado de Weyl dice que las velocidades propias de la materia son pequeñas en comparación con el movimiento cosmológico. Postulado de Weyl: La materia a escalas cosmológicas se comporta como un fluido perfecto, cuyas componentes se mueven a lo largo de geodésicas temporales, que no se intersectan, salvo (posiblemente) en un punto en el pasado. También el Postulado de Weyl se ve satisfecho en las observaciones: aunque sin duda existen interacciones gravitatorias entre las distintas galaxias, que en ocasiones llevan las galaxias a colisionarse y mezclarse, en general las velocidades particulares causadas por estas interacciones son despreciables con respecto a las velocidades generadas por la evolución del universo. El Postulado de Weyl supone una clase de observadores privilegiados en el universo: los que están en reposo con respecto al fluido perfecto y cuyo movimiento por lo tanto únicamente está determinado por la evolución del universo. A estos observadores se les suele llamar observadores comóviles. También podemos definir un tiempo cosmológico, siendo la dirección temporal de un observador comóvil. Este tiempo cosmológico será útil para describir la evolución del universo y calcular su edad. La métrica de Friedmann-Robertson-Walker El Principio Cosmológico y el Postulado de Weyl determinan casi por completo la forma de la métrica del espacio tiempo. Por un lado, el Postulado de Weyl implica que se puede foliar el espaciotiempo con una familia de hipersuperficies espaciales, que son las superficies de simultaneidad t = cte con respecto al tiempo cosmológico t. Y por otro lado, el Principio Cosmológico dicta que estas superficies han de ser maximalmente simétricas. La hipótesis para la métrica por lo tanto se puede escribir sin pérdida de generalidad como 4 = ( ) − ( ) (2) donde es la métrica de las secciones espaciales tridimensionales con curvatura constante. En otras palabras, el tensor de Riemann de la métrica satisface la condición ℛ = − (3) La función ( ) es el factor de escala, una función del tiempo cosmológico que mide la expansión o la contracción del universo de las secciones espaciales. Obsérvese que para que las secciones espaciales sean homogéneas e isótropas en todo momento, todas las direcciones espaciales tienen que evolucionar de la misma manera y por lo tanto el factor de escala tiene que ir multiplicando a todas las direcciones espaciales. En principio es posible incluir una función del tiempo f 2(t) multiplicando el término dt2, pero es fácil de ver que se podría absorber esta función con una redefinición de la coordenada temporal. La métrica (2) con la condición (3) es por lo tanto la métrica más general de un universo homogéneo e isótropo. El problema central de la cosmología relativista es determinar las funciones S (t) y ( ) en la hipótesis (2) en función del contenido de energía y materia del universo. El factor de escala S2(t) se determinará a través de las ecuaciones de Einstein, ya que éstas describen la dinámica del sistema. Hallar ( ) es un problema puramente geométrico, puesto que implica resolver la ecuación (3). Interpretaremos las soluciones de esta ecuación. 2 La isotropía del espacio implica una simetría esférica, por lo tanto podemos escribir la métrica en las secciones espaciales como ̃ = ( ̅) ̅ + ̅ ( + sin ) (4) donde ( ̅ ) es una función aún desconocida de la coordenada radial ̅ . En lugar de sustituir esta hipótesis en la ecuación (3), vamos a determinar la función ( ̅ ) a través de la ecuación para el tensor de Ricci: = −2 (5) En un espacio tridimensional las condiciones (3) y (5) son equivalentes, por lo tanto es preferible resolver la última, ya que es más sencillo calcular el tensor de Ricci que el de Riemann. Sin embargo en general la condición (5) es claramente más débil que la condición (3). Todas las métricas de curvatura constante satisfacen la ecuación (5), pero no todas las métricas que satisfacen (5) tienen curvatura constante. Las métricas que satisfacen la ecuación (5) se llaman métricas tipo Einstein. Los símbolos de Christoffel no nulos de la hipótesis (4) son 1 = r̅ = − sin θ cos θ Γ = B Γ = Γ Γ = −r̅ e Γ Γ = −r̅ sin θ e Γ (6) = cotgθ 5 de modo que las componentes no-triviales del tensor de Ricci vienen dadas por =− ̅ = −1 + − ̅ = sin (7) donde la prima denota la derivada con respecto a ̅ . La ecuación (5) se reduce entonces, en nuestro caso, a dos ecuaciones independientes ̅ ̅ ̅ = ( 1 − ̅ ′) + 1 = 2 − , ̅ (8) que tienen como solución = (9) ̅ La métrica de una superficie (tridimensional) con curvatura constante viene dada por lo tanto por ̃ = (10) ̅ ̅ + ̅ ( ) + sin donde la constante K puede tener un valor arbitrario positivo, negativo o cero, correspondiendo respectivamente a una variedad tridimensional con curvatura constante positiva, negativa o cero. Para interpretar esta métrica y para futuro comodidad es conveniente sacar un factor común |K|−1 , escalando la coordenada radial ̅ = tonces coge la forma ̃ =| | ̃ = + ( + ( + sin | | (para K = 0). La métrica (10) en- + sin ) para ) =0 para (11) ≠0 donde ahora la constante k está definida como k = K/|K |. Para interpretar la métrica (11), hay que considerar uno por uno los tres casos de K positivo, negativo o cero. El caso más sencillo es sin duda K=0: en (11) reconocemos directamente la métrica para R3 en coordenadas esféricas. Esto era de esperar, ya que para K=0 la ecuación (3) se reduce a la condición para el espacio plano. Intuitivamente sabemos que R3 es un espacio de curvatura constante, puesto que tiene curvatura cero en todos los puntos. El caso K > 0, es decir curvatura constante positiva, es un poco más sutil. Nótese que ahora k = 1 y por lo tanto el rango de la coordenada r cubre sólo el intervalo ] − 1, 1[, ya que la componente se vuelve singular cuando r → ±1. Es por lo tanto natural hacer el cambio de coordenadas = ⇔ = √ (12) de modo que la métrica (11) se convierte en ̃ = [ + ( + sin )] (13) 6 Esta métrica es la de una esfera tridimensional S3 2 con radio . La manera más fácil de verlo es embeber (13) en el espacio plano cuadridmensional R4 a través de las coordenadas = sin sin cos = sin sin sin = sin cos = cos (14) Claramente estas coordenadas satisfacen la ligadura + +1 + = , de modo que las coordenadas {χ, θ, φ} efectivamente describen una tresesfera en R4 con radio . Además la métrica (13) corresponde a la métrica de esta tres-esfera, porque sustituyendo el cambio de coordenadas (14) en la métrica cartesiana de R4 (¡sin olvidarse de la ligadura!) obtenemos = + + + = [ + ( + sin )] (15) El último caso es la variedad con curvatura constante negativa, K < 0, o equivalentemente k = −1. En este caso podemos hacer el cambio de coordenadas = ℎ ⟺ =√ (16) de modo que la métrica (11) se convierte en ̃ = [ + ℎ ( + sin )] (17) Esta métrica describe un hiperboloide tridimensional H3 , lo que se puede comprobar considerando el cambio de coordenadas = sinh sin cos = sinh sin sin = sinh cos = cosh (18) 7 Figura 1. Los tres espacios con curvatura constante (aquí en su versión bidimensional): la esfera SN con curvatura positiva (izquierdo), el plano RN con curvatura cero (centro) y el hiperboloide HN con curvatura negativa (derecha), cada uno con su ángulo acimutal θ. La esfera SN se puede embeber en el espacio euclideo RN+1 , mientras que el hiperboloide HN se puede embeber en el espacio lorentiano R1,N . El hiperboloide H3 no se puede embeber en R4 , sino en su versión lorentziana, el espacio de Minkowski R3,1 efectivamente, las coordenadas satisfacen la ligadura + + − =− , lo que determina en R3,1 una superficie a distancia temporal constante 1 del origen (véase la figura 2). La métri| | ca (17) se obtiene sustituyendo el cambio de coordenadas (18) y la ligadura en la métrica =− + + + En resumen, las tres superficies tridimensionales con curvatura constante son por lo tanto la esfera S3 (curvatura positiva), el plano R3 (curvatura cero) y el hiperboloide H3 (curvatura negativa). No es sorprendente que fue en estos espacios donde históricamente se desarrolló la geometría diferencial, dado que estos son los casos con más simetría: la geometría plana en R3 de Euclides (siglo III A.C.), la geometría esférica por la cartografía y astronomía y la geometría no-euclidea de János Bolyai (1802-1860) y Nicolay Lobachevsky (1792-1856) para el hiperboloide en el siglo XIX. No fue hasta Gauss y Riemann a lo largo del siglo XIX, cuando se generalizó la geometría diferencial para variedades arbitrarias. Por lo tanto, sustituyendo la forma de la métrica (11) en nuestra hipótesis cosmológica (2), vemos que la métrica de un universo homogéneo e isótropo siempre se puede escribir como ) = − ( ) + ( + sin (19) donde hemos absorbido el radio |K | de los espacios tridimensionales en un nuevo factor de escala a(t), definido como ( )=| | ( )= ( ) ( ) para para ≠0 =0 (20) La imagen por lo tanto es que a cualquier momento t = t0 , las secciones espaciales son superficies de curvatura constante y el factor de escala a(t) representa de cierto modo el “tamaño” de esta superficie espacial. En el caso de k = 1, la función a(t) es el radio de la tres-esfera en el momento t y, aunque para los otros dos casos es más difícil visualizar, el aumento o disminución del factor de escala implica una ex8 pansión o contracción de la sección espacial y marca por lo tanto una escala en las secciones espaciales. La expansión del universo por lo tanto no se corresponde con la imagen de diferentes galaxias alejándose unas de otras debido a los movimientos radiales de cada una de ellas en un espacio fijo, sino más bien a la imagen del contenido de materia y energía diluyéndose, debido a la constante creación de espacio, con el aumento del factor de escala. Obsérvese que para k = 0, es factor de escala es adimensional, pero para k = ±1, a(t) tiene dimensiones de longitud. La métrica (19) se llama la métrica de Friedmann-Robertson-Walker (FRW), llamada así por el físico-meteorólogo ruso Alexander Friedmann (1888 - 1925), el físico americano Howard Robertson (1903 - 1961) y el matemático inglés Arthur Walker (1909 - 2001). Friedmann propuso en 1922 la métrica (19) como hipótesis para el universo, dedujo las ecuaciones de Friedmann y obtuvo una de las primeras soluciones realistas de un universo en expansión. En 1935 y 1936 Robertson y Walker demostraron independientemente que la métrica que propuso Friedmann es la hipótesis más general que describe un universo homogéneo e isótropo. Las coordenadas en que está escrita la métrica de FRW en (19) se suelen llamar coordenadas comóviles, ya que el tiempo t es el tiempo propio de un observador que se mueve con la expansión del universo. Las ecuaciones de Friedmann Ya que tenemos la forma general de la métrica de un universo homogéneo e isótropo, podemos concentrarnos en el verdadero problema de la cosmología relativista: la evolución del universo, codificado en la dinámica del factor de escala a(t). Para esto hay que resolver la ecuación de Einstein, utilizando los resultados que acabamos de derivar y la descripción apropiada de la materia. Para calcular los tensores de curvatura de la métrica (19), conviene escribirla como = − ( ) ( ) (21) ( ) es la métrica de las secciones espaciales de curvatura constante, que donde hemos calculado antes. No sólo de esta forma podemos tratar los tres casos k = −1, 0, 1 simultáneamente, sino también resulta que el resultado es explícitamente independiente de las coordenadas utilizadas en las secciones espaciales, ya que lo único que necesitamos saber es que = − = −2 , , = −6 (22) Un cálculo rutinario revela que los símbolos de Christoffel no nulos son = ̇g = ̇ = (23) donde el punto indica derivar con respecto a la coordenada t y los son los símbolos de Christoffel (6) de la métrica . Del mismo modo el tensor de Ricci, el escalar de Ricci y el tensor de Einstein vienen dados por =3 ̈ = −[2 + ̈ +2 ̇ ] =6 ̈ + + ̇ 9 = −3 + ̇ =[ +2 ̈+ ̇ ] (24) Aunque no es estrictamente necesario para resolver las ecuaciones de Einstein, conviene calcular también el tensor de Riemann, para estudiar las singularidades de las soluciones que vamos a encontrar. Las únicas componentes que no son cero son de la forma =− ̈ =− [ + ̇ ] − (25) En cosmología la combinación = ̇ (26) se llama el parámetro de Hubble y mide la velocidad de expansión (o contracción) en comparación con la escala del universo. Como tiene dimensión de longitud inversa, el parámetro de Hubble marca una escala de tiempo y de distancia para el modelo cosmológico en consideración. El tiempo de Hubble tH es la edad que tendría el universo si se hubiera expandido siempre con la misma velocidad que ahora, y la longitud de Hubble es la distancia que ha viajando la luz en el tiempo de Hubble. Obsérvese que el tiempo de Hubble no es (necesariamente) la edad real del universo (de hecho sólo lo es para un modelo específico), ni la longitud de Hubble es una indicación para el tamaño real, aunque en muchos casos sí es de la mismo orden de magnitud. Para determinar a(t), hay que resolver un sistema de ecuaciones diferenciales para el factor de escala a(t), que se obtiene sustituyendo la métrica de FRW (21) en las ecuaciones de Einstein − =− (27) donde el tensor de energía-momento contiene las contribuciones de todos los tipos de energía- momento presente en el universo (materia, radiación, constante cosmológica, ...). por el Principio de Weyl se puede considerar el contenido del universo como un fluido perfecto. Podemos escribir por lo tanto = = P (28) donde = ∑ y =∑ son respectivamente la densidad y la presión total de todos los tipos de energía y materia presentes en el universo. En 1922 Friedmann sustituyó la métrica (21) en las ecuaciones de Einstein, obteniendo así las ecuaciones de Friedmann (y corrigiendo un error que cometió Einstein al derivar estas ecuaciones para su modelo del universo estático de 1917): ̇ ̈ + 1 3 = ̇ − =− − (29) Aunque al conjunto de estas ecuaciones se le llama las ecuaciones de Friedmann, también a la primera ecuación sólo, la componente {tt} de la ecuación de Einstein, se le denomina confusamente la ecuación de Friedmann, mientras que la segunda, la componente {ij}, se llama la ecuación de evolución. Se puede simplificar 10 bastante esta última, combinándola con la ecuación de Friedmann, dando lugar a la ecuación de aceleración ̈ =− ( +3 ) (30) La ecuación de Friedmann relaciona por lo tanto la velocidad de expansión del universo con la densidad de energía y con la curvatura de las secciones espaciales. Obsérvese que sólo es una ecuación diferencial de primer orden y por lo tanto no es realmente una ecuación de movimiento, sino más bien una ligadura para H , ρ y k. Por otro lado, la ecuación de evolución sí es una ecuación de segundo orden y actúa como la ecuación de movimiento de a(t) (de ahí su nombre). En la práctica muchas veces basta con resolver la ecuación de Friedmann para determinar el factor de escala. Veremos en la siguiente sección que la ley de conservación de energía y la ecuación de Friedmann implican la ecuación de aceleración. Finalmente, a veces conviene reescribir la métrica de FRW (21) en las llamadas coordenadas conformes, donde el factor de escala aparece en la métrica como un factor conforme. Se define el tiempo conforme τ , a través de una reparametrización de la coordenada temporal, como dτ = a−1(t)dt ⇔ dt = a(τ )dτ (31) de modo que la métrica (21) coge la forma = ( ) − (32) donde el factor de escala a(τ ) = a(t(τ )) ahora es una función del tiempo conforme. El tiempo conforme no es el tiempo propio de ningún observador en particular (obsérvese que τ tiene dimensiones de longitud inversa para k = 0, pero es adimensional para k = ±1), pero estas coordenadas tienen algunas ventajas, como por ejemplo dejar claro que las métricas FRW con k = 0 son conformamente planas. Los tensores de curvatura en estas coordenadas vienen dados por ( ′) ] , ( ′) ] = 3[ ′′ − = −3[ + ( ′) ] , = −[2 + ′′ − =[ +2 ′′ − = 3[ 2 +2 ′′] ( ′) ] (33) donde el acento indica una derivación con respecto al tiempo conforme τ . Las ecuaciones de Friedmann en estas coordenadas son entonces ′ = 1 3 − − =− − (34) y la ecuación de aceleración viene dada por = ( +3 ) (35) El contenido de energía y materia del universo 11 Como hemos visto, la evolución del universo depende de la densidad de energía ρ y de la presión P , de modo que hay que especificar éstas para poder resolver las ecuaciones de Friedmann. Sin embargo, a su vez, la densidad de energía y la presión cambian con la evolución del universo y dependen por lo tanto del factor de escala. Necesitamos entonces información adicional, que determina como varía a(t) con la densidad y la presión. Esta información nos la da la ley de conservación de energía ∇ T =0 (36) Aunque (36) es una ecuación vectorial, sólo la componente temporal nos proporciona una relación entre ρ, P y a(t). Sustituyendo (23) y (28) en la ley de conservación de energía, encontramos en coordenadas comóviles ̇ ̇ +3 ( + ) =0 (37) Esta ecuación, por rara que pueda parecer a primera vista, es en realidad una identidad conocida de la termodinámica. Multiplicando (37) por a3 , podemos reescribirla como [ ]=− [ ] (38) Si interpretamos a3(t) como el volumen de un trozo de la sección espacial en el momento t, vemos que la ley de conservación de energía dice que el cambio de energía en un volumen es igual a menos la presión por el cambio de volumen. En otras palabras, hemos recuperado una formulación de la primera ley de la termodinámica dE = −P dV. (39) Con la ley de conservación de energía podemos demostrar que las dos ecuaciones de Friedmann en realidad no son independientes: derivando la ecuación de Friedmann (29a) con respecto a t y usando (37), obtenemos después de un poco de cálculo la ecuación de aceleración (30). La ecuación de Friedmann y la conservación de energía implican por lo tanto la ecuación de aceleración y consecuentemente la de evolución. Dado que siempre trabajaremos con fluidos perfectos, que satisfacen la conservación de la energía, en la práctica sólo tenemos que resolver la ecuación de Friedmann para determinar la evolución del sistema. La ley de conservación de energía (37) es imposible de resolver, si no especificamos con qué tipo de energía estamos tratando. El tipo de energía o materia viene especificado por la dependencia de la presión Pα de la densidad ρα , expresado en la ecuación de estado Pα = ω(α) ρα , (40) donde ω(α) es el parámetro de la ecuación de estado. En principio ω(α) no tiene porqué ser constante, pero la homogeneidad y la isotropía de la métrica de FRW obliga a ω(α) sea independiente de las coordenadas x. Además se suele tomar ω(α) también independiente de t: cada fluido perfecto está caracterizado por un valor de ω(α) y, como veremos en breve, diluye de manera diferente con la expansión del universo. Si en distintas épocas el universo está dominado por distintos tipos de energía, es 12 preferible caracterizar estas por varios fluidos perfectos, que por uno solo con un parámetro de estado variable en el tiempo. Como hemos dicho ya, cada valor de ω(α) define un tipo de fluido perfecto. Por ejemplo, ω = 0 corresponde a un fluido perfecto con solamente densidad de materia, sin presión y describe por lo tanto materia fría, sin interacciones, o polvo. Por otro lado ω = 1/3 corresponde a materia muy caliente, materia relativista o radiación y ω = −1 corresponde a una constante cosmológica. El hecho de que estos valores de ω correspondan a estos tipos de fluidos se deriva a través de las leyes de la termodinámica. Sustituyendo la ecuación de estado (40) en la ecuación de conservación de energía (37), encontramos la siguiente ecuación diferencial para ρα en términos de a, ( ( )= )( ) (42) donde ρ0 es la densidad en un momento dado t = t0 (por ejemplo en la actualidad) en que normalizamos el factor de escala como a(t0 ) ≡ 1. En particular, para materia fría (ω = 0) vemos que la densidad va como a−3, es decir, la materia se diluye de manera inversamente proporcional al volumen. Por otro lado, la densidad de energía de radiación (ω = 1/3) evoluciona como a−4,es decir aparte de diluirse inversamente proporcional al volumen, pierde energía en el corrimiento hacia el rojo de la radiación, ya que al expandirse el universo, también aumenta la longitud de las ondas de la radiación de manera lineal en a. Por último, una constante cosmológica (ω = −1) proporciona una densidad de energía constante por unidad de volumen. En este sentido, una constante cosmológica realmente corresponde a la energía del vacío. Una observación interesante surge al sustituir la ecuación de estado en la ecuación de aceleración: ̈ =− (1 + 3 ) (43) Una expansión acelerada del universo sólo es posible cuando el universo está dominado por un fluido perfecto con parámetro de estado ω < −1/38 . Un universo con materia fría o radiación sufrirá una deceleración, debido a la atracción gravitatoria del contenido de energía y materia. Más concretamente se define el parámetro de deceleración como = ̈ (44) ̇ Obsérvese que q es un parámetro adimensional, que indica la deceleración del universo para valores de q positivo y aceleración para q negativo. Otra observación importante sacamos de la ecuación de Friedmann: para que las secciones espaciales sean planas (k = 0), es preciso que la densidad de energía en el universo sea igual a una densidad crítica = ̇ (45) 13 Si la densidad es menor (mayor) que la densidad crítica, necesariamente tenemos que k = −1 (k = +1) y por lo tanto las secciones espaciales tienen necesariamente que tener curvatura negativa (positiva). En este caso se suele hablar de un universo abierto (cerrado), mientras que k = 0 se le denomina un universo plano (¡refiriéndose obviamente a las secciones espaciales, no a la curvatura cuadrimensional!). Podemos definir el parámetro de densidad total, que mide la densidad total en términos de la densidad crítica Ω= (46) Como hemos dicho antes, el universo es espacialmente plano para Ω = 1, abierto para Ω < 1 y cerrado para Ω > 1. También es conveniente definir los parámetros de densidad parciales de cada componente del fluido perfecto Ω = (47) que mide la importancia de cada fluido en comparación con la densidad crítica. Por construcción tenemos que ∑ Ω =Ω (48) Modelos cosmológicos El espacio de Einstein-de Sitter y otros universos espacialmente planos Presentado en 1932 en un artículo conjunto de los dos científicos que aparecen en su nombre, fue considerado una buena descripción de nuestro universo hasta bien avanzado los años 1980. El espacio de Einstein-de Sitter supone que el universo consiste principalmente de materia fría con densidad crítica, o sea Ω = 1 y Ω = Ω = 0. Debido a la densidad crítica de materia, las secciones espaciales son planas (k = 0) y la ecuación de Friedmann ̇ = (49) es directamente integrable, si recordamos que la materia fría se diluye con el factor de ( ). La solución a esta ecuación diferencial es escala como ( ) = ( )= donde la constante (cuando ( ) = tanto de la forma = (50) es el parámetro de Hubble en el momento t = t0 y ( ) = 1. La métrica del espacio de Einstein-de Sitter es por lo 14 = − (51) Esta métrica parece singular para t = 0 y efectivamente el escalar de Ricci, = (52) diverge para t = 0, lo que implica que la singularidad es física. La coordenada temporal corre por lo tanto en el intervalo ]0, ∞[ donde la singularidad en t = 0 representa el origen del universo. Se suele llamar Big Bang tanto a la singularidad inicial, como a los modelos cosmológicos que la predicen. El nombre lo puso el astrofísico británico Fred Hoyle (1915 - 2001) en una entrevista con la BBC en 1950, para mofarse de la idea, puesto que él era partidario de la teoría del estado estacionario, que predice un universo sin evolución, de edad infinita. El espacio de Einstein-de Sitter es por lo tanto el primer modelo que encontramos según el cual el universo no ha existido desde siempre. La edad del universo se calcula fácilmente de la expresión (50) del factor de escala: denominando la actualidad t = t0 y normalizando el factor de escala como a(t0 ) = 1, vemos que la edad del universo en el modelo de Einstein-de Sitter viene dada por = (53) Hasta la segunda mitad de los años 1990, se estimaba el valor actual del parámetro de Hubble H0 entre 50 y 90 km/s/Mpc, lo que resultaba en una edad entre aproximadamente 6,5 y 13 mil millones de años. La cota superior en realidad está cerca del valor que se cree hoy en día, pero la cota inferior es claramente demasiado corta, puesto que hay estrellas y estructuras que existen desde hace más tiempo que esto. El problema más grave por lo tanto del modelo de Einstein y de Sitter era que predecía una edad demasiado corta para nuestro universo. Merece la pena mirar la evolución de universos espacialmente planos dominados por otro tipo de energía, es decir para general. Tomando en cuenta que la ( ) densidad de energía en general disminuye como ( ) = ) , la ecuación de Friedmann se reduce a ̇ = (54) con H0 definido en (67). La solución general viene dada por ( )= siempre y cuando ≠ −1. El caso ( ) ( ) (55) = −1 requiere un análisis propio. 15 Figura 2: La evolución del factor de escala para distintos valores de (para universos espacialmente planos): un universo dominado por materia fría (línea fina continua) inicialmente crece más lentamente que un universo dominado por radiación (línea discontinua), pero decelera menos rápidamente, de modo que después de un cierto tiempo crecerá más rápido. Todos los universos con > − deceleran, el universo con =− (linea punteada) crece de manera constante y universos con < − (línea continua en negrita) son acelerados. Los universos tienen una edad más elevada, cuanta más bajo sea . Por otro lado, puesto que todos tienen el mismo valor para H0, el tiempo de Hubble tH es el mismo para todos. Obsérvese que el factor de escala depende del parámetro de estado , y por lo tanto universos con distintos contenidos de energía, tienen evoluciones diferentes: en el espacio de Einstein-de Sitter el factor de escala va como ( )~ , pero por ejemplo un universo dominado por radiación ( = ) crece como ( )~ . Es decir, en tiempos primordiales, un universo con radiación se expande más rápido que un universo con materia, pero también decelera más rápido, de modo que tarde o temprano su factor de escala será alcanzado por el factor de escala de Einstein-de Sitter y quedará atrás (véase Figura 2). Si los distintos modelos evolucionan a ritmos diferentes, también quiere decir que tienen edades distintas, por lo menos si todos coinciden en el valor actual del parámetro de Hubble H0 . Igual que en el caso de Einstein-de Sitter, se calcula la edad desde el factor de escala. De (55) vemos que para general (pero ≠ −1) = ( (56) ) y por lo tanto el universo es más joven, cuanto más alto es el valor de . La métrica general para universos espacialmente planos (con = ( − ) ( ) ≠ −1) (57) tiene una singularidad del tipo Big Bang para t = 0: el escalar de Ricci viene dado por = ( ) (58) 16 lo que efectivamente es divergente para todo , salvo = . Para saber qué es lo que pasa en este último caso, tenemos que calcular otro escalar de curvatura. Por ejemplo, vemos que para estas métricas el invariante de curvatura = ( (59) ) es singular para cualquier valor de , y en particular para = . Todos estos universos empezaron por lo tanto con un Big Bang, salvo ≠ 1, que ha existido desde siempre. Universos dominados por materia con k general Por último miraremos a los modelos para universos con materia fría, que no tengan necesaria- mente la densidad crítica. Ya hemos dicho en la sección 12.4 que si la densidad es menor que la crítica, las secciones espaciales tienen curvatura negativa, mientras que si la densidad es mayor, las secciones espaciales son cerradas. Calcular la métrica de estas soluciones resulta más fácil en las coordenadas conformes (32). En estas coordenadas, las ecuaciones de Friedmann (34) para un fluido perfecto con = 0 se pueden escribir como 3(ℎ + ) = 2ℎ + ℎ + = 0 (60) donde ℎ = / es el parámetro de Hubble en coordenadas conformes y la prima indica una derivación con respecto al tiempo conforme . La ecuación de evolución se puede integrar fácilmente para como función de h, resultando = −2 ∫ que se puede resolver con técnicas estándar para todos los valores de k. (61) Miremos primero el caso k = 0, a pesar de que ya sabemos que la solución es el espacio de Einstein-de Sitter, para familiarizarnos con las coordenadas conformes. En este caso la integral (61) se resuelve como = −2 ∫ = 2ℎ + de modo que podemos escribir h, y por lo tanto a, en función de (62) como ℎ= = ( + ) (63) donde c y son constantes de integración. Se puede reabsorber c con una redefinición de , pero se determinará por la ecuación de Friedmann, que todavía nos queda por resolver. Sustituyendo la solución para a en la primera ecuación de (60), vemos que el factor de escala viene dado por ( )= (64) y la métrica es de la forma = − (65) 17 Para ver que esta solución es realmente el espacio de Einstein-de Sitter (51), sólo hace falta ir a coordenadas comóviles a través del cambio de coordenadas (31) ⇔ = [12 = (66) ( ) en (64), obtenemos la expresión Efectivamente sustituyendo la expresión para (50). El caso ] = −1 es nuevo, pero la integral (61) se resuelve fácilmente: = −2 ∫ =2 ℎℎ (67) de modo que ℎ= ℎ ⇒ = ℎ (68) Otra vez la ecuación de Friedmann determina la constante de integración como = , un parámetro con dimensión de longitud, como era de esperar, de modo que la métrica viene dada por = ℎ [ − − Ω ] (69) Al intentar escribir esta métrica en coordenadas comóviles, nos encontramos con un problema técnico. El cambio de coordenadas (31) puede expresar t en función de = [sinh − ] (70) pero no al revés, de modo que no podemos obtener una expresión exacta para a(t). Sin embargo, si podemos aprender algunas cosas de esta métrica, mirando los tensores de curvatura y la evolución en tiempos muy tardíos. El escalar de Ricci viene dado por =3 ℎ (71) de modo que, al igual que el espacio de Einstein-de Sitter, tiene una singularidad del tipo Big Bang. Sin embargo, la expansión es mucho más rápida que en el caso k = 0. Aunque no podemos invertir la relación (70) en general, sí podemos mirar lo que pasa cuando ≫ 1. En este caso tenemos que ≈ (72) y por lo tanto ( )≈ (73) Por lo tanto vemos que un universo dominado por materia con densidad más baja que la densidad crítica se aproxima en tiempos tardíos (o no tan tardíos, ya que va exponencialmente) al espacio de Minkowski. En otras palabras, un universo con densidad subcrítica se expande tan rápido y diluye la materia tanto, que el universo se apro18 xima al espacio plano. La evolución del factor de escala para todo Figura 3. está dibujada en Por último, miremos el caso k = 1. Entonces la integral (61) se resuelve como = −2 ∫ = 2 ℎ de modo que podemos escribir h y por lo tanto a en función de ℎ = cot ⇒ = (74) como sin (75) Otra vez la ecuación de Friedmann determina la constante de integración en función de la densidad como = , de modo que métrica viene dada por = [ − − Ω ] (76) También aquí encontramos problemas al intentar escribirla en coordenadas comóviles. El cambio de coordenadas (31) puede expresar t en función de = [ −sin ] (77) Figura 3: El factor de escala para universos dominados por materia con distintos valores de k: un universo con densidad crítica (k = 0, línea continua) corresponde al espacio de Einstein-de Sitter; el caso subcrítico ( = −1, linea discontinua) expande más rápido y se aproxima en tiempos tardíos al espacio de Minkowksi; el caso supercrítico (k = 1, línea punteada) expande muy rápido inicialmente, pero está frenado por la gran cantidad de materia y recolapsará en un tiempo finito. Hace falta interpretar este diagrama con cuidado, puesto que a(t) en el caso k = 0 es adimensional, mientras que tiene dimensión de longitud para k = ±1. 19 pero no al revés. Sin embargo, con las dos expresiones para ( ) y ( ) sí tenemos una parametrización de a(t), que nos permite interpretar la solución: la curva a(t) representa una cicloide(véase Figura 3). El factor de escala por lo tanto crece inicialmente muy rápido, pero está frenado por la gran cantidad de materia (recuerda que estamos en el caso supercrítico), hasta parar del todo y contraerse otra vez. Al calcular el escalar de Ricci, =3 sin (78) vemos que la métrica no sólo es singular en = 0 (t = 0, el Big Bang), sino también en = 2 o equivalentemente en = . El recolapso causará un aumento de la densidad que resultará en otra singularidad, parecida al Big Bang, denominada Big Crunch (Gran Colapso), que hará desaparecer el universo entero. Lo curioso es que cuanto más grande sea la densidad del universo, más tardará en colapsarse. Vemos por lo tanto que el espacio de Einstein-de Sitter es justo el caso límite entre un universo cerrado y uno abierto. Teniendo justo la densidad crítica, no hay suficiente materia para frenar la expansión por completo y iniciar un recolapso, pero sí lo suficiente para diluirse del todo y hacer que el universo se convierte en Minkowski. Datos experimentales Ley de Hubble La primera observación con significado puramente cosmológico fue la ley de Hubble. Hubble obtuvo una relación lineal entre el desplazamiento al rojo z y distancia D c z = H0 D (79) donde c es la velocidad de la luz y H0 es la constante de Hubble, expresada habitualmente en Km s-1 Mpc-1. Esta relación aproximada para pequeños desplazamientos al rojo podría implicar, por extrapolación directa, una relación lineal entre la velocidad y la distancia que se cumpliera para cualquier distancia considerada. 20 Figura 4.Representación de la velocidad frente a la distancia con los datos originales de 1929. Figura 5. Representación de 1996 de la distancia frente a velocidades de más de 30,000 Km/s (z = 0.1). Como se ve la relación permanece lineal con gran aproximación. Este hecho puede ser interpretado como que el Universo está en expansión. Pero una ley de la forma v=HD (80) conocida como relación velocidad-distancia (y muchas veces confundida con la ley de Hubble) tiene muchas más implicaciones. La primera es que ésta es la única relación posible que produce una expansión homóloga que no cambia la forma de las estructuras en el Universo. La segunda es que es compatible con una visión Copernicana donde nuestra posición en el universo no es de particular importancia. Todos los observadores, en cualquier lugar del universo verán el mismo tipo de ley. La tercera es que para una distancia suficientemente grande, un objeto se puede alejar con una velocidad mayor que la de la luz, lo que implica que hay algún tipo de horizonte cosmológico al que tenemos que dar una explicación dentro de un modelo razonable del Universo observable. Este horizonte conocido como radio de Hubble, se produce a una distancia D = c/H0=3000 h-1 Mpc Donde h es un número adimensional ampliamente utilizado: h = (H0 / 100). Por último, si extrapolamos la expansión hacia atrás en el tiempo, parece ser que podría haber un tiempo en que las galaxias estuvieran mucho más cerca y la densidad del universo podría crecer indefinidamente si nos vamos suficientemente atrás en el tiempo. Podemos hacer una primera estimación del tiempo de expansión (denominado tiempo de Hubble) como la inversa de la constante de Hubble. tH = 1/H0 = 9.78 h-1 Gaños donde 1 Gaño = 109 años = mil millones de años = 1 eón. 21 Medidas de distancias astronómicas Los astrónomos han desarrollado una gran variedad de técnicas para enfrentarse al problema de la medida de distancias. La esencia del método utilizado en la mayoría de técnicas es sencilla de explicar. Si uno tiene una bombilla situada a una distancia y la aleja hasta el doble de distancia, su brillo aparente disminuye cuatro veces, si la alejamos al triple de distancia el brillo aparente disminuye en nueve veces y así sucesivamente. Este tipo de variación se conoce como la ley inversa del cuadrado de la distancia. Entonces, si conociésemos el brillo intrínseco de un objeto en el cielo, podríamos usar esta ley para determinar la distancia. Todo parece fácil hasta que uno piensa que existen tres problemas básicos aquí: 1. Encontrar objetos en otras galaxias suficientemente similares a los que podemos estudiar a distancias cortas y entender bien sus propiedades físicas para que nos permitan utilizarlos como candelas estándar, es decir, fuentes de luz de brillo intrínseco conocido. 2. Relacionado con el primero está un factor temporal que debemos tener en cuenta, puesto que estamos observando objetos en galaxias lejanas que se hallan en nuestro pasado temporal, y no podemos asegurar que las propiedades de los objetos estudiados en el presente sean extrapolables a las propiedades de los mismos en el pasado. Este es el problema de la evolución temporal. 3. Determinar los factores de corrección debidos al material (gas y polvo) que se sitúe entre el objeto observado y el observador, problema que uno capta inmediatamente si decide determinar la distancia a una bobilla en medio de la niebla. Esto se conoce como corrección del factor de extinción. A continuación se mencionan algunos métodos muy utilizados que requieren una calibración, es decir, conocer de alguna manera las propiedades físicas de los objetos implicados: 1. ESTRELLAS PULSANTES COMO CANDELAS ESTÁNDAR Cefeidas Las variables Cefeidas son estrellas jóvenes, de masa intermedia (2-10 masas solares) y pulsantes, con periodos de varios días. Se llaman así por el miembro más brillante de la clase, Delta Cephei. Estas estrellas son pulsantes debido a las zonas de hidrógeno y helio ionizado que se encuentran cerca de la superficie. Este hecho fija la temperatura, más o menos, de la estrella y produce una franja de inestabilidad en el diagrama H-R. Se sabe desde hace años que existen dos grupos de cefeidas: las clásicas, con una amplitud elevada y una curva de luz asimétrica, y las cefeidas-s con una amplitud más moderada y una curva de luz simétrica. 22 El diagrama anterior muestra una estrella creciendo y enfriándose, luego disminuyendo de tamaño y calentándose. Las Cefeidas son más brillantes cuando están cerca de su tamaño mínimo. Puesto que todas las Cefeidas están aproximadamente a la misma temperatura, el tamaño de una Cefeida determina su luminosidad. Un objeto pulsante y grande tiene un periodo de oscilación más largo que un objeto del mismo tipo que sea más pequeño. Por lo tanto debe existir una relación periodo-luminosidad para las Cefeidas. Si uno tiene dos Cefeidas cuyos periodos de oscilación difieren en un factor dos, la de mayor periodo es aproximadamente 2.5 veces más luminosa que la de periodo corto. Puesto que es fácil medir el periodo de una estrella variable, las Cefeidas son una maravilla para determinar las distancias a galaxias. Además, las Cefeidas son tan brillantes que se pueden observar en galaxias tan lejana como M100 en el cúmulo de Virgo. El único problema con las Cefeidas es la calibración de la relación periodoluminosidad, pues debe realizarse usando Cefeidas situadas en las Nubes de Magallanes y en cúmulos estelares cuya distancia haya sido determinada por ajuste de la secuencia principal del cúmulo. Y uno debe preocuparse por que la calibración podría depender de la abundancia de metales en la Cefeida, la cual es mucho menor en la Gran Nube de Magallanes que en galaxias espirales luminosas del tipo M100. Indicadores RR Lyrae Las estrellas RR Lyrae son estrellas pulsantes variables como las Cefeidas, aunque éstas son estrellas de baja masa (< 0.8 masas solares), periodos cortos (0.2-1.2 días) y amplitudes por debajo de las dos magnitudes. Se observan dentro de cúmulos globulares, son estrellas de Población II de baja metalicidad y parece ser que todas tienen la misma luminosidad. Puesto que las masas de las RR Lyrae están determinadas por las masas de las estrellas que están saliendo de la secuencia principal, esta constancia en la luminosidad puede deberse a las similitudes en la edad de los cúmulos globulares. 2. Función de luminosidad de las nebulosas planetarias Las nebulosas planetarias son estrellas que han evolucionado a través de las fases de gigante roja y gigante roja asintótica (ver diagrama HR) y han expulsado sus capas externas de hidrógeno sin fusionar, formando una nebulosa ionizada que rodea a una estrella central pequeña y muy caliente. Éstas emiten grandes cantidades de luz en la línea espectral de 501 nm del oxígeno dos veces ionizado (OIII) que las hace fáciles de encontrar. Las nebulosas planetarias más brillantes que se han observado parecen tener el mismo brillo en muchas galaxias, por lo que sus flujos pueden ser usados como indicador de distancia. Este método está correlacionado con el método de fluctuación del brillo superficial, el cual es sensible a la rama asintótica de estrellas gigantes antes de que expulsen sus envolturas. 3. Las estrellas más brillantes Cuando una galaxia está lo suficientemente cerca, las estrellas individuales pueden ser separadas individualmente. La más brillante de esas estrellas puede ser usada 23 para estimar la distancia a la galaxia. Frecuentemente la gente asume que existe un límite superior fijo al brillo de las estrellas, pero esto parece ser una hipótesis débil. Sin embargo, en una población suficientemente grande de estrellas brillantes, se puede hacer una estimación razonablemente buena de la distancia. 4. Diámetros de las mayores regiones H II Las estrellas muy calientes y luminosas ionizan el gas hidrógeno que se encuentra a su alrededor produciendo lo que se denomina una región H II como la nebulosa de Orión. El diámetro de las mayores regiones H II en galaxias ha sido utilizado como "vara estándar" para medir distancias. Pero parece ser nuevamente una hipótesis débil. 4. Supernovas de tipo Ia Las supernovas de tipo I son explosiones de enanas blancas situadas en sistemas binarios. La acreción de materia que se produce desde la estrella compañera hace que la enana blanca alcance el límite superior de masa (límite de Chandraeskhar) donde pierde su estabilidad. Entonces la estrella empieza a colapsar y la compresión propicia la combustión explosiva del carbono que produce una destrucción total de la estrella. La radiación que se emite procede principalmente de la descomposición radiactiva del níquel y el cobalto producidos en la explosión. El pico de luminosidad está relacionado con la rapidez de la caída de la curva de luz. Cuando se aplica esta correlación, la luminosidad relativa de una supernova de tipo Ia puede determinarse dentro de un intervalo de error del 20%. Se han observadas unas cuantas Supernovas Ia en galaxias lo bastante cercanas para permitir que el Telescopio Espacial Hubble determine las distancias y luminosidades absolutas mediante el uso de Cefeidas, permitiendo una de las mejores determinaciones de la constante de Hubble. 5. Fluctuaciones del brillo superficial Cuando una galaxia es demasiado lejana para detectar las estrellas individuales, uno puede todavía estimar la distancia utilizando las fluctuaciones estadísticas en el número de estrellas por pixel en un CCD. Una galaxia cercana podría proyectar unas 100 estrellas por pixel, mientras que una más lejana, un número como 1000. La galaxia cercana podría tener ±10% de fluctuaciones en el brillo superficial mientras que la galaxia más distante sólo un 3%. Los siguientes métodos utilizan propiedades globales de las galaxias y deben calibrarse: 6. Relación Tully-Fisher La velocidad de rotación V(rot) de una galaxia espiral puede ser utilizada como indicador de su luminosidad L. La relación observacional es aproximadamente L = Constante × V(rot)4 Puesto que la velocidad rotacional de una galaxia espiral puede medirse utilizando un espectrógrafo óptico o un radiotelescopio, se puede determinar la luminosidad. Combinada con medidas del flujo F, puede ser inferida la distancia D mediante la relación L = F 4 p D2 24 El diagrama que se muestra a continuación representa dos galaxias: una gigante espiral lejana y una espiral enana mucho más cercana a la Tierra. Ambas cubren el mismo ángulo en el cielo y tienen el mismo brillo aparente. Pero la galaxia distante tiene una velocidad de rotación mayor, y así la diferencia entre el desplazamiento al rojo relativo que presenta uno de los lados y el desplazamiento al azul del otro en la galaxia gigante será más notable. De esa manera pueden ser inferidas las distancias relativas de ambas galaxias. 7. Relación Faber-Jackson La dispersión de velocidades estelares s(v) (que básicamente es la raíz cuadrada del promedio del cuadrado de las velocidades estelares) en una galaxia elíptica puede también ser utilizada como indicador de su luminosidad. Esta relación es aproximadamente L = Const × s(v)4 Puesto que la dispersión de velocidades en una galaxia elíptica puede medirse usando un espectrógrafo óptico, puede determinarse la luminosidad, que combinada con medidas de flujo no da una estimación de la distancia 8. El cúmulo de galaxias más brillante La galaxia más brillante de un cúmulo de galaxias ha sido usada como una candela estándar. Éste método adolece de las mismas dificultades que el de la estrella más brillante y el de las regiones H II de mayor tamaño: los cúmulos ricos con numerosas galaxias contienen seguramente ejemplos de galaxias muy luminosas aunque ese tipo de galaxias sea más bien raro, mientras que cúmulos menos ricos probablemente no contendrán tales miembros brillantes. Los siguientes métodos no requieren calibración: 9. Retraso temporal en lentes gravitatorias. Cuando se observa un cuásar a través de una lente gravitatoria (deflexión de la luz por el efecto gravitatorio de una galaxia o cúmulo de galaxias interpuesto en la línea de visión del observador), múltiples imágenes del mismo cuásar pueden verse, tal y como se muestra en el diagrama que está a continuación: 25 Los caminos que sigue la luz desde el cuásar hasta nosotros tienen longitudes que difieren en una cantidad que depende de la distancia la cuásar y del ángulo de deflexión. Puesto que los cuásares presentas variaciones de luminosidad, la diferencia de longitudes recorrida por la luz puede ser calculada observando las diferencias temporales en variaciones particulares de la luminosidad de la fuente que se producen en varias imágenes. 10. Efecto Sunyaev-Zeldovich El gas caliente situado en los cúmulos de galaxias distorsiona el espectro de la radiación cósmica de fondo observada a través de dichos cúmulos. El siguiente diagrama muestra un esquema de este proceso. Los electrones libres del gas dispersan una pequeña fracción de los fotones del fondo de microondas que son sustituidos por fotones ligeramente más energéticos La diferencia entre el fondo de radiación visto a través del cúmulo y el fondo de radiación sin modificar que se ve en cualquier otra región del cielo puede medirse. En realidad, sólo aprox. un 1% de los fotones que pasan a través del cúmulo son dispersados por los electrones del gas caliente ionizado que se encuentra en éste, y el aumento de energía de estos fotones es de aprox. un 2%. Todo esto lleva a una carencia de fotones de baja energía del orden del 0.02% (0.01×0.02), que produce una reducción de la temperatura de brillo de unos 500 microKelvin cuando miramos en la dirección del cúmulo. A frecuencias altas (mayores que unos 218 GHz) el cúmulo aparece más brillante que el fondo. Este efecto es proporcional a: La densidad de electrones libres El grosor del cúmulo en nuestra línea de visión La temperatura de los electrones La emisión de rayos X procedente del gas caliente es proporcional a: El cuadrado de la densidad electrónica La anchura del cúmulo a lo largo de la línea de visión De la temperatura electrónica y de la frecuencia de los rayos X Si se asume que la anchura a lo largo de la línea de visión es la misma que el diámetro del cúmulo, la distancia puede ser entonces inferida del diámetro angular del cúmulo. 26 Esta técnica es complicada, y años de duro trabajo por pioneros como Mark Birkinshaw (Birkinshaw, M. 1998) sólo ha permitido estimar unas pocas distancias, y un valor de la constante de Hubble que tiende a situarse alrededor de 60 (km/s)/Mpc sin un intervalo de error convincente. Figura 6. Cuadro resumen del alcance de los métodos de estimación de distancias Estructuras a gran escala Supercúmulos. Consisten habitualmente en cadenas de poco más de una decena de cúmulos. Nuestro propio Supercúmulo Local está centrado en Virgo y es relativamente pobre, con un radio de unos 15 Mpc. Los mayores supercúmulos, como el asociado con Coma, pueden extenderse sobre unos 100 Mpc de distancia. Vacíos, estructuras laminares y filamentos. Los surveys de galaxias de desplazamientos al rojo elevados revelan una estructura de pompas de jabón, metafóricamente hablando, con las galaxias básicamente confinadas en estructuras laminares y filamentosas. Los vacíos son la característica observable dominante (ocupando el 90% del espacio) con diámetros típicos de unos 25 Mpc y llegando a monstruos del tipo del vacío de Bootes con un diámetro de algo más de 120 Mpc. También destacan estructuras laminares como la "Gran Muralla" con unas dimensiones del orden de unos 100 Mpc. 27 Figura 7. El survey de galaxias CfA muestra la estructura a gran escala hasta distancias del orden de 150 Mpc, esto es un 2% de la distancia hasta el borde del universo observable. Nosotros estaríamos situados en el centro y la zona donde no hay galaxias representadas corresponde principalmente a la proyección del plano de la Vía Láctea. La posición de las galaxias están representadas por puntos blancos y las enormes estructuras filamentosas y laminares son tan evidentes como los vacíos entre ellas a modos de pompas de jabón. Muestras de campo profundo Desde la puesta en funcionamiento del telescopio espacial Hubble, disponemos cada vez de más imágenes de galaxias extremadamente lejanas que muestran cómo eran sólo un par de eones (miles de millones de años) después de la Gran Explosión. Una de los misterios más interesantes que han revelado estas imágenes es que las galaxias parecen haberse formado antes de lo predicho en la mayoría de los modelos de formación. Figura 8. Imagen de campo profundo de agrupaciones de galaxia tomada por el telescopio espacial Hubble La edad del Universo Hay al menos tres maneras de estimar un límite inferior a la edad del Universo: 28 La edad de los elementos químicos. La edad de los cúmulos de estrellas más viejos. La edad de las enanas blancas más viejas. La edad de los elementos químicos La edad de los elementos químicos puede ser estimada utilizando las propiedades de la desintegración radiactiva. Las edades mejor definidas que se pueden determinar por este método son las transcurridas desde la solidificación de una muestra de roca. Cuando una roca se solidifica, los elementos químicos frecuentemente se separan en diferentes tipos de fragmentos cristalinos. Por ejemplo, el sodio y el calcio son elementos bastante comunes, pero su comportamiento químico es bastante diferente, por lo que uno los encuentra en diferentes granos de una roca. Cuando este método se aplica a rocas de la superficie terrestre, las más viejas datan de unos 3.8 mil millones de años atrás. Aplicado a meteoritos se obtienen valores tan altos como 4.56 mil millones de años. Esto determina perfectamente la edad del Sistema Solar. Cuando se aplica a un sistema en evolución como el gas presente en la Vía Láctea, la precisión del método no es tan buena. Uno de los problemas es que no hay separación en granos con diferente cristalización, por lo que deben usarse los valores absolutos de las proporciones de isótopos en lugar de la pendiente del ajuste lineal. Esto hace que sea necesario conocer la cantidad exacta de cada isótopo que estaba originalmente presente, por lo que se necesita un modelo preciso de la producción de elementos. Un par de isótopos que ha sido usado es el Resnio y el Osmio: en particular, el Re-187 se desintegra en Os-187 con una vida media de 40 mil millones de años. Parece ser que un 15% del Re-187 se ha desintegrado, lo que nos lleva a una edad de 8 a 11 mil millones de años. Pero ésta es sólo la edad media de formación de la materia que forma el Sistema Solar, y ningún Resnio u Osmio se ha producido por al menos 4.56 mil millones de años. Por eso necesitamos unos modelos de cuándo fueron producidos los elementos. Si todos los elementos fueron producidos muy pronto después del Big Bang, entonces la edad del universo debería rondar los t0 = 8-11 mil millones de años. Pero si los elementos son producidos continuamente a una tasa constante, entonces la edad media de la materia del Sistema Solar es (to + tSS)/2 = 8-11 Gaños donde 1 Gyr = 109 años que puede resolverse despejando la edad del universo to = 11.5-17.5 Gaños Datación radiactiva de una estrella vieja Un artículo muy interesante de Cowan et al. (1997, ApJ, 480, 246 ó Cowan et al. 1998) discute la abundancia de Torio en una estrella vieja del halo. Normalmente no es posible medir las abundancias de isótopos radiactivos en otras estrellas porque las líneas espectrales son demasiado débiles. Pero en la estrella CS 22892-052, pueden verse las 29 líneas del Torio debido a que las del hierro son muy débiles. La fracción Th/Eu en esta estrella es 0.219, comparado con el 0.369 que se mide en el Sistema Solar hoy en día. El Torio se desintegra con una vida media de 14.05 Gyr, por lo que el Sistema Solar se formó con una fracción Th/Eu = 24.6/14.05 × 0.369 = 0.463. Si la estrella CS 22892-052 se formó con la misma fracción Th/Eu, la edad estimada de la estrella es de 15.2±3.5 Gyr. En realidad, la estrella debería se ligeramente más vieja debido a que alguna cantidad de Torio que podría haber formado parte del Sistema Solar se desintegró antes de que el Sol se formara, y esta corrección dependerá de la historia de nucleosíntesis en la Vía Láctea. Sin embargo, ésta es una medida interesante porque es independiente de métodos basados en la evolución de la Secuencia Principal. La edad de los cúmulos de estrellas más viejos Mientras las estrellas convierten hidrógeno en helio en sus núcleos, éstas caen en una misma banda en el diagrama H-R: la Secuencia Principal. Puesto que la luminosidad de una estrella varía con su masa M como M3 ó M4, la vida de una estrella en la secuencia principal varía como t = const×M/L = k×L-0.7. Así, si uno mide la luminosidad de las estrellas más luminosas de la secuencia principal, uno consigue un límite superior para la edad del cúmulo: Edad < k×Lmax-0.7 Éste es un límite superior porque la ausencia de estrellas más brillantes que las observadas (Lmax) podría deberse a que ninguna estrella se ha formado en el rango apropiado de masas. Pero en cúmulos con miles de estrellas, tal salto en la función de masa es bastante improbable, y una buena estimación de la edad estará dada por la relación anterior. Han aplicado esta técnica a cúmulos globulares y han encontrado que la edad del Universo es mayor que 12.07 Gyr con un 95% de confianza. Estos investigadores dicen que la edad es proporcional a uno entre la luminosidad de las estrellas RR Lyrae que son usadas para determinar la distancia al cúmulo globular. Chaboyer (1997) da una mejor estimación de 14.6±1.3 Gyr para la edad de los cúmulos globulares. Pero recientemente, los resultados de Hipparcos muestran que los cúmulos globulares están más lejos de lo que previamente se pensaba, por lo que sus estrellas son más luminosas. Gratton et al. calculan edades entre 11 y 13 Gyr, y Chaboyer et al. deducen 11.5±1.7 Gyr para la edad media de los cúmulos globulares más viejos. La edad de las enanas blancas más viejas. Una enana blanca es un objeto estelar que es tan pesado como el Sol pero que tiene un radio como el de la Tierra. La densidad media de una enana blanca es un millón de veces mayor que la del agua. Estas estrellas moribundas se forman en el centro de las gigantes rojas, pero no son visibles hasta que la envoltura de la gigante es expulsada al espacio. Cuando esto ocurre, la radiación ultravioleta que proviene del núcleo estelar ioniza el gas circundante y produce una nebulosa planetaria. La envoltura de la estrella continúa alejándose del núcleo central hasta que se hace invisible, abandonando el núcleo residual caliente que se conoce como enana blanca. Las enanas blancas brillan sólo de su calor residual. Las enanas blancas más viejas serán también más frías y así brillarán de forma más débil. Observando por tanto enanas blancas poco brillantes, se puede estimar el periodo por el que la estrella se ha estado enfriando. Oswalt, Smith, Wood and Hintzen (1996, Nature, 382, 692) han utilizado este método para estimar la edad del 30 disco de la Vía Láctea en 9.5+1.1-0.8 Gyr. La edad del Universo es al menos 2 Gyr mayor que este valor, unos 11.5 Gyr. Es importante observar que aunque los intervalos de error son considerables, es bastante impresionante que métodos tan diferentes sean consistentes entre sí, situando la edad del universo entre los 10 y los 18.7 Gyr. Edad del Universo t0 Método valor (eones) referencia Abundancia de uranio en la estrella de baja metalicidad CS 31082001 >12.5±3 Cayrel et al. 2001 Abundancia de Torio en la estrella del halo CS 22892-052 > 15±4 Cowan et al. (1997, ApJ, 480, 246) Cowan et al. 1998 >12±1 >11.5±1.7 Cúmulos globulares 13.5±1.5 Gratton et al.1997 Chaboyer et al.1997 Krauss & Chaboyer 2001 12.6 +3.4-2.2 Krauss, L.M., and Chaboyer, B, 2003, Science, 299, 65 >9.5+1.1-0.8 Oswalt, Smith, Wood and Hintzen (1996, Nature, 382, 692) edad de las enanas blancas más viejas >12-13 Hansen 2002 238 232 Combinación de medidas de la proporción U: Th en el Sistema Solar y en estrellas viejas y de baja metalicidad 14.5+2.8-2.2 Dauphas (2005, Nature, 435, 1203) 12.7+3-2 Krauss, L.M. 2001 13 ± 3 Análisis estadístico de las medidas disponibles 13.4+1.4-1.0 13.7± 0.2 Lahav 2001 Ferreras, Melchiorri & Silk 2001 Spergel et al. 2003 (WMAP) Conclusión: todavía las medidas directas de la edad del universo son suficientemente imprecisas, pero no deja de sorprender la compatibilidad general con la estimación dinámica de alta precisión de WMAP (Spergel et al. 2003). Quizás el valor de mayor confianza viene a ser la estimación de la edad de los cúmulos globulares por diversos métodos incluyendo funciones de luminosidad, enfriamiento de enanas blancas implican una convergencia en edades del orden de 11-13 eones, lo que dejaría al menos 1 eón para la formación de la galaxia, lo que es compatible con resultados recientes. Materia oscura 31 A principios del siglo XX se creía que toda la masa del universo residía en las estrellas. Un siglo más tarde la situación parece bastante más compleja y sorprendente, según refleja la tabla a continuación: Fracción de la masa en función de la densidad crítica Estrellas ~ 0.5% Gas neutro ~ 0.5% Gas ionizado ~ 3% Total de materia bariónica ~ 4 a 5% Neutrinos ~ 0.1 a 5% Materia Oscura Fría ~ 25 a 33% Constante Cosmológica u otras formas de energía oscura ~ 60 a 72% Componente Primeras evidencias de materia oscura Desde los años treinta se sabe que las velocidades peculiares de las galaxias en cúmulos corresponden a una masa total del cúmulo de aproximadamente un orden de magnitud mayor que el total de toda la materia luminosa observada dentro de las propias galaxias. ¿Cómo se sabe esto?. Hay una manera simple de hacer una estimación de la masa del cúmulo. La única fuerza apreciable entre las galaxias de un cúmulo es la gravedad. Cuanto mayor sea la masa de un cúmulo, las galaxias exteriores estarán sometidas a una mayor fuerza gravitatoria total y por tanto a una mayor aceleración, alcanzando mayores velocidades. Por tanto, la velocidad media de las galaxias de un cúmulo es una medida de su masa. Este mismo argumento nos permite calcular la masa utilizando medidas de las mayores velocidades que se observan en el cúmulo. Éstas no pueden ser mucho mayor que la velocidad de escape, o en caso contrario las galaxias se habrían alejado del cúmulo. Siempre por supuesto, una idea simple en astronomía suele estar acompañada de dificultades observacionales. En este caso, desde luego que no podemos observar las galaxias moviéndose realmente. Sólo podemos obtener una instantánea del cúmulo junto con una medida, a través del desplazamiento doppler, de las velocidades peculiares de cada galaxia. Pero podría pasar que las galaxias con velocidades más elevadas estuvieran realmente escapando del cúmulo, o que no pertenezcan realmente a éste, o que simplemente sean galaxias de fondo atravesando la franja del cielo donde está el cúmulo. Evidencias aún más rotundas 32 También, desde los años sesenta se ha observado una situación similar en las partes exteriores de las galaxias espirales y al menos en algunas elípticas. Si imaginamos una galaxia a modo de Sistema Solar, con las estrellas girando en órbitas cerradas alrededor del centro donde se concentra una gran cantidad de masa, cabría esperar entonces que las velocidades de las estrellas disminuyeran a medida que nos alejamos del centro siguiendo una ley kepleriana del tipo del inverso de la raíz cuadrada de la distancia. La representación de la velocidad de rotación frente a la distancia se denomina curva de rotación. Sin embargo, las observaciones indican otra cosa. La velocidad parece mantenerse prácticamente constante hasta el límite observacional externo de la galaxia, como podemos observar en el ejemplo de la curva de rotación de la derecha correspondiente a la galaxia NGC3198 (fuente: Berkeley). Sólo existen dos posibles explicaciones a este fenómeno: 1. Existe una cantidad de materia distribuida de manera diferente a la materia visible 2. Bien las leyes dinámicas o bien la teoría gravitatoria que aplicamos a esas escalas no son correctas. Aunque existe al menos una teoría dinámica alternativa (MOND) y alguna teoría gravitatoria alternativa (Gravedad Conforme por ejemplo), éstas tienen algunos problemas y de momento nadie ha encontrado ninguna desviación de las predicciones de la Teoría General de la Relatividad. Por tanto, antes de abandonar sin motivos suficientes una teoría consistente de tal éxito observacional como la Relatividad General tenemos que probar con la alternativa más simple. Materia oscura no bariónica Antes de 1980 se asumía habitualmente que esta "materia oscura" era materia ordinaria en alguna forma no detectable como gas, estrellas de baja masa y cadáveres estelares del tipo enana blanca o agujero negro. Sin embargo, los años ochenta trajeron a escena otra fascinante idea: que la materia oscura está formada por neutrinos o alguna forma más exótica de partículas aún no descubierta en los laboratorios de altas energías. ¿Por qué piensan los cosmólogos en estos tipos de materia exótica?. La razón es que muchas observaciones convergen a un valor del parámetro de densidad del orden de un 30% de la densidad crítica. Pero la nucleosíntesis primigenia, es decir, el modelo de formación de los elementos químicos ligeros en los primeros instantes del universo, indica que la cantidad de materia bariónica (aquella formada por protones y neutrones) no puede ser muy diferente de un 4 a 5% de la densidad crítica. El total de materia luminosa visible está por debajo de esta cantidad, lo que implica que debe haber mucha 33 materia no detectada en forma de objetos compactos denominados habitualmente MACHOS (del inglés Objetos Compactos del Halo [Galáctico]). Todo esto nos lleva a que al menos un 85% de la materia está formada por algún tipo de materia exótica. Tipos de materia exótica no bariónica Neutrinos La primera partícula que se pensó podía formar parte de esta materia oscura fue el neutrino. El neutrino es una partícula emitida en la desintegración beta donde un protón (p) reacciona con un antineutrino ( ̅ )convirtiéndose en un neutrón (n) y un positrón (e+) [reaction#1] ó un protón (p) interacciona con un electrón (e-) para producir un neutrón (n) y un neutrino ( ). En el Modelo Estándar de la física de partículas, el neutrino es una partícula que no tiene masa. Sin embargo se pueden hacer modificaciones en la teoría que permita la existencia de neutrinos masivos de forma que tienen que ser las observaciones o los experimentos los que decidan cuál es el caso. Al ser el neutrino una partícula sin masa o tremendamente ligera se mueve a la velocidad de la luz o a velocidades muy cercanas, lo que los convierte en lo que se denominan partículas relativistas. Actualmente se denomina a cualquier tipo de partículas relativistas en cosmología como materia oscura caliente (del inglés Hot Dark Matter o abreviado HDM) La nucleosíntesis primigenia establece que el número de tipos de neutrinos sólo puede ser tres (hecho que confirman los experimentos del CERN) y que su número actual tiene que ser del orden de unos 115 neutrinos de cada especie por centímetro cúbico. Teniendo en cuenta que la densidad crítica es del orden del peso de 2 ó 3 átomos de hidrógeno por metro cúbico, si los neutrinos tienen que contribuir con algo así como del orden de la densidad detectada (1/3 de la densidad crítica aprox.) tendríamos que unos 100 millones de neutrinos tendrían que pasar algo así como un átomo de hidrógeno. Un átomo de hidrógeno pesa (en unidades de energía) unos 1000 MeV. Por tanto la masa del neutrino tendría que ser del orden de unos 10 eV para que pudiera constituir el resto de la masa oscura. Pero si los neutrinos constituyen la masa dominante de estructuras como galaxias podemos hacer una nueva estimación de la masa del neutrino de la siguiente manera: Las galaxias tienen unas masas dinámicas que podemos deducir aproximadamente del simple hecho de que las estrellas estén unidas gravitacionalmente al cuerpo de la galaxia. Se debe cumplir entonces que la energía de ligadura gravitacional (G m M/r) sea como muy poco del orden de la energía cinética de las estrellas (1/2 m v2), con objeto de que éstas no escapen de sus órbitas. Por ejemplo, para nuestra galaxia, con el Sol situado a unos 10 kpc gira con una velocidad de unos 220 km/s implica una masa míni34 ma de algo más de 5 ×109 masas solares. Los neutrinos son fermiones (partículas de spin semientero) y el principio de exclusión de Pauli establece un máximo de densidad de neutrinos del orden de un millón por centímetro cúbico. Esto establece una masa mínima para el neutrino de unos 30 eV, lo que es incompatible con el cálculo anterior que establecía un límite superior de unos 10 eV. Las medidas del experimento Super-Kamiokande de 1999 indican que la masa del neutrino es probablemente mucho menor que esta cantidad. Las medidas del CERN ponen un límite superior a la masa del neutrino más pesado de unos 9 eV. Medidas más recientes estiman la suma de los tres tipos de neutrinos en algún lugar entre 0.05 y 8.4 eV . Esto implicaría una contribución escasa a la densidad de materia del universo, situada en algún lugar entre 0.001 y 0.18 de la densidad crítica. Las observaciones de la supernova 1987A también son compatibles con la existencia de tres tipos de neutrinos y con un límite superior de la masa del neutrino electrónico de unos 25 eV. Pero hay un problema más grave que todo esto. Cuando ponemos tanta masa de neutrinos en el universo, las grandes estructuras galácticas como los supercúmulos tienden a formarse primero que las pequeñas estructuras como los cúmulos de galaxias (que se suele denominar formación de arriba a abajo), lo que contradice las observaciones que indican una formación relativamente reciente de las grandes estructuras (más compatible con una formación de estructuras jerarquizada de abajo a arriba). Además las concentraciones de materia en los grandes supercúmulos serían considerablemente mayor de lo observado. Materia oscura fría. Se denomina materia oscura fría (del inglés Cold Dark Matter, abreviada CDM) a cualquier tipo de partículas relativamente masivas que se mueven a velocidades mucho menores que la velocidad de la luz. La búsqueda de este tipo de partículas como parte de la materia oscura tienes dos motivaciones básicas: 1. Su existencia es una característica general de las teorías de gran unificación que intentan unificar todas las interacciones a excepción de la gravedad. 2. Su inserción en las simulaciones de la formación de las estructuras galácticas consigue mejorar la semejanza con lo observado. Las partículas que podrían formar la materia oscura fría podrían tener masas que rondan el Gigaelectrónvoltio e interactuarían sólo a través de la interacción débil y de la gravedad. Por ello se les suele llamar WIMPs (de Weak Interacting Massive Particles o partículas masivas débilmente interactuantes). Algunos de estos tipos de partículas han sido propuestas desde la teoría pero nunca observadas hasta la fecha. Energía Oscura Tanto la Relatividad General permite la existencia de un término que puede producir una repulsión gravitatoria a gran escala, implicando un universo que podría estar incluso acelerando su expansión. Lo intrigante del caso es que existe evidencia de que ésta podría ser de hecho la situación, procedente de tres observaciones independientes: 1. De la relación desplazamiento al rojo-distancia aplicada al brillo de supernovas tipo Ia. 2. De las anisotropías de la radiación de fondo cósmico. 3. Del estudio estadístico de lentes gravitatorias. 35 Todos estos estudios indican que esta componente de energía oscura contribuye con unos 2/3 de la masa del universo, implicando un universo muy cercano o justo con la densidad crítica, y por tanto de geometría espacial plana. ¿Qué podría constituir esta energía oscura?. Se están explorando actualmente dos posibilidades: 1. Constante Cosmológica. 2. Quintaesencia Radiación de fondo de microondas Si fijamos un radiotelescopio lo suficientemente sensible en una dirección particular del cielo podremos sintonizar una señal muy débil con un máximo centrado en una frecuencia de unos 280 GHz, que corresponde al rango de las microondas en el espectro electromagnético. Figura 9. Variación de la intensidad del fondo cósmico de microondas para diferentes frecuencias. El trazado continuo representa el mejor ajuste de una distribución debida a un cuerpo negro a 2.728 K. Las barras de error no pueden ser apreciadas por ser muy pequeñas en comparación con la escala de la representación. Como vemos, el acuerdo es espectacular. Los datos fueron obtenidos por el instrumento FIRAS (Far Infrared Spectrometer] del satélite de la NASA COBE (Cosmic Microwave Explorer). Si nuestro radiotelescopio fuera capaz de sintonizar frecuencias cercanas a los 280 GHz, observaríamos que la intensidad de la señal disminuye a ambos lados de una forma particular y sorprendentemente equivalente a la señal que mediríamos en un cuerpo negro a unos 2,73 grados por encima del cero absoluto de temperatura. Técnicamente se suele llamar a esta señal Fondo Cósmico de Microondas. Sólo el modelo del Big Bang nos da una respuesta simple a la existencia de este fondo de microondas. Si el universo está en expansión, éste podría haber sido más pequeño, más denso y más caliente en el pasado. En algún momento la temperatura era tan alta que ni siquiera los átomos podían existir como tales, encontrándose los electrones desligados de los núcleos. En esas condiciones los electrones interaccionan con los fotones de una forma muy eficiente. En otras palabras, la luz estaba en estrecho contacto con la materia alcanzando ambas un equilibrio térmico perfecto. Pero la expansión del universo enfriaba el entorno hasta que alcanzados unos 3000K los electrones empezaron a combinarse rápidamente con los núcleos formando átomos. En ese momento la luz empezó a viajar libremente, encontrando cada vez menos electrones a su paso. Esa luz sigue entre nosotros (unos 400 fotones por metro cúbico), pero la expansión del universo ha tenido como efecto el disminuir drásticamente la frecuencia hasta convertirla en microondas. El CMB fue detectado por primera vez por dos técnicos de los laboratorios Bell, Arno Penzias y Bob Wilson en 1965. 36 Poco después del descubrimiento de la radiación de fondo, en 1967 Sachs y Wolf (1967, ApJ, 147, 73) sugerían que los primeros agrupamiento de materia que terminarían por formar las grandes estructuras galácticas que vemos en la actualidad podrían haber producido fluctuaciones de la intensidad de la radiación de fondo en regiones diferentes del cielo. Esto sería debido básicamente a que los fotones que nos han llegado desde regiones de mayor densidad de materia tienen que escalar la barrera mayor de potencial gravitatorio y perder energía. Sachs y Wolfe esperaban que las variaciones producidas fueran tan apreciables como del 1%. Pero hoy se sabe que el universo es mucho más homogéneo de lo que sospechaban Sachs y Wolf. Figura 11. Representación de la temperatura de la radiación de fondo en todo el cielo en una escala de color tal que negro representa 0 K y blanco 3 K. Para apreciar diferencias, tendríamos que ser capaces de diferencial una variación del color de alrededor de algunas parte por diez mil El primer tipo de variación detectada fue la anisotropía dipolar en 1969 por Conklin. COBE produjo un mapa de esta anisotropía dipolar con mayor sensibilidad que el original de Conklin. Este tipo de anisotropía es debida al movimiento del Sistema Solar con respecto a un sistema de referencia comovil con la expansión del universo. Figura 12. Anisotropía dipolar. La parte roja es más caliente por un factor v/c T0 y la zona azul más fría por el mismo factor. De ello puede ser inferida una velocidad del Sistema Solar con respecto al universo observable de 370 km/s en dirección a = 11.2h, d = -7º. Podemos decir que un sistema de referencia donde esta anisotropía dipolar fuese cero constituye un sistema de referencia de particular importancia en cosmología que denominamos sistema de referencia comóvil y que puede usarse por cualquier observador para medir lo que se denomina su velocidad peculiar. 37 Las anisotropías debidas al efecto predicho por Sachs y Wolfe fueron medidas por COBE en un rango de algunas partes en 100,000 Figura 13. Mapa del cielo donde los diferentes tonos de color significan diferentes temperaturas con rojo más caliente y azul más frío. El mapa de la izquierda incluye la emisión galáctica y la anisotropía dipolar. En el mapa de la derecha han sido restadas todas las contribuciones quedando las anisotropías propias del efecto Sachs y Wolf y algo de ruido (¡o más bien bastante!) de los instrumentos de medida. La resolución angular de COBE no permite observar los detalles de la formación de estructuras aún tan grandes como supercúmulos de galaxias (para ello se necesitarían una resolución al menos de medio grado). Sin embargo, si extrapolamos los resultados a menores escalas conseguimos que los pozos de potencial sean lo suficientemente grandes para formar las estructuras que vemos en la actualidad. Esto sería así si no hubiera algún efecto que también produjera cambios de energía de los fotones de la radiación de fondo. Si la mayoría de materia necesaria para explicar, con estos datos, la formación de estructura fuera materia bariónica normal, los electrones libres existentes antes de la recombinación dispersarían a los fotones y sería un mecanismo responsable de que no encajaran en la imagen de extrapolación de los datos de COBE a escalas más pequeñas. Por tanto es necesario invocar materia oscura no bariónica que no interaccionara con los fotones de la radiación de fondo. Pero, ¿qué fenómeno físico puede explicar las características del espectro de las variaciones de temperatura observado?. Siguiendo Inflación, las fluctuaciones cuánticas aleatorias producidas cuando el universo tenía la escala de Planck, fueron amplificadas por la expansión exponencial del universo hasta escalas cosmológicas, convirtiéndose en variaciones de densidad. En escalas grandes (mayores de 1º en el cielo actual), estas variaciones de densidad quedaron congeladas. Pero en la fase de gas caliente en el universo primigenio, las variaciones de la densidad en pequeñas escalas (<~1º) se propagarían al modo de ondas acústicas. Dicha onda acústica se producirían por el hecho de que los fotones de luz tienden a dispersar la materia mientras que ésta tira gravitatoriamente del entorno, produciéndose dos efectos contrapuestos: cuando la densidad disminuye debido a la acción dispersora de los fotones, su presión pierde eficiencia y empieza a ganar el tirón gravitatorio que vuelve a aumentar la densidad en un ciclo que se autoalimenta a sí mismo creando ondas acústicas. Si pudiéramos estar en aquel ambiente infernal de la creación seríamos capaces de oír un ruido característico de esas ondas acústicas de densidad. Entre todo ese ruido distinguiríamos una nota particular que destaca entre todas las demás, una longitud de onda que la expansión del universo ha alargado unas 1100 veces de tamaño y que ahora podríamos observar como un máximo de variación de la temperatura del fondo cósmico entre dos regiones del cielo separadas angularmente algo menos de 1º. 38 La razón de la existencia de una frecuencia que destaca sobre las demás está relacionada con el hecho de que los modos de oscilación acústicos no pueden estar coordinados más allá de la distancia que ha viajado la luz desde el comienzo del universo. Por supuesto que no podemos oír la música de la creación, pero sí al menos representar sus notas. La posición exacta de esa nota destacada depende de la densidad total de materia y energía del universo. Un poco más denso y la escala angular será algo mayor; un poco menos denso y la escala se hará menor. Espectro de potencias del Fondo Cósmico de Microondas en escalas menor que ~1º. A partir de un determinado momento (zeq ~ 3200) el universo pasa de estar dominado por la radiación a estar dominado por materia. Las sobredensidades de materia oscura empiezan entonces a aumentar y a oscilar debido a las fuerzas contrapuestas de la gravedad y la presión de radiación. En el periodo del desacople entre la materia y la radiación (Dz ~ 195) la presión de radiación es cada vez menor y el tamaño de la sobredensidad o las zonas de baja densidad determina la amplitud de la potencia como una función de la escala (compresiones y rarefacciones adiabática, es decir sin intercambio de calor con el medio). El movimiento del gas produce además una contribución Doppler desfasado respecto a la contribución adiabática. Estas compresiones y rarefacciones quedan impresas en la radiación resultando un espectro análogo al producido por las ondas estacionarias producidas en un punteo de la cuerda de una guitarra. En noviembre de 1999 llegaban a los medios de comunicación los resultados preliminares del proyecto Boomerang, un globo estratosférico provisto de un pequeño radiotelescopio capaz de medir variaciones de la temperatura del fondo de microondas en escalas de hasta 1/5 de grado. Los datos de la muestra obtenida, que cubría un 1% del cielo, fueron publicados en la revista Nature en Abril de 2000. Habían descubierto el rastro dejado por la contribución principal de las ondas acústicas. El denominado técnicamente primer pico Doppler estaba justo donde cabría esperar si la densidad total del universo fuera igual a la densidad crítica; el universo tiene geometría espacial euclídea, o en términos más coloquiales, el universo parece ser plano. Figura 14. Datos observacionales de los diferentes experimentos que han medido variaciones de la temperatura del fondo cósmico de microondas con sus barras de error correspondientes. Se puede 39 observar como el primer pico Doppler está bien delimitado a una frecuencia angular en torno a 200, justo lo esperado para un universo de densidad crítica. La curva azul corresponde al modelo estándar de materia oscura fría. Las zonas amarillas indican la sensibilidad esperada en las medidas del satélite MAP que decrece rápidamente para escalas angulares menores que 1/5 de grado y mayores de unos 10º. Fuente: Ned Wright's Cosmology Tutorial El equipo del satélite de la NASA WMAP (antiguo MAP y rebautizado en honor del recientemente fallecido David T. Wilkinson) ha analizado el primer año de observaciones del fondo cósmico de microondas corroborando los resultados de observaciones anteriores. Figura 15. Comparación entre los mapas de COBE y WMAP. La resolución angular de WMAP es unas 20 veces mejor (unos 20 minutos de arco). El azul más oscuro corresponde a temperaturas de unos 200 microKelvin por debajo de la media de 2,728 Kelvin. El color varía gradualmente por el espectro visible hasta el rojo más oscuro que representa temperaturas de 200 microkelvin por encima de la media. Supernovas de tipo Ia y aceleración del universo Durante la última década, varios grupos de investigadores liderados por los astrónomos Saul Perlmutter y Alan Riess han estado usando Supernovas de tipo Ia como candelas estándar. Una candela estándar no es más que una fuente luminosa cuyo brillo intrínseco es conocido y usado para medir distancias. La enorme utilidad de las supernovas reside en el hecho de ser capaces de rivalizar en brillo con el conjunto de estrellas de su galaxia de origen, y por tanto ser una de las pocas formas que tenemos de conocer a qué distancia se encuentran las galaxias más lejanas. Las supernovas de tipo I son explosiones de enanas blancas situadas en sistemas binarios. La acreción de materia que se produce desde la estrella compañera hace que la enana blanca alcance el límite superior de masa (conocido como límite de Chandrasekhar) donde pierde su estabilidad. Entonces la estrella empieza a colapsar y la compresión propicia la combustión explosiva del carbono que produce una destrucción total de la estrella (ver reacciones en interiores estelares). La radiación que se emite procede principalmente de la descomposición radiactiva del níquel y el cobalto producidos en la explosión. El pico de luminosidad de este tipo de supernovas está relacionado con la 40 rapidez de debilitamiento de su brillo. Cuando se aplica esta correlación, la luminosidad relativa de una supernova de tipo Ia puede determinarse dentro de un intervalo de error del 10 al 20%. ¡Podemos así medir distancias extragalácticas relativas con una precisión sin precedentes!. Ahora que podemos comparar distancias entre galaxias lejanas podremos estudiar cómo cambia la tasa de expansión a medida que nos vamos a diferentes épocas del universo. Pero ¿cómo relacionar esta tasa de expansión con la distancia?. El factor clave aquí es el desplazamiento al rojo. Cada modelo de universo conlleva una relación definida entre el desplazamiento al rojo y la distancia. Veamos a continuación cómo podemos entender este hecho básico. Relación entre brillo y desplazamiento al rojo En un universo en expansión existen en principio tres efectos a considerar sobre el movimiento de una galaxia. Uno es la inercia de la expansión, que viene caracterizada por el valor de la constante de Hubble. Otro es la tendencia al frenado de la expansión originada por la atracción gravitatoria mutua de toda la masa del universo. El último es un efecto repulsivo debido a la constante cosmológica. Es un fenómeno análogo al que se produce al lanzar una piedra verticalmente hacia arriba. La inercia debida a la velocidad de lanzamiento y la atracción gravitatoria terrestre tienen efectos contrapuestos sobre el movimiento de la piedra (claro que aquí no habría lugar para una constante cosmológica) Supongamos ahora un universo con tan poca densidad de materia que el efecto inercial de expansión sea el dominante (que constituiría el análogo al caso de una piedra lanzada desde un cuerpo de poca masa como un asteroide) . La tasa de expansión permanecerá muy aproximadamente constante. Siempre que miremos a un objeto con desplazamiento al rojo z = 1 estaremos mirando atrás hasta una época cuando los objetos del universo estaban la mitad de separados que en la actualidad (¿Por qué?). En un universo con una tasa constante de expansión eso significa que una supernova observada con desplazamiento al rojo z = 1 habría emitido su luz cuando el universo tuviera la mitad de su edad actual. Si observáramos la misma supernova pero ahora situada en un universo con mayor densidad de materia, la desaceleración de la expansión por efecto de la atracción gravitatoria implicaría que el universo se estaba expandiendo más rápido en el pasado que en la actualidad. Los objetos en el universo estarían la mitad de separados al desplazamiento al rojo z = 1 que lo que están en la actualidad, pero el universo ya no tendría la mitad de su edad, sino algo menos (un ejemplo de ello sería el modelo de Einstein-de Sitter). Al expandirse más rápido en el pasado que en la actualidad, se necesitaría menos tiempo que en el caso con tasa de expansión constante para llegar hasta la separación actual, y por tanto la luz habría viajado durante menos tiempo desde la supernova hasta nosotros. Su distancia aparentaría ser menor y aparecería algo más brillante que en el caso de un universo de baja densidad. El resultado que han obtenido los grupos de investigadores de supernovas no corresponde a ninguno de los dos casos mencionados en las líneas precedentes. Las supernovas a un determinado desplazamiento al rojo son aún menos brillantes que lo esperado en un universo de baja densidad. La manera más directa de interpretar este resultado es que el universo está en expansión acelerada (de forma análoga al universo de de Sitter). Así, ésta era más lenta en el pasado que en la actualidad, con lo que el universo 41 necesitó más tiempo para alcanzar la separación actual de objetos y por tanto la luz de la supernova ha tardado más tiempo hasta nosotros, lo que implica una mayor distancia aparente y consecuentemente un menor brillo aparente. Figura 18. Representación del brillo de supernovas para diferentes desplazamientos al rojo. La línea superior roja (OCDM) es el resultado que cabría esperar en un universo con materia oscura fría de densidad crítica dominado por la contribución de la constante cosmológica. La línea central azul corresponde a un universo de baja densidad dominado por materia oscura fría (OCDM). La línea inferior en verde corresponde a un universo de densidad crítica dominado por materia oscura fría (SCDM). Figura 19. Diagrama de Hubble de supernovas tipo Ia con la inclusión de las nuevas observaciones de supernovas a elevado desplazamiento al rojo. Datos de Wang et al. 2003 en naranja y de Tonry et al. 2003 en negro junto con sus barras de error. DL es la distancia de luminosidad calibrada para una constante de Hubble de 71 km/s/Mpc. Las líneas son modelos teóricas correspondientes a: rojo-universo cerrado (W = 2), negro-universo de Einstein-deSitter, verde-universo vacío (W = 0), azul-modelo de estado estacionario y púrpura-modelo estándar (Wl+WM = 0.73+0.27 = 1). Se observa claramente como a desplazamiento al rojo alrededor de cz = 400000 se produce el cambio de universo desacelerado a universo acelerado (cruce de las líneas verde y púrpura). Fuente: Ned Wright's Tutorial 42 Cabe por supuesto la posibilidad de que ese menor brillo observado sea debido a efectos evolutivos o de interposición de gas y polvo que no se han tenido en consideración (Por ejemplo Rowan-Robinson 2002 alega que este efecto está de hecho distorsionando las conclusiones y Wright 2002 concluye que hay que tomar con cautela el resultado hasta obtener el mismo resultado por algún método independiente). Pero el trabajo observacional de los grupos de supernovas ha sido muy cuidadoso en tener en cuenta todos estos detalles y aún se sigue estudiando la manera en que esos resultados podrían ser engañosos. Estathiou et al. 2002 utiliza un análisis de probabilidad conjunto del espectro de potencias del survey de desplazamientos al rojo 2dFGRS y de los datos del fondo cósmico de microondas llegando a la misma conclusión que los estudios de supernovas, con lo que la aceleración del universo y la existencia de algún tipo de energía oscura parece inevitable. Conclusiones: El Big Bang no está en crisis En la última década ya nos hemos habituado a ver, tanto en los medios de comunicación como en las revistas especializadas, informaciones sobre la crisis del modelo estándar del Big Bang. Estas informaciones suelen confundir el propio modelo del Big Bang con parámetros libres de éste, como puedan ser la constante de Hubble o la densidad media de materia. La constante de Hubble Desde que Hubble en 1929 propusiera una relación lineal entre el desplazamiento al rojo y la distancia para su primer estudio de 24 nebulosas espirales, ésta no ha dejado de confirmarse a medida que se han ido añadiendo más y más objetos. Esta relación es menos aproximada a medida que aumenta el desplazamiento al rojo, como han venido a mostrar las observaciones de supernovas tipo Ia. Pero implica una verdadera relación lineal entre velocidad y distancia que es una mera definición dentro de un universo en expansión. La constante de Hubble, sin embargo, es otra cuestión. Esta constante es un parámetro libre de la teoría. Para aquellos que no entiendan el significado de lo que representa un parámetro libre en una teoría, la siguiente ejemplificación pudiera valer. Si alguien ahora descubriera que la velocidad de la luz es 10 m/s mayor que el valor actual, ¿invalidaría eso la Relatividad Restringida?. Obviamente no, en principio, puesto que la teoría afirma que esta velocidad es constante pero no nos da su valor, un parámetro a medir. Nos podremos plantear todo lo que queramos sobre los métodos que hemos utilizado para medir esta velocidad y qué errores de metodología habríamos cometido. Pero hace falta más que eso para echar abajo toda una teoría coherente como la Relatividad restringida. Con la constante de Hubble estamos en la misma situación. Después de las medidas del telescopio espacial, pocos astrónomos dudan que la constante sea menor que unos 50 o mayor que unos 80, situando el valor más probable alrededor de 70. Bien, esto nos deja en apenas unos 10 mil millones de años para la edad del universo (asumiendo que el tiempo esté dado según el modelo de Einstein de-Sitter como 2/(3 H0), una cantidad de tiempo más bien escasa para la formación de estructuras que vemos en la actualidad. 43 Se puede ajustar el modelo perfectamente (mediante la introducción de la constante cosmológica ) para que estos datos encajen no sin que sea algo forzado en principio, pero también hay que tener en cuenta que los métodos de medida de la constante de Hubble (que no es más que una estimación apropiada de distancias) están basados en prácticamente todas las disciplinas astrofísicas, y un error de comprensión que estemos cometiendo en cualquiera de estas disciplinas podría derribar todo el edificio metodológico. De hecho la nueva calibración de distancias llevada a cabo por el satélite Hipparcos y las nuevas observaciones que parecen favorecer un modelo con constante cosmológica con una edad dinámica del orden de unos 14 mil millones de años, parece haber puesto fin al conflicto. Por último comentar que nadie tiene en consideración que el rango de valores en los que se mueve actualmente la constante es (dentro del error observacional), si no del todo satisfactorio, sí es al menos coherente. Imagine el lector que estuviéramos todavía discutiendo valores de 200 o aún mayores. Algunos problemas con los desplazamientos al rojo. La interpretación del desplazamiento al rojo dentro del modelo estándar se puede describir de manera sencilla como sigue: si imaginamos una onda electromagnética que parte de una galaxia lejana y tenemos en cuenta que ésta onda viaja a una velocidad finita, la de la luz, y que el universo está en expansión, cuando esta onda alcance al observador el universo será mayor que cuando abandonó la galaxia emisora. Por tanto, los valles y crestas de la onda de luz nos llegarán con una frecuencia menor que la que tenían en el momento de la emisión, es decir, con una longitud de onda que estará alargada y por tanto desplazada hacia la zona roja del espectro electromagnético. Esta interpretación es esencialmente diferente que la habitual de efecto Doppler (que explican erróneamente muchos libros de divulgación) aunque coincide con ésta cuando las distancias consideradas no corresponden a tiempos del orden de una fracción importante de la edad del universo. Hay mucha evidencia observacional de que esta interpretación es esencialmente válida: El fenómeno de lentes gravitatorias confirma la existencia de cuásares de elevado desplazamiento al rojo detrás de cúmulos de galaxias con un desplazamiento al rojo menor (Stockton 1978, ApJ, 223, 747) y el valor de la constante de Hubble deducida por este método es compatible con las medidas de otro tipo (Falco et al. 1999 Ap. J. 484, 70); Todo esto nos está diciendo que no estamos esencialmente equivocados en la interpretación del desplazamiento al rojo y por tanto de la cinemática básica del Modelo Estándar. Bien es verdad que existen algunos casos, comentados brillantemente por el astrónomo Halton Arp (1987. Controversias sobre las distancias cósmicas y los cuásares. Tusquets. 1992), que parecen no corresponderse con esta cinemática básica del modelo. Algunas de estas supuestas asociaciones entre cuásares de elevado desplazamiento al rojo, con galaxias de bajo desplazamiento al rojo son bastante llamativas (ver por ejemplo Stephan's Quintet). Pero hay que tener en cuenta que estos casos son excepciones a la regla general y la conexión física entre los objetos pudiera ser sólo aparente (de hecho parece ser que utilizando el método de fluctuaciones en el brillo superficial se puede ver que en el caso del Quinteto de Stephan una de las galaxias parece estar más resuelta en estrellas que su compañera lo que indica que estaría más cercana). Y al menos tenemos cuásares tan luminosos como 3C273 que se encuentran con mucha seguridad a la distancia indicada por su desplazamiento al rojo. Así que aplicando el principio de no multiplicar las hipótesis innecesariamente (navaja de Occam) podemos concluir 44 que es probable que esta sea la regla general. Por otro lado, parece ser que Arp ha cometido algunos errores en los análisis estadísticos. Otros comentarios de interés pueden encontrarse en esta página. Además, se ha afirmado durante muchos años la observación de la existencia de cierta periodicidad en la distribución de los desplazamientos al rojo (Arp 1987 pag. 2628, 30-32, 116-117). Con los nuevos surveys de quasars, se ha podido demostrar que esto era un artificio de los surveys muy limitados de los que se disponía en ese momento (Hawkins, Maddox & Merrifield 2002). Resulta curioso que algunos críticos recientes (p.e. López-Corredoira 2003) sigan utilizando los mismos argumentos sin responder a las críticas de las referencias mencionadas. Las evidencias rotundas de que vivimos en un universo en expansión pueden hallarse en esta página. El universo primitivo. En contra de lo que piensa la mayoría de la gente, el Modelo Estándar del Big Bang no dice absolutamente nada sobre el instante de creación, por decirlo de algún modo, del universo. El modelo nos remonta en el tiempo hasta una fase de alta densidad y temperatura dominada por radiación térmica. No voy a describir aquí con detalle la apasionante historia de descubrimientos que nos llevan a esta conclusión (ver sección anterior), pero la evidencia observacional viene de tres hechos que han sido suficientemente contrastados: las abundancias cósmicas primordiales de los elementos ligeros, la existencia de un fondo de radiación electromagnética correspondiente a una emisión térmica a 2,73 Kelvin y la existencia de tres familias de neutrinos, hecho relacionado con el modo en que se tuvo que llevar a cabo la nucleosíntesis primordial y confirmado en los aceleradores de partículas actuales (ver neutrinos en cosmología). Los problemas teóricos de remontarnos hasta tiempos muy próximos al origen mismo (cualquier cosa que esto signifique) es un problema de la física fundamental y no del propio Modelo Estándar. Sabemos, por los teoremas de Hawking-Penrose, que el Modelo Estándar tiene una singularidad inicial, pero insisto en que cualquier explicación consistente de lo que esté pasando en ese "instante inicial" está más allá de lo que sabemos en física fundamental. Y cualquier especulación que surja al respecto, no sólo tiene que ser compatible con las observaciones actuales, sino proponer nuevas observaciones que no encajen dentro del Modelo actual para invalidarlo. Una propuesta sugerente para entender los escenarios pre-Big Bang son algunos escenarios inflacionarios, donde el universo tiene que haber pasado por unos primeros estadios de expansión exponencial, nacidos de las Teorías de Gran Unificación. Pero las soluciones a los problemas con la singularidad inicial no parece que estén en el buen camino todavía (sin embargo ver noticia del 28 de abril de 2001 y ¿Qué ocurrió antes del Big Bang?). Alternativas al Big Bang El escepticismo es una de las mejores armas del difícil arte de la astronomía en general y de la cosmología en particular. Hay que tener en cuenta que en cosmología estamos usando una lista relativamente pequeña de observaciones indirectas (aunque en espectacular aumento en los últimos años) para extrapolar hasta la gran conclusión de que el universo se expande desde unas primeras fases de alta densidad y temperatura. 45 Fred Hoyle, Halton Arp, Hemann Bondi o Jayant Narlikar son los abanderados del escepticismo frente al modelo del Big Bang, y no hay que olvidar que han mostrado muchas y buenas observaciones que no debemos pasar por alto a la hora de pensar lo que estamos haciendo en cosmología. Pero, como señal el astrónomo P.J.E. Peebles, estos escépticos siempre olvidan en sus ataques tres cuestiones fundamentales. Primero, el Modelo Estándar ajusta perfectamente las observaciones disponibles con gran precisión (un ejemplo impresionante). Segundo, hoy en día no existe ninguna teoría alternativa con alguna posibilidad de sustituir al Big Bang; El modelo de Estado Estacionario, la alternativa clásica, ha tenido que cambiar de tal manera a lo largo del tiempo que, en las últimas versiones, sus predicciones son difícilmente diferenciables de las del Big Bang y su estructura es claramente más compleja, con lo que podemos aplicar sencillamente un corte de Occam para que el Modelo Estándar siga siendo preferible. Parece ser sin embargo, que la versión más elaborada, conocida como Modelo Cuasi estacionario sigue presentando problemas insalvables. Tercero, que obviamente existen cuestiones sin resolver, como puede ser el origen y la formación de las galaxias, pero ninguna que parezca contradecir el modelo dentro de los presentes niveles de conocimiento. Personalmente añadiría una cuarta observación: el Modelo Estándar ha servido de telón de fondo para nuestro avance en la comprensión del universo y de los objetos que éste contiene desde hace al menos seis décadas. La historia de la ciencia nos sugiere que las teorías falsables como el Big Bang, que son tan exitosas durante tanto tiempo suelen ser una aproximación útil a la realidad, y cualquier teoría más completa que esté por venir, incluirá, con toda seguridad, al Modelo Estándar como una aproximación. Esta falsabilidad del modelo se puede poner fácilmente en evidencia si por ejemplo encontráramos en los nuevos surveys de galaxias fluctuaciones en densidad mayores que las que permite la alta isotropía de la radiación de fondo. O detectando algunos objetos extragalácticos con fracciones de helio muy diferentes del 24% predicho por los cálculos de nucleosíntesis primordial. O los astrónomos podrían descubrir unos nuevos objetos con fuertes desplazamientos al azul que violaran la cinemática básica del modelo (ver sin embargo Tamara M. D. & Lineveaver C.H. & Webb J. K. 2001). O descubrir un cúmulo estelar con una edad evolutiva de digamos unos cien mil millones de años que pondría el valor de la constante de Hubble bien lejos del rango permitido por las incertidumbres del modelo cosmológico. Éstas sí serían razones de peso para la actuación. Las propuestas que tenemos hasta el momento, no es que sean descabelladas sino que, parafraseando a Pauli, no son lo suficiente descabelladas para tenerlas siquiera en consideración. Inflación El modelo estándar del Big Bang nos proporciona una descripción física del Universo desde que éste tenía alrededor de una diezmilésima de segundo de forma consistente con todas las observaciones realizadas hasta la fecha. Sin embargo, dentro de esta imagen del Universo surgen espontáneamente cuestiones fundamentales acerca de las condiciones iníciales: el origen del alto grado de homogeneidad del universo a gran escala, el problema de la curvatura nula, el problema del horizonte, el rompecabezas de la constante cosmológica y la sutil asimetría entre la materia y la antimateria son las cuestiones principales que deja sin resolver el modelo estándar. En un artículo ya legendario (Guth, A. H. 1981, Phys. Rev. D 23, 347), Alan Guth introdujo la idea de universo inflacionario o inflacionista: la expansión exponencial del universo en sus primeras fases en la que en unos meros 10-35 segundos el factor de escala del universo crecería al menos en un factor del orden de 1030 veces. 46 Figura 16. Inflación es un periodo de expansión acelerada que probablemente ocurrió en algún momento anterior a un picosegundo (10-12 s) en el que el universo creció en un factor de al menos 1030. En los modelos preferidos inflación empezó cerca de la escala de Gran Unificación (10-35 segundos, 1015 GeV ) y finalizó unos 10-30 s después del Big Bang. Nuestro universo observable (45 gigaaños-luz) partiría de una región 10-60 veces menor, es decir, unos meros 10-33 m El propio Guth (Guth A.H. & Weinberg E.J. 1983. Nucl. Phys. B212 321) mostró que el modelo en el que se basaba su idea no funcionaba y Stephen Hawking (Hawking, Moss & Stewart 1982, Phys. Rev. D 26 2681) presentó un artículo en un encuentro celebrado en Moscú donde apuntaba que efectivamente no iba a llevar a ningún lado, aunque en el mismo encuentro e improvisadamente Andrei Linde presentó una versión mejorada que llamó "nueva inflación" que salvaba las dificultades del modelo de Guth. Algunos meses más tarde Linde publicaba el nuevo modelo (Linde A.D. (1982), Phys. Lett. B 108, 389; 114B, 431 & 116B, 335, 340) . Dentro de un periodo de pocos meses, el nuevo escenario inflacionario fue publicado también por Andreas Albrecht y Paul Steinhardt (1982, Phys. Rev. Lett. 48,1220) de la universidad de Pennsylvania. Con el tiempo se han desarrollado numerosas versiones del escenario inflacionario. No existe por tanto un modelo estándar para la inflación. Los modelos más simples tienen como mecanismo de expansión un campo escalar (el inflatón) que actuaba a modo de constante cosmológica cuando el universo tenía unos 10-35 segundos de vida (la escala de energía corresponde a unos 1016 GeV) y llevó a un aumento del factor de escala del universo en unos 30 órdenes de magnitud, permitiendo resolver el problema de la curvatura nula y el problema del horizonte. El modelo de expansión de un universo inflacionario dominado por la energía de vacío se acerca mucho a un universo de de Sitter donde la expansión es de tipo exponencial. En el modelo original de Guth, antes de que tuviera lugar la transición de fase donde se produjo la ruptura espontánea de la simetría de la interacción electrodébil y nuclear fuerte, el potencial V(f) del campo escalar f estaba situado en un mínimo. Sin embargo, a medida que el universo se enfriaba, el potencial evolucionaba con el tiempo de tal manera que el mínimo global se convertía en mínimo local creándose otro mínimo global. El mínimo local representa un estado denominado de falso vacío y el nuevo mínimo global es verdadero vacío. En el nuevo estado superenfriado, se crearon por efecto 47 túnel (línea discontinua en la figura) algunas regiones burbuja de verdadero vacío dentro del estado general de falso vacío El choque entre las burbujas crearía un recalentamiento del universo de donde aparecería toda la radiación y partículas elementales. Sin embargo, el propio Guth señalaría que este modelo crearía un universo demasiado poco homogéneo para ser compatible con las observaciones actuales. Como solución aparecería la nueva inflación y los modelos posteriores. La diferencia principal con el modelo de Guth estriba en que la transición de fase es de segundo orden –del tipo de la que se produce a la temperatura de Curie cuando un material se vuelve ferromagnético– y que el potencial tiene una forma muy plana durante la transición (las transiciones de segundo orden son mucho más suaves que las de primer orden) y la evolución del universo se compone de tres episodios separados (a) El potencial disminuye muy lentamente (en tiempos característicos mucho mayores que el tiempo de Hubble 1/H(t) en ese momento) y se produce el periodo de expansión exponencial característico de la inflación. (b) El potencial empieza a cambiar mucho más rápidamente. La transición de (a) a (c) es muy corta (con un tiempo característico mucho menor que el tiempo de Hubble) (c) El potencial oscila alrededor del mínimo, y la energía de vacío en las oscilaciones es convertida en partículas de masas del orden de 1014 GeV que terminan decayendo en partículas más ligeras, recalentando el universo. La física de la inflación es especulativa por dos razones fundamentales Porque ningún campo de naturaleza escalar ha sido observado Porque la escala de energías asociadas con la inflación es del orden de 1015 GeV y no hay una teoría física robusta para ese rango de energías. Sin embargo, todos los modelos tienen una características común: una curva de energía potencial casi plana que permite una expansión exponencial "superlumínica" (perfectamente consistente con la Relatividad General) y con una alta tasa de producción de entropía debida al recalentamiento del Universo, por la creación de partículas que terminan decayendo en los fotones que podemos observar hoy en día como radiación de fondo. Esas características comunes llevan a una serie de predicciones interesantes 48 El universo tiene que tener una geometría espacial indistinguible de la euclídea y por tanto el parámetro de densidad debería ser esencialmente uno (La mayoría de modelos predicen W = 1 ± 0.0001). El espectro de las fluctuaciones de la densidad es muy aproximadamente invariante con la escala considerada (la mayoría de modelos predicen un índice espectral n = 1 ± 0.2). Estas perturbaciones en la densidad quedan reflejadas en anisotropías de la radiación cósmica de fondo. Las medidas observacionales son compatibles con esta predicción. El espectro de ondas gravitatorias producidas por las fluctuaciones de la métrica debería también ser muy aproximadamente invariante con la escala. Inflación: Una visión escéptica Los modelos inflacionarios podrían no resolver definitivamente el problema de la curvatura nula ni el problema del horizonte y existen alternativas que también podrían resolver estos problemas ¿Qué sentido tiene invocar propiedades ad hoc de un campo escalar que no ha sido observado para solucionar problemas con condiciones iníciales ad hoc del Big Bang estándar?. Una solución podría ser inflación caótica propuesta por Linde en 1983. Sin embargo parece que aún se requiere un ajuste ad hoc excesivamente preciso (del orden de 1012) en el acoplamiento del inflatón consigo mismo y con otros campos. Existen modelos de inflación que pueden encajar dentro de un universo con densidad de materia menor que la densidad crítica. Andrei Linde reconoce este grado de libertad de los escenarios inflacionarios. Alan Guth 2001 muestra que no existe un método riguroso para calcular la probabilidad relativa de los diferentes parámetros en una burbuja en expansión, con lo que no se puede decidir, por ejemplo, entre si es más probable la existencia de un universo plano o de baja densidad. Inflación predice un tipo de espectro de potencias de las fluctuaciones de la radiación de fondo que parece compatible con las medidas de COBE y WMAP. Pero existen formas alternativas de producir un espectro de ese tipo, por ejemplo, defectos topológicos debidos a transiciones de fases tales como cuerdas cósmicas o texturas. ¿Pueden hacerse observaciones que distingan entre los diferentes modelos?. Esa sería la única manera de que el modelo inflacionario fuera falsable. No existe una teoría consistente (teoría cuántica de la gravedad) que ponga algo de luz en el origen de las fluctuaciones cuánticas que producen inflación en escalas sub-planckianas. Inflación caótica se basa en un campo escalar (el inflatón) sencillo que no tiene ninguna motivación en la física de partículas subyacente (puesto que en principio no tiene nada que ver con el campo de Higgs), lo que es un paso atrás en la idea original de Guth de un modelo inspirado en física de partículas emergente. 49 Bibliografía [1] Byrd Gene G, Chernin A.D., Valtonen M.J.,Cosmology, URSS 2007 [2] Andrew Liddle, An Introduction to Modern Cosmology, Wiley 2003 [3] J. García-Bellido, Astrophysics and Cosmology, Theoretical Physics Group, Blackett Laboratory, Imperial College of Science [4] Andrei Linde, Particle Physics and Inflationary Cosmology, Department of Physics, Stanford University, Stanford CA 94305-4060, USA [5] J. Foster, J. D . Nightingale, A short course in General Relativity, Longman Group Limited 1979 [6] Wolfgang Rindler, Relativity Special, General, and Cosmological, Oxford University Press 2006 [7] Fernando Chamizo Lorente, Seminario relatividad: La odisea continua [8] Bert Janssen, Teoría de la Relatividad General, Dpto de Física Teórica y del Cosmos,Universidad de Granada 2010 50