AUTORES CIENTÍFICO-TÉCNICOS Y ACADÉMICOS LHC: Gran Colisionador de Hadrones Antonio Rincón Córcoles Para apuntar a los fragmentos más pequeños del Universo ha sido preciso construir la mayor máquina de la Tierra. The Guardian, diario británico E l 20 de noviembre de 2009, la comunidad científica internacional celebró con alborozo la puesta en marcha de uno de sus proyectos más preciados. El Gran Colisionador de Hadrones, también conocido por sus siglas inglesas LHC (Large Hadron Collider), comenzó a registrar los primeros choques entre protones de altísima velocidad, esas partículas elementales que anidan comúnmente en el centro de los átomos. Muchas son las esperanzas que se han depositado en la capacidad de este acelerador de partículas para extender las fronteras del conocimiento de la ciencia. Y no menores han sido las controversias suscitadas por el enorme desembolso económico que supone y por la posibilidad de que sus experimentos produzcan consecuencias inesperadas. ¿Qué estímulo ha llevado a la construcción de un proyecto cuyo presupuesto inicial ascendía nada menos que a 7.500 millones de euros? La Organización Europea para la Investigación Nuclear, institución que lo patrocina y más conocida por sus antiguas siglas, CERN, el principal laboratorio de investigación del mundo en física de partículas, tiene sobrados motivos para impulsar la empresa. Tras un esfuerzo de décadas por componer un modelo básico del funcionamiento del mundo físico, los científicos han llegado a una conclusión clara: en nuestro ámbito cotidiano, nos movemos en un entorno de bajas energías que limita nuestra aptitud para investigar y comprender la esencia del universo y de la realidad física. Es preciso elevar al máximo las energías de trabajo de los experimentos para descubrir fenómenos nuevos y para someter a pruebas definitivas las mejores teorías científicas vigentes de que se dispone. 9 ACTA LHC: Gran Colisionador de Hadrones Para este fin se construyen los aceleradores de partículas. Estas máquinas existen desde la década de 1930 y se han construido con una potencia creciente de funcionamiento. En esencia, utilizan campos electromagnéticos de alta intensidad para proyectar partículas cargadas (electrones, protones, núcleos atómicos) a velocidades elevadísimas. En el LHC, el último representante de esta saga, los protones serán acelerados hasta una velocidad del 99,99% de la de la luz. La teoría de la relatividad y la mecánica cuántica han sido inspiradoras y objeto de estos experimentos. La investigación en los laboratorios de partículas de alta energía ha sustentado un extraordinario avance de la ciencia y la tecnología durante el siglo XX. Ha permitido además componer un mapa creíble de la composición de la materia, de las interacciones que rigen los fenómenos que observamos en la naturaleza. Este mapa ha sido denominado modelo estándar de la física de partículas. Relatividad, cuántica y modelo estándar son los tres pilares en los que se asienta la ciencia básica actual. Sus preceptos y predicciones han sido convalidados en multitud de experimentos de notable precisión que les otorgan verosimilitud y un gran valor para el progreso tecnocientífico. Pero el mapa que componen no está completo. En ocasiones resulta ambiguo e incluso contradictorio. Deja entrever espacios de terra incognita que alientan la propuesta de soluciones aventuradas y especulativas por parte de los científicos más osados. En definitiva, no satisface plenamente el ansia intelectual de sus descubridores. El LHC es la herramienta más poderosa con que se cuenta en la busca de este conocimiento. Más de diez mil científicos e ingenieros de un centenar de países trabajan en él. Cientos de universidades y laboratorios de todo el mundo realizan en paralelo investigaciones situadas dentro de su ámbito. Todo con la perspectiva de encontrar una respuesta para las preguntas pendientes de la física, de componer el puzzle definitivo del modelo de partículas y promover así una nueva era del desarrollo científico y tecnológico y del progreso social. à El modelo estándar de partículas La física contemporánea describe la naturaleza como un entorno definido por la interacción de cuatro fuerzas y doce partículas elementales de materia. Dos de las fuerzas son muy conocidas para los legos en el asunto: la gravitación que nos aferra al suelo y que dibuja los movimientos de los objetos celestes, 10 desde las galaxias a los planetas; y el electromagnetismo, que gobierna los fenómenos eléctricos y magnéticos tan utilizados en las tecnologías actuales y que da consistencia y estabilidad a los átomos. Las otras dos fuerzas fundamentales actúan predominantemente en la escala subatómica. La interacción fuerte cohesiona las partículas que están presentes en los núcleos de los átomos. La fuerza nuclear débil da cuenta de ciertos fenómenos subatómicos de gran trascendencia, como es la desintegración beta que marca las pautas del intercambio entre protones y neutrones. El estudio de la gravitación es objeto de la teoría de la relatividad general postulada por Albert Einstein en la década de 1910. La descripción de las otras tres fuerzas fundamentales entra dentro del marco del modelo estándar de partículas. Interacción Partícula mediadora Electromagnética Fotón Nuclear fuerte Gluón Nuclear débil Bosón W, Z Gravitatoria Gravitón Tabla 1. Las cuatro fuerzas fundamentales de la naturaleza y sus partículas mediadoras. Este modelo propugna asimismo la existencia de doce tipos de partículas elementales de materia. Las doce partículas se agrupan en tres grandes familias o generaciones, que presentan grandes semejanzas entre sí y que se diferencian básicamente por la magnitud de su masa. La familia más modesta y asequible es la del electrón, tipo de partícula que circula en la corteza exterior de los átomos y cuya carga negativa se toma como unidad mínima natural. A la familia del electrón pertenecen el neutrino electrónico, de carga eléctrica nula, y dos clases de quarks (up, o arriba, y down, o abajo), integrantes de las partículas presentes en los núcleos atómicos y que se caracterizan por poseer una carga eléctrica fraccionaria. Según los experimentos realizados en aceleradores de partículas, los quarks no pueden existir como partículas libres más allá de un periodo de 10-24 segundos. Por ello se unen unos con otros para formar partículas compuestas como los protones y los neutrones. Históricamente, el descubrimiento de la composición de la materia siguió un orden distinto al indicado. Tras largos siglos de ciencia en los que se creía que la materia era un ente continuo, durante el siglo XIX se extendió la convicción de que está compuesta LHC: Gran Colisionador de Hadrones por entidades mínimas a las que se llamó átomos. Actualmente se conoce la existencia de más de un centenar de clases distintas de átomos, desde el hidrógeno y el helio al plomo, el hierro y el oro, el radio y el uranio, el nobelio y el laurencio. Generación En las primeras décadas del siglo XX se propuso un modelo de átomo construido a semejanza de un sistema solar en miniatura: en el centro se ubicaría el núcleo, integrado por un conglomerado de partículas de carga eléctrica positiva (protones) y neutra (neutrones). Alrededor del núcleo atómico circularían los electrones en órbitas de mayor o menor estabilidad. 2 La realidad descubierta en los años siguientes demostró ser mucho más compleja. Los electrones no ocupan órbitas, sino regiones de probabilidad denominadas orbitales. Las partículas presentes en los núcleos no son elementales, sino que están compuestas por otros corpúsculos. El protón es un conglomerado de tres quarks: dos up o arriba y uno down o abajo. Un neutrón está compuesto por dos quarks down y uno up. La estabilidad de los protones y los neutrones está garantizada por la acción de la fuerza nuclear fuerte, a la que se asocia una partícula mensajera o intermediaria: el gluón (de glue, pegar en inglés). Con estos datos se llegó a completar la primera generación de partículas elementales: electrón, neutrino electrónico y quarks up y down. La colección se enriquece con la presencia de las correspondientes antipartículas: el positrón o antielectrón es formalmente idéntico al electrón, aunque tiene carga eléctrica positiva en lugar de negativa. De forma análoga, existen antineutrinos electrónicos y antiquarks up y down. La segunda familia de partículas elementales tiene como base el muón, que es una especie de hermano mayor del electrón. Se distingue por poseer propiedades muy semejantes a él, aunque una masa unas 200 veces mayor. La cohorte del muón, detectado en fuentes de alta energía como los rayos cósmicos, se completa con el neutrino muónico y los quarks charm (encanto) y strange (extrañeza), además de sus correspondientes antipartículas. Hipotéticamente, sería posible formar átomos con combinaciones de estas partículas pesadas, aunque resultarían altamente inestables. Por último, el tauón o partícula tau es el protagonista de la tercera generación, superpesada, de partículas. Sus parientes son el neutrino tauónico y los quarks top (cima) y bottom (fondo). Estas partículas se han detectado también en fuentes cósmicas de alta energía. 1 3 Partículas Electrón Quark arriba (up) Neutrino electrónico Quark abajo (down) Muón Quark encanto (charm) Neutrino muónico Quark extrañeza (strange) Partícula tau Quark cima (top) Neutrino tauónico Quark fondo (bottom) Leptones Hadrones Tabla 2. Según el modelo estándar, existen tres familias o generaciones de partículas elementales. Electrón, muón y tauón, con sus neutrinos y antipartículas, se llaman leptones, porque no se ven afectados por la fuerza nuclear fuerte. Los seis tipos de quarks, y sus antiquarks, son hadrones, cuyo movimiento está regido por la interacción fuerte. Las partículas de este modelo están definidas por tres propiedades: carga, masa y espín. Electrón, muón y tauón tienen carga eléctrica 1. Sus antipartículas respectivas poseen carga eléctrica +1. Los neutrinos carecen de carga, mientras que a los quarks se les asigna una carga fraccionaria: +2/3 para los quarks up, charm y top y 1/3 para los quarks down, strange y bottom (con signo contrario en sus antiquarks respectivos). La carga eléctrica determina la naturaleza de las interacciones electromagnéticas y provoca, por ejemplo, que los electrones (negativos) sean atraídos a los átomos por los núcleos atómicos (de carga neta positiva). La masa es una noción asimilada a la materia desde antiguo y se relaciona con el movimiento y con la gravitación. Sin embargo, aunque conocida cotidianamente, para la física teórica constituye un enigma cuya solución espera alcanzarse con los experimentos del LHC. Por último, el espín es un concepto importante para la descripción de los estados cuánticos de las partículas y los núcleos atómicos y se relaciona clásicamente con el momento angular o de giro de las partículas. Puede tomar valores enteros (en cuyo caso las partículas asociadas se denominan bosones) o semienteros (en los fermiones, como el electrón). Estas son, a grandes rasgos, las características y descripciones esquemáticas del modelo estándar de partículas. Aunque razonablemente acorde con los experimentos, este modelo presenta algunos puntos débiles y oscuros a los que se ha intentado dar respuesta con ideas atrevidas e innovadoras. Una de ellas, el denominado mecanismo de Higgs, que pretende explicar el significado de la masa, es objeto directo de investigación en los experimentos del LHC y su comprobación, o falsación, pondrá a prueba la validez de todo el entramado. 11 ACTA à LHC: Gran Colisionador de Hadrones Las preguntas pendientes La misión declarada del LHC es convalidar o refutar las afirmaciones más controvertidas del modelo estándar de partículas. Se acompaña asimismo de otros proyectos de gran envergadura cuyo estudio se sitúa en la frontera última de los desarrollos actuales de la ciencia. ¿Existen en torno nuestro dimensiones ocultas que no somos capaces de percibir? ¿A qué se debe el sesgo de presencia de materia, frente a la antimateria, que ha hecho posible nuestro mundo? ¿De qué están hechas las misteriosas materia y energía oscuras que, según la cosmología más avanzada, componen más del 95% del universo? La descripción técnica del LHC ayuda a hacerse idea de la enorme ambición de la empresa científica impulsada por el CERN. El Gran Colisionador de Hadrones, el mayor acelerador de partículas construido en la historia, es un inmenso laboratorio extendido a lo largo de un túnel de 26.659 metros de circunferencia, situado bajo tierra en la frontera franco-suiza cercana a la ciudad de Ginebra. El túnel, que había sido construido previamente para albergar a un anterior acelerador de partículas del CERN, alcanza en sus puntos más bajos hasta 175 metros de profundidad y en él las colisiones entre haces de partículas alcanzarán una energía de 7 teraelectrón-voltios (TeV), aproximadamente 1,12 microjulios (µJ), por partícula. El LHC contiene 9.300 imanes que han de enfriarse previamente a su entrada en funcionamiento a unos 193 °C bajo cero con la ayuda de 10.000 toneladas de nitrógeno líquido. Posteriormente, la temperatura de los imanes debe descender hasta unos 271 °C bajo cero con ayuda de unas sesenta toneladas de helio líquido. En su fase de pleno funcionamiento transitarán por el sistema billones de protones que recorrerán el anillo del LHC más de 11.000 veces por segundo, al 99,99% de la velocidad de la luz. El número de colisiones por segundo se acercará a unos 600 millones. Cabe imaginar la potencia de cálculo de los superordenadores necesarios para procesar toda esta información. Unos diez mil científicos, algunos de los mejores talentos del mundo, de un centenar de nacionalidades trabajan en sus experimentos. Varios miles más desarrollan proyectos asociados en laboratorios de todo el planeta. Cabe imaginar la decepción que sufrieron cuando las primeras pruebas del acelerador fallaron en septiembre de 2008. Una importante avería entre dos imanes superconductores produjo un 12 retraso de catorce meses en la inauguración del LHC. Hoy funciona a buen rendimiento y acoge experimentos cuyos resultados serán base de estudios y esperados avances en los años venideros. El problema de la masa El inglés Isaac Newton (1643-1727) es considerado por muchos el más influyente científico de la historia. A él se deben dos obras fundamentales, que sentaron las bases de la mecánica y la óptica, el estudio de la luz. Describió la gravedad como un fenómeno universal que afecta por igual a los astros del firmamento y a los objetos de la superficie terrestre. Como una fuerza de atracción entre los cuerpos que es directamente proporcional a sus masas respectivas e inversamente proporcional al cuadrado de la distancia que los separa. La idea de gravedad fue refinada con extrema elegancia por Albert Einstein con su teoría de la relatividad general enunciada en 1915. Después de establecer la equivalencia entre masa y energía mediante su célebre fórmula E = mc2 (la energía es igual al producto de la masa por la velocidad de la luz elevada al cuadrado), explicó la gravedad como una deformación del espacio-tiempo provocada por la presencia de los cuerpos dotados de masa-energía. La curvatura resultante en el espacio-tiempo obliga a los cuerpos masivos próximos a seguir trayectorias curvas como hacen, por ejemplo, los planetas en sus órbitas alrededor del Sol. En ambas proposiciones, la teoría de Newton y su ampliación según la relatividad general, aparece la masa como una magnitud fundamental. Asimismo, la masa es uno de los valores básicos de las partículas elementales, uno de los descriptores de su comportamiento. Todos los electrones poseen la misma masa, determinada aproximadamente como 9,019 x 10-31 kilogramos. La masa de los protones es superior en cuatro órdenes de magnitud, de 1,672 x 10-27 kg. No obstante, la inmensa mayoría de este valor corresponde a la energía cinética de movimiento de los quarks up y down que los componen; la masa en reposo de los quarks individuales es comparable a la minúscula del electrón. Una de las debilidades del modelo estándar proviene de la necesidad de asignar valores empíricos a las masas en reposo de las doce partículas elementales. Valores como los expresados en el párrafo anterior distan llamativamente de la elegancia y sencillez de los que se asignan a las otras dos cualidades básicas de dichas partículas: la carga eléctrica y el espín. LHC: Gran Colisionador de Hadrones La masa aparece como una propiedad enigmática, cuyos efectos son fáciles de percibir en el mundo macroscópico, por ejemplo, como una medida de la oposición que presentan los cuerpos a ponerse en movimiento. Pero su origen y esencia íntima resultan desconocidos según las bases de la teoría. En el contexto del modelo estándar se ha apuntado una idea que podría explicar la procedencia de la masa de las partículas. Se denomina mecanismo de Higgs y preconiza la existencia de una partícula aún no descubierta, que ha sido bautizada con el nombre de bosón de Higgs. Este bosón se entiende como un ente surgido de la excitación del vacío ante la presencia de un campo de su mismo nombre. Su búsqueda constituye uno de los objetivos principales del LHC, dado que se estima que esta partícula estaría al alcance de los experimentos para los rangos de energías y temperaturas manejados en este acelerador. El mecanismo en cuestión fue propuesto por primera vez en 1964 por Robert Brout y Francois Englert, aunque Peter Higgs trabajaba de forma contemporánea en un desarrollo similar. Así, este físico teórico inglés fue agraciado con el nombre del supuesto bosón implicado cuando otro puñado de investigadores habrían sido igualmente merecedores del honor. Sea como fuere, la idea parte de la conjetura de que el espacio en el que acontecen los fenómenos subatómicos está impregnado de un campo cuántico especial, que se ha dado en llamar campo de Higgs. La relación de cada partícula elemental con ese campo provoca la aparición de su masa en reposo, según un mecanismo que genera el valor concreto para esta magnitud medido en los laboratorios. La propuesta del campo de Higgs fue necesaria para solventar un problema de inconsistencia del modelo estándar. En ausencia de este campo, para que el modelo fuera consistente todas las partículas habrían de moverse a la velocidad de la luz. Pero esto sucede tan sólo para los fotones, las partículas sin masa mediadoras del electromagnetismo consideradas como cuantos de luz. El campo de Higgs, a modo de un espacio de barro cuántico con el que ha sido comparado, actuaría para frenar a las demás partículas hasta velocidades sublumínicas acordes con los valores de sus masas en reposo. A las partículas más masivas les costaría más recorrer el espacio por el efecto del farragoso campo de Higgs. La coherencia matemática del modelo estándar, que comprende el concepto de campo y mecanismo de Higgs, sólo es posible si se le asocia una partícula, hasta ahora hipotética, de espín entero: el bosón de Higgs. El valor mínimo estimado de masa-energía del bosón de Higgs se sitúa en el orden de 100 gigaelectrón-voltios (GeV), en el límite superior del alcance de los aceleradores de partículas anteriores al LHC. Algunos de estos aceleradores han mostrado atisbos de fenómenos que podrían apuntar a la detección del anhelado bosón. Como estos órdenes de energía se sitúan ampliamente dentro del margen de trabajo del LHC, es de esperar que este acelerador aporte una respuesta al enigma. Así pues, si el LHC demostrara la existencia del bosón de Higgs y la validez del mecanismo asociado de formación de la masa, daría un espaldarazo extraordinario al modelo estándar de partículas. En caso contrario, indicaría que algo importante no funciona, abriría nuevas líneas de investigación y serviría para extender hacia el futuro los horizontes de la ciencia. Una cuestión de simetría El modelo estándar propone que a cada una de las doce partículas elementales de materia existentes le corresponde una antipartícula, que comparte todas sus características (masa y espín) salvo el signo de la carga eléctrica, que es el opuesto. Existen así antielectrones (o positrones, que son electrones positivos), antiquarks, antimuones, antineutrinos, etc. Tales partículas han sido detectadas fugazmente en los experimentos. La razón de lo efímero de su naturaleza es fácil de comprender: cuando una antipartícula se topa con su partícula, ambas chocan entre sí para aniquilarse y producir otras partículas. Por ejemplo, un positrón creado en un laboratorio de partículas encontrará pronto un electrón en su camino. Ambos colisionarán y se generarán dos fotones. Los escritores de ciencia-ficción, y los propios científicos, han fantaseado en torno a la posibilidad de descubrir regiones de antimateria, formadas por antinúcleos atómicos de antiprotones y antineutrones con positrones ligados para formar antiátomos. Teóricamente sería posible. Pero no se han detectado en la naturaleza por la rapidísima aniquilación de los pares de partículas-antipartículas, que haría tales estructuras extremadamente inestables. Debe quedar claro que la existencia de la antimateria no es una hipótesis, sino una realidad contrastada en los experimentos. Según los postulados de la mecánica cuántica, del vacío cuántico brotan espontáneamente pares de partículas-antipartículas de vida muy corta, pero con interesantes connotaciones para la física y para la cosmología. 13 ACTA LHC: Gran Colisionador de Hadrones Ahora bien, en este contexto surge una pregunta: ¿por qué vivimos en un mundo de materia que excluye la antimateria, cuando no se conocen motivos fundados que eviten que ambas clases sean igualmente probables? La cosmología propone que, durante los primeros instantes del big bang, la mayoría de la materia-antimateria se aniquiló por los mecanismos explicados anteriormente, aunque quedó un residuo material que dio origen a las estructuras (núcleos atómicos, átomos, estrellas, galaxias) que observamos en el cosmos. Ello implica que, desde un principio, existió un ligero excedente de materia que desequilibró la balanza. ¿A qué se debe este sesgo, esta asimetría en las condiciones iniciales del universo? En una aproximación imaginativa al problema, Richard Feynman explicó las antipartículas como partículas que recorren el tiempo en sentido inverso. Es decir, un positrón podría entenderse como un electrón viajando hacia el pasado. Los planteamientos de este tipo se encuadran dentro de conceptos más complejos manejados cotidianamente por los físicos dentro del dominio de las simetrías. El modelo estándar de partículas define tres clases de simetrías naturales según las cuales, si se cumplieran, el universo que percibimos sería para nosotros indistinguible de otro en el que se aplicaran ciertos cambios. Por ejemplo, existiría simetría C (de conjugación de carga) si no encontráramos diferencias en el universo al sustituir todas las partículas por sus correspondientes antipartículas. La simetría P, o de paridad, se daría en un universo que fuera equivalente a sí mismo si todo sucediera como reflejado en un espejo, con sustitución de la izquierda por la derecha y viceversa. Finalmente, en caso de que existiera simetría T (temporal), el universo seguiría pareciéndonos el mismo si se invirtiera la dirección del tiempo y evolucionara hacia el pasado. (La simetría T contradice claramente a la intuición, si bien ha de tenerse en cuenta que se ha planteado en un contexto de propiedades locales, microscópicas, y no tiene en cuenta parámetros de carácter global, macroscópico, como es la entropía, magnitud que marca la dirección de la flecha del tiempo.) El modelo estándar constata que, en su generalidad, estas simetrías están rotas en el universo actual. Es decir, se infringen. La inversión aislada en la dirección del tiempo, en la orientación derechaizquierda o en el signo de la carga eléctrica no produce universos equivalentes al nuestro. En cambio, las tres se cumplen de forma combinada. El modelo valida la simetría CPT, lo que hace plausible la existencia 14 de un universo especular formado por antipartículas que viajen hacia el pasado. Semejante entelequia resulta perfectamente válida desde el punto de vista de la física. En algunas disquisiciones sobre el modelo estándar se ha planteado una simetría adicional a las anteriores. Se trata de la supersimetría, que habla de la equivalencia entre partículas que sólo difieran en el valor de su espín. Más en concreto, la supersimetría establece una correspondencia entre bosones (partículas de espín entero) y fermiones (de espín fraccionario), para lo cual se inventa una nueva familia de supuestas partículas elementales bautizadas con los nombres de selectrón, squark (up, down, etc.), sneutrino, smuón, etc., además de las asociadas con las cuatro partículas mediadoras de las interacciones fundamentales: fotino, wino y zino (para los bosones W y Z), gluino y gravitino. Es decir, según esta hipótesis, a cada una de las partículas elementales de materia y mediadoras debería asociársele una supercompañera equivalente en todos los aspectos salvo en el valor del espín. El modelo estándar propone asimismo que la supersimetría está rota, se viola en la naturaleza, como resultado de lo cual las masas de las supercompañeras han de ser muy superiores a las de las partículas originales, del orden del teraelectrón-voltio. Históricamente, los aceleradores de partículas trabajaban lejos de este valor límite. Pero no sucede así con el LHC. Por sus altas energías operativas, este acelerador de partículas podría aportar una respuesta interesante a la cuestión de la supersimetría. La cara oscura Si se constatara en el laboratorio la existencia de partículas supersimétricas, dotadas de una masa muy elevada y hasta ahora indetectables para los aparatos experimentales, se avanzaría hacia la resolución de uno de los problemas pendientes, y más acuciantes, de la cosmología: la materia oscura. Según los datos observacionales obtenidos de los más modernos satélites de investigación, el universo está constituido aproximadamente por un 5% de materia ordinaria, la enclaustrada en los átomos que integran nuestra realidad cotidiana. El 95% restante es desconocido: un 23% es materia oscura; el 72% restante, energía oscura. Presumiblemente, la materia oscura estaría compuesta por partículas exóticas, nunca encontradas en los detectores y los experimentos. Como queda dicho, la familia de supercompañeras de las partículas ele- LHC: Gran Colisionador de Hadrones mentales podría orientar hacia una respuesta. Como también otras partículas hipotéticas muy masivas, denominadas genéricamente WIMP (en inglés, partículas masivas débilmente interactivas). El neutralino, cuya masa teórica multiplica por varios centenares la del protón, es una de las candidatas. Existen otras cuya masa-energía se encuentra al alcance de los experimentos del LHC. Los astrónomos aguardan expectantes los datos que aporte este acelerador para profundizar en el estudio de la materia oscura. La energía oscura representa un problema más espinoso. Se define como una especie de antigravedad causante de la expansión acelerada del universo. El descubrimiento de sus efectos, hace apenas unos años, ha auspiciado una profunda revolución en la astronomía y la cosmología y tal vez exija un replanteamiento radical de algunos de sus principios fundamentales. Como el campo de Higgs, la energía oscura parece impregnar todo el espacio-tiempo, de manera que algunos investigadores confían en lograr establecer, con ayuda del LHC, algún tipo de relación entre energía oscura, mecanismo de Higgs y supersimetría. Aun si fuera plausible, tal vinculación obligaría a un esfuerzo colectivo para mejorar, y ampliar, los desarrollos de las teorías en vigor. ¿Dimensiones ocultas? Un asunto que planea sobre algunos de los desarrollos teóricos más recientes de la física es la posibilidad de que vivamos inmersos en un universo con dimensiones insospechadas. Según la teoría de la relatividad de Einstein, el cosmos se despliega en un contexto de cuatro dimensiones, tres espaciales (altura, anchura y profundidad) y una temporal, que evolucionan en relación mutua indisoluble. Pero la imposibilidad de conciliar de un modo plenamente satisfactorio los hallazgos de esta teoría con los de la no menos exitosa mecánica cuántica ha inducido a varias generaciones de científicos a investigar nuevas hipótesis de unificación. Una de las más conocidas es la teoría de cuerdas. En esencia, esta teoría propone que las partículas elementales no son puntos, tal y como plantea el modelo estándar, sino filamentos vibrantes que se despliegan en una dimensión. La vibración de estos filamentos emite, como las cuerdas de un violín, distintos estados de excitación que se corresponden con las diferentes partículas elementales observadas en los experimentos. De este modo, de la oscilación de una cuerda en determinada frecuencia surgirá un electrón, pero si su frecuencia fuera otra el resultado podría ser, por ejemplo, un muón, un quark down, etc. En torno a esta idea fundacional se han construido intrincados sistemas físico-matemáticos que pretenden describir sólidamente las propiedades que aparecen en el modelo estándar. El acierto de la teoría de cuerdas ha residido en su capacidad para integrar en un sistema global los preceptos del modelo estándar, los principios cuánticos y la gravitación acorde con el enfoque original de Einstein. De ahí la intensa divulgación que la ha acompañado en los medios de comunicación, como promesa de futura teoría del todo. Sin embargo, los inconvenientes que se le asocian no son baladíes. Las predicciones de la teoría de cuerdas no han podido ser constatadas por el experimento y, de momento, no pasan de ser meras conjeturas indemostradas. Además, la consistencia matemática de sus desarrollos abstractos exige dos condiciones muy controvertidas: es imperativa la existencia de partículas supersimétricas y se ha de considerar que el espacio-tiempo está integrado en realidad por nueve (o diez, según las versiones) dimensiones espaciales más una temporal. Para dar verosimilitud a este modelo multidimensional, los defensores de la teoría de cuerdas exponen que las dimensiones adicionales son imperceptibles para nosotros y nuestros detectores porque están arrolladas en una longitud minúscula. En el inicio del universo, todas las dimensiones habrían estado igualmente confinadas; sin embargo, en los primeros instantes del big bang tres de las espaciales se desplegaron para conformar la estructura perceptible de espacio-tiempo, mientras que las restantes permanecieron férreamente compactadas. Es poco probable que los experimentos del LHC ofrezcan resultados claros sobre las dimensiones adicionales previstas por la teoría de cuerdas. No obstante, en los resultados de sus experimentos podrían asomar indicios que apuntaran en esta dirección y otorgaran mayor credibilidad a las predicciones de un esquema teórico tan altamente especulativo. à Las respuestas del LHC En una guía oficial resumida sobre el LHC (http://cdsmedia.cern.ch/img/CERN-Brochure-2009003-Eng.pdf), el CERN declara como objetivos principales del proyecto los siguientes: n Explicar el origen de la masa, con la atención dirigida a la convalidación del mecanismo de Higgs. 15 ACTA LHC: Gran Colisionador de Hadrones n Facilitar una descripción unificada de las fuerzas fundamentales, en un principio a través de la comprobación de la hipótesis de la supersimetría. n Buscar partículas o fenómenos hasta ahora des- conocidos que permitan profundizar en el conocimiento de la materia y la energía oscuras. n Investigar el misterio de la antimateria. n Indagar en la física de altísimas energías para emular las condiciones en que tuvo lugar el primer desarrollo del universo a partir de la Gran Explosión primigenia, en particular el estado de materia primordial bautizado con el nombre de plasma de quarks-gluones. Para lograr tales propósitos, el LHC, como todo acelerador de partículas, actúa como un inmenso tubo de vacío por el que circulan partículas guiadas y aceleradas por dispositivos electromagnéticos. Imanes de tipo dipolo (1.232 en total) dirigen los haces de partículas en órbitas casi circulares, mientras los cuadrupolos (392 imanes), sextupolos y demás sirven para enfocar dichos haces. Las partículas se aceleran en resonadores electromagnéticos denominados cavidades de radiofrecuencia (RF, ocho por haz), y después se aplica un procedimiento de compensación de pérdidas energéticas para mantener una energía de haz constante. Con este esquema, cada haz de protones circula por el túnel durante unas diez horas casi a la velocidad de la luz, con lo cual recorre una distancia equivalente a un viaje de ida y vuelta hasta el planeta Neptuno. Este entramado encuentra los puntos esenciales en la colección de seis grandes experimentos de detección instalados en el LHC. Sus siglas y nombres se recogen en la tabla 3. Los grandes detectores asociados a estos experimentos tienen como finalidad primordial identificar los subproductos de las colisiones, las partículas secundarias que se producen en las mismas. Tras su detección, han de medir la posición que ocupan en el espacio y Experimento el valor de sus propiedades, como velocidad, masaenergía y carga eléctrica. Este cometido obliga a dividir los detectores en una amplia colección de subdetectores en un sistema de capas de cebolla, auxiliados por imanes que separan unas partículas de otras en virtud de sus propiedades electromagnéticas. El objetivo declarado de dos de los grandes experimentos reseñados, ATLAS y CMS, es la búsqueda del bosón de Higgs y de las supuestas partículas supersimétricas, y de indicios que ayuden a ampliar y enriquecer el modelo estándar de partículas. El primero, el ATLAS, es una estructura cilíndrica de un peso equivalente al de la torre Eiffel en unas dimensiones bastante reducidas: 25 m de altura por 46 m de longitud. Está provisto de un inmenso sistema toroidal de imanes. Más de 1.900 científicos e ingenieros de centenar y medio de institutos distribuidos por una treintena de países se encargan de su control y manejo en colaboración. El CMS persigue, en esencia, los mismos fines científicos que el ATLAS aunque a través de un diseño técnico sustancialmente diferente. En cierto sentido, ATLAS y CMS son redundantes, si bien su trabajo coordinado permitirá dotar a los resultados de la investigación de un grado de fiabilidad muy elevado. Una dotación de unas dos mil personas supervisa el funcionamiento del sistema y extrae y analiza las informaciones más relevantes. LHCb y ALICE son los otros dos grandes módulos experimentales del LHC. El primero está especializado en indagar en los matices de las partículas del modelo estándar que podrían arrojar cierta luz sobre las ligeras asimetrías observadas entre creación de materia y antimateria en ciertas interacciones de laboratorio relacionadas con los quarks down. Tal vez en estas asimetrías se esconda el secreto de la aniquilación total de la antimateria y de la formación de un universo sólo de materia. En el detector ALICE se induce otro tipo de colisión conceptualmente diferente, el que tiene lugar tras Significado ALICE A Large Ion Collider Experiment (gran experimento colisionador de iones) ATLAS Aparato toroidal CMS Compact Muon Solenoid (solenoide de muones compacto) LHCb Large Hadron Collider beauty LHCf Large Hadron Collider forward TOTEM Total Elastic and diffractive cross-section measurement (medida en sección transversal difractiva y elástica total) Tabla 3. Los seis grandes experimentos del LHC. 16 LHC: Gran Colisionador de Hadrones la aceleración de iones de plomo hasta una energía cercana a los 600 TeV. La finalidad del experimento es recrear las condiciones que, supuestamente, dominaron en los primeros instantes del universo, y estudiar el magma primordial constituido por un plasma de quarks y gluones sometidos a un entorno de densidades y temperaturas extraordinariamente altas. El detector ALICE se ha hecho merecedor al nombre que se le atribuye de forma coloquial: máquina del big bang. Los dos últimos experimentos son de menor envergadura. El LHCf sirve para el estudio de haces de partículas que emulan los rayos cósmicos de altas energías, mientras que el experimento TOTEM está destinado a analizar propiedades especiales de los haces de hadrones producidos en el acelerador. Este breve repaso a los experimentos y dimensiones del LHC permite hacerse una idea de la enorme magnitud de la empresa científica. La cantidad de datos en bruto medidos en los detectores necesitaría, para su almacenamiento, unos diez mil DVD de doble capa por cada segundo. Evidentemente, es impensable un almacenamiento físico de estos datos. Su estudio y tratamiento se lleva a cabo en una extensa red de instituciones distribuida por todo el mundo y dotada de ordenadores de cómputo de máximas prestaciones. à Riesgos y beneficios En algunos foros se han planteado cuestiones relativas a la seguridad de los experimentos realizados en el ámbito del LHC. Innegablemente, este acelerador emite una radiación potencialmente peligrosa para la salud que es preciso confinar. No obstante, las dimensiones del LHC no añaden un riesgo significativamente mayor en este sentido al de otros aceleradores de partículas más convencionales o incluso al de las centrales nucleares. La ubicación subterránea de los dispositivos de aceleración y del túnel por el que transitan las partículas favorece el filtro natural para las radiaciones. Se han previsto sistemas estrictos de control de los índices de radiactividad que cumplen con las normativas internacionales al respecto. Es de esperar que todos estos mecanismos funcionen de la forma prevista. Los valores de energía de las colisiones que se alcanzarán en el acelerador a pleno rendimiento constituyen otro motivo de preocupación. Cierto es que valores de esta índole se alcanzarán por primera vez en los experimentos de laboratorio, pero las ener- gías manejadas no nos son en modo alguno desconocidas. Desde su formación hace 4.500 millones de años, la Tierra ha sufrido el continuo bombardeo de partículas de rayos cósmicos de altísima energía originarias de fenómenos turbulentos como son las supernovas o los agujeros negros. La llegada a la Tierra de los rayos cósmicos, muy superior en volumen a las radiaciones que puedan producirse en el seno del LHC, no ha dado lugar en el pasado a ninguna consecuencia devastadora para el planeta y para sus habitantes. Algo semejante puede decirse de la posibilidad de que durante los experimentos del LHC puedan formarse miniagujeros negros como subproducto de las altas concentraciones de energía. En este contexto, se han presentado incluso demandas judiciales contra el CERN y sus socios en el proyecto para intentar frenar la entrada en funcionamiento del acelerador. Según los temores expresados por los demandantes, habría una posibilidad no nula de que alguno de estos miniagujeros engullera el planeta y provocara un cataclísmico fin del mundo. Los científicos sostienen que tal riesgo es virtualmente inexistente. De nuevo viene al caso el ejemplo de los rayos cósmicos. Estas radiaciones de fuentes astronómicas llegan a la Tierra con energías superiores a las que se alcanzarán en el LHC, por lo cual tienen capacidad para engendrar miniagujeros negros. Sin embargo, en la historia del planeta no se ha constatado, evidentemente, ningún efecto relacionado con este fenómeno. Con argumentos semejantes se ha rebatido la idea de que la creación de partículas extrañas (por ejemplo, en el ámbito de la supersimetría) pudiera producir algún efecto catastrófico. En sentido contrario, los patrocinadores y los responsables de los equipos científicos proclaman la importancia del proyecto LHC para propiciar un avance no sólo de la ciencia y el conocimiento, sino de la sociedad en su conjunto. Con ello pretenden acallar algunas voces que critican no ya los riesgos hipotéticos ligados al acelerador, sino la ingente inversión económica que ha acaparado. Entre los disidentes hay quienes lamentan que estos fondos no se destinen a otros muchos campos de investigación que pugnan por abrirse camino en el competitivo mundo de los proyectos científicos y que se encuentran escasos de financiación. La ciencia básica, exponen los responsables del LHC en su defensa, ha sido siempre un impulsor decisivo en el avance tecnológico y el bienestar social. Un ejemplo muy evidente de esta afirmación tiene que ver con los desarrollos de la mecánica cuántica. 17 ACTA LHC: Gran Colisionador de Hadrones Esta disciplina nació de un impulso básicamente intelectual, no de una necesidad tecnológica, y se desarrolló durante décadas inmersa en un dominio de alta complejidad teórica y matemática alejada de las fábricas y de los hogares. Sin embargo, la lista de innovaciones tecnológicas obtenidas a partir de sus propuestas teóricas demuestra la influencia que la cuántica ha ejercido en todos los ámbitos de la vida moderna. La explicación del ferromagnetismo, los láseres, la superconductividad, la superfluidez o los cristales líquidos emana directamente de sus conclusiones. Transistores, microchips y ordenadores no habrían podido desarrollarse sin sus enseñanzas. Como tampoco los paneles solares, los microscopios electrónicos o los equipos médicos de resonancia magnética nuclear, por citar sólo algunos ejemplos. Tanto la resonancia magnética como la tomografía por emisión de positrones (TEP) de uso médico son igualmente deudoras de las tecnologías desarrolladas en aceleradores de partículas para fines científicos. Como orientación, sirva una cifra: en la actualidad, en el mundo existen unos 17.000 aceleradores de partículas en funcionamiento; más de la mitad se destinan a la medicina, y apenas un centenar sirven a proyectos de investigación en ciencia básica. Esta digresión pone el acento únicamente en la punta del iceberg de los beneficios directos que se derivan de la investigación científica. A ellos se añaden otros muchos pluses intangibles que cooperan 18 para surtir de mejoras globales a la sociedad. La plétora de científicos e ingenieros que trabajan en el LHC y sus proyectos asociados constituye una rica fuente de talento y formación. Muchos de ellos continuarán su labor investigadora. Otros emprenderán posteriormente carreras profesionales en otros campos a los que trasladarán el know-how adquirido, desde la enseñanza hasta la banca o los negocios. Naturalmente, los adelantos en ingeniería de diseño, en fabricación y en telecomunicaciones son valores añadidos a la rentabilidad del LHC. La complejidad y exigencia de los componentes del acelerador impone a las empresas industriales colaboradoras un nivel de calidad óptimo, y al hacerlo les dota de un activo muy rentable. Estas empresas, y su personal, adquirirán así aptitudes que les permitirán participar en proyectos de alta tecnología de muy diverso rango. Finalmente, con su compleja arquitectura y funcionalidades, la red de ordenadores y centros de cálculo necesaria para el procesamiento de los datos obtenidos por los detectores no se limita en exclusiva a las actividades del LHC. Al contrario, compone un elemento muy interesante para los desarrollos de la comunidad científica y académica en su conjunto. No debe olvidarse que un invento tan laureado como la World Wide Web fue concebido en las entrañas del CERN, inicialmente para la compartición de hallazgos entre equipos científicos. Acaso la estructura de la red ligada al nuevo superacelerador, coloquialmente conocida como Grid, llegue a aportar en un futuro ventajas comparables para la sociedad del conocimiento.