GUIÓN DEL LABORATORIO CURSO 2005-2006 DETERMINACIÓN DEL FLUJO DE RAYOS CÓSMICOS 7.1. ¿QUÉ SON LOS RAYOS CÓSMICOS? Nuestro planeta recibe constantemente una lluvia de partículas cargadas. Cada segundo, 1000 partículas por metro cuadrado golpean las capas más exteriores de la atmósfera terrestre. Este flujo de partículas (llamado rayos cósmicos primarios), proveniente en su mayoría de nuestra Galaxia, consisten en un 90% de protones, 9% partículas alfa (núcleos de helio) y el resto son núcleos más pesados que el hidrógeno. Tras interaccionar con un núcleo atmosférico (N, O) producen una cascada de partículas compuesta por rayos γ, electrones, positrones, muones, neutrinos, hadrones, etc, que son los llamados rayos cósmicos secundarios. Estos chubascos de rayos cósmicos secundarios pueden alcanzar una extensión de varios kilómetros cuadrados. La mayoría de las partículas que alcanzan la superficie terrestre son muones procedentes de interacciones nucleares y de las desintegraciones subsiguientes. Los muones de energía superior a 0.2 GeV constituyen la componente dura de la radiación cósmica secundaria, que es muy penetrante y puede medirse incluso en el interior de las minas más profundas. El resto de los rayos cósmicos secundarios (fundamentalmente electrones, positrones y γ) forman la llamada componente blanda. CRONOLOGÍA DE LOS RAYOS CÓSMICOS DE ALTA ENERGÍA La historia de la investigación de los rayos cósmicos es un relato romántico de aventura científica. Durante tres cuartos de siglo, investigadores de rayos cósmicos han escalado montañas, flotado sobre globos de aire caliente y viajado a los rincones lejanos de la tierra en su pesquisa por entender a estas partículas que se mueven velozmente desde el espacio. Sus exploraciones han resuelto misterios científicos y revelado muchos más. El Proyecto Pierre Auger continúa la tradición al comenzar la búsqueda de la fuente desconocida de los rayos cósmicos de la más alta energía hasta ahora observados. Se han observado rayos cósmicos con energías entre 109 eV y 1020 eV. En este rango, el "flujo" de rayos cósmicos parece seguir una simple ley de potencia E-3. La variación del flujo con la energía se conoce como “Espectro de Energía". En la figura 7.1 puede observarse que el flujo de rayos cósmicos disminuye rápidamente con la energía y para energías mayores de 1019 eV el flujo es menor que una partícula por kilómetro cuadrado por año. CRONOLOGÍA DE LOS RAYOS CÓSMICOS DE ALTA ENERGÍA (continuación) 1912. En un globo a una altura de 5.000 metros Victor Hess, el padre de la investigación de los rayos cósmicos, descubrió una "radiación penetrante'' proveniente del espacio. El suyo fue el primero de muchos viajes audaces realizados por los físicos para estudiar los rayos cósmicos. 1929. Usando la recién inventada cámara de niebla, Dimitri Skobelzyn observó las primeras huellas fantasmales dejadas por los rayos cósmicos. 1932. Se desató un debate sobre la naturaleza de los rayos cósmicos. Según una teoría de Robert Millikan, ellos eran rayos gama del espacio, de allí el nombre "rayos cósmicos''. Pero fue creciendo la evidencia que los rayos cósmicos eran, en realidad, en su mayoría partículas energéticas. 1933. Mientras observaba las trazas de rayos cósmicos que pasaban a través de su cámara de niebla, Carl Anderson descubrió la antimateria bajo forma del anti-electrón, llamado más tarde positrón. Un positrón es una partícula exactamente igual al electrón pero con carga opuesta, positiva. Figura 7.1.: Flujo de rayos cósmicos que llegan a la tierra en función de su energía En el rango de energía de 1012-1015 eV, los rayos cósmicos que llegan al límite de la atmósfera de la Tierra consisten en: ~50% protones ~25% partículas alpha ~13% núcleos de C/N/O <1% electrones <0.1% gammas Además de los aceleradores de partículas, los rayos cósmicos son la otra única fuente de partículas y productos de reacciones nucleares de alta energía. De hecho fueron la principal hasta la década de 1950, dando lugar a importantes descubrimientos y proporcionando información sobre todo un conjunto de nuevas partículas subatómicas, entre ellas el positrón (la primera antipartícula observada) y el muón. 1937. Seth Neddermayer y Carl Anderson descubrieron la partícula subatómica llamada muón en los rayos cósmicos. El positrón y el muón fueron los primeros de una serie de partículas subatómicas descubiertas usando a los rayos cósmicos, descubrimientos que dieron lugar a la ciencia de la física de partículas elementales. Los físicos de partículas usaron los rayos cósmicos para su investigación hasta el surgimiento de los aceleradores de partículas en los años cincuenta. 1938. Pierre Auger, quien había ubicado detectores de partículas en las alturas de los Alpes, notó que dos detectores colocados a muchos metros de separación indicaron ambos la llegada de partículas exactamente al mismo tiempo. Auger había descubierto los "chubascos aéreos extendidos'', lluvias de partículas subatómicas secundarias causadas por la colisión de partículas primarias de alta energía con moléculas de aire. Sobre la base de sus mediciones, Auger concluyó que había observado chubascos con energías de 1015 eV, diez millones de veces más altas que cualquier conocida antes. 1949. Enrico Fermi propuso una explicación para la aceleración de los rayos cósmicos. En el acelerador de "choque'' para los rayos cósmicos imaginado por Fermi, los protones aumentan su velocidad al rebotar sobre nubes magnéticas que se mueven en el espacio. Se cree que estrellas que explotan (supernovas) actúan como tales aceleradores cósmicos, pero ellas solas no pueden dar cuenta de los rayos cósmicos de la más alta energía. En ocasiones las partículas poseen energías mucho mayores (1020 eV) que las alcanzables con aceleradores, y su origen es aún objeto de intensa investigación. 7.2. MEDIDA DEL FLUJO DE RAYOS CÓSMICOS A continuación se expone un montaje sencillo para la determinación del flujo de rayos cósmicos. El método consiste en medir el número de coincidencias entre dos detectores de centelleo colocados horizontalmente y separados una Figura 7.2: Fotografía de uno de los vuelos de pequeña distancia entre sí. El número de Victor Hess. coincidencias medidas será directamente proporcional al flujo total de partículas incidentes y dependerá de la geometría del montaje experimental. Se utilizarán diversos espesores de plomo para blindar el detector inferior contra la componente blanda de la radiación. 7.2.1. Descripción de los componentes El dispositivo experimental consta básicamente de detectores de centelleo y de elementos electrónicos. Por su parte, el detector de centelleo se compone de dos elementos: plástico centelleador y fotomultiplicador. 1) Detector de centelleo Cada uno de los dos detectores de centelleo está constituido por un trozo de plástico centelleador y un fotomultiplicador. Cuando una partícula cargada atraviesa el material plástico en el que hay diluidas sustancias activas, se produce una cierta cantidad de luz. Dicha luz es transmitida primero a través del plástico y luego por unas guías de luz hasta la ventana del fotomultiplicador. En el interior del fotomultiplicador los fotones incidentes (del orden de unas decenas a centenas) son transformados en un pulso eléctrico de duración típica de unos pocos nanosegundos (rise time) que se transmite por los cables de salida. CRONOLOGÍA DE LOS RAYOS CÓSMICOS DE ALTA ENERGÍA (continuación) 1966. En los comienzos de los sesenta Arno Penzias y Robert Wilson descubrieron que microondas de baja energía permean el universo. Kenneth Greisen, Vadem Kuzmin y Georgi Zatsepin señalaron que los rayos cósmicos de alta energía interactuarían con el fondo de microondas. La interacción reduciría su energía, de modo que las partículas que viajaran a través de grandes distancias intergalácticas no podrían tener enregías mayores de 5·1019 eV. 1991. El grupo de investigación de rayos cósmicos Fly's Eye (Ojo de Mosca) en los Estados Unidos observó un evento de rayo cósmico con una energía de 3·1020 eV. Algunos eventos con energías de 1020 eV habían sido encontrados en los 30 años anteriores, pero éste era claramente el más energético. 2) Electrónica Para contar las coincidencias entre pulsos procedentes de los dos detectores de centelleo usamos varios módulos electrónicos que siguen el estándar NIM, esto es, unas normas en cuanto a las características mecánicas (dimensiones) y eléctricas de los componentes y las señales. Los módulos que se usan son los siguientes: Fuente de alimentación Discriminador Unidad de coincidencias Contadores Generador de pulsos Fan out CRONOLOGÍA DE LOS RAYOS CÓSMICOS DE ALTA ENERGÍA (continuación) 1994. El grupo AGASA en Japón presentó un evento con energía de 2 x 1020 eV. Los eventos de Fly's Eye y AGASA son mayores en energía que cualquiera visto antes. ¿De dónde vienen estos dos rayos cósmicos de alta energía? Ninguno parece apuntar hacia un objeto astrofísico que pudiera haberles impartido tales enormes energías. 1995. Un grupo internacional de investigadores empieza a diseñar estudios para un nuevo observatorio de rayos cósmicos, el Proyecto Pierre Auger, denominado así en honor al descubridor de los chubascos aéreos. El nuevo observatorio usará un arreglo gigante de detectores para detectar y medir grandes números de chubascos aéreos a partir de los rayos cósmicos de más alta energía. Trazando los rayos cósmicos de alta energía hacia su fuente desconocida aumentará la comprensión del origen y evolución del universo. 3) Descripción lógica A continuación se describe brevemente el proceso seguido por los pulsos procedentes de los detectores hasta el recuento de las coincidencias. En primer lugar debemos separar las señales accidentales de los fotomultiplicadores (producidas por ruido térmico en su interior o interacción de partículas de muy baja energía en los centelleadores) de las producidas por partículas que depositan mayor cantidad de energía, como es el caso de los muones cósmicos. Para ello se le exige a la señal proveniente de los fotomultiplicadores que su amplitud sobrepase un cierto umbral (puede fijarse en 40 mV). El módulo que ejecuta esta tarea es el discriminador, cuya entrada es una señal analógica de amplitud y duración dependiente del proceso que haya tenido lugar en el detector. A la salida del discriminador tenemos una señal lógica de forma cuadrada con altura y duración estándar (20 ns) en el caso en que la señal de entrada haya sobrepasado este umbral. Cada discriminador dispone de dos salidas. Una de ellas se empleará para alimentar un contador que nos permite conocer el número de pulsos procedentes de cada fotomultiplicador y la otra se dirigirá al módulo de coincidencias. Las coincidencias entre ambos detectores se evalúan mediante una unidad NIM de coincidencias. Este módulo consta de varias entradas y una salida. Tendremos una señal de salida cuando los pulsos de entrada se solapen al menos parcialmente en el tiempo. Es obvio que la longitud de los cables que conectan los dos discriminadores y la unidad de coincidencias debe ser la misma. Llevando la salida de este módulo a otro contador podemos acumular el número de coincidencias en un espacio de tiempo. El número de coincidencias registradas en un intervalo de tiempo fijo obedece a la estadística de Poisson, lo que deberá tenerse en cuenta a la hora de realizar los cálculos con las medidas obtenidas. Concretamente a la hora de calcular la incertidumbre del estimador del número medio de coincidencias, n (número de coincidencias medido), que viene dada por n por tratarse de un fenómeno aleatorio que obedece a la estadística de Poisson. Además de este montaje básico, existe uno adicional que llamaremos "temporizador" que nos ayudará a controlar el tiempo de medida, compuesto por un generador de pulsos, un contador con posibilidad de preselección de tiempo y un fanout (que es un módulo que reproduce señales eléctricas). Cuando el contador alimentado por el generador de pulsos alcanza la cantidad preseleccionada produce una señal de desbordamiento (overflow) que una vez triplicada en el módulo fanout alimenta las entradas de validación de los otros contadores, parándolos. Figura 7.3: Esquema del montaje 7.2.2. Toma de datos El objetivo es medir el número de coincidencias de ambos detectores blindando el detector inferior con diferentes espesores de plomo, como pueden ser: 0, 0.2, 0.4, 0.6, 0.8, 5 y 10 cm. Para ello se colocan las láminas (o ladrillos, dependiendo del espesor) de plomo sobre el soporte metálico que rodea el detector inferior, nunca sobre el plástico. Figura 7.4: Esquema de cómo colocar el plomo En cada caso se tomará como tiempo de medida 15 minutos (9·105 milisegundos en el módulo contador que usamos como temporizador). En la primera ocasión conviene medir con un reloj (una precisión de segundos es suficiente) el tiempo que tarda en pararse la toma de datos, ya que el temporizador puede no estar bien calibrado. El tiempo de las demás medidas será igual a éste y es el que debe usarse en los cálculos. Es muy aconsejable obtener más medidas (en caso de que se disponga de tiempo) para otros espesores intermedios y mayores (7.4 cm y 15 cm, por ejemplo), ya que a partir de ellas se realizarán ajustes que se detallan en el apartado 4 de esta sección, cuya fiabilidad y precisión dependen de estas medidas. 7.2.3. Estimación de las coincidencias espurias Se debe calcular la probabilidad de observar coincidencias espurias, debidas al azar, dados los ritmos de detección de ambos contadores, y la duración de los pulsos lógicos que han de solaparse (20 ns). Es suficiente hacer este cálculo para la primera medida, sin blindaje (se obtendrá un número muy pequeño, y en el caso de medidas con blindajes sería todavía menor). Un modo de hacer la estimación es con la siguiente expresión: n = (n1 – n12)(n2 – n12)(l1 + l2) Siendo n el número de coincidencias aleatorias por unidad de tiempo, n1 y n2 el número de pulsos por unidad de tiempo que se da en cada detector, l1 y l2 la duración de los pulsos respectivos (en nuestro caso 20 ns), y n12 el número de coincidencias auténticas por unidad de tiempo. La justificación de esta fórmula es la siguiente: El último factor, que expresa la dependencia de n con la duración de las señales de 1 y 2 debe tener esa forma de suma, ya que dada una señal del detector 1 y una señal del detector 2, mientras que la suma l1 + l2 sea la misma, la probabilidad de que coincidan ambos pulsos es la misma, independientemente de lo que valgan por separado l1 y l2 (estamos suponiendo que sólo se pueden dar coincidencias simples, o lo que es lo mismo, que la probabilidad de que se den dos pulsos en uno de los detectores separados por menos de 20 ns es despreciable, de modo que no podemos tener un pulso en un detector que solapa con 2 pulsos del otro): Figura 7.5: Esquema de las coincidencias espurias - dependencia de n con la duración de las señales En realidad esto no es estrictamente cierto, pero cuanto menor es el tamaño de los pulsos en relación con el tiempo de medida se comete menos error. Por otro lado, en la fórmula deben jugar papeles idénticos las señales procedentes del detector 1 y las del detector 2, ya que nada los distingue; vemos que eso lo cumple (es simétrica en 1 y en 2). Además, basándonos en que la fracción del tiempo de medida ocupada por pulsos es muy pequeña, podemos aproximar y suponer que lo que le ocurra a un pulso dado es completamente independiente de los demás pulsos, se obtendría el mismo resultado (la misma probabilidad de coincidencia) si no estuvieran los demás pulsos. Esto se traduce en que n debe ser directamente proporcional al número de pulsos por unidad de tiempo en el detector 1 que pueden dar lugar a una coincidencia aleatoria. De esto da cuenta el primer factor. El segundo factor da cuenta de que de modo independiente, y por la misma razón, n también es muy aproximadamente proporcional al número de pulsos por unidad de tiempo en el detector 2 que pueden dar lugar a una coincidencia aleatoria. Como n ya no puede depender de más variables lo único que podría faltar sería otro factor constante, pero es la unidad, puesto que suponiendo que n1 – n12 = n2 – n12 = 1 (sólo hay 1 pulso por unidad de tiempo en cada contador que puede dar lugar a una coincidencia aleatoria), dicha probabilidad es simplemente n = l1 + l2 ( sería el cociente n=(l1+l2)/(tiempo total de medida), pero como por definición de n tomamos este tiempo como la unidad de tiempo, se reduce a n = l1 + l2) . 7.2.4. Determinación de la componente dura de las coincidencias Si se representa en una gráfica el número de coincidencias frente al espesor x del blindaje de plomo, se obtendrá un número progresivamente menor, debido al principio sobre todo a la absorción de la componente blanda por parte del plomo (caída brusca), siendo luego causada sólo por la absorción de la componente dura (caída suave), una vez que la blanda ha sido completamente absorbida. Se puede, por tanto, determinar por extrapolación el número de coincidencias debidas a la componente dura en el caso x = 0. Para ello hemos de tener en cuenta que dado un flujo de partículas de cierta energía cinética, el número de partículas que pasa espesores crecientes de plomo seguirá típicamente una exponencial decreciente. La absorción también dependerá de la naturaleza de las partículas. En nuestro caso tenemos el flujo dividido en dos partes distintas, la dura, compuesta por muones, muy energética y muy penetrante, y la blanda, menos energética y poco penetrante. Ambas componentes se puede considerar que tienen una energía bastante bien definida, con lo que deberíamos ajustar los puntos obtenidos a la suma de dos exponenciales decrecientes: f(x) = A1e-x/b1 + A2e-x/b2 ; la que decaiga más lentamente corresponde a la componente dura (la primera exponencial, por ejemplo), cuyo valor queremos conocer antes de que empiece a atravesar el plomo, para poder calcular el flujo que llega al detector de arriba. Este valor es por tanto el correspondiente a espesor x = 0, A1. No es necesario hacer este ajuste para estimar con bastante precisión A1 , ya que en un rango de datos adecuado f(x) se comporta aproximadamente como una recta, cuya ordenada en el origen es precisamente A1. Veamos por qué: tenemos f(x) = A1e-x/b1 + A2e-x/b2 , con b2 << b1 (la componente blanda 2 decae mucho más rápidamente que la dura 1), y además A2 ≈ A1 (se observa en los datos tabulados y al ajustar los datos experimentales; de hecho A1 es mayor que A2 ). Por tanto para b2 << x << b1 se tiene que A2e-x/b2 ≈ 0 y que f(x) ≈ A1 (1- x / b1 ) = A1 – (A1 / b1 )x Con nuestro dispositivo experimental resulta que se toman los datos en el rango de distancias x adecuado, del orden de 10 cm, donde se verifica que b2 << x << b1 , y por tanto los valores correspondientes a distancias de ese orden (donde se observa que el decaimiento se ha suavizado mucho) se pueden usar para realizar un ajuste lineal y obtener el valor de la componente dura a espesor x = 0 , A1. En cualquier caso, como del ajuste lineal podemos deducir b1, podemos comprobar que la aproximación lineal a la exponencial es buena viendo que los valores xi manejados para realizar el ajuste verifican siempre que xi << b1. 7.2.5. Cálculo de Iν Una vez calculado el número de muones que atraviesan ambos detectores (flujo de muones a través de ambos detectores) por unidad de tiempo, se puede calcular el flujo por unidad de ángulo sólido, por unidad horizontal de área y por unidad de tiempo en la dirección vertical, J(θ = 0, φ) (θ = ángulo cenital, φ = ángulo azimutal), llamado Iν. Como con este montaje no se mide directamente J(θ = 0, φ), sino el flujo total de los muones que logran atravesar simultáneamente los dos centelleadores, para poder calcular este valor hay que conocer cómo varía con el ángulo cenital (θ) el flujo de muones por unidad de ángulo sólido, por unidad de tiempo y de superficie orientada en θyφ: J(θ, φ) = A· cos2 (θ) Donde A es una constante y vemos que es igual al valor que toma J(θ, φ) cuando θ = 0, es decir; A = J(θ = 0, φ) = Iν Por lo tanto: J(θ, φ) = Iν · cos21 (θ) Esta dependencia con θ es debida a la absorción de los rayos cósmicos por parte de la atmósfera. Cuando se dice que el flujo es por unidad de superficie orientada significa que éste es el flujo que se mide cuando se sitúa la superficie de área unidad que es atravesada por los muones con su normal en la dirección del flujo (es decir, se va orientando la superficie conforme se mide el flujo proveniente de distintas direcciones, de modo que el flujo a medir siempre incide normalmente sobre la misma). Si se tiene este dato y se quiere saber cuál es el flujo que atravesará, proveniente de la dirección (θ, φ), una superficie horizontal de área unidad, habrá que multiplicar por un factor cos(θ) asociado a que nuestra superficie no orientada ofrece un área de impacto menor que la orientada: Jsuperficie horizontal unitaria (θ, φ) = J(θ, φ)·cos(θ) Cuando se dice que el flujo es por unidad de ángulo sólido, se entiende lo siguiente: si se observa el flujo sobre la superficie horizontal unitaria proveniente de un pequeño entorno de direcciones dado en coordenadas esféricas por (θ,θ + dθ), (φ,φ + dφ) (que tiene asociado un diferencial de ángulo sólido dΩ = sen(θ)dθdφ), el resultado será: Jsuperficie horizontal unitaria (θ, φ)·sen(θ)dθdφ = J(θ, φ)·cos(θ)·sen(θ)dθdφ Si se quiere calcular el flujo proveniente de todo un conjunto de direcciones, dado por un intervalo (θ1,θ2 )×(φ1,φ2), no hay más que integrar la expresión previa a dicho intervalo. Haciéndolo hasta θ = π/2, para todo φ y para el área del detector superior, obtenemos el número total de muones que inciden sobre éste por unidad de tiempo (en función de Iν). Para determinar la relación entre el número total de muones que inciden sobre el detector superior y el de muones que atraviesan ambos detectores se realiza una simulación Montecarlo del montaje experimental, lo que nos permitirá finalmente calcular Iν a partir del valor que tenemos del número de coincidencias debidas a la componente dura, calculado en el anterior apartado. Debe calcularse también la incertidumbre en el valor de Iν y especificar las fuentes de ésta. Valores típicos que se obtienen haciendo la simulación Montecarlo son, en función de a y b, lados mayor y menor de los detectores, y de la separación h entre ambos: 7.2.6. Comparación del resultado experimental con los valores tabulados Conviene comparar los resultados experimentales con valores tabulados, como por ejemplo los siguientes (del Review of Particle Properties Physical Review D54, parte 1, 1996): Siendo: Iν nuestra J (θ = 0,φ), flujo proveniente de la dirección vertical por unidad de ángulo sólido por unidad horizontal de área, J1 el flujo total que desde arriba atraviesa la unidad horizontal de área, J1 = π π 2 2π 2 2π ∫ ∫ J (θ , ϕ ) cosθ dθ dϕ 0 0 y J 2 = ∫ ∫ J (θ , ϕ ) senθ dθ dϕ 0 0 que corresponde, dada una semiesfera de radio R, al flujo de aquellos muones que tras atravesar la superficie semiesférica pasan por el centro de la semiesfera (es decir, aquellos que inciden normalmente a la superficie), dividido por la superficie, 2πR2 : J2 = flujo de muones que atraviesan normalmente la superficie semiesférica de radio R 2πR 2 Por tanto sólo contamos los muones que pasan por el centro: APÉNDICE 1 1.- No existencia de coincidencias múltiples Queremos calcular la probabilidad de tener 2 pulsos separados por menos de 20 ns. Esto equivale a calcular la probabilidad de que en un tiempo T = 20 ns haya al menos un pulso. Durante el tiempo que tomamos medidas podemos suponer el flujo de rayos cósmicos como constante, caracterizado por una frecuencia media de N pulsos detectados / s . En nuestro caso se contabilizan del orden de 20 pulsos / s . También podemos suponer que la distribución de frecuencias n es una normal, de media N y ( n − N )2 − 1 2 e 2σ dn es la probabilidad de que desviación típica desconocida σ : dP(n ) = σ 2π la frecuencia de detección medida corresponda al intervalo (n, n + dn). Esto corresponde a la unidad de tiempo (1s). La distribución de frecuencias para un intervalo de tiempo T viene dada entonces por otra gaussiana con σ (T) = (T / 1s) · σ , N(T) =(T / 1s) · N , y ahora nos preguntamos por la probabilidad de que n (T) ≥ 1. Será el área de la cola de la gaussiana a partir de n (T) = 1. Por otro lado, por ser una gaussiana se cumple que la probabilidad de que n (T) ≥ N(T) + 3.62 σ (T) es 0.0001. Por tanto, si 1 ≥ N(T) + 3.62 σ (T) podemos concluir que la probabilidad buscada es despreciable. ¿Cuánto vale σ en relación con N? Como en nuestro caso la variable n es siempre positiva, la media N será positiva, y σ ≤ N. Además N(T) = (T / 1s) · N ≈ 20·10-9 · 20 = 4 · 10-7 , por lo que N(T) + 3.62 σ (T) ≤ N(T) + 3.62 N(T) ≈ 10-6 << 1. Esto significa que el valor n (T) = 1 está alejadísimo de la media, en la escala de desviaciones típicas σ , y por eso la probabilidad de que haya un pulso en un intervalo de 20 ns es despreciable (menor de 0.0001 según lo calculado), y podemos considerar que no se dan coincidencias múltiples. 2.- Probabilidad de solapamiento de 2 pulsos APÉNDICE 2 SIMULACIÓN MONTECARLO 1.- Papel que juega en el cálculo de Iν Conociendo el flujo de muones, el número de coincidencias registrado por nuestro montaje por unidad de tiempo podría predecirse integrando la expresión (1) sobre la superficie del detector superior, y para todas las direcciones (θ,φ) tales que la trayectoria del muón intersecte ambos centelleadores. La expresión (1) tiene simetría cilíndrica, mientras que la geometría del detector se expresa de manera sencilla sólo en coordenadas cartesianas, lo que complica considerablemente el cálculo. Por esta razón es preferible realizar el cálculo mediante una simulación por ordenador del montaje experimental, siguiendo el método llamado Montecarlo. Para ello generaremos de manera aleatoria trayectorias de muones que incidan sobre el centelleador superior y determinaremos, qué fracción fMC de éstas intersecta también el detector inferior (la determinación será tanto más precisa cuanto mayor sea el número de trayectorias simuladas). Los puntos de impacto sobre el detector superior deben generarse de manera aleatoria y uniforme, al igual que los ángulos acimutales φ, a la vista de la expresión (1). Los ángulos cenitales θ deben generarse también de forma aleatoria, pero no uniforme, sino siguiendo la distribución que indica (1). Para realizar la simulación es preciso medir las dimensiones del montaje real (superficie de los centelleadores y distancia entre éstos). Una vez conocida la fracción fMC de trayectorias posibles que intersectan ambos detectores, obtendremos el número de coincidencias (en función de Iν) multiplicando fMC por el número de muones que llegan al detector superior, que se obtiene integrando (1) entre θ = 0 y π/2. Esta integral sí puede realizarse de manera analítica. Comparando la expresión obtenida con el número de coincidencias medido podemos obtener Iν. 2.- Cómo obtener un generador de números aleatorios Este apéndice trata de explicar cómo obtener un generador de números aleatorios que responda a una distribución conocida a partir de una uniforme. Casi todos los ordenadores y lenguajes de programación, poseen un generador intrínseco de números pseudo-aleatorios uniformes en el intervalo 0, 1. Quisiéramos pues, aprovechar este generador para obtener números aleatorios que sigan otra distribución. Sea f (x) la densidad de probabilidad que queremos generar y F (x) su función de distribucion, definida como F ( x) = ∫ x a f ( x)dx (donde a es el origen inferior en el que está definido f(x), por ejemplo, para una gaussiana a = -∞). Se puede demostrar que la variable aleatoria r definida como: r = F (x) está distribuida uniformemente (véase la demostración al final del apartado). Esta propiedad puede usarse para obtener nuestro generador. Para obtener un número aleatorio que siga nuestra distribución, llamaremos al generador de nuestro ordenador, que nos proporcionará un número r. Calcularemos x = F-1 (r) , y ya tenemos el número que buscamos (x, que sigue la distribución f (x)). EJEMPLO Supongamos que queremos un generador con f (x) = e-x . Figura 1: Ejemplo 1) Calculemos: F ( x) = 2) ∫ x 0 x f ( x)dx = ∫ e − x dx = 1 − e − x 0 → x = − ln(1 − r ) Lo igualamos al número aleatorio uniforme r = 1 − e − x 3) Para obtener números aleatorios x que sigan una distribución f (x) = e-x , llamamos a nuestro generador uniforme y calculamos x con la fórmula anterior. * Demostración de que r = F (x) está distribuida uniformemente: f ( x) : [a, b] → ℜ b Queremos generar puntos según una distribución f (x), con . f ( x) ≥ 0 , ∫ f ( x)dx = 1 a x dF ( x) Tenemos F ( x) = ∫ f ( x' )dx' → = f ( x) . Si tenemos una función cualquiera a dx G(x) cuyo valor medio queremos calcular hallaremos G ( x) = b ∫ G( x' ) f ( x' )dx' , pero a haciendo el cambio de variable de x a F(x), se tiene 1 b dF ( x) dF = dx = f ( x)dx , F ( x = a ) = 0 , F ( x = b) = 1 → ∫ G ( x' ) f ( x' )dx' = ∫ G ( F )dF a dx 0 , por lo que vemos que cuando expresamos las funciones en términos de la variable F, la distribución de probabilidad asociada a F es la distribución uniforme, que vale 1 en el intervalo [0,1], es decir, F está distribuida uniformemente. 3.- Generador de números gaussianos Queremos ahora generar números aleatorios distribuidos según una gaussiana de media 0 y sigma 1. Podríamos intentar aplicar el método anterior, pero fracasaríamos ya que la gaussiana no es integrable analíticamente y por lo tanto no podríamos obtener una fórmula para F (x). Sin embargo existen otras técnicas que no explicaremos en detalle. Damos a continuación un método práctico para obtenerlos: 1) Obtener dos números aleatorios de una distribución uniforme u y v x = − 2 ln u cos(2π v ) 2) Calcular: y = − 2 ln u sin (2π v ) 3) x e y así calculados son dos números aleatorios independientes que siguen una distribución gaussiana (de media 0, varianza 1) Este método es exacto y fácil de programar, pero tiene la desventaja de que no es muy rápido debido al cálculo del logaritmo, seno y coseno. El siguiente algoritmo es una mejora a este método: 1) Generar dos números aleatorios uniformes u y v 2) Calcular w = (2u – 1)2 + (2v – 1)2 3) Si w > 1 ir a 1) ln w 4) Devolver x = uz e y = vz, con z = − 2 w Esta variación elimina el seno y el coseno a expensas de un rechazo del ≈ 21% en el paso 3. Para saber algo más sobre los métodos de Montecarlo: http://www.physics.carleton.ca/courses/75.502/slides/intro/index.html 4.- Alternativas al uso de la simulación Montecarlo Supongamos que hacemos la siguiente aproximación para calcular la fracción f de muones que, antes de atravesar el panel de abajo, atraviesan también el panel de arriba: Tenemos los dos paneles (detectores) y tomamos una pequeña área A en el inferior, de acuerdo con el siguiente esquema: De todos los muones que atraviesan el área A tan sólo una fracción f habrá atravesado la placa superior. Si tomamos una esfera centrada en A de radio h y suponemos que el flujo es aproximadamente isotrópico, podemos estimar f como: área panel arriba área panel arriba f = = área semiesfera 2Πh 2 Donde también se ha cometido un error por no formar parte exactamente la superficie del panel de la esfera, y por no depender f del área A escogida. ¿Cuál es la validez de esta aproximación? A continuación comparamos, para unos paneles dados y un rango de distancias h, lo que se obtiene con esta aproximación con lo que se obtiene con un método Montecarlo que supone flujo isotrópico (lo cual nos permite saber el error que se comete por no formar el panel parte de la superficie de la esfera), y con otro que supone el flujo proporcional a cos2(θ) (así sabemos el error global que se comete con la estimación). Asimismo se compararán los dos Montecarlo para saber la influencia de la hipótesis de isotropía del flujo en función de la distancia, y por último se hará un pequeño análisis de la influencia de la geometría del dispositivo. De momento tomamos los paneles de dimensiones fijas, a = 28 cm y b = 10 cm, y vamos variando h desde h = 0.11 cm (paneles casi pegados) hasta h = 1378 cm (paneles muy alejados entre sí), y los supondremos en todo momento con sus normales orientadas en la dirección vertical, θ = 0. Comenzamos viendo la influencia de la isotropía del flujo comparando los dos Montecarlo. La comparación consiste en ver la diferencia relativa (en %) entre las fracciones obtenidas por ambos métodos, definida f MC uniforme − f MC cos 2 θ por Fracción relativa 1(% ) = 100 ⋅ : f MC cos 2 θ Diferencia relativa entre Mcunif y Mccos^2 vs h 6000 Diferencia relativa (%) 5000 4000 3000 2000 1000 0 -1000 0 200 400 600 800 h (cm) 1000 1200 1400 1600 Diferencia relativa a distancias típicas Diferencia relativa (%) 50 40 30 20 10 0 -10 0 10 20 30 40 50 60 -20 -30 -40 h (cm) Vemos que para estos paneles en concreto (con esas dimensiones) existe un rango de distancias h, entre 20 y 30 cm, para los que el error es mínimo, y es tolerable, de aproximadamente un 3 % ( por otro lado, como a distancias muy pequeñas cualquier distribución angular del flujo dará prácticamente f = 100 % , se comete poco error suponiendo isotropía, pero estas distancias son incompatibles con nuestro método experimental, que requiere una separación mínima para introducir las planchas de plomo para deducir la componente dura, así que no nos fijamos en ellas). Fuera de ese rango los errores son muy grandes (de hecho se hacen enormes para distancias mayores), y la aproximación de isotropía no es válida. Ahora comparamos la estimación con el Montecarlo que supone una distribución angular del flujo uniforme, viendo en función de la distancia h la fracción f estimación − f MC uniforme Fracción relativa 2 (% ) = 100 ⋅ , así sabremos el error cometido por f MC uniforme suponer que la superficie del panel superior forma parte de la esfera: Diferencia relativa MCuniforme-aproximación en la zona de interés 200 Diferencia relativa (%) 150 100 50 0 0 20 40 60 80 100 120 140 -50 -100 -150 h (cm) Vemos en primer lugar que la aproximación es una aproximación muy fuerte, ya que sólo para un rango de distancias pequeño en torno a h = 12 cm el error cometido es pequeño (menor de un 10 %). Cuando h tiende a 0 la diferencia se dispara (el resultado correcto es f = 1 , pero la estimación hace tender f a infinito), y cuando h tiende a infinito también (la estimación de f decrece más rápido con h que en el caso de Montecarlo uniforme, por eso la diferencia relativa tiende a -100 %). Nótese que el rango de distancias en que la aproximación no es muy incorrecta es bastante parecido al que se observó en la comparación entre los dos Montecarlos. Esto se refleja al comparar directamente la estimación con el Montecarlo que tiene en cuenta que el flujo no es f estimación − f MC cos 2 θ : isotrópico, siendo ahora Fracción relativa3 (% ) = 100 ⋅ f MC cos 2 θ Diferencia relativa MCcos^2-aproximación 150 Diferencia relativa (%) 100 50 0 0 20 40 60 80 100 120 -50 -100 h (cm) Hay una zona en el entorno de h = 9.5 cm, (8.85 cm, 10.65 cm), en el cual la estimación coincide muy bien con el factor f desconocido, pero vemos que enseguida es incorrecta, dando para distancias mayores un resultado del factor f que es aproximadamente 1/3 del valor real. Ahora veamos la influencia de la geometría de las placas, tomando ambos lados a y b de 10 cm de longitud. Los resultados que se obtienen son los siguientes: f MC uniforme − f MC cos 2 θ : Fracción relativa 1(% ) = 100 ⋅ f MC cos 2 θ Diferencia relativa entre Mcunif y Mccos^2 vs h 6000 Diferencia relativa (%) 5000 4000 3000 2000 1000 0 0 200 400 600 800 -1000 h (cm) 1000 1200 1400 1600 Diferencia relativa a distancias típicas 160 Diferencia relativa (%) 140 120 100 80 60 40 20 0 -20 0 10 20 30 40 50 60 -40 h (cm) Fracción relativa 2 (% ) = 100 ⋅ f estimación − f MC uniforme f MC uniforme : Diferencia relativa MCuniforme-aproximación en la zona de interés 250 Diferencia relativa (%) 200 150 100 50 0 -50 0 20 40 60 80 100 -100 -150 h (cm) Fracción relativa3 (% ) = 100 ⋅ f estimación − f MC cos 2 θ f MC cos 2 θ : 120 140 Diferencia relativa MCcos^2-aproximación 200 Diferencia relativa (%) 150 100 50 0 0 20 40 60 80 100 120 -50 h (cm) Comparando las gráficas correspondientes a las dos geometrías de las placas vemos que presentan claras diferencias, lo que refleja la importancia de la geometría de las mismas (y de la medida de las dimensiones en el caso de nuestro experimento, para minimizar errores). En este segundo caso la estimación resulta óptima para h = 14.5 cm, y para distancias mayores se subestima la fracción f en un rango amplio de h’s en torno a un 30 % (error aceptable sólo si de lo que se trata es de hallar el orden de magnitud del flujo). Por último conviene reseñar un punto: a la hora de ver en qué rango de distancias h la estimación es buena lo que importa realmente es ver, para ese rango, el cociente h/a ó h/b, ya que si tomamos otras placas que sean exactamente como las originales, pero x veces mayores, se obtendrá que el rango óptimo de h’s es el original multiplicado por x, manteniéndose el cociente h/a ó h/b constante. Es decir, la validez de la aproximación es la misma aunque cambiemos la escala del conjunto placas + distancia h que las separa. Si por ejemplo se toman las placas cuadradas de lado 1 cm, la estimación será óptima para una distancia h = 1.45 cm . El interés de una aproximación es función del rango de aplicabilidad de la misma, y en este caso la estimación vemos que tiene unos rangos pequeños, con lo cual es de poca utilidad y habría que acudir a otra estimación que fuera fiable para un rango de datos mucho mayor.