FÍSICA MATEMÁTICA. 2015-2016 Relación 4: Monte Carlo 14. Obtener el valor esperado y la varianza de una variable aleatoria n = 0, 1, 2, 3, . . . que obedece µn e−µ una función de distribución de probabilidad de Poisson, pn = . n! 15. Sean X e Y dos variable aleatorias independientes uniformemente distribuidas en [0, 1]. Se pide calcular la densidad de probabilidad de Z = X/Y , y calcular hZ α i para |α| < 1. 1 1 , x ∈ R. Sean {Xi }N i=1 N variables π x2 + 1 aleatorias independientes con distribución p(x) y sea X̄ su media aritmética. Probar que X̄ también obedece a una distribución de Cauchy normalizada. 16. La distribución de Cauchy normalizada es p(x) = R1 17. (Variables de control.) Se quiere estimar el valor de la integral I = 0 dx ex mediante Monte Carlo generando puntos independientes uniformemente distribuidos R 1en [0, 1]. Para reducir el error se considera aplicar el método Monte Carlo a la integral Ia = 0 dx (ex − ax) donde a es un parámetro a elegir de modo que la varianza del integrando sea mı́nima. La integral pedida se R1 recupera con I = Ia + a/2 (la integral 0 dx x = 12 se supone conocida en forma exacta). Se pide calcular la varianza en función de a y hallar el valor óptimo de este parámetro, ası́ como estimar cuál es la reducción en el número de puntos requerido por usar a óptimo frente a a = 0. (Lo que se quiere es ver la eficiencia del método; para ese estudio deben usarse los valores exactos de todas las integrales requeridas.) 18. Sean X, Y dos variables aleatorias reales con densidad de probabilidad pX,Y (x, y) proporcional a 1/(1 + x2 + y 2 )2 . Se pide especificar sendas funciones f1 y f2 tales que X = f1 (u1 , . . .) e Y = f2 (u1 , . . .) sigan la distribución pedida (siendo las ui uniformemente distribuidas en (0, 1) e independientes). Calcular la covarianza de X e Y . ¿Son estas variables independientes? 19. Para hacer un muestreo mediante aceptación-rechazo de la distribución d-dimensional (no normaQ lizada) w(x) = di=1 cos(πxi /(2L)) se quiere usar la densidad de probabilidad q(x) proporcional Q a di=1 (L2 − x2i ) (ambas con soporte en [−L, L]d ). Buscar un valor adecuado del parámetro K y obtener la correspondiente probabilidad de aceptación. 20. Cierto sistema puede hallarse en dos estados 0 y 1, con probabilidades p0 y p1 (p0 + p1 = 1). Queremos simularlo usando Metropolis y para hacer las propuestas se usa una probabilidad auxiliar Q(0 → 1) = Q(1 → 0) = q y Q(0 → 0) = Q(1 → 1) = 1 − q siendo q un parámetro entre 0 y 1. Se pide obtener la probabilidad W (i → j) asociada y verificar que satisface balance detallado (para concretar supóngase que p0 ≥ p1 ). Probar que la vida media para llegar al equilibrio es τ = −1/ log |1 − q/p0 |. 21. Si el valor del lado de un cuadrado, l, tiene densidad de probabilidad pl (x) uniforme en [0, L], se pide calcular la densidad de probabilidad pA (x) correspondiente al área A = l2 . Verifı́quese que hAi calculado con pl o con pA da el mismo resultado. 22. Sean τi , i = 1, 2, . . ., variables P aleatorias independientes y positivas con la misma densidad de probabilidad e−x , y sean tn = ni=1 τi . Probar que la distribución de cada una de las variables tn es e−tn tnn−1 /(n − 1)! Usando este resultado probar que, dado un µ positivo, Prob(tn ≤ µ < tn+1 ) = e−µ µn /n!, es decir, n considerada como una variable aleatoria definida por la condición tn ≤ µ < tn+1 obedece una distribución de Poisson. √ −1 23. Aplicar el desarrollo de Stirling, log(x!) = x(log(x) − 1) + log( 2πx) + O(x ), para mostrar N pn (1 − p)N −n , se aproxima a que en el lı́mite de N grande la distribución binomial pn = n √ una gaussiana centrada √ en n = pN cuya anchura crece como N . (Sugerencia, hacer el cambio de variable n = pN + x N , con x fijo cuando N → ∞.) 24. De acuerdo con el teorema del lı́mite central, si Xi ∼ p(x) son N variables PN independientes y p es bien comportada (admite media y varianza finitas) la media X̄ = i=1 Xi /N sigue una distribución normal en el lı́mite de N grande. Demostrarlo. (Sugerencia trabajar con variables reescaladas y con las transformadas de Fourier de las distribuciones.) 25. Probar que el método de Metropolis-Hastings (Q(x, y) no simétrica) satisface balance detallado.