Variables aleatorias continuas y Teorema Central del Limite FaMAF 17 de marzo, 2015 Variables aleatorias continuas Definición Una variable aleatoria X se dice (absolutamente continua) si existe f : R 7→ R con f ≥ 0, tal que Z P(X ∈ C) = f (x) dx. C Ejemplos: I Uniforme: X ∼ U(a, b) I Normal: X ∼ N (µ, σ) I Exponencial: X ∼ E(λ). I Otras: " distribuciones derivadas de la normal": χ2 , t-Student. I Otras: Gamma, Beta, Weibull, Cauchy, Laplacian, etc. Distribución uniforme Definición X se dice uniformemente distribuida en (a, b) si su función de densidad está dada por ( 1 a<x <b 1 f (x) = I(a,b) (x) = b−a b−a 0 c.c. I Función de distribución acumulada: x ≤a 0 x−a F (x) = b−a a < x < b 1 x ≥b I E[X ] = I a+b . 2 1 Var (X ) = (b − a)2 . 12 Gráficos f (x) = 1 I(3,5) (x) 2 F (x) = 0 x−3 2 1 x ≤3 3<x <5 x ≥5 Maximo de uniformes Sean X1 , X2 , . . . , Xn v.a. independientes con f.d.a. F1 , F2 , . . . , Fn , y sea M = max {X1 , X2 , . . . , Xn } 1≤i≤n . Entonces FM (t) = n Y Fi (t). i=1 Esto se prueba observando que en general si M es un maximo de variables independientes FM (x) = P(M ≤ x) = P(X1 ≤ t, · · · , Xn ≤ t) = (F1 (x)) · · · (Fn (t)) Si ademas Xi ∼ U(a, b), entonces FM (t) = tn I[a,b] (t) + 1I(b,∞ (t). (b − a)n Distribución exponencial Definición Una v.a. X con función de densidad dada por fλ (x) = λ e−λx , x > 0, para cierto λ > 0 se dice una v.a. exponencial con parámetro λ. 1 λ I E[X ] = I Var(X ) = 1 λ2 Función de densidad 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 5 10 15 20 25 Propiedades Una variable aleatoria con distribución exponencial X ∼ E(λ) tiene I F (x) = 1 − exp(−λx), x > 0. I c > 0, c X ∼ E( 1c λ). I falta de memoria. P(X > s + t | X > s) = P(X > t). Las variables exponenciales son las únicas v.a. continuas con falta de memoria. El análogo en el caso discreto son las v.a. geométricas. Mínimo de exponenciales Sean X1 , · · · , Xn v.a. independientes con f.d.a. F1 , · · · , Fn , y sea m = min {X1 , X2 , . . . , Xn } . 1≤i≤n Entonces n Y Fm (t) = (1 − (1 − Fi (t))). i=1 Esto se prueba observando que en general si m es un minimo de variables independientes 1 − Fm (t) = P(m > t) = (1 − F1 (t)) · · · (1 − Fn (t)). Si ademas Xi ∼ E(λi ), entonces P 1 − Fm (x) = e−λ1 x · e−λ2 x . . . e−λn x = e−( P Por lo cual m ∼ E( i λi ) i λi ) x . Distribución Normal Definición La v.a. X se dice normalmente distribuida con media µ y varianza σ 2 si su función de densidad de probabilidad está dada por f (x) = √ 1 2πσ e−(x−µ) 2 /2σ 2 , x ∈ R. I µ ∈ R, σ > 0. I Notación: X ∼ N(µ, σ). I Distribución normal estándar: Z ∼ N(0, 1). 2 1 fZ (x) = √ e−x /2 , 2π x ∈ R. Variando µ I Máximo: x = µ I Valor Máximo: √ I I 1 √ ' 0.398 2π 1 √ ' 0.2 2π 2 1 2πσ Variando σ La desviación estándar I P(|X − µ| < σ) ' 68% I P(|X − µ| < 2σ) ' 95% I P(|X − µ| < 3σ) ' 99.7% Distribución Normal estándar 1 Φ(x) = P(Z ≤ x) = √ 2π Z x e−t 2 /2 −∞ I No existe una fórmula cerrada para Φ(x). I Si X ∼ N(µ, σ), entonces aX + b ∼ N(aµ + b, |a|σ). I I X −µ ∼ Z = N(0, 1). σ Si X ∼ N(µ, σ), P(X ≤ x) = Φ x −µ σ . dt. La función Φ(x) P(X ≤ 2) = P(Z ≤ 1) = Φ(1). Valores de Φ(x) I Para α ∈ (0, 1), zα es el número real tal que P(Z > zα ) = α. I Los valores de Φ(z) están tabulados: Φ(zα ) = P(Z ≤ α) = 1 − α I Φ(−z) = 1 − Φ(z), por lo tanto es suficiente tabular para z ≥ 0, o z ≤ 0. Tabla de Φ(z) Z ∼ N(0, 1) P(Z ≤ 1.51) = 0.93448 z 0 .. . 1.5 .. . 0.00 0.5 0.01 0.50399 0.02 0.50398 0.03 0.51197 0.93319 0.93448 0.93574 0.93699 Valores usuales de zα I α = 0.05 I zα = 1.64 P(−1.64 ≤ Z ≤ 1.64) = 0.90 Valores usuales de zα I α = 0.025 I zα = 1.96 P(−1.96 ≤ Z ≤ 1.96) = 0.95 Valores frecuentes de zα I α = 0.01 I zα = 2.33 P(−2.33 ≤ Z ≤ 2.33) = 0.98 Desigualdad de Chebyshev Lema (Desigualdad de Markov) Si X toma sólo valores no negativos y a > 0, entonces P(X ≥ a) ≤ E[X ] . a Teorema (Desigualdad de Chebyshev) Si X es v.a. con media µ y varianza σ 2 , entonces para k > 0 P(|X − µ| ≥ k σ) ≤ 1 . k2 Leyes de los grandes números Si X1 , X2 , . . . , Xn , . . . son v.a. independientes e idénticamente distribuidas, con media µ: I I Ley débil de los grandes números: X1 + X2 + · · · + Xn − µ > → 0 P n Ley fuerte de los grandes números: Con probabilidad 1 se cumple que: lim n→∞ X1 + X2 + · · · + Xn = µ. n n → ∞. LGN número de caras−número de cecas frecuencia relativa=proporción de caras 100 0.7 80 0.6 60 0.5 40 0.4 20 0.3 0 0.2 −20 0.1 −40 0 1000 2000 3000 4000 5000 6000 N=cantidad de tiradas 7000 8000 9000 0 10000 −1000 0 1000 2000 3000 4000 5000 6000 N=cantidad de tiradas 7000 8000 9000 10000 Teorema Central del límite Teorema (Teorema Central del Límite) Sean X1 , X2 , . . . , variables aleatorias igualmente distribuidas, con media µ y varianza σ 2 . Entonces X1 + X2 + · · · + Xn − nµ √ lim P < x = Φ(x). n→∞ σ n Muestra finita 51 intervalos 25 intervalos 5 7 6 4 5 3 4 2 3 2 1 0 1 80 90 100 110 0 80 15 intervalos 100 110 10 intervalos 12 12 10 10 8 8 6 6 4 4 2 0 90 2 80 90 100 110 0 80 90 100 110 Teorema Central del límite Ejemplo Supongamos que un programa suma números aproximando cada sumando al entero más próximo. Si todos los errores cometidos son independientes entre sí y están distribuidos uniformemente entre -0.5 y 0.5 y se suman 1500 números, ¿A lo sumo cuántos números pueden sumarse juntos para que la magnitud del error total se mantenga menor que 10 con probabilidad 0.9? Resolución Cada error cometido es una variable aleatoria εk con distribución U[−0.5, 0.5] E(εk ) = [0.5 + (−0.5)]/2 = 0 Definamos Sn = para el cual Pn k =1 εk , Var (εk ) = (0.5 − (0.5))2 /12 = 1/12 si deseamos encontrar el n más grande 0.9 = P(|Sn | < 10) p Usando el TCL [S1500 − nE(ε)]/ nVar (ε) ∼ N(0, 1) P(|Sn | < 10) = P −10 − nE(ε) Sn − nE(ε) 10 − nE(ε) p ≤ p ≤ p nVar (ε) nVar (ε) nVar (ε) −10 10 −10 = P q ≤ Z ≤ q = 1 − 2P Z ≤ q n 12 n 12 n 12 ! Resolución por lo cual −10 −10 0.9 = 1 − 2P Z ≤ q =⇒ P Z ≤ q = 0.05 n 12 n 12 −10 y√ = −1.65. Entonces, despejando resulta n = n 12 102 12 1.652 = 440.7. Teorema Central del límite Ejemplo Suponga que se tienen 100 lámparas de un cierto tipo, cuya duración puede modelarse como una variable exponencial de parámetro λ = 0.002. Si la duración de cada lámpara es independiente de la duración de las otras, encuentre la probabilidad de que el promedio muestral T = (1/100)(T1 + · · · + T100 ) se encuentre entre 400 y 550 horas. Resolución Como n es 100, podemos suponerlo suficientemente grande y aproximar la distribución del promedio por una normal. La esperanza y varianza de Sn = T1 + · · · + Tn son E(Sn ) = E(T1 + · · · + T100 ) = 100.E(T1 ) = 100 = 50000 0.002 Var (Sn ) = Var (T1 + · · · + T100 ) = 100.Var (T1 ) = 100 0.0022 P(400 ≤ (1/100)T1 +· · ·+T100 ≤ 550) = P(40000 ≤ T1 +· · ·+T100 ≤ 55000) ∼ = p p Φ(55000 − E(Sn )/ Var (Sn )) − Φ(40000 − E(Sn )/ Var (Sn )) Φ(55000 − 50000/5000) − Φ(40000 − 50000/5000) = Φ(1) − Φ(−2) = 0.8413 − 0.0228 = 0.8185