(16) Si A, B ∈ F y A ⊆ B, entonces P(A) ≤ P(B). Prueba Como A y B \ A son disjuntos, P(B) = P(A) + P(B \ A) ≥ P(A). ! Suele ser útil dibujar diagramas de Venn al trabajar con probabilidades. Por ejemplo, para ilustrar la igualdad (15) podemos dibujar el de la Figura 1.1 y observar que la probabilidad de A ∪ B es P(A) + P(B) − P(A ∩ B) porque esta última se cuenta dos veces en la suma P(A) + P(B). PROBABILIDAD BASICA P(A ∪ B) + P(A ∩ B) = P(A) + P(B) : y+!y y A B x x+!x P(A|B) = P(A ∩ B)/P(B) ; Fig. 1.1 Diagrama de Venn que ilustra la igualdad P(A ∪ B) = P(A) + P(B) − P(A ∩ B). si los Ai son una partición de Ω , ! 1 i de la suma P(B) = P(Ai ∩ B) es el sumando i P(B|Ai )P(Ai ) : F (x) X B p(0)+p(1)+p(2) DISTRIBUCIONES DE PROBABILIDAD (una variable) p(0)+p(1) p(0) nombre Binomial(n, p) 0 1 2 A1 función de masa (o densidad) x " # k 3 4 = n 5 p (1 − p)n−k p(k) k p(k) = exp(−λ) λ /k! Poisson(λ) k Geométrica(p) . . . pero la que cuenta sólo los j = k − 1 “fracasos hasta 1er éxito”, p(k) = p(1 − p)k−1 A2 A4 A3 media varianza np np(1 − p) λ λ 1/p (1 − p)/p2 (1/p) − 1 Uniforme(0,1) p(j) = p(1 − p)j "k−1# n p(k) = n−1 p (1 − p)k−n "j+n−1# n p(j) = n−1 p (1 − p)j f (x) = 1 , para 0 < x < 1 1/2 1/12 Exponencial(c) f (x) = c e−cx , para x > 0 1/c 1/c2 w/c w/c2 n 2n 0 1 µ σ2 Binomial Negativa(n, p) . . . y la que cuenta sólo los j = k − n “fracasos hasta el éxito n”, f (x) = Gamma(w, c) y la Gamma( n2 , 12 ) es la χ2n : Normal(0,1) Normal(µ, σ) . . . o Normal(µ, σ 2 ) : 1 w w−1 −cx e Γ(w) c x , para x > 0 √ f (z) = exp(−z 2 /2) / 2π X = σZ + µ , con Z ∼ Normal(0,1) A5 n(1 − p)/p2 n/p (n/p) − n La variable Y = eX = abZ , con a = eµ , b = eσ se llama entonces LogNormal; tiene E(Y ) = aeσ 2 /2 . DEFINICIONES CLAVE Función de distribución: FX (x) = P(X ≤ x) , para una X : Ω → R, FX (x1 , . . . , xn ) = P(Xi ≤ xi , i = 1, . . . , n) , para una X = (X1 , . . . , Xn ) : Ω → Rn , y la función de densidad es, en cada punto x = (x1 , . . . , xn ) ∈ Rn , ∂n fX (x) = FX (x) ∂x1 · · · ∂xn Varianza, covarianza y correlación: " " # # 2 σX = var(X) = E |X − µX |2 = E X 2 − µ2X cov(X, Y ) Coeficiente de correlación: ρX,Y = σX σY cov(X, Y ) = E ((X − µX )(Y − µY )) = E (XY ) − µX µY σY La recta de regresión de Y sobre X pasa por el punto de las medias y tiene pendiente = ρX,Y σX VARIABLES PIVOTE (para intervalos de confianza o contrastes de hipótesis) Notación usada y otros detalles generales: En cada caso, • µ, σ 2 designan a la media y varianza de ‘la población’: la v.a. X cuyos valores muestreamos, • x̄, s2 a la media y cuasi-varianza de la muestra, n al tamaño de ésta; • cuando hay dos muestras, sus tamaños son m, n y los subı́ndices A, B distinguen los estadı́sticos de ambas y los parámetros de las dos variables ‘observadas’. • En el caso de un IC con “desconfianza” (significance level) = α , los cuantiles de la variable pivote que correspondan al α elegido, producen, al despejar el parámetro, los extremos del intervalo buscado. • En el caso de un contraste de hipótesis, el parámetro viene dado por H0 , el nivel de significación decide qué cuantiles usar, y al despejar el estadı́stico resulta la frontera de la región de rechazo. Se fije o no a priori una región de rechazo, el p-valor que sale de los datos es la P, si H0 fuese cierta, de que la variable pivote Y se aleje de lo esperado tanto o más que el valor que producen los datos. x̄ − µ T = $ ∼ s 1/n Media: % td , con d = n − 1 si la X no difiere mucho de una Normal, ≈ N (0, 1) , si n es grande; √ 2 si se conoce σ, se usa en el lugar de s . Si la X es Poisson(λ) , x̄ estima λ = σ y podemos usar σ = x̄ X X √ en lugar de s ; en el caso de un contraste de hipótesis, el valor σX = λ0 dado por la hipótesis H0 . 2 2 Diferencia de dos medias: En % los mismos dos casos de antes, y si podemos suponer que σA = σB , 2 td , con d = m + n − 2 (x̄A − x̄B ) − (µA − µB ) (m − 1) sA + (n − 1) s2B $ T = . ∼ y con sp 2 = m+n−2 que es ≈ N (0, 1) si d grande, sp 1/m + 1/n Proporción, o la diferencia de dos de ellas: Ahora x̄ es la proporción muestral, y x̄(1 − x̄) estima σ 2 Z=$ x̄ − p x̄(1 − x̄)/n ≈ N (0, 1), Z=$ (x̄A − x̄B ) − (pA − pB ) x̄A (1 − x̄A )/m + x̄B (1 − x̄B )/n √ ≈ N (n, 2n) si n es grande. (n − 1) s2 ∼ χ2n−1 σ2 % n (f − e )2 ! fi son frecuencias observadas, i i 2 S= ∼ χd , donde e ei las frecuencias esperadas, i i=1 Varianza: S= ≈ N (0, 1) . n − 1 , d= n−1−r , (n − 1)(m − 1) , según los casos: si se estiman r parámetros, o en los otros dos casos vistos (tabla n × m). Pearson: LR: Para estimar Y − (α + βX) ∼ N (0, σ) , o contrastar la H0 : β = 0 , usando n datos (xi , yi ) : ! ! sy 2 β̂ = b = (yi − ȳ)(xi − x̄)/ (xi − x̄) = r s , * √ x sx n − 1 n−2 α̂ = a = ȳ − b x̄ ; es decir, ȳ = α̂ + β̂ x̄ , Si β = 0 , T = b = r ∼ tn−2 . sR 1 − r2 " # " n − 1 n − 1 σ̂ 2 = s2 = s2 − b2 s2x = 1 − r2 ) s2y . R n−2 y n−2 mini-TABLAS de: Normal(0,1) , y para S ∼ χ2n , del cocienteNormal(0,1) S/n (que esP∼=Exp p 1 si n = 2) Dan: • el valor (en %) de P(Z > z) para z ≥ 0 dado, si Z ∼ Normal(0,1); z • para p dado, el valor de t que cumple P(T > t) = p , si T ∼ Student tn ; • para p dado, los valores r0 , r1 que cumplen P(S/n < r0 ) = p = P(S/n > r1 ) , si S ∼ χ2n . Student tn , S ! Chi2n P=pP=p Student t Student t n Normal(0,1) Normal(0,1) P=p P=p z z z= 0. 1. t 2. 2 S2 ! Chi 50.0 15.9 2.30 .00 S ! Chi n n 48.0 14.7 2.00 .05 .10 46.0 13.6 1.80 P=p P=p P=p P=p .15 44.0 12.5 1.60 nr nr nr0 nr1 1 1.40 .20 0 42.1 11.5 40.1 10.6 1.20 .25 38.2 9.68 1.10 .30 36.3 8.85 0.94 .35 .40 34.5 8.08 0.82 32.6 7.35 0.71 .45 30.9 6.68 0.62 .50 29.1 6.06 0.54 .55 27.4 5.48 0.47 .60 25.8 4.95 0.40 .65 24.2 4.46 0.35 .70 22.7 4.01 0.30 .75 21.2 3.59 0.26 .80 19.8 3.22 0.22 .85 18.4 2.87 0.19 .90 .95 17.1 2.56 0.16 Para z mayores que 3 , . . . P(Z > z) ≈ 40% · e−z Con R: 2 /2 /z 100*(1-pnorm(z)) , P=p n p= n 3 4 5 6 7 8 9 10 11 12 13 14 15 16 18 20 30 40 50 60 120 600 5% 2.5% 1% 0.5% 2.35 2.13 2.02 1.94 1.89 1.86 1.83 1.81 1.80 1.78 1.77 1.76 1.75 1.75 1.73 1.72 1.70 1.68 1.68 1.67 1.66 1.65 3.18 2.78 2.57 2.45 2.36 2.31 2.26 2.23 2.20 2.18 2.16 2.14 2.13 2.12 2.10 2.09 2.04 2.02 2.01 2.00 1.98 1.96 4.54 3.75 3.36 3.14 3.00 2.90 2.82 2.76 2.72 2.68 2.65 2.62 2.60 2.58 2.55 2.53 2.46 2.42 2.40 2.39 2.36 2.33 5.84 4.60 4.03 3.71 3.50 3.36 3.25 3.17 3.11 3.05 3.01 2.98 2.95 2.92 2.88 2.85 2.75 2.70 2.68 2.66 2.62 2.58 ∞ 1.65 nr0 t 1.96 2.33 2.58 qt(1-p,n) , 1% P=p nr1 2.5% r0 =p= n 1 0.01 0.025 2 0.04 0.07 3 0.07 0.12 4 0.11 0.17 5 0.15 0.21 6 0.18 0.24 7 0.21 0.27 8 0.23 0.30 9 0.26 0.32 10 0.28 0.35 11 0.30 0.37 12 0.32 0.39 13 0.33 0.40 14 0.35 0.42 15 0.36 0.43 16 0.39 0.46 18 0.41 0.48 20 0.50 0.56 30 0.55 0.61 40 0.59 0.65 50 0.70 0.74 100 0.97 0.97 104 qchisq(p,n)/n , 5% 2.5% 1% r1 3.84 5.02 6.63 3.00 3.69 4.61 2.60 3.12 3.78 2.37 2.79 3.32 2.21 2.57 3.02 2.10 2.41 2.80 2.01 2.29 2.64 1.94 2.19 2.51 1.88 2.11 2.41 1.83 2.05 2.32 1.79 1.99 2.25 1.75 1.94 2.18 1.72 1.90 2.13 1.69 1.87 2.08 1.67 1.83 2.04 1.64 1.80 2.00 1.60 1.75 1.93 1.57 1.71 1.88 1.46 1.57 1.70 1.39 1.48 1.59 1.35 1.43 1.52 1.24 1.30 1.36 1.02 1.03 1.03 qchisq(1-p,n)/n