1 ESTADÍSTICA II SOLUCIÓN-PRÁCTICA 8: MUESTREO EJERCICIO 1 Demostraremos estos resultados por medio de la Función generatriz de momentos y algunos de los resultados ya obtenidos en la Práctica 4. 1) Sea, entonces, Y = X1 + X2 + … + Xn, tal que X ∼ Bernoulli (p). Entonces: MY(t) = (independencia) = M X1 ( t ) MX 2 ( t ) … MX n ( t ) = ( igual distribución ) = [ MY(t) ]n = [(1 − p) + e p] , que es la f.g.m. de una binomial con parámetros n y p. t n Por lo tanto: Y ∼ Bin (n, p) La distribución de Xn es la que, simplemente, toma los mismos valores que Y, pero divididos entre n, pues Xn = Y . En este caso se dice que: n n Xn ∼ Bin (n, p) o también que Xn tiene distribución exacta “cuasi-binomial”. Xn no tiene distribución “binomial”, a pesar que las probabilidades se calculan mediante la cuantía binomial, porque su recorrido no es {0, 1, …, n} sino {0, 1/n, 2/n, …, n/n=1}. 2) Demostraremos esta propiedad en un caso más general en el que tengamos m variables aleatorias independientes, con Xi ∼ Bin (ni, p). Entonces, siendo Y = X1 + X2 + ... + Xm tenemos que: [(1 − p) + e p] t MY(t) = (independencia) = M X1 ( t ) MX 2 ( t ) ... M Xm (t ) = [(1 − p) + e p] [ ] n1 [(1 − p) + e p] t n2 ... ( n1 + n2 +...+ nm ) = (1 − p ) + e p , que es la f.g.m. de una binomial con parámetros (n1 + n2 + ... + nm) y p. Por lo tanto, para el caso particular n1 = n2 = ... = nn = n, Y ∼ Bin (n.m, p). Como en el caso anterior, se dice que: t nn t m X m ∼ Bin (n.m, p) 3) Sean, n variables aleatorias Xi ∼ Geo (p). Entonces: MY(t) = (independencia) = M X1 ( t ) MX 2 ( t ) ... MX n ( t ) = pn [ 1 − e t ( 1 − p) ] n p p 1 − e ( 1 − p) 1 − e ( 1 − p) t t ... p 1 − e ( 1 − p) t = , que es la f.g.m. de una Binomial Negativa (n, p). También se dice que: n Xn ∼ Bin Neg (n, p) 4) Sea Y = X1 + X2 + ... + Xn. Probaremos aquí, también, un caso más general donde cada Xi ∼ Poisson (λi). La función generatriz de momentos de Y es: MY(t) = (independencia) = M X1 ( t ) MX 2 ( t ) ... MXn ( t ) = e λ1( e e( λ1 + λ 2 +...+ λ n ) ( e t −1) t −1) eλ 2 (e t −1) ... e λ n ( e t −1) = , que es la f.g.m de una Poisson ( λ1 + λ 2 +...+ λ n ) Si λ1 = λ 2 ... = λ n = λ, entonces Y ∼ Poisson (n λ), n Xn ∼ Poisson (n λ) y se dice que: Xn ∼ Cuasi-Poisson (n λ). 2 5) Supongamos que tenemos n variables aleatorias independientes, con Xi ∼ Exp (λ = 1 )y θ sea nuevamente Y = X1 + X2 + ... + Xn. Por lo tanto: MY(t) = (independencia) = M X1 ( t ) MX 2 ( t ) ... MX n ( t ) = ⎛ 1 ⎞n 1 1 1 ⎟⎟ , la cual ... = ⎜⎜ 1− θ t 1− θ t 1− θ t ⎝1− θt ⎠ es la f.g.m de una Gamma ( n, θ). Por Ejercicio 3 de la Práctica 4, sabíamos que: MaX(t) = MX(at) y entonces: ⎛ ⎞n ⎛ ⎞n 1 1 ⎟⎟ = ⎜⎜ ⎟⎟ , que es la f.g.m. de una Gamma (n, θ/n). M X ( t ) = MX(t/n) = ⎜⎜ n ⎝1− θt / n ⎠ ⎝ 1 − ( θ / n) t ⎠ Con lo que: Xn ∼ Gamma (n, θ/n) 6) Esta parte es similar a la anterior, dado que Exp (θ) = Gamma (1, θ). Planteemos un caso también más general donde cada Xi ∼ Gamma (ai, θ) (insistamos nuevamente que la notación para el segundo parámetro es arbitraria, por lo que queda a elección del lector, siempre que 1 λ = ). Por lo tanto: θ ⎛ 1 ⎞ ⎟⎟ MY(t) = (independencia) = M X1 ( t ) MX 2 ( t ) ... MX n ( t ) = ⎜⎜ ⎝1− θt ⎠ ⎛ 1 ⎞ ⎜⎜ ⎟⎟ ⎝1− θt ⎠ a1 ⎛ 1 ⎞ ⎜⎜ ⎟⎟ ⎝1− θt ⎠ a2 ⎛ 1 ⎞ ⎟⎟ ... ⎜⎜ ⎝1− θ t ⎠ an = a1 + a 2 + ... + a n , la cual es la f.g.m de una Gamma (a1 + a2 + ... + an , θ). Para el caso a1 = a2 = ... = an = a, Y ∼ Gamma ( n a, θ). Con idéntico razonamiento que en 5) resulta, para este último caso, que: Xn ∼ Gamma (n a, θ/n) 7) Consideramos, generalizando, el caso en que Xi ∼ N (μi, σi2 ). Entonces: MY(t) = (independencia) = 1 ( μ 1 + μ 2 + ... + μ n ) t + ( σ 12 + σ 22 + ... + σ n2 ) t 2 2 e M X1 ( t ) MX 2 ( t ) ... MX n ( t ) = 1 μ 1t + σ 12 t 2 2 e 1 μ 2 t + σ 22 t 2 2 e 1 μ n t + σ n2 t 2 2 ... e = , que es la f.g.m. de una N (μ1 + μ2 + ... + μn, σ12 + σ 22 +...+ σn2 ). Si μ1 = μ2 = ... = μn = μ y σ12 = σ 22 =...= σn2 = σ2, entonces Y ∼ N (n μ, n σ2). Finalmente, la distribución de Xn es N (μ, σ2 ), la cual se deduce calculando la f.g.m. de igual n forma que arriba. 8) La respuesta a esta parte, es el llamado Teorema del Límite Central que dice que dadas X1, X2, ... , Xn variables aleatorias independientes e idénticamente distribuidas (su distribución puede ser cualquiera y denotamos esto como que se distribuyen igual a X), con E (X) = μ < +∞ y V (X) = σ2 < + ∞, entonces: Xn − μ σ d ⎯⎯→ N (0, 1) n Esta tesis indica que, el promedio de n variables aleatorias, estandarizado, tiende en distribución a una normal estándar y esto sucede, valga la redundancia, cualquiera sea su 3 distribución (este hecho es lo sorprendente !!! ). Dicho de otro modo, a medida que n crece, las probabilidades del promedio estandarizado de una MAS c/r de cualquier variable aleatoria, se aproximan a las de una normal estandarizada. Este resultado también se puede escribir de la siguiente forma: Xn d ⎯⎯→ N (μ, σ2 ) n Entonces, es fácil observar que: Y = n Xn d ⎯⎯→ N (n μ, n σ2) EJERCICIO 2 (Múltiple opción seleccionado de los exámenes de marzo y setiembre y de la segunda revisión del 2001) En las dos primeras partes de este ejercicio se supone, que en ambos casos, tomamos una M.A.S. con reposición. σ2 1) La verdadera es la a). Como V ( Xn ) = , la dispersión de Xn depende de σ2 y de n: n cuanto mayor sea la dispersión de X -V (X) = σ2-, mayor es la de Xn y cuanto mayor sea el tamaño de la muestra, menor es la dispersión de Xn . 2) Sean Yi = Xi – p, para i = 1, 2, ..., n. Entonces, también las Yi, son independientes e idénticamente distribuidas con: E (Yi) = E (Xi – p) = E (Xi ) – p = p – p = 0 V (Yi) = V (Xi – p) = V (Xi) = p (1 – p) Si aplicamos ahora el Teorema del Límite Central a la sucesión Yn d N ( 0, ⎯⎯→ { Yi }i =1, 2, ..., n : p (1 − p) ) n Esto indica que la distribución de Yn = Xn – p, a medida que n crece, se aproxima a la de una N ( 0, p (1 − p) ) y por lo tanto c) es la verdadera. n 3) Como en la parte anterior, aplicando el Teorema del Límite Central ahora a la sucesión { Xi }i =1, 2, ..., n : Xn = 1 n n ∑ Xi d ⎯⎯→ N (μ, i =1 V ( X) σ2 ) = N ( E (X), ) n n Tomando n = 50, la distribución de X50 es aproximadamente igual a la de una N ( E (X), Entonces, la respuesta correcta es la c). 4) Por el ejercicio anterior, parte 5, vimos que si cada Xi ∼ Exp (θ), entonces: Xn ∼ Gamma (n , θ/n) Por lo tanto, para n = 10, X10 ∼ Gamma (10 , θ/10) y es correcta la opción b). V ( X) ) 50 4 EJERCICIO 3 1) MT(t) = (indep.) = MaX(t) MbY(t) = MX(at) MY(bt) = e 1 (a μ X + b μ Y ) t + (a 2σ2 + b2σ2 ) t 2 X Y 2 e μX a t + 1 2 2 2 σ a t 2 X e μY b t + 1 2 2 2 σy b t 2 = , la cual corresponde a la f.g.m. de una N (a μX + b μY, a2 σ 2X + b2 σ 2Y ). 2) Entonces: T = 2 X + 3 Y ∼ N ( 16, 1696) y por ello P(T > 18) = 1 – P( T − 16 1696 ≤ 18 − 16 )= 1696 1 – φ (0,04856) = 0,4806. EJERCICIO 4 Peso de cada naranja de la caja: Xi ∼ N(295, 225). 24 ∑X Peso del contenido neto de una caja: i =1 i . Peso esperado del contenido neto de una caja: 24 E( ∑X i =1 i ) = 295 x 24 = 7.080 gramos. Amplitud del intervalo: 10% de 7.080 gramos. Intervalo normalizado: (7.080 – 708, 7.080 + 708) = (6.372, 7.788). EJERCICIO 5 Si X ∼ Gamma (α = n/2, λ = 1/2) = Gamma (α = n/2, θ = 2) , entonces por Ejercicio 4 de la Práctica 1, su f.g.m. es: ⎛ 1 ⎞ n/2 ⎟⎟ MX(t) = ⎜⎜ ⎝1− 2t ⎠ Por lo tanto: M’X(t) = M’’X(t) = n 2 ⎛ 1 ⎞ ⎟⎟ ⎜⎜ ⎝1− 2t ⎠ (n / 2 −1 ) ⎛ 1 ⎞ ⎜⎜ ⎟⎟ ⎝1− 2t ⎠ n 2 8 (1 − 2 t ) 3 + (n / 2 −1 ) n n ( – 1) 2 2 2 (1 − 2 t )2 ⎛ 1 ⎞ ⎟⎟ ⎜⎜ ⎝1− 2t ⎠ (n / 2 − 2 ) 2 (1 − 2 t ) 2 2 (1 − 2 t )2 Entonces: E(X) = M’X(0) = n Y además: E(X2) = M’’X(0) = 4 n + n (n – 2) = n2 + 2 n V(X) = 2 n Es decir que una X ∼ Gamma (α = n/2, θ = 2), se llama “chi-cuadrado con n grados de libertad” (notación: X ∼ χ2 (n) ), tiene como esperanza sus grados de libertad y como varianza el doble de ésta. Algunas probabilidades de esta distribución, para diferentes valores de n, están tabuladas al final de la GUÍA. 5 EJERCICIO 6 Para hallar la distribución de la variable Y = X2 vamos a deducir su f.g.m. t Y MY(t) = E (e +∞ ∫ − e 1 ⎛⎜ x 2 ⎜ 1 / 1− 2 t ⎝ ) = E (e ⎞ ⎟ ⎟ ⎠ t X2 +∞ 1 )= ∫ 2π e t x2 −∞ 1− 2t 1 1− 2t 2π +∞ ∫ − e dx = 1 ⎛⎜ x 2 ⎜ 1 / 1− 2 t ⎝ ⎞ ⎟ ⎟ ⎠ +∞ 1 2π 1− 2t ∫ − e 1 2 x (1− 2 t ) 2 −∞ dx = 1 2π 2 1 dx = 1− 2t −∞ Para este última igualdad se observó que ⎛ 1 densidad de una N ( 0, ⎜ ⎜ 1− 2t ⎝ e 1 2 x 2 −∞ 2 dx = − 1 2π +∞ ∫ − e 1 ⎛⎜ x 2 ⎜ 1 / 1− 2 t ⎝ ⎞ ⎟ ⎟ ⎠ 2 es la función de −∞ 2 ⎞ ⎟ ) integrada en todo R y por lo tanto vale 1. ⎟ ⎠ Concluimos entonces que: MY(t) = ⎛ 1 ⎞ 1/ 2 ⎟⎟ = ⎜⎜ 1− 2t ⎝1− 2t ⎠ 1 Que corresponde a la f.g.m. de una Gamma (α = 1/2, θ = 2), o lo que es lo mismo una χ2(1). Por lo mencionado en el ejercicio anterior, E (Y) = 1 y V (Y) = 2. Resultado interesante: el cuadrado de una variable normal estandarizada tiene una distribución conocida: chi-cuadrado con un grado de libertad. EJERCICIO 7 (CONTROL 2001) 2 2 ⎛ X − 2⎞ ⎟ = ( X − 2 ) = Z2, con a) Si X ∼ N (2, 9), entonces ∼ N (0, 1) . Como Y = ⎜ ⎜ 9 9 9 ⎟⎠ ⎝ 2 Z ∼ N (0, 1), por el ejercicio anterior Y ∼ χ (1). X−2 Por lo tanto: P ( Y ≤ 3,84) = ( me fijo en la tabla chi-cuadrado ) = 0,95 b) P ( Y ≤ 3,84) = P ( Z2 ≤ 3,84) = P ( – 3,84 ≤ Z ≤ 3,84 ) = P ( – 1,96 ≤ Z ≤ 1,96 ) = 1 – 2 P ( Z ≤ – 1,96) = 1 – 2 Φ (– 1,96) = 1 – 2 x 0,025 = 0,95. EJERCICIO 8 (EXAMEN OCTUBRE DE 1997) 1) E(X2) = V(X) + E2(X) = 9 + 0 = 9 2) Como γ 2 = [ E (X − μ ) 4 ] − 3 = 0 ⇒ dado que μ = 0, E(X ) = 3 σ 4 σ V(X2) = E [ (X2) ]2 – E2 (X2) = E(X4) – [E(X2)]2 = 243 – 81 = 162. 4 4 = 3 (σ2)2 = 3 x 81 = 243 6 2 Xi ⎛X ⎞ ∼ N(0, 1) , ⎜ i ⎟ ∼ χ2(1) y dado que las 3 ⎝ 3 ⎠ 3) a) Como Xi ∼ N(0, 9), para 1 ≤ i ≤ 6, entonces ⎛ Xi ⎜ ⎜ 3 i = 1⎝ 6 variables son independientes U = b) P(J ≤ 113,4) = P( ∑ ⎞ ⎟ ⎟ ⎠ 2 ∼ χ2(6). J 113,4 ≤ ) = P(U ≤ 12,6) = 0,95. (Obsérvese que J = 9.U). 9 9 c) P(J > c) = 0,1 ⇔ P( J c c c > ) = 0,1 ⇔ P(U > ) = 0,1 ⇔ P(U ≤ ) = 0,9 ⇔ 9 9 9 9 c = 10,65 ⇔ c = 95,85 9 d) Como U ∼ χ2(6) o lo que es lo mismo una Gamma ( α = 3, θ = 2), entonces: E(U) = α θ = 6, y V(U) = α θ2 = 12. EJERCICIO 9 a) E(X) = 750 y σX = 20 es lo que afirma la promoción. Se adquiere el lote si X 31 > 745. En virtud del tamaño X 31 ⎯TCL ⎯→ ⎯ N (750, P( X 31 de la muestra (n > 30), se puede afirmar que 2 20 ). En consecuencia: 31 ⎛ 745 − 750 ⎞ ⎟ = 1 - Φ(-1,39) = Φ(1,39) = 0,9177. > 745 ) = 1 - Φ⎜ ⎜ 20 ⎟ 31 ⎝ ⎠ b) X ∼N(750, 20 ). Se trata de calcular 2 2 P(S > 320). Se sabe que: n.S 2 σ 2 ≈ χ n2−1 . Entonces: ⎛ 31.S 2 31x320 ⎞ ⎟⎟ = P χ 302 > 24,8 = 1 − P χ 302 ≤ 24,8 = 1 − 0,25 = 0,75. P⎜⎜ > 2 2 20 ⎠ ⎝ 20 ( ) ( ) EJERCICIO 10 (EXAMEN DICIEMBRE DE 1994) 1) Como X ∼ N(μ, σ2) y Y ∼ N(μ + 5, σ2), entonces por el Ejercicio 6: ⎛X−μ⎞ ⎜ ⎟ ⎝ σ ⎠ 2 y ⎛Y −μ −5⎞ ⎜ ⎟ σ ⎝ ⎠ 2 X−μ Y−μ−5 y ∼ N(0, 1). Por lo tanto, σ σ 2 ∼ χ2(1), y dado que las variables son 2 ⎛ X −μ⎞ ⎛Y −μ −5⎞ 2 independientes su suma ⎜ ⎟ +⎜ ⎟ ∼ χ (2). σ ⎝ σ ⎠ ⎝ ⎠ Culminamos el razonamiento observando que 2) P(M ≤ 640) = P( P(J2 ≤ 2,77) = 0,75. M 100 σ 2 ≤ 640 100 σ 2 2 2 ⎛ X −μ⎞ ⎛Y −μ −5⎞ = ⎜ ⎟ +⎜ ⎟ . 2 σ 100 σ ⎝ σ ⎠ ⎝ ⎠ M ) = ( llamamos J2 a una χ2(2) ) = P( J2 ≤ 640 )= 100 x 2,31 7 EJERCICIO 11 (CANAVOS 7.22) Sea X = espesor del material plástico medido en cm., con X ∼ N (μ, 0,012). Sabemos, además. n S2 25 S 2 2 por Teorema 8.10 de la GUÍA que (n – 1) o sea que ∼ χ2(24). ∼ χ 0,012 σ2 Entonces: P(S2 ≥ 0,0152) = P ( 25 S 2 0,012 ≥ 25 x 0,015 2 0,012 )=P( 25 S 2 0,012 ≥ 56,25) = 0,000212 El resultado que obtuvimos es que dicho suceso tiene probabilidad prácticamente cero si la varianza poblacional es 0,012. Por ello, se puede deducir que es muy dudosa la afirmación hecha por el fabricante. Para que el suceso de que la varianza muestral fuera más verosímil, es 25 x 0,015 2 necesario que el cociente sea más pequeño y por lo tanto la varianza poblacional σ2 σ2 más grande. EJERCICIO 12 Previamente a contestar las preguntas hallemos la distribución del estadístico J. Para ello, observemos, en primer lugar, que cada Xi2 ∼ χ2(1) según el Ejercicio 6. Por otra parte, como las Xi son independientes, también los son las Xi2 y entonces recordando que las distribuciones chi-cuadrado son un caso particular de la gamma, y teniendo en cuenta, nuevamente, el Ejercicio 1, donde en su desarrollo se demostró que la suma de gammas independientes con iguales parámetros da una gamma, concluimos que J ∼ χ2(10). 1) P ( J > 18,3 ) = 1 – P ( J ≤ 18,3 ) = 0,05 P ( J ≤ 9,34 ) = 0,50 P ( 3,25 ≤ J ≤ 16 ) = 0,90 – 0,025 = 0,875. n 2) Recordemos que S 2 = ∑ i =1 complicado que para J, que ( Xi − X )2 . Se puede demostrar, con un razonamiento más n n S2 σ2 ∼ χ2 (n – 1) = χ2 (9) (esta demostración es el Teorema 8.10 mencionado en el ejercicio anterior y la pérdida en un grado de libertad se debe a que X es dependiente de las Xi). Entonces: P(S2 > 1,14) = 1 – P(S2 ≤ 1,14) = 1 – P( 10 S 2 ≤ 1,14 x 10) = 0,25 1 EJERCICIO 13 (Examen Mar/2003) Este ejercicio se resuelve con el mismo argumento del Teorema de la Partición de Cochran. Si X3 = X1 – X2, entonces es X1 = X2 + X3. Se cumple: M X 1 (t ) = M X 2 + X 3 (t ) . Como X2 y X3 son variables independientes, la función generatriz de la suma es el producto de las generatrices marginales. Además, la función generatriz de una distribución chi-cuadrado es de la forma −n M X (t ) = (1 − 2.t ) 2 donde n son los grados de libertad de la distribución. Entonces: 8 M X 1 (t ) = (1 − 2.t ) −k 2 = M X 3 (t ) × (1 − 2.t ) −r 2 −k ⇒ M X3 (1 − 2.t ) 2 (t ) = −r (1 − 2.t ) 2 = (1 − 2.t ) − k −r 2 . Resulta que X3 tiene una función generatriz de la forma chi-cuadrado con parámetro (k-r). Por tanto, la variable X3 tiene distribución chi-cuadrado con (k-r) grados de libertad. EJERCICIO 14 (EXAMEN DICIEMBRE 1994) Como X ∼ N ( μ1,σ12 ) y Y ∼ N ( μ 2 ,σ 22 ), entonces 2 X − μ1 Y − μ2 y ∼ N (0, 1). Por el Ejercicio σ1 σ2 2 ⎛ X − μ1 ⎞ ⎛ Y − μ2 ⎞ ⎜ ⎟ ⎜ ⎟ se distribuyen ambas χ2(1). Además, como son ⎜ σ ⎟ y ⎜ σ ⎟ 1 2 ⎝ ⎠ ⎝ ⎠ independientes, y con los mismos argumentos de los Ejercicios 10 y 12, deducimos que 6, se cumple que 2 2 ⎛ X − μ1 ⎞ ⎛ Y − μ2 ⎞ ⎜ ⎟ ⎜ ⎟ ∼ χ2(2). Si W es independiente de X e Y, W también es independiente de ⎜ σ ⎟ + ⎜ σ ⎟ 1 2 ⎝ ⎠ ⎝ ⎠ 2 2 ⎛ X − μ1 ⎞ ⎛ Y − μ2 ⎞ ⎜ ⎟ ⎜ ⎟ , y por tanto, la variable T ' = ⎜ σ ⎟ + ⎜ σ ⎟ 1 2 ⎝ ⎝ ⎠ ⎠ W 2 ⎛ X − μ1 ⎞ ⎛ Y − μ2 ⎜⎜ ⎟⎟ + ⎜⎜ ⎝ σ1 ⎠ ⎝ σ2 2 tiene ⎞ ⎟⎟ ⎠ 2 distribución t con 2 grados de libertad (por ser el cociente de una normal sobre la raíz cuadrada de una chi-cuadrado sobre sus grados de libertad, ambas independientes). Obsérvese que T’ = 2 T , por lo que concluimos que concluimos que: T'= W 2 = ⎛ X − μ1 ⎞ ⎛ Y − μ2 ⎜⎜ ⎟⎟ + ⎜⎜ ⎝ σ1 ⎠ ⎝ σ2 2 ⎞ ⎟⎟ ⎠ 2 2 T ∼ t2 Por lo tanto: P (T < 2,065) = P ( 2T< 2 x 2,065) = P (T’ < 2,92) = 0,95 EJERCICIO 15 Recordemos el origen de la distribución T de Student. Supongamos que X1, X2, ...Xn es una X−μ MAS c/r con Xi ∼ N (μ, σ2). Entonces: X ∼ N (μ, σ2/n), y por lo tanto: ∼ N (0, 1). Sin σ/ n embargo, desde el punto de vista práctico, si desconocemos el valor de σ, esta distribución no nos permite formular inferencias respecto a μ. Entonces surge la distribución T: T(ν) = Z Y/ν donde Z ∼ N (0, 1) y Y ∼ χ2(ν) y son independientes 9 (ν son los llamados grados de libertad de T) Construyamos ahora un estadístico T, con las hipótesis antedichas y suponiendo μ conocida y σ desconocida: X−μ 1) Por la observación de arriba sea Z = ∼ N (0, 1). σ/ n 2) También vimos que n S2 σ 2 ∼ χ2(n – 1) y por lo tanto podemos definir Y = n S2 σ 2 ∼ χ2(n – 1) Finalmente nos queda: X−μ Z T= σ/ n = n S2 / σ2 n −1 Y n −1 = n − 1 ( X − μ) S2 ∼ tn-1 Entonces el cálculo es fácil: P ( t11 > 2,2) = 1 – P(t11 < 2,2) = 0,025. EJERCICIO 16 Parte A (CANAVOS 7.25) Sea Xi = la cantidad de nicotina en mg. en el i-ésimo cigarrillo. Sabemos que Xi ∼ N (μ, σ2) y que si tomamos una muestra de tamaño n = 16, se encuentra que el promedio es x = 0,75, y la varianza muestral es s = 0,175. Para hallar P( X16 ≥ 0,75), aplicaremos una distribución conocida que llamamos T de Student, cuya tabla se encuentra en la GUÍA: t n −1 = n − 1 ( Xn − μ ) S2 Obtenemos: P( X16 ≥ 0,75) = P ( 15 ( X16 − 0,6) 0,175 ≥ 15 (0,75 − 0,6) 0,175 ) = P ( t15 ≥ 3,32) = 0,002333 Es decir, que la probabilidad de que se dé el suceso, dada la afirmación del fabricante, es muy pequeña, por lo cual la hipótesis de partida (μ = 0,6), es poco creíble. Para que el resultado muestral fuese más probable sería necesario admitir que la verdadera media poblacional μ es más grande. Nota: P ( t15 ≥ 3,32) = 0,002333 se ha obtenido utilizando las funciones estadísticas de una planilla electrónica (FUNCIONES, FUNCIONES ESTADÍSTICAS, DISTRIBUCIÓN T) introduciendo el argumento (3,32), los grados de libertad (15) y el número de colas de la distribución cuya probabilidad se quiere calcular (1, en este caso). En la tabla t de la GUÍA solo están tabulados algunos valores del argumento. En este caso la mejor aproximación es P( t15 ≥ 2,95) = 0,005, y lo que podemos afirmar utilizando la tabla de la GUÍA es que P ( t15 ≥ 3,32) < 0,005. Parte B Cuando “n es grande” (n > 30), la distribución T se puede aproximar por la distribución normal estándar. En consecuencia: 10 P( X16 ≥ 0,75) = P ( 35 ( X 36 − 0,6) 0,175 35 (0,75 − 0,6) ≥ 0,175 ) = P ( t35 ≥ 5,07) ≅ 1 – Φ(5,07) = 0 Se trata de un suceso prácticamente imposible. Otra vez, se concluye que la hipótesis de partida (μ = 0,6) es poco creíble. EJERCICIO 17 (EXAMEN) Como U, V y Z son variables aleatorias N(0, σ2), entonces 2 2 U V Z , y ∼ N(0, 1) y por el σ σ σ 2 ⎛U⎞ ⎛V⎞ ⎛Z⎞ Ejercicio 6 se cumple que ⎜ ⎟ , ⎜ ⎟ y ⎜ ⎟ ∼ χ2(1). Además, como las variables son σ σ ⎝ ⎠ ⎝ ⎠ ⎝σ⎠ independientes, su suma sigue una distribución chi-cuadrado con 3 grados de libertad: 2 2 2 ⎛U⎞ ⎛V⎞ ⎛Z⎞ = ⎜ ⎟ + ⎜ ⎟ + ⎜ ⎟ ∼ χ2(3). 2 σ σ σ ⎝ ⎠ ⎝ ⎠ ⎝σ⎠ Si llamamos L1 = cantidad de litros de “Rain Rain” que toma el participante A en una hora y L2 = cantidad de litros de “Rain Rain” que toma el participante B en una hora, la probabilidad que nos solicita el ejercicio es: L2 L2 P(L1 > 3 L2) = (como L y L’ son positivas) = P( L21 > 9 L22 ) = P( 12 > 9 22 ) σ σ L2 donde tanto L21 2 σ como L22 2 σ L21 2 ∼ χ2(3), y son independientes. Por ello: F = σ2 L2 σ2 /3 ∼ F(3, 3), /3 distribución tabulada en la GUÍA. Entonces: P(L1 > 3 L2) = P(F > 9) = 0,05204 Nota: P(F3.3 > 9) = 0,05204 se ha obtenido utilizando las funciones estadísticas de una planilla electrónica (FUNCIONES, FUNCIONES ESTADÍSTICAS, DISTRIBUCIÓN F) introduciendo el argumento (3,32) y los grados de libertad del numerador y del denominador (3 y 3. En la tabla F de la GUÍA solo están tabulados algunos valores del argumento y de los grados de libertad (los argumentos corresponden a valores que acumulan 0,95 o 0,99 de probabilidad). En este caso la mejor aproximación es P(F3.3 ≤ 9,28) = 0,95 ⇒ P(F3.3 > 9,28) = 0,05, y lo que podemos afirmar utilizando la tabla de la GUÍA es que P(F3.3 > 9) > 0,05. EJERCICIO 18 Recordemos primero la distribución F de Fisher: dadas dos variables aleatorias U y V, independientes, con distribuciones de probabilidad χ2(m) y χ2(n) respectivamente, entonces la variable aleatoria cociente: U/m F(m, n) = V /n tiene distribución F con m y n grados de libertad. Como X ∼ N ( μ1, 9 ) y Y ∼ N ( μ 2 ,16 ), entonces por la definición anterior: 8 S 2Y 10 S 2X ∼ χ2(9) y ∼ χ2(7). Por lo tanto, 16 9 11 10 S 2X /9 140 S 2X 140 9 = = W F(9, 7) = 81 S 2Y 81 8 S 2Y /7 16 Por lo tanto: 140 140 W > 2,1291 ) = P(F(9, 7) > 3,68) = 0,05 81 81 1 Además, como resulta obvio observar que la variable aleatoria ∼ F(n, m). Entonces: F 140 1 140 81 1 140 1 1 1 = = = , con ∼ F(7, 9) 81 140 W 81 140 81 F W F W 81 Por ello: 140 1 81 1 1 > 5,6864) = P ( > 5,6864) = P ( > 5,6864 ) = P ( F(7, 9) > 3,29) = 0,05 P( 81 F 140 W F P(W > 2,1291) = P( EJERCICIO 19 1) Fn(t) = P(Yn ≤ t) = P(X1 ≤ t, ..., Xn ≤ t) = (indep.) = P(X1 ≤ t) ... P(Xn ≤ t) = (igual distrib.) = [ P(X ≤ t) ]n = FXn ( t ) . Entonces: a) si t < 0 ⇒ FX(t) = 0 ⇒ Fn(t) = 0 b) si 0 ≤ t < 1, FX(t) = t ⇒ Fn(t) = tn c) si t ≥ 1. FX(t) = 1 ⇒ Fn(t) = 1 2) lim Fn ( t ) = lim 0 = 0, si t < 0 n → +∞ n → +∞ lim Fn ( t ) = lim t n = 0, si 0 ≤ t < 1 n → +∞ n → +∞ lim Fn ( t ) = lim 1 = 1, si t ≥ 1 n → +∞ n → +∞ Observación: Fn(t) es la función de distribución de la variable aleatoria que es constantemente igual a 1 en t = 1; o dicho de otro modo es la variable aleatoria Z, tal que P(Z = 1) = 1. Se dice que Yn converge en distribución a la variable Z, cuando n →∞. EJERCICIO 20 1) Fn(t) = P(Yn ≤ t) = 1 – P(Yn > t) = 1 – P(X1 > t, ..., Xn > t) = (indep.) = 1 – P(X1 > t) ... P(Xn > t) = (idént. distrib.) = 1 – [ P(X > t) ]n = 1 – [1 – P(X ≤ t) ] n = 1 – [1 – FX( t) ] n. Entonces: a) si t ≤ 0 ⇒ FX(t) = 0 ⇒ Fn(t) = 0 − b) si t > 0, FX(t) = 1 – e 2) t θ ⇒ Fn(t) = 1 – e − tn θ lim Fn ( t ) = lim 0 = 0, si t ≤ 0 n → +∞ n → +∞ lim Fn ( t ) = lim 1 − e n → +∞ − tn θ = 1, si t > 0 n → +∞ Observación: En este caso nótese que Fn(t) no es una distribución, ya que no es continua por la derecha en t = 0. Para que sea una distribución, es necesario modificar la función Fn(t) 12 − tn de menara que Fn(t) = 0 si t < 0 y Fn(t) = 1 – e θ si t ≥ 0. Ahora, la variable aleatoria W cuya función de distribución resulta de hacer lim Fn ( t ) , es una variable constante, concentrada en n → +∞ el punto w = 1. Se dice que Yn converge en distribución a la variable W, cuando n →∞. EJERCICIO 21 Para resolver este ejercicio hay que hacer un supuesto adicional que no está escrito, pero que se podría deducir en coherencia con las hipótesis y es que Xn es uniforme discreta. Por lo tanto: i 1 P(Xn = ) = , para 1 ≤ i ≤ n n n Entonces: a) Fn(t) = P(Xn ≤ t) = 0, si t < k b) Fn(t) = P(Xn ≤ t) = ∑ i =1 1 n 1 1 = n n k ∑1 = n , i =1 k si k k +1 y 0<k<n ≤t< n n c) Fn(t) = P(Xn ≤ t) = 1, si t ≥ 1 Por lo tanto: lim Fn ( t ) = lim 0 = 0, si t < n → +∞ n → +∞ 1 n k = t, si 0 ≤ t < 1. Esto se debe a que, dado el Rec (Xn), existe k, tal que n → +∞ n lim Fn ( t ) = lim n → +∞ k 1 k +1 k k − t < < ε ≤ t para n suficientemente grande pues ≤ t < y por n n n n n k 1 tanto: 0 ≤ t − < . Entonces: lim Fn ( t ) = 1, si t ≥ 1 n → +∞ n n Fn (t ) − t = Nota: La observación final en este ejercicio es que dicha distribución corresponde a la de una uniforme continua en el intervalo [0, 1]. Se dice que Xn converge en distribución a una uniforme C[0, 1], cuando n →∞. EJERCICIO 22 Recordemos previamente la siguiente definición: p Xn ⎯⎯→ X (la v.a. Xn tiende en probabilidad a X) ⇔ ( ) lim P Xn − X ≤ ε = 1 n → +∞ 1) Recordemos que por la llamada Ley Débil de los Grandes Números: Si X1, ..., Xn v.a. iid con E(Xi) = μ y V(Xi) = σ2 (finitas) ⇒ Xn = 1 n n ∑X i p ⎯⎯→ μ i =1 Si Y ∼ Bin(n, p), entonces Y = X1 + ... + Xn con Xi ∼ Ber(p), E(Xi) = p y V(Xi) = p (1 – p). Y = Xn , si aplicamos la Ley Débil de los Grandes Números obtenemos Observando que p̂ = n p μ = p. que: Xn ⎯⎯→ 13 2) Enunciemos el siguiente Teorema: p p X y Yn ⎯⎯→ Y , entonces dadas dos funciones, g: R → R, continua y h: R2 Si Xn ⎯⎯→ → R2, continua en ambas variables, se puede demostrar que: p g ( Xn ) ⎯⎯→ g( X) p h ( Xn , Yn ) ⎯⎯→ h ( X, Y ) Para nuestro caso, si tomamos g(x) = x (1 – x) que cumple las condiciones del Teorema entonces: p g ( Xn ) = Xn ( 1 – Xn ) = p̂ ( 1 – p̂ ) ⎯⎯→ p (1 – p) 3) Si aplicamos el Teorema del Límite Central al conjunto X1, X2, ….., Xn: Xi ∼ Bernoulli(p) obtenemos que: Xn − p p̂ − p d = N(0,1) ⎯⎯→ p (1 − p) p (1 − p) n n ⎯→ 0 y Y n ⎯ ⎯→ X , entonces El Teorema de Slutsky establece que si X n − Y n ⎯ p d T) X n ⎯ ⎯→ X . d x −p Si aplicamos el Teorema enunciado en 2), tomando g (x) = 1 Xn (1 − Xn ) n = 1 p̂ (1 − p̂) n x (1 − x ) n 1 p ⎯⎯→ deducimos que: p (1 − p) n ya que g es real y además continua en (0, 1). Sean X n = Xn − p X n (1 − X n ) n y Yn = Xn − p p (1 − p ) n . Hay que probar que Xn – Yn o lo que es lo mismo: Xn − p Xn (1 − Xn ) n – Xn − p p (1 − p) n p ⎯⎯→ 0 Ahora bien: Xn − p Xn (1 − Xn ) n – Xn − p p (1 − p) n = ( Xn − p ) ( como ambos factores convergen en probabilidad a 0: 1 p Xn − p ⎯⎯→ 0 y – Xn (1 − Xn ) n 1 Xn (1 − Xn ) n 1 p (1 − p) n – 1 p (1 − p) n p 0 ⎯⎯→ ) p ⎯⎯→ 0, 14 entonces su producto también tiende en probabilidad a cero, con lo que queda probado que p Xn – Yn ⎯⎯→ 0, y por el Teorema de Slutsky, X n = Xn − p X n (1 − X n ) n d ⎯ ⎯→ N (0,1) EJERCICIO 23 Planteemos, para ello el Teorema de Khintchine (Novales pág. 311), similar a la Ley Débil de los Grandes Números, pero que no requiere del segundo momento para las variables: Si X1, ..., Xn v.a. iid con distribución igual a la de X y E(X) < +∞ 1 n ⇒ Xn = Probaremos, ahora que X12 , X 22 , n ∑X i p ⎯⎯→ E ( X) i =1 ⎯⎯→ σ . Para ello, apliquemos el teorema anterior a las variables p Sn2 2 Xn2 ..., las cuales son también independientes e idénticamente distribuidas pues las originales lo son, y su esperanza E (X2) < +∞ por hipótesis: 1 n ⇒ Xn2 = Recordando que Sn2 = 1 n n ∑X 2 i – ( i =1 1 n n ∑X 2 i p ⎯⎯→ E ( X2 ) i =1 n ∑X ) , 2 i aplicamos, en primer lugar, el teorema i =1 enunciado en el ejercicio anterior parte 2), tomando g (x) = x2 y la sucesión Xn , con lo que obtenemos: ( X n )2 = ( 1 n n ∑X ) i 2 p ⎯⎯→ E 2 ( X) i =1 Finalmente, empleamos el Teorema 8.22 del Novales (pág. 309): Sn2 = 1 n n ∑ i =1 Xi2 – ( 1 n n ∑X ) i 2 p ⎯⎯→ E ( X 2 ) – E2 (X) = Var (X) = σ2 i =1 Con otra parte del mismo teorema, eligiendo las sucesiones Sn2 y y n , como Sn2 n −1 p ⎯⎯→ σ2 n p ⎯⎯→ 1, (esta es una sucesión de variables constantes para cada n), tenemos que: n −1 sn2 = n p Sn2 ⎯⎯→ 1. σ2 = σ2 n −1