TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE PROBABILIDAD 1.1 NOCIONES SOBRE CONJUNTOS 1.1.1 DEFINICIÓN DE CONJUNTO. 1.1.2 NOTACIÓN. 1.1.3 EJEMPLOS. 1.1.4 CONJUNTO UNIVERSAL Y CONJUNTO VACÍO. 1.1.5 OPERACIONES ENTRE CONJUNTOS 1.1.6 EJEMPLO 1.1.7 ALGUNAS DEFINICIONES O LEYES DE INTERÉS 1.2 MODELOS PROBABILÍSTICOS 1.2.1 CARACTERÍSTICAS DE LOS FENÓMENOS ALEATORIOS 1.2.2 CONCEPTOS BÁSICOS DE ANÁLISIS COMBINATORIO 1.2.3 CONCEPTO DE PROBABILIDAD 1.2.4 TEORÍA AXIOMÁTICA DE LA PROBABILISDAD 1.2.5 TEOREMAS FUNDAMENTALES DEDUCIBLES DE LA TEORÍA AXIOMÁTICA DE LA PROBABILIDAD 1.2.6 TEORÍA CLÁSICA DE LA PROBABILIDAD 1.2.7 TEORÍA FRECUENCIAL O A POSTERIORI 1.2.8 PROBABILIDAD MARGINAL 1.2.9 PROBABILIDAD CONDICIONAL 1.2.10 TEOREMA DE BAYES 1.2.11 PROBLEMAS 2. VARIABLES ALEATORIAS 2.1 VARIABLE ALEATORIA DISCRETA 2.2 FUNCIONES DE DOS O MÁS VARIABLES DISCRETAS 2.3 FUNCIÓN DE DENSIDAD MARGINAL PARA VARIABLES DISCRETAS 2.4 FUNCIÓN DE DENSIDAD CONDICIONAL 2.5 VARIABLE ALEATORIA CONTINUA 2.6 FUNCIÓN DE DENSIDAD PARA VARIABLE CONTINUA PLURIDIMENSIONAL 2.7 ESPERANZA MATEMÁTICA 2.8 MOMENTOS CON RESPECTO AL ORIGEN 2.9 MOMENTOS DE ORDEN RESPECTO A UNA CONSTANTE 2.10 MOMENTOS DE ORDEN CON RESPECTO A LA MEDIA 2.11 VARIANZA DE UNA FUNCIÓN DE PROBABILIDAD 2.12 FUNCIÓN GENERATRIZ DE MOMENTOS 2.12.1 PROPIEDADES DE LA FUNCIÓN GENERATRIZ DE MOMENTOS 2.12.2 TEOREMA 2.13 FUNCIÓN CARACTERÍSTICA 2.14 EJERCICIOS 3. DISTRIBUCIONES PROBABILÍSTICAS 3.1 PRINCIPALES DISTRIBUCIONES DE PROBABILIDAD PARA VARIABLE DISCRETA 3.1.1 DISTRIBUCIÓN BINOMIAL 3.1.2 DISTRIBUCIÓN HIPERGEOMÉTRICA 3.1.3 DISTRIBUCIÓN DE POISSON 3.2 PRINCIPALES DISTRIBUCIONES CONTINUAS 3.2.1 DISTRIBUCIÓN UNIFORME O RECTANGULAR 3.2.2 DISTRIBUCIÓN NORMAL (0, 1 ) : n(0, 1) 3.2.3 DISTRIBUCIÓN NORMAL CON MEDIA m y VARIANZA s2: h(m,s2) 3.2.4 DISTRIBUCIÓN JI DOS CON UN GRADO DE LIBERTAD: X 2 (1) 3.2.5 DISTRIBUCIÓN JI DOS CON n GRADO DE LIBERTAD X 2 (n) 3.2.6 DISTRIBUCIÓN t DE ESTUDENT 3.2.7 DISTRIBUCION F DE SNEDECOR 3.2.8 TEOREMA CENTRAL DEL LÍMITE 3.2.9 TEOREMA DE MOIVRE 3.2.10 EJERCICIOS BIBLIOGRAFIA 1 NOCIONES ELEMENTALES DE PROBABILIDAD 1.1 NOCIONES SOBRE CONJUNTOS 1.1.1 DEFINICIÓN DE CONJUNTO. Un conjunto no es más que una colección de objetos, elementos o miembros. 1.1.2 NOTACIÓN. Por convencionalismo se tiene, mientras no se diga lo contrario, los conjuntos, los denotaremos con letras mayúsculas y los elementos con letras minúsculas. 1.1.3 EJEMPLOS. 1.1.3.1 Sea A un conjunto compuesto por los elementos: a, b, c y d. Es decir, A = {a, b, c, d }, donde podemos asegurar que a “pertenece a” A y se escribe a ∈ A; b ∈ A; c ∈ A; d ∈ A; (a, b )∈ A; (b, c, d )∈ A; etc. 1.1.3.2 Cuando un elemento o un grupo de elementos “no pertenece a” un conjunto, lo denotamos así: ∉ . Remitiéndonos al ejemplo 1.1.3.1 tenemos que la pareja (h, k ) ∉ A. 1.1.3.3 Dados los conjuntos A y B los cuales tienen como elementos : 1, 3, 5, 7, 9 y 1, 7, 9; respectivamente, entonces decimos que el conjunto B “es subconjunto de” A. 1.1.4 CONJUNTO UNIVERSAL Y CONJUNTO VACÍO. En muchos casos restringimos la teoría de conjuntos en términos de subconjuntos, ya que los relacionamos con respecto a otro conjunto o espacio que los contiene, esto es, conjunto Universal y lo denotamos con la letra U. Cuando un conjunto no tiene elementos, se denomina conjunto vacío y lo representamos con la letra φ , (FI). 1.1.4.1 Ejemplo de conjunto vacío: El conjunto de todos los números reales X tales que X2 = -1, es decir, {X / X 2 } = -1 = φ , ya que no existen cuadrados de números reales que sean iguales a –1. 1.1.4.2 Ejemplo de conjunto Universal: Si lanzamos un dado, el conjunto de todos los posibles resultados es el universo o Espacio Universal: {1, 2 , 3, 4 , 5, 6} 1.1.5 OPERACIONES ENTRE CONJUNTOS 1.1.5.1 UNIÓN. Se define como el conjunto de todos los elementos, que pertenecen a A o a B, o tanto a A como a B, (siendo A y B previamente definidos). A “Unión” B, esto es ( A ∪ B ) . 1.1.5.2 INTERSECCIÓN. Es el conjunto de elementos que pertenecen simultáneamente a A y a B, (A y B previamente definidos), y se escribe A ∩ B. Cuando A ∩ B = φ , decimos que A y B son conjuntos disjuntos o “Distintos”. 1.1.5.3 DIFERENCIA. Son todos los elementos que de A que no pertenecen a B, esto es, A – B. 1.1.5.4 COMPLEMENTO. Si B C A, entonces, A – B se denomina el complemento de B relativo a A y se escribe: B´ A o B A o B C A. . Si A = U, nos referimos a U – B, sencillamente como el complemento de B´ o B o B C . El B: complemento de (A ∪ B) se escribe ( A ∪ B )´ o ( A ∪ B ) o ( A ∪ B )C. 1.1.6 Ejemplo: A = {0, 1, 2 , 3, 4 , 5, 6 , 7 , 8, 9} B = {a, 1, e, 3, i, 5, o, 7 , u, 9} C = {2 , 4 , 6 , 8} D = {a,u} Hallar: A ∪ B; B ∪ D; A - B; C ´ A. Entonces: A ∪ B = {0 , 1, 2 , 3, 4 , 5, 6 , 7 , 8, 9} ∪ {a, 1, e, 3, i, 5, o, 7 , u, 9} A ∪ B = {0 , 1, 2 , 3, 4 , 5, 6 , 7 , 8, 9 , a, e, i, o, u} B ∪ D, vemos claramente que, D ⊂ B. Luego, B ∪ D = B. Ahora, A - B = {0 , 2 , 4 , 6 , 8} y por último C ´ A = C ´ A = {0 , 1, 3, 5, 7 , 9} 1.1.7 ALGUNAS DEFINICIONES O LEYES DE INTERÉS 1.1.7.1 Sean A, B, C, tres conjuntos cualesquiera, tal que si A ⊂ B y B ⊂ C ⇒ A ⊂ C. 1.1.7.2 A ∪ B = B ∪ A: Ley conmutativa de la unión. 1.1.7.3 A ∪ (B ∪ C ) = ( A ∪ B ) ∪ C = A ∪ B ∪ C: Ley asociativa de la unión 1.1.7.4 A ∩ B: Ley conmutativa de la intersección = B ∩ A 1.1.7.5 A ∩ (B ∩ C ) = ( A ∩ B ) ∩ C = A ∩ B ∩ C: Ley asociativa de la intersección. 1.1.7.6 A ∩ (B ∪ C ) = ( A ∩ B ) ∪ ( A ∩ C ) 1.1.7.7 A ∪ (B ∩ C ) = ( A ∪ B ) ∩ ( A ∪ C ) 1.1.7.8 A - B = A ∩ B´ 1.1.7.9 Si A ⊂ B ⇒ A´ ⊃ B´ o B´ ⊂ A´ 1.1.7.10 A ∪ φ = A y A ∩φ = φ 1.1.7.11 A ∪ U = U y A ∩ U = A 1.1.7.12 (A ∪ B ) = A´ ∩ B´ : Se conoce como la primera Ley de Morgan 1.1.7.13 (A ∩ B ) = A´ ∪ B´ : Segunda Ley de Morgan ´ ´ ( ) 1.1.7.14 Para cualquier par de conjuntos A y B ⇒ A = ( A ∩ B ) ∪ A ∩ B´ . 1.2 CÁLCULO DE PROBABILIDADES El cálculo de probabilidades es la teoría matemática que sirve de modelo, para la descripción y análisis de los fenómenos estadísticos o aleatorios. Por fenómenos o experimentos aleatorios, entendemos que son aquellos cuyos resultados están establecidos pero no se pueden predecir con exactitud A priori1, o sea que en situaciones idénticas pueden presentar resultados diferentes; además los fenómenos pueden ocurrir repetidamente en forma indefinida. 1.2.1 CARACTERÍSTICAS DE LOS FENÓMENOS ALEATORIOS 1.2.1.1 Multiplicidad de la ocurrencia 1.2.1.2 Variabilidad, ya que pueden presentar resultados distintos en cada experimento. 1.2.1.3 Aleatoriedad, porque no pueden predecir 1.2.1.4 Ley del Azar, si una cierta experiencia se repite n veces y anotamos el número n(A) de veces que ocurre una característica determinada, se 1 Palabra del latín que significa “que viene antes”, o sea, antes de la prueba. observa la frecuencia n(A) , tiende a estabilizarse, esto es, se aproxima n a un valor fijo. Haremos énfasis en la última característica o propiedad de los fenómenos aleatorios, conocida también como “Estabilidad de las frecuencias” o “Principio de la regularidad estadística”. Todo fenómeno exige la evidencia de alguna regularidad, el cálculo de probabilidades se basa en la regularidad estadística que caracteriza a los fenómenos aleatorios. Los fenómenos aleatorios se caracterizan por la imposibilidad de predecir resultados individuales, sin embargo, si consideramos un número de pruebas repetidas o simultáneas, la situación cambia, y a pesar de la irregularidad de los resultados individuales o aislados, los resultados promedios o globales muestran una sorprendente regularidad. Para explicar este principio de la regularidad, tomemos un ejemplo clásico citado por numerosos autores de temas estadísticos: “Supongamos el lanzamiento de una moneda perfecta, donde representamos por n el número de lanzamientos de la moneda y sea, A: El resultado consistente en caer cara, entonces n(A) será la frecuencia absoluta o número de veces de caer cara dentro del experimento, luego la frecuencia relativa será h(a) = n(A) . La experiencia indica que para grandes n valores de n, esta frecuencia relativa tiende a estabilizarse alrededor de un valor más o menos constante. Si observamos la figura No. 1, vemos claramente que la frecuencia h(A) fluctúa ampliamente para pequeños valores de n, pero al aumentar n, las oscilaciones se hacen cada vez menos intensas y para grandes valores de n el gráfico parece indicar la tendencia de h(A) a alcanzar un valor límite o ideal, muy próximo a 0.5. Ver figura No. 1. Figura No. 1 1.2.2 CONCEPTOS BÁSICOS DE ANÁLISIS COMBINATORIO Fundamentalmente el análisis combinatorio se ocupa tanto de los diversos modos de ordenar los elementos de un conjunto, como del estudio de las agrupaciones que se pueden formar con dichos elementos, así pues, por análisis combinatorio podemos afirmar que es la parte de la matemática en que se estudian las agrupaciones que pueden formarse con elementos dados, (objetos. Números, ...), teniendo en cuenta el número de elementos que entran en cada grupo y el orden en que están colocados, prescindiendo del valor numérico de los elementos, si lo tuvieren. En el análisis combinatorio podemos considerar: Las variaciones, permutaciones, combinaciones y el principio fundamental de cuenta. 1.2.2.1 VARIACIONES2. Se denomina variación, de los elementos de un conjunto, una disposición ordenada de los mismos. Si hay n elementos en el conjunto, el número de variaciones dependerá del número de objetos m que se deseen tomar y ordenar. 2 Algunos autores las llaman ordenaciones, otros las consideran como un caso especial de las permutaciones. Las variaciones de n elementos tomados en grupo de “m en m” se denotan por: Vmn ó Vn:m ó nVm ó Vn m . Antes de definir el número de variaciones, aclaremos la noción de factorial de un número, primero que todo dicho número debe definirse como el elemento de los números enteros positivos sin incluir el cero, así pues, el factorial de n y se escribe n! Se define como: n! = n(n-1) (n-2) ... x3x2x1 y decimos que 0! = 1, por definición. Luego el número de variaciones está dado por la expresión: Vmn = n! (n-m)! donde n representa el total de elementos del conjunto y m: el número de elementos que desean ordenar. 1.2.2.2 EJERCICIO. Hay 15 candidatos para ocupar los cargos de presidente, vicepresidente, secretario, tesorero, fiscal, de una asociación gremial. De cuántas maneras diferentes se pueden ocupar estos cargos? Tenemos que el primer cargo, o sea, el cargo del presidente puede ser ocupado por cualquiera de los 15 candidatos, es decir, hay 15 maneras diferentes de ocupar dicho cargo. Ahora, una vez ocupado el cargo de presidente, nos quedan14 candidatos disponibles para ocupar el segundo cargo, digamos el de vicepresidente, una vez ocupado dicho cargo, el siguiente se puede ocupar de 13 maneras y así sucesivamente; tal como lo indicamos a continuación: Pr esidente Vicepresidente Secretario Tesorero Fiscal x x x x , 15 14 13 12 11 luego, el número total de maneras diferentes para integrarse dicha junta es: 15 x 14 x 13 x 12 x 11 = 360.360 . n = 15: número de candidatos, m = 5: Personas a ocupar los cargos. V515 = 15! 15 x14 x13 x12 x11 10! = 10! ( 15-5 )! = 360.360 1.2.2.3 VARIACIONES CON REPETICIÓN Si suponemos que cada uno de los m elementos, puede figurar cualquier número de veces en una misma variación, obtenemos las variaciones con repetición, cuyo número lo podemos calcular auxiliándonos con la fórmula: V R mn = n m Así en el caso del ejercicio 1.2.2.2, el presidente una vez nombrado, participa en la elección de vicepresidente y a su vez éste en la del presidente, tesorero, secretario y fiscal a así sucesivamente; es decir: P Vp x 15 15 S T F x x 15 15 15 x V R515 = ( 15 )5 = 759.375 1.2.2.4 PERMUTACIONES. Las variaciones, de orden m de n elementos cuando m es igual a n, decimos entonces que son permutaciones. El número de permutaciones diferentes está dado por la expresión: P n m = n! . Ahora, en el caso que entre los n elementos, existan h iguales entre sí; ( h < n), el número de permutaciones está dado por la expresión: P h n = n! h! Pero puede presentarse el caso en que dentro de los n haya más de una clase de elementos iguales entre sí, es decir, existan h1, iguales entre sí, h2 iguales entre sí, …………., h t por la expresión: iguales entre sí; entonces el número de permutaciones está dado P h1 ,h2 ,.........ht n = n! , donde : h1 + h2 + ... + ht = n h1 ! h2 ! ... ht ! Cuando los elementos no se suponen ubicados en una línea recta, sino en un circulo, se dice que la permutación es circular, esto es, no hay primero ni último elemento; lo que implica tener que “fijarse” uno, como punto de referencia. El número de permutaciones circulares está dado por: c P n = PCn = (n – 1)!. A manera de ejemplos ilustremos un poco los conceptos de permutaciones ya dados: - El número de permutaciones diferentes que se pueden formar con la palabra SACO es: P4 = 4! ; en dicha palabra no se encuentran letras iguales. - Veamos ahora con la palabra CHALECO, en este caso hay dos elementos iguales entre sí, luego el número de permutaciones está dado por: P - 2 7 = 7! 2! = 2.520 . Dadas las siguientes letras: T, S, S, V, V, T, T, S; cuántas permutaciones diferentes podemos hallar? Observamos que para n = 8 elementos hay h1 = “número de tes” = 3; h2 = número de eses = 3 y h3 = número de uves = 2; entonces el número de permutaciones estará dado por: - 3 ,3 ,2 P8 = 8! 3! 3! 2! = 560 Si tenemos 5 estudiantes sentados alrededor de una mesa redonda, de cuántas maneras de pueden permutar? En este caso de distribución circular de los elementos, debemos primero que todo, fijar un elemento de referencia; así, llamemos los estudiantes con las letras A, B, C, D, E; si fijamos el estudiante C, solamente quedan para intercambiarse los estudiantes A, B, D, E; si fijamos el estudiante A, pueden intercambiarse B, C, D, E y así sucesivamente. Observamos pues que de los 5 estudiantes sólo quedan 4 para permutarse. P C5 = 4! = 24 . 1.2.2.5 Luego el número de permutaciones está dado por: COMBINACIONES Las combinaciones de orden m de n objetos: a1, a2, ...... an; son los grupos de m objetos que se pueden formar entre los n, de modo que dos cualesquiera difieran en algún objeto. A diferencia de las variaciones, en las combinaciones, no importa el orden de sucesión de los elementos. El número de combinaciones está dado por la fórmula: n Cm = ( nm ) = n! m! (n - m)! ∴ 1 ≤ m ≤ n Un ejemplo ilustrativo para la anterior definición puede ser: Cuántas ternas diferentes podemos extraer de las letras A, E, I, O, U? En este caso consideramos que la terna (A, E, I) = (E, A, I) = (E, I, A) = (I, E, A) = (I, A, E) = (A, I, E), ya que no nos interesa el orden de colocación de los elementos dentro de la terna, solo nos interesan todas aquellas ternas que difieran al menos en un elemento. Luego el número de ternas diferentes está dado por: 5 C3 = 5! 3! 2! = 10 1.2.2.6 PRINCIPIO FUNDAMENTAL DE CUENTA α , α , α , - - - - - α ; son n acciones distintas que se pueden realizar de Si 1 2 n 3 γ , γ , - - - γ maneras respectivamente, entonces el número total de maneras 1 n 2 como se pueden efectuar α , α , α , - - - - - α 1 γ 1 × γ 2 × γ 3 × 2 3 n en sucesión, viene dado por: - - - γ : Maneras. n Ahora, si el número de maneras como se pueden efectuar cada una de las α i Acciones, (i = 1, ......, n), es idéntico, es decir; γ1 = entonces estará γ × γ × el γ × número total de maneras γ 2 = γ 3 = --- dado = γ ; n por: - - - × γ = γn _____ n veces ____ En general, en todo experimento, si hay n pruebas, cada una de las cuales pueden dar γ resultados independientes, el total de resultados diferentes será γ h . Así por ejemplo: Al lanzar un dado una vez, el número de resultados posibles es 6, o sea, γ 1 = 61 = 6 . Si lanzamos el dado dos veces, n = 2 ⇒ hay γ 2 = 6 2 = 36 resultados posibles; si se lanza el dado tres veces, n = 3 ⇒ γ 3 = 6 3 resultados posibles. 1.2.3 CONCEPTO DE PROBABILIDAD Podemos decir entonces, basados en la experiencia que podemos asociar la frecuencia h(A) con un número p(A), para cada suceso A dentro del experimento, de tal manera que p(A) = h(A) cuando n → ∞ ; diremos entonces que p(A), es la probabilidad del suceso A. La probabilidad de un suceso suele llamarse también frecuencia teórica o verdadera. El objeto de la teoría de probabilidades es proporcionar un modelo matemático adecuado a la descripción e interpretación de los experimentos aleatorios. Veamos ahora, las definiciones de algunos de los elementos sobre los cuales se asienta la teoría de probabilidades. 1.2.3.1 ESPACIO MUESTRAL Es el conjunto o totalidad de resultados posibles dentro de un experimento aleatorio; lo llamaremos S. El espacio muestral S puede ser discreto y continuo. Es discreto cuando contiene un número finito de puntos o un número infinito numerable3 de puntos. Así por ejemplo, en el lanzamiento de un dado, una vez, el espacio muestral S es = {1, 2, 3, 4, 5, 6}, que es un espacio con número finito de puntos. Ahora si el experimento consiste en lanzar una moneda legal, hasta que aparezca el primer sello, el espacio muestral es: S = {1, 2, 3, ...... }; Ya que el resultado deseado puede ocurrir en la primera, segunda, tercera, . . . , tirada. El espacio muestral S es continuo si contiene un número infinito no numerable de puntos. Así por ejemplo, un experimento aleatorio consiste en observar la resistencia a la tensión de ciertas vigas, bajo las mismas condiciones; el resultado puede ser cualquier número positivo por consiguiente el espacio muestral es continuo. 3 Se llama “numerable” el conjunto infinito cuyos elementos se pueden numerar, es decir, poner en concordancia con cada elemento un número entero de modo que a distintos elementos les correspondan números diferentes. Un conjunto infinito cuyos elementos no se pueden llevar a la correspondencia biunívoca con los números enteros se llama “No numerable”. 1.2.3.2 SUCESO Es el conjunto de resultados favorables o deseados en un experimento dado. Por ejemplo, un experimento aleatorio, consiste en lanzar dos dados y una moneda. Uno de los sucesos puede ser; A = suma de puntos menor que 4 para los dados y sello para la moneda, luego, A = {(1, 1, s); (1, 2, s); (2, 1, s)} como puede verse, el suceso A no es más que un subconjunto del espacio muestral S. Muchos autores suelen llamar los sucesos aleatorios como eventos. Cuando los elementos de un suceso coinciden con los elementos del espacio muestral decimos que es “suceso seguro”; cuando los sucesos están formados por un solo punto del espacio muestral se denominan “sucesos elementales”; y cuando el conjunto de posibles resultados es el vacío decimos que el suceso de llama “suceso imposible”. 1.2.4 TEORÍA AXIOMÁTICA DE LA PROBABILIDAD Partiendo de las características observadas en simples experiencias, podemos construir un modelo abstracto que nos traduzca y generalice, para aplicarlas en situaciones más complicadas. Es decir, establecemos en forma axiomática el cálculo de probabilidades. Llamaremos P (A) a la probabilidad del suceso A en el experimento aleatorio, dentro del espacio muestral S. P(A) es una función de conjunto que satisface los tres axiomas siguientes: 1. P(A) ≥ 0 2. P(S) = 1 Para cualqeuier suceso A ∈ S 3. P(A,UA2UA3U .........) = P(A1 ) + P(A2 ) + ....., si A1 , A2 , A3 .......... es una sucesión de sucesos mutuamente excluyentes o incompatibles, es decir, si Ai ∩ A j = φ para i ≠ j . 1.2.5 TEOREMAS FUNDAMENTALES DEDUCIBLES DE LA TEORÍA AXIOMÁTICA DE LA PROBABILIDAD 1.2.5.1 Si P(A) es la probabilidad de un suceso A, la probabilidad del suceso contrario a A es igual a UNO menos la probabilidad de A, es decir, P(A´ ) = 1 - P(A) Demostración: Si A ∪ A´ = S y A ∩ A' = φ , o sea, ⇒ P(A ∪ A' ) = P (S), por axioma tercero. P (A ∪ A' ) = P(A) + P(A' ) P(S) = 1. ∴ y por son mutuamente excluyentes, ∴ segundo axioma tenemos que P(A ∪ A' ) = P(A) + P(A' ) = 1 . Luego: P(A’) = 1 – P(A). 1.2.5.2 La probabilidad de un suceso lógicamente imposible es cero; o sea, P(φ ) = 0 . Demostración: φ = S' ⇒ P(φ) = P(S') y por el teorema 1.2.5.1, sabemos que: P(S') = 1 - P(S), pero P(S) = 1 ⇒ P(S') = P(φ) = 1 - 1 = 0 Luego: P (φ ) = 0. 1.2.5.3 0 ≤ P(A) ≤ 1 Cualquiera que sea el suceso A Demostración: P (A) ≥ 0 por axioma primero Luego debemos probar que P(A) ≤ 1, por teorema 1.2.1, vemos que P(A) = 1 – P (A’); pero P (A') ≥ 0 , por axioma primero ⇒ P(A) ≤ 1 luego 0 ≤ P(A) ≤ 1. 1.2.5.3 Si A1 ⊂ A2 ⇒ P(A1 ) ≤ P(A2 ) Demostración: [ ] Si A1 ⊂ A2 ⇒ A1 ∪ A1' ∩ A2 = A2 Tal como se puede apreciar en el siguiente diagrama: A1c ∩ A2 [ ] P [A ∪ (A ∩ A )] = P (A ∴ A1 ∩ A1' ∩ A2 = φ 1 ' 1 2 2 ) ⇒ P(A1 ) + P(A1' ∩ A2 ) = P(A2 ), como P(A1 ) ≥ 0 y P(A1' ∩ A2 ) ≥ 0 , Luego podemos concluir que: P(A1 ) ≤ P(A2 ). 1.2.5.4 Para cualquier par de sucesos A1 P(A1 ∪ A2 ) = P(A1 ) + P(A2 ) - P(A1 ∩ A2 ) . y A2 se tiene que Demostración: Ayudémonos a través del siguiente gráfico: Observando el diagrama, podemos ver claramente que: ( ) ( ) A1 ∪ A2 = (A1 ∩ A2' ) ∪ A1 ∩ A2 ∪ A2 ∩ A1' , por consiguiente : ( P ( A1 ∪ A2 ) = P A1 ∩ A2' )+ P (A 1 ( ∩ A2 ) + P A2 ∩ A1' 1 ) Ahora; de modo similar vemos que: A1 = (A1 ∩ A2 ) ∪ (A1 ∩ A2' ) y que (A1 ∩ A2 ) ∩ (A1 ∩ A2' ) = φ ⇒ P(A1 ) = P(A1 ∩ A2 ) + P(A1 ∩ A2' ) ∴ P(A1 ∩ A2' 2 ) = P(A1 ) - P(A1 ∩ A2 ), Por otra parte; A2 = (A1 ∩ A2 ) ∪ (A2 ∩ A1' ) y (A1 ∩ A2 ) ∩ (A2 ∩ A1' ) = φ ⇒ P (A2 ) = P (A1 ∩ A2 ) + P (A2 ∩ A1' ) ⇒ P (A2 ∩ A1' ) = P (A2 ) - P(A1 A2 ) 3 Ahora, remplazando: (2) y (3) en (1) se tienen que. P(A1 ∪ A2 ) = P(A1 ) + P(A2 ) - P(A1 ∩ A2 ), SI A1 ∩ A2 = φ ⇒ P(A1 ∪ A2 ) = P(A1 ) + P(A2 ) 1.2.6 TEORÍA CLÁSICA DE LA PROBABILIDAD4 En ciertos problemas, con espacio muestral discreto y número finito de puntos, (los juegos de azar por ejemplo), es realista suponer que la probabilidad asignada 4 También se conoce como teoría A priori de la probabilidad o regla de Laplace a cada punto del espacio muestral es 1 . Podemos entonces de esta manera n hallar la probabilidad P(A) para un subconjunto A del espacio muestral, con n(A) puntos, cada uno con probabilidad P(A) = 1 : n n(A) 1 1 1 + + ---- + = n n n n ____n(A) veces ____ Se puede comprobar que para un espacio muestral discreto con n puntos, la función P es función de probabilidad si cumple con los axiomas anotados anteriormente: Probabilidad para cada punto = 1 n ≥ 0 Probabilidad para un subconjunto A ∈ S Es P (A) = n(A) ≥ 0 n ∴ n es el total de puntos en S. Así por ejemplo, sea el experimento lanzar un dado una vez. El espacio muestral S = {1, 2, 3, 4, 5, 6} donde cada punto, (o resultado), de S tiene igual oportunidad, es decir, P(1) = P(2) = P(3) = ...... = P(6) = 1 6 Ahora, definamos el suceso A = número obtenido menor que 3 ⇒ A = {X / X < 3} ⇒ A = {1, 2} Luego, n(A) = número de veces favorables al suceso A = 2, n(A): frecuencia de A, y n es el total de resultados posibles del experimento ⇒ n = 6. P (A) = n(A) 2 1 = = n 6 3 1.2.7 TEORÍA FRECUENCIAL O A POSTERIORI Es aquella que consiste en encontrar el valor de probabilidad, después de repetirse el experimento un número considerable de veces. Por ejemplo; la probabilidad que tiene un jugador “A” de ganar cierto juego es P(A) = 3/5 y la probabilidad de perderlo es P(A’) = 2/5; estas probabilidades son a posteriori, puesto que se conocieron después de “observar” el juego de “A” repetidas veces. Tanto la teoría clásica como la frecuencial presentan serias dificultades, la primera en cuanto a la “Ambigüedad”, de que parte siempre de espacios muestrales finitos y resultados equiprobables, pero cuando los resultados posibles generan un espacio muestral discreto infinito, como por ejemplo al hallar la probabilidad de que un número natural sea impar, dicha teoría nos deja en nada; mientras que, la segunda teoría presenta el inconveniente en cuanto a “Repetirse el experimento un número considerable de veces”; de ahí la importancia que toma la teoría axiomática de la probabilidad, evitándonos los tropiezos o limitaciones de las teorías clásica y frecuencial. 1.2.8 PROBABILIDAD MARGINAL Supongamos que el espacio muestral S, discreto formado por un número n finito de puntos, cada uno con igual probabilidad 1 . n Ahora, hagamos una partición del espacio muestral S en m1 subconjuntos mutuamente excluyentes: A1, A2,A3,......, Am1 Hagamos otra partición de S en m2 subconjuntos mutuamente excluyentes, así. B1, B2,B3,......, Bm2 Entonces los n puntos de S pueden clasificarse de la siguiente manera, utilizando la tabla de doble entrada: B1 B2 B3 ... Bj ... Bm2 A1 n11 n12 n13 ... n1j ... n1m2 A2 n21 n22 n23 ... n2j ... n2m2 A3 n31 n32 n33 ... n3j ... n3m2 . . . . . . . . . . . . . . . . . . . . . . . . Ai ni1 ni2 ni3 ... nij ... nim2 . . . . . . . . . . . . . . . . . . . . . . . . Am1 nm11 nm12 nm13 ... nm1j ... nm1m2 La tabla indica, por ejemplo, que: el resultado n12 tiene a la vez el atributo A1 y el atributo B2; n11: número de veces en que ocurren simultáneamente los atributos A1 y B1 respectivamente; y en general nij, es el número de veces en que ocurren simultáneamente los atributos Ai y Bj. Luego la probabilidad de que sucedan Ai y Bj simultáneamente será: P (Ai , B j ) = nij n Pero si nos interesa solamente obtener la probabilidad del suceso Ai, sin interesarnos la clasificación B, tendremos: ni1 + ni2 + ni3 + - - - + nim2 n m2 n m2 ij P ( Ai ) = ∑ = ∑ P Ai B j j =1 n j =1 P ( Ai ) = ( ) O bien, si nos interesa únicamente hallar la probabilidad del suceso Bj, estará dada por: ( ) m1 P Bj = ∑ i =1 nij n = m1 ∑ P(Ai B j ) i =1 Donde P(Ai) y P(Bj) reciben el nombre de “probabilidad marginal” de A y B respectivamente. Aquí escogemos únicamente dos criterios de clasificación A y B; pero es obvio que la idea de probabilidad marginal, se pueda generalizar a más de dos criterios de clasificación. 1.2.9 PROBABILIDAD CONDICIONAL Vamos a definir un tipo especial de probabilidades, que se denominan probabilidades condicionales o relativas. La probabilidad del suceso “A” condicionada por el suceso “B”, o probabilidad de “A” habiendo ocurrido B, es por definición: P( A B ) = P( A ∩ B ) = P (B ) Pr obabilidad que A y B ocurran simultáneamente Pr obabilidad m arg inal de B Aunque esta idea es completamente general; podemos describir esta probabilidad condicional utilizando el caso particular de espacio muestral discreto con número finito de puntos, e igual probabilidad para cada punto. Utilizando la partición del espacio muestral y la tabla de doble entrada que formamos para escribir la probabilidad marginal, tenemos. Imaginémonos que se examina el resultado de un experimento aleatorio para un atributo pero no para el otro. Deseamos hallar la probabilidad de que el otro atributo tenga un valor determinado. Supongamos que una vez realizado el experimento se observa que tiene el atributo B3, deseamos hallar la probabilidad de que tenga además el atributo A2. El total de resultados de B3 es: n13 + n23 + n22 + . . . + ni 3 = m1 ∑n i=1 i3 y de estos los resultados favorables a A2 son: n23, de esta manera, la probabilidad de A2 cuando se sabe que ha ocurrido B3 es: P ( A2 B3 ) = n 23 m1 ∑n i =1 i3 Si dividimos el numerador y el denominador de la expresión por n, se tiene: P ( A2 B3 ) n23 = m1 n ni 3 ∑ i =1 n En general: P (Ai B j ) = ⇒ P(Ai ∩ B j ) P(B j ) P( A2 B3 ) = P( A2 B3 ) P(B3 ) ; es decir, La probabilidad de Ai dado Bj, es igual a la probabilidad de que ocurran Ai y Bj simultáneamente sobre la probabilidad marginal de Bj. También se tiene que: P (B j Ai ) = P (Ai ∩ B j ) P ( Ai ) Ahora, utilizando el criterio de probabilidad condicional, podemos definir el carácter de dependencia e independencia de sucesos. Si A y B son sucesos dependientes, P(AB) P(B) P(AB) P (B A) = P(A) P( A B ) = ∴ P(A,B) = P(B) . P( A B ) ∴ P(A,B) = P(A) . P (B A) La ocurrencia de A afecta la ocurrencia de B o viceversa, ya que A ∩ B ≠ φ. Si A y B son sucesos independientes P(A/B) = P(A) : El suceso A, no depende de la ocurrencia de B. P(B/A) = P(B) : El suceso B, no depende de la ocurrencia de A. Para sucesos independientes se tiene que: P(AB) = P(A) P(B). 1.2.10 TEOREMA DE BAYES Consideremos el caso de n sucesos A1, A2, . . . . . . , An; mutuamente excluyentes, de tal manera que: A1 ∩ A2 ∩ A3 . . . . . ∩ Ai ∩ A j . . . . . ∩ An = φ Y sea un conjunto H definido de tal manera que: H = ( A1 ∩ H ) ∪ ( A2 ∩ H ) ∪ . . . ∪ ( An ∩ H ) ∴ [( Ai ∩ H ) ∩ (A j ∩ H )] = φ con i≠ j P(H) = P ( A1 ∩ H ) + P( A2 ∩ H ) + . . . + P( An ∩ H ) Si deseamos encontrar, por ejemplo, P(A1/H) se tiene: P ( A1 H ) = P (H ) P ( A1 H ) = P ( A1 H ) P( A1 H ) + P ( A2 H ) + . . . + P ( An H ) Pero si no conocemos: P(A1H); P(A2H) ...... P(AnH) y conocemos P(H/A1); P(H/A2); …… P(H/An) ⇒ podemos expresar de la siguiente manera: P(A1H) = P(A1) P(H/A1) P(A2H) = P(A2) P(H/A2) . . . . . . . . . P(AnH) = P(An) P(H/An) Entonces: P ( A1 H ) = P(A1 ) P(H A1 ) P(A1 ) P(H A1 ) + P(A2 ) P(H A2 ) + . . . + P(An ) P(H An ) Dicha expresión es la que conocemos como “Teorema de Bayes”. 1.2.11.1 PROBLEMAS Un joyero posee tres cofres para guardar joyas: en uno guarda los artículos de oro, en otro los de plata y en el tercero el cobre. Tiene 30 artículos de oro, los cuales son 10 relojes y 20 anillos; 40 artículos de plata: 10 anillos y 30 relojes; y 10 artículos de cobre, así: 5 anillos y 5 relojes. Si el joyero elige un cofre al azar y extrae un artículo, también al azar, que resulta ser un anillo. Cuál es la probabilidad de que sea de oro? Solución: Sea: O: Representa artículos de oro C: Representa artículos de cobre P: Representa artículos de plata A: Representa los anillo R: Representa los relojes Lo que el problema nos pregunta, es lo siguiente: P(Sea de oro/ (dado que)Resultó anillo?)= P(O/A) = ? Como el joyero escoge las urnas o cofres al azar y como son 3, cada uno tiene igual oportunidad de ser seleccionado, es decir, P(O) = P(C) =P(P) = 1/3. Además el problema nos proporciona la siguiente información, así: P( A O ) = P (R O ) P( A P ) 20 2 5 1 = ; P( A C ) = = 30 3 10 2 10 1 5 1 = = ; P (R C ) = = 30 3 10 2 10 1 30 3 = = ; P (R P ) = = 40 4 40 4 Entonces, por el teorema de Bayes: P (O ) . P ( A O ) P (O ) P( A O ) + P (C ) P ( A C ) + P(P ) P( A P ) P(O A) = P (O A) = (1 3) . (2 3) (1 3) (2 3) + (1 3) (1 2) + (1 3) (1 4) P (O A) = 8 17 1.2.11.2 Una caja con 1.000 tornillos contiene: 50 con defecto de tipo A 32 con defecto del tipo B 18 con defecto del tipo C 7 con defecto del tipo A y del tipo B 5 con defecto del tipo A y del tipo C 4 con defecto del tipo B y del tipo C 2 con defecto del tipo A, del tipo B y del tipo C Si extrae un tornillo al azar, calcular: 1. La probabilidad de que el tornillo tenga un defecto del tipo A o del tipo b o de ambos. Solución: Como se puede ver los sucesos son compatibles, es decir: A∩ B ≠ φ ; A∩C ≠ φ ; A∩ B ∩C ≠ φ Lo que se nos pregunta no es más que la probabilidad de la unión de los sucesos A y B: P ( A ∪ B ) = P(A) + P(B) - P( A ∩ B ) P( A ∪ B ) = 50 32 7 3 + = 1000 1000 1000 40 2. Hallar la probabilidad de que, tenga al menos uno de los 3 tipos de defectos. Solución: Que tenga al menos uno implica que se presente uno solo o 2 o los 3 defectos; luego nos piden hallar: P( A ∪ B ∪ C ) = P(A) + P(B) + P(C) - P(AB) - P(AC) - P(BC) + P(ABC) P( A ∪ B ∪ C ) = 50 32 18 7 5 4 2 + + − + 1000 1000 1000 1000 1000 1000 1000 43 P( A ∪ B ∪ C ) = 500 3. Hallar la probabilidad de que el tornillo esté libre de los tres defectos. Solución: Sea D el suceso de tener al menos uno de los tres defectos; O sea D = A ∪ B ∪ C; entonces D’, será el suceso no tener defectos de ningún tipo. P(D') = 1 - P(D) = 1 - P( A ∪ B ∪ C ) ∴ P(D') = 1 - 43 457 = 500 500 1.2.11.3 Sean A y B dos sucesos tales que A ∩ B ≠ φ Probar que: P[(A ∩ B' ) ∪ (B ∩ A' ) ] = P(A) + P(B) - 2P(A ∩ B) PRUEBA: Ayudémonos a través del siguiente diagrama de Venn: ∴ ( A ∩ B' ) ∩ (A ∩ B) ∩ (B ∩ A' ) = ϕ P[( A ∩ B' ) ∪ (B ∩ A' )] = P ( A ∩ B' ) + P (B ∩ A' ) â y P[( A ∩ B' ) ∪ ( A ∩ B ) ∪ (B ∩ A' )] = P ( A ∩ B' ) + P ( A ∩ B ) + P(B ∩ A' ) Pero ( A ∩ B' ) ∪ ( A ∩ B ) ∪ (B ∩ A' ) = ( A ∪ B ) ä ã Luego igualando ã y ä, tenemos: P ( A ∪ B ) = P(A) + P(B) - P(A ∩ B) = P(AB') + P(AB) + P(BA') P(AB') + P(BA') = P(A) + P(B) - P(AB) - P(AB) P (( AB' ) ∪ (BA' )) = P(A) + P(B) - 2 P(AB) 1.2.11.4 En un naipe de 40 cartas se hace una extracción de 5 cartas y resultan 2 espadas. Cuál es la probabilidad de que una de ellas sea el as? Cuál es la probabilidad de que una sea el as y la otra el rey? SOLUCIÓN: Sea A el suceso “extraer dos espadas en una muestra de 5 cartas”. Sea el suceso B, “extraer el as de espadas en la muestra de 5 cartas”. Luego, la probabilidad que nos piden es: P(B/A) ∴ P (B A) = P(AB) P(A) El suceso (AB) es entonces, extraer 2 espadas y una de ellas es el as de espadas, en la muestra de 5 cartas; luego: P(AB) = (11 ) (19 ) (303 ) . (405 ) (11 ) : En las 10 cartas espadas, hay 1 as y ese es el que tomamos. (19 ) : Una vez considerado el as de espadas, la segunda carta de espadas, la podemos tomar de las 9 restantes. (303 ) : Las otras 3 cartas que hacen parte de la muestra de 5, las tomamos lógicamente de las 30 restantes, y (405 ) : Es el número total, de posibles muestras de tamaño 5, que podemos extraer de la población de 40 cartas. Analizando en forma análoga, tenemos: P(A) = (102 )(303 ) (405 ) Luego: P(B/A) = (11 ) (19 ) (303 ) (102 ) (303 ) = (19 ) (102 ) = 1 5 Para responder la segunda parte del ejercicio; definamos el suceso “A” de idéntica forma como en el caso anterior y definamos que “B” sea el suceso “Extraer as de espadas y rey de espadas en una muestra de 5 cartas”, tenemos: El suceso (A ∩ B) : “Extraer dos espadas, una el rey y otra el AS” en una muestra de 5 cartas. Pero vemos que (A ∩ B) = B. Luego: P(B/A) = P(A ∩ B) P(B) = P(A) P(A) P(B/A) = (11 )(11 )(303 ) (405 ) (102 )(303 ) (405 ) P(B/A) = 1 10 2 ( ) = 1 45 1.2.11.5 Se han adquirido 3.000 botellas de vino a $8 cada una; 2.000 a $9 cada una y 1.000 a $10 cada una. Se extrae una botella al azar y se vende a $9,50. Cuál es la probabilidad de ganar; $1,50? 0,50?; de perder $0,50? SOLUCIÓN: Para ganar $1,50 es necesario extraer una botella de $8. Sea “A” el suceso que indique tal extracción. Luego, P(A) = n(A) 3.000 1 = = n 6.000 2 Para ganar $0,50 es necesario extraer una botella de $9; llamemos “B” a este suceso, tenemos: P(B) = 2.000 1 n(B) = = 6.000 3 n Ahora, para perder $0,50, es necesario extraer una botella de $10; llamemos “C”, este suceso; luego P(C) = n(C) 1.000 1 = = n 6.000 6 1.2.11.6 Se tienen 3 libros de matemáticas, 4 de física y 6 de química. Si se colocan en un estante al azar: Cuál es la probabilidad de que los de química queden todos juntos? SOLUCIÓN Sea “A” el suceso que representa “Libros de química siempre juntos”; luego. P(A) = n(A) Casos favorables al suceso = n Total de casos posibles ∴ n = 13! , ya que hay un total de 13 libros para permutar; y el número de permutaciones favorables al suceso “A”, n(A) = 8! 6! = P8 x P6 puesto que se consideran 3 diferentes libros de matemáticas, 4 de física y 1 (un)solo bloque de química, o sea, 8 elementos, (3M + 4F + 1Q), que puede ocupar cualquier lugar; además los 6 libros de química pueden cambiar de lugar entre ellos, sin dejar de permanecer unidos; luego tenemos: P(A) = 8! 6! 2 = 13! 429 Cuál es la probabilidad de que en cada extremo quede un libro de física y en el centro un libro de química? Sea “A” el suceso “un libro de física en cada extremo y un libro de química en el centro” P(A) = n(A) n Uno de los extremos se puede ocupar de 4 maneras, el otro de 3 maneras y la posición central de 6 maneras, quedan 10 libros para los 10 restantes puestos, que se pueden llenar de 10! = P10 maneras. Luego; n(A) = 4 x 3 x 6 x 10! ∴ P(A) = y n = 13! 4 x 3 x 6 x 10! 6 = 13! 143 1.2.11.7 Un empleado que trabaja en cierta factoría debe elegir dos caminos para llegar a su casa, uno de ellos es a través de un túnel y el otro a través de un puente. La ruta a elegir se hace al azar, siendo 1/3 la probabilidad que tiene de elegir el túnel y 2/3 la de escoger el puente. Si elige el túnel llega a su casa a las 6 p.m., el 75% de las veces, mientras que si escoge el puente llega a las 6 p.m., el 70% de las veces. Cierto día llega a casa a las 6 p.m. y al preguntarle su esposa qué camino eligió él responde, que el puente. Cuál es la probabilidad de que haya respondido la verdad? Sea “A” el suceso de elegir el túnel ⇒ P(A) = 1/3 Sea “B” el suceso de elegir el puente ⇒ P(B) = 2/3 Sea “C” el suceso de llegar a la casa a las 6 p.m. La probabilidad pedida es, entonces: P(B/C) Además, el problema nos da la siguiente información: P(C/A) = 0 ,75 ; P(C/B) = 0 ,70 P(B ∩ C) P(B) P(C/B) = P(C) P(B) P(C/B) + P(A) P(C/A) (2 3) (0,70) ⇒ P(B/C) = = 0 ,65 (2 3) (0,70) + (1 3) (0,75) ⇒ P(B/C) = 1.2.11.8 Se extraen naipes con reemplazamiento5 de una baraja de 40 cartas, (Naipe español), hasta que aparezca el primer as. Cuál es la probabilidad de que el número de extracciones hubiese sido 5? SOLUCIÓN: Para que la quinta extracción se obtenga el primer as, en las cuatro extracciones anteriores, no debe aparecer ningún as; por consiguiente, la probabilidad es: 4 ⎛ 36 ⎞ ⎛ 4 ⎞ P(o) = ⎜ ⎟ . ⎜ ⎟ = 0,066 ⎝ 40 ⎠ ⎝ 40 ⎠ = P(No aparezca en la primera extracción) x P(No aparezca en la segunda) x ...... x P(No aparezca en la cuarta) x P(Aparezca en la quinta extracción). Si las extracciones fueran sin reemplazamiento, tendríamos: P(o) = 5 36 35 34 33 4 x x x x = 0,073 40 39 38 37 36 Quiere decir que todo elemento que fue extraído una vez observado, regresa a su población de origen, y vuelve a tener oportunidades de salir, en este caso de muestreo la población permanece constante. 1.2.11.9 Una urna contiene 25 piezas, de las cuales 10 son defectuosas. Se toman dos piezas al azar, de la urna. Cuál es la probabilidad de que ambas piezas sean buenas? Qué ambas sean defectuosas? Que una sea buena y la otra defectuosa? SOLUCIÓN: Empecemos por responder la primera pregunta así: Sea “A1”, suceso “Pieza seleccionada es buena, en la primera extracción”. Sea “A2” suceso “Pieza seleccionada es buena, en la segunda extracción”. Luego, la probabilidad se reduce a: P(A1 ∩ A2 ) = P(A1 ) P(A2 /A1 ) = 15 14 7 . = 25 24 20 También podemos responder esta pregunta, haciendo uso del análisis combinatorio; así: Sea H: El suceso extraer dos piezas buenas ⇒ P(H) = n(H) n ∴ n(H) = C 152 : De la población de piezas buenas tomamos las 2 y los casos posibles o muestras posibles de tamaño 2 de toda la población está dado por: n = C 25 2 15 ) ( 15! 13! 2! 7 ⇒ P(H) = 2 = = 25 ( 2 ) 25! 23! 2! 20 Ahora, entremos a resolver la segunda pregunta formulada en el problema; y seguidamente la última: Sea “G”: Las 2 piezas resultan ser defectuosas” Sea “R” el suceso “Una resulta ser buena y la otra defectuosa” Sea “H”, las dos piezas seleccionada son buenas” ∴ Podemos afirmar que: H ∪ G ∪ R = S ∴ H ∩G ∩ R = φ Luego, P(H ∪ G ∪ R) = P(S) 1 = P(H) + P(S) + P(R) Ya sabemos que P(H) = 7/20 Entonces hallemos P(G) y P(R) n(G) P(G) = = n P(R) = (102 ) = (252 ) 3 y 20 n(R) ; Aquí debemos considerar que la primera sea mala y la segunda n buena es la primera consideración; y la segunda consideración, que la primera sea buena y la segunda sea mala; así: P(R) = 10 15 15 10 1 x + x = 25 24 25 24 2 VERIFICACIÓN: 1 = P(H) + P(S) + P(R) 1 = 7 / 20 + 3 / 20 + 1/ 2 1 = 1, Verdadero! 1.2.11.10 Los dígitos 0, 1, 2, ---, 9 se acomodan en un orden aleatorio. Encuentre la probabilidad de que los dígitos 3 y 4 sean vecinos. SOLUCIÓN: Ilustremos el problema de la siguiente forma: 34xxxxxxxx Sea el suceso de A x34xxxxxxx “Los dígitos 3 y 4 sean vecinos” xxxxxxxx34 Luego: 43xxxxxxxx P(A) = n(A) n x43xxxxxxx . . ∴ n(A) = V19 × 2! = 18 . n = V 2 = 90 10 xxxxxxxx43 Luego, P(A) = 18 1 = 90 5 O también. P( 3 y 4 sean vecinos) = P( 3 y 4 ) + P( 4 y3 ) = 9 1 1 1 1 2 1 x +9 x = = 10 9 10 9 10 5 1.2.11.11 Se lanza una moneda "Honesta" 15 veces y se registra su resultado l cabo de cada tirada. Determínese la probabilidad de que ocurra "al meno na cara", al final e los 15 lanzamientos. SOLUCIÓN: Sea "A" el suceso obtener al menos una cara \ sabemos que el número de resultados posibles de un experimento aleatorio está dado por: Kn \ K es el número del evento simple, en este caso, los resultados de lanzar una moneda una vez son 2: cara o sello y "n" representa el número de veces en que se repite el evento simple n=15. Ahora Como cada ocurrencia de evento simple tiene la misma probabilidad de ocurrir y sus resultados son independientes, es decir, O sea: Lo que significa que prácticamente tenemos la seguridad de observar por lo menos una cara. 1.2.11.12 Una urna contiene "n" bolas azules y "m" bolas rojas. Si de la urna tomamos una muestra aleatoria de "K" bolas ¿Cuál es la probabilidad de que al sacar una bola sea Azul? SOLUCIÓN: n+m = Total de Bolas K = Total de bolas en la extracción la bola azul la mantenemos "fija" en en el lugar (k+1) se obtienen VKn + m −1 casos favorables para cada bola azul, luego los casos favorables para todas las bolas azules está dado por n × VKn + m −1 y los casos posibles están dados por: VKn++1m ⇒ La probabilidad pedida = P (• ) = n × VKn + m −1 n = . n+m VKn + m 1.2.11.13 Del ejercicio anterior [1.2.11.12], al extraer la muestra aleatoria de K bolas; nos preguntamos: 1.2.11.13.1 ¿Cuál es la probabilidad de que sean "P" azules donde el muestreo se hace "Con remplazamiento"? 6 SOLUCIÓN: K − P veces ⎯⎯ ⎯⎯⎯ ⎯→ Donde la probabilidad de RRR......R P veces ⎯⎯ ⎯⎯ ⎯→ Un suceso de la forma AAA........A P ⎛ n ⎞ ⎛ n ⎞ ese suceso, está dada por: ⎜ ⎟ ⎟ ⎜ ⎝n +m⎠ ⎝n +m⎠ K −P , pero para la ocurrencia de P K⎛ n ⎞ ⎛ n ⎞ todos los posibles sucesos, esta dado por P (•) = ⎜ ⎟ ⎟ ⎜ P ⎝n +m⎠ ⎝n +m⎠ K −P 1.2.11.13.2 ¿Cuál es la probabilidad de que sean "P" azules donde el muestreo se hace "Sin remplazamiento"? 7 SOLUCIÓN: En este caso el valor de probabilidad varia de una extracción a otra; así: Para una ocurrencia posible, ⇒ la probabilidad será: 6 7 Con remplazamiento" ; Se hace la extracción y regresa a la población. "Sin remplazamiento" ; Se hace la extracción y no regresa a la población. n n −1 n − ( p − 1) m m −1 m − (K − p − 1) = ⋅ ⋅ ⋅ ... ⋅ ⋅ ... ⋅ ⋅ n + m n + m −1 n + m − ( p − 1) n + m − p n + m − ( p + 1) n + m − (K − 1) (n + m − K )! n! m! n+m−K ⋅ ( n − p )! (m − (K − p ))! ( n − p )! (m − K + p )! n−p = = (n + m )! (n + m )! n+m n ! m! n (n + m − K )! Ahora teniendo en cuenta todas las ocurrencias posibles ⎛K ⎞ ⇒ P (•) = ⎜⎜ ⎟⎟ ⋅ ⎝P ⎠ n+m−K n−p n+m n 1.2.11.14 ¿Cuál es el número mínimo de veces que es preciso lanzar dos dados para que la probabilidad de sacar un seis doble sea mayor que la de no sacarlo? SOLUCIÓN: La probabilidad de obtener el resultado (6,6) = 1/6 * 1/6 = 1/36 La probabilidad de no obtener un (6,6)= 1- 1/36 = 35/36 ∴ si se lanza el dado "n" veces, la probabilidad de que no salga un seis doble es : (35/36)n luego la probabilidad de que salga al menos una vez será 1-(35/36)n , de donde, n > log2 /(log36- log35) 1.2.11.15 Un mecanismo eléctrico que contiene, cuatro interruptores, solo funciona cuando todos ellos estan cerrados. El funcionamiento de los interruptores es independiente en cada uno de ellos, tanto en lo que se refiere al cierre o la apertura, y para cada uno de ellos, la probabilidad de que no funcione es 0,1. ¿Cuál es la probabilidad de que no funcione el mecanismo en conjunto? SOLUCIÓN: Sea " " el suceso que nos indica que el mecanismo "Falle" Sea " " el suceso que nos indica que el mecanismo "No Falle" Sea : Los sucesos que indican que el interruptor J esté cerrado . \ J= 1,2,3,4. Sea : Los sucesos complementarios, es decir que el interruptor J esté abierto. ∴ J= 1,2,3,4 y así calcularíamos para los interruptores J= 2,3,4 ⇒ El mecanismo funciona si y solo si: S1 ∩ S2 ∩ S3 ∩ S4 Es decir que funcione el interruptor 1 "Y" el interruptor 2 "Y" el interruptor 3 "Y" el interruptor 4; Luego P(Mecanismo funcione) = = P(S1 ∩ S2 ∩ S3 ∩ S4 ) Como los SJ son independientes = P(S1) P(S2 ) P(S3) P(S4 ) = 0.9 * 0.9 * 0.9 * 0.9 = (0.9)4 = 0.6561 Entonces P(F) = 1 - 0.6561 = 0.3439 ⇒ También se puede resolver el problema definiendo a El mecanismo no funciona siempre que uno de los interruptores este abierto. : 2. VARIABLES ALEATORIAS Tomemos un espacio muestral S, con función de probabilidad P(A) definida para un suceso A; si “X” es una función de valores reales definida en S, (o sea que cada punto del espacio muestral se le hace corresponder un punto del eje X), se dice que X es una variable aleatoria unidimensional. En general, si cada punto de S, se hace corresponder con un punto, (X1, X2, --- Xn) del espacio n-dimensional, se tiene una variable aleatoria pluridimensional. Por ejemplo: Sea el experimento aleatorio lanzar una moneda dos veces. El espacio muestral S = {(c,s); (s,c); (c,c); (s,s)} consta de 4 puntos. Sea “X” la variable aleatoria que nos representa el número de sellos. Dicha variable puede tomar los siguientes 4 valores, correspondientes a los 4 puntos de S: 1, 1, 0, 2. Estando la función de probabilidad completamente definida para el espacio muestral S, como P(A) = n(A) ; podemos escribir, por ejemplo: n P(x = 0 ) = 1 , para designar la probabilidad de que el número de sellos sea cero; 4 P(x = 1 ) = 1 : Probabilidad de obtener un sello y 2 P(x = 2 ) = 1 : Probabilidad de obtener dos sellos. 4 Veamos otra forma, de tratar el experimento anterior, así: Sea “X” la variable aleatoria que representa el número de sellos y sea “Y” la variable aleatoria que representa el número de caras. La variable aleatoria bidimensional transformará los puntos de S en puntos del plano X Y. Luego a: (c,c) corresponde x = 2, y = 0, o sea, (2,0) (c,s) corresponde x = 1, y = 1, o sea, (1, 1) (s,c) corresponde x = 1, y = 1, o sea, (1, 1) (s,s) corresponde x = 0, y = 2, o sea, (0, 2) Entonces, P[(2 , 0 )] = 1 1 ; P[( 1, 1 )] = y así sucesivamente 4 2 2.1 VARIABLE ALEATORIA DISCRETA En general, es aquella variable aleatoria con un número finito o infinito numerable de puntos. En el caso de que la variable sea unidimensional, con valores posibles X1, X2, ......, Xn; y con probabilidades: f(x1), f(x2), f(x3), ...... - f(xn) , para cada uno de dichos valores, el conjunto cuyos elementos son los pares ordenados, ((x, f(x)), es llamado función de densidad, o función de cuantía o función de probabilidad de la variable aleatoria X. Para cualquier subconjunto “A” de los puntos X1, X2, ......, Xn; tenemos entonces que: P(A) = ∑ f(x) X ∈A ∴ P(A) representa la suma de f(x) para aquellos valores de X que pertenecen a A; luego P(A) es llamada FUNCIÓN DE DISTRIBUCIÓN para el suceso A. - Veamos el siguiente ejemplo: Supongamos que un experimento aleatorio consiste en lanzar dos dados y registrar el número posible de puntos. Cada resultado puede asociarse con el valor de una variable aleatoria X; por lo tanto, “X” toma los valores: 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12. Calculemos ahora f(x), o sea, la probabilidad de que aparezcan “X” puntos. Sabemos que el espacio muestral consta de 36 puntos, (1,1), (1,2), . . ., (1,6); (2,1). (2,2) . . ., (2,6); (3,1), (3,2), . . ., (3,6); (4,1). (4,2) . . ., (4,6); (5,1), (5,2), . . ., (5,6); (6,1). (6,2) . . ., (6,6). El número de casos en que pueden caer X puntos es: X–1 : X = 2, 3, 4, 5, 6, 7 para 13 – X : para X = 8, 9, 10, 11, 12 f(x) = Luego f(x) = y X-1 n(x) = ∴ X = 2 , 3, 4 , 5 , 6 , 7 36 n 13 - X para X = 8, 9 , 10 , 11, 12 36 f(x) = 0 para X ∉ ( 2, 3,. . . . ., 12 ) Puesto que: 7 X-1 X =2 36 ∑ + 12 13 - X X =8 36 ∑ = 1 y f(x) ≥ 0 Para todo X, definido del experimento tratado. Una vez conocida f(x) podemos hallar las diversas funciones de distribución relativas a X. Denominemos Fx (x) = P[x ≤ x ] como función de distribución acumulativa de la variable aleatoria X, así: Fx (x) = P[x ≤ x ] = ∑ f(x) X ≤x Por ejemplo: P(x ≤ 4 ) = F( 4 ) = Pr obabilidad de obtener 4 puntos o menos 4 P(x ≤ 4 ) = FX ( 4 ) = ∑ x=2 x-1 1 = 36 6 P( 6 ≤ x ≤ 8 ) = Pr obabilidad de otener un puntaje comprendido entre 6 y 8 inclusive P( 6 ≤ x ≤ 8 ) = P( 6 ≤ x ≤ 7 ) + P(x = 8 ) = 7 ∑ x =6 x - 1 13 - X + , x = 8 36 36 Las condiciones que debe cumplir f(x) para ser función de densidad de una variable aleatoria discreta unidimensional, son: 1. Si el dominio de la función es X1, X2, . . . Xn ⇒ f(x) ≥ 0 2. ∀x ∑ f(xi) = 1 Hallemos también, (Remitiéndonos al ejercicio anterior), la probabilidad condicional de que el número de puntos sea menor que 3, cuando se sabe que dicho número es menor que 8. Sea “A” el suceso “Número de puntos menor que 3” Sea “B” el suceso “Número de puntos menor que 8” Deseamos hallar: P(A/B) = P(A ∩ B) P(B) El suceso A = {X / x = 2} El suceso B = {X / x = 2, 3, 4, 5, 6, 7} (A ∩ B) Luego el suceso P(A ∩ B) = Por otra parte, = {X x = 2} x-1 ;x = 2 36 P(B) = ⇒ P(A ∩ B) = 21 x-1 = 36 x = 2 36 7 ∑ 1 36 Concluimos entonces que, P(A/B) = P(X < 3 / X < 8) = 1 36 1 x = 36 21 21 2.2 FUNCIONES DE DOS O MAS VARIABLES DISCRETAS En general, las funciones de densidad de variable discreta pluridimensional, tiene las mismas propiedades de las funciones similares de una variable. Podemos decir entonces que una función f(x1, x2, ...... , xn) es una función de densidad de “n” variables reales si y solo sí: 1. f ( x1 , x 2 , . . . . ., x n ) ≥ 0 2. ∑ ∑ x x 1 ... 2 f ( x , x , . . . ., x n ) ∑ x 1 2 = 1 n Las funciones de densidad conjunta o de dos variables aleatorias discretas, se representan entonces de esta misma manera. - Tomemos como ejemplo, el lanzamiento de dos dados. Sea “X” la variable aleatoria de tipo discreto, que nos representa el número de puntos del dado α y “Y” la variable aleatoria discreta que nos representa el número de puntos del dado β X = 1, 2, 3, 4, 5, 6 Y = 1, 2, 3, 4, 5, 6 ∴ f(x, y) = 1 : Probabilidad de obtener “X” puntos en el dado α y “Y” 36 puntos en el dado β . Probemos que f(x, y) si es función de probabilidad: 1. f(x, y) = 1 36 ⇒ f(x, y) > 0 y 2. 6 6 y =1 y =1 1 ∑ ∑ 36 = 1 Luego f(x, y) si es función de probabilidad. Q Veamos ahora otro ejemplo: Una urna contiene 6 bolas blancas, 5 bolas negras y 4 bolas azules. Si se extraen 4 bolas, hallar la función de densidad conjunta del número de bolas negras y azules. SOLUCIÓN: Sea “X” la variable aleatoria que representa el número de bolas azules en la muestra. Sea “Y” la variable aleatoria que representa el número de bolas negras en la muestra. El recorrido conjunto de las variables X e Y y su función de Probabilidad Conjunta está dado por : 0 ≤ X + Y ≤ 4 f(x, y) = (4x ) (5y ) (4 - 6(x+ y) ) (154 ) De igual manera podemos hallar la función de distribución correspondiente a una situación deseada, así por ejemplo, Hallemos, F( 2 , 1 ) = P(X ≤ 2, Y ≤ 1 ) ∴ F( 2, 1 ) = = f( 0, 0 ) + f( 0, 1 ) + f( 1, 0 ) + f( 1, 1 ) + f( 2, 0 ) + f( 2, 1 ) 1 2 y =0 x =0 ∑ ∑ f(x, y) 2.3 FUNCIÓN DE DENSIDAD MARGINAL PARA VARIABLES DISCRETAS Al hablar de función de densidad conjunta podemos definir la función de densidad marginal de X o de Y. Llamemos entonces f1(x) la función de densidad marginal para X y f2(y) la función de densidad marginal para Y. En el caso del ejemplo de las bolas negras y azules, tenemos: (4x ) (5y ) (4 - (x6 + y) ) (154 ) f(x, y) = Para: X = 1, 2, ---- 4 Y = 1, 2, ---- 5 f(x, y) = 0 si X ∉ ( 1, 2 , ---, 4 ) Y ∉ ( 1, 2 , ---, 5 ) f1(x) = 4 -x ∑ f(x,y) y =0 ∴ f1 (x) = = f(x, 0 ) + f(x, 1 ) + f(x, 2 ) + f(x, 3 ) + - - - - + f(x, 4-x) (4x ) (5y ) (4 - 6(x+ y) ) ∑ (154 ) 4 -x y =0 Observamos que la función de densidad marginal de X, la calculamos utilizando el recorrido de la otra variable, con el fin de que la conjunta nos quede en términos de una sola variable. Ahora: f 2 (y) = 4 -y ∑ f(x, y) x =0 2.4 FUNCIÓN DE DENSIDAD CONDICIONAL Si tenemos una función de densidad de variable discreta pluridimensional en general, podemos hallar la función de densidad condicional que deseemos; para el caso de función de densidad conjunta f(x, y), se tendrán dos funciones de densidad condicional, así: 1. G(xy) = P(x/y) = f(x, y) f 2 (y) 2. H(xy) = P(y/x) = f(x, y) f 1 (x) Si nos remitimos de nuevo al ejemplo de la distribución de las bolas negras y azules; tenemos: g(x,y) = (4x ) (5x ) ⎛⎜⎝ 4−(x6+ y) ⎞⎟⎠ (154 ) (5y ) ⎛⎜⎜⎝ ∑ ⎞⎟⎟⎠ (4x ) ⎛⎜⎝ 4−(x6+ y) ⎞⎟⎠ (154 ) 4− y x =0 g(x,y) = (4x ) ⎛⎜⎝ 4−(x6+ y) ⎞⎟⎠ 15 ( 4) ⎛ ⎞ 4 ⎛ 6 ⎞⎟ ⎜⎜ ∑ ⎟⎟ ( x ) ⎜ − + 4 (x y) ⎝ ⎠ ⎝ ⎠ 4− y x =0 2.5 VARIABLE ALEATORIA CONTINUA Es la que puede tomar cualquier valor dentro del intervalo que se considere; es decir, es aquella que toma un número infinito de valores. El concepto de función de densidad f(x), difiere en este caso al de variable discreta, ya que, aquí no es lógico hallar la probabilidad en un punto sino en un intervalo. Ya habíamos visto que P(X ≤ x) = Fx (x) para − ∞ < X < ∞ diremos que Fx(x) es la función de distribución, (acumulativa), para la variable continua; podemos desde luego hallar la probabilidad en cualquier intervalo; encontremos: P ( a < X ≤ b) Sea A el suceso : {X / X ≤ a} Sea B el suceso : {X / X ≤ b} Sea C el suceso : {X / a < X ≤ b} ∴ Los sucesos A y C son mutuamente excluyentes, ya que A ∩ C = φ ; luego P ( A ∪ C ) = P( A) + P(C ) ; Además A ∪ C = B ⇒ P( B) = P( A) + P(C ) ∴ P ( X ≤ b) = P ( X ≤ a ) + P ( a < X ≤ b ) ∴ P ( a < X ≤ b ) = P ( X ≤ b) − P ( X ≤ a ) P (a < X ≤ b) = Fx (b) − Fx (a ) Ahora siendo F continua en X = b Se puede probar que P(x=b)=0, esto implica que para variables continuas, se tienen que: P (a < X ≤ b) = P (a < X < b) = P (a ≤ X < b) = P (a ≤ X ≤ b) = Fx (b) − Fx (a ) Partiendo de la función de distribución podemos obtener la función de densidad, así: P ( x ≤ X ≤ x + ∆x) = Fx ( x + ∆x) − Fx ( x) Dividiendo por ∆x : P ( x ≤ X ≤ x + ∆x) Fx ( x + ∆x) − Fx ( x) = ∆x ∆x Pasando al límite cuando ∆x → 0 Lim ∆x → 0 P ( x ≤ X ≤ x + ∆x) d . = Fx ( x) = f x ( x) ∆x dx O sea, que la primera derivada de la función de distribución es la función de densidad, (En el caso, claro está, de variables aleatorias continuas). O también vale afirmar que: x Fx ( x) = P( x ≤ X ) = ∫ f (u)du −∞ Para un intervalo a ≤ X ≤ b) se tiene que b P (a ≤ X ≤ b) = ∫ f ( x)dx a Las propiedades que debe cumplir fx(x) Para que sea función de densidad de variable aleatoria, son: 1. 2. Dominio de fx(x), tal que X es real f x ( x) ≥ 0∀x ∈ (− ∞, ∞ ) ∞ 3. ∫f x ( x)dx = 1 −∞ Veamos el siguiente ejemplo ilustrativo, a la situación que acabamos que ver: La variable aleatoria X tiene como función de densidad: f x ( x) = 2 x Si 0 < X < 1 f x ( x) = 0 Si X ∉ (0,1) Hallar: 1. P(X < 1 2 ) = 12 0 12 −∞ −∞ 0 ∫ f(x)dx = ∫ 0dx + ∫ 2xdx P(X < 1 2 ) = 1 4 = Fx ( 1 2 ) 1/2 3 ∫ 2xdx = 16 2. P(1/4 < X < 1/2) = 1/4 x 3. Fx (x) = P(X ≤ x) = ∫ f(u)du −∞ Fx (x) = 0 x −∞ x 0 ∫ 0du + ∫ f(u)du Fx (x) = ∫ 2udu = X 2 0 x ]0 = X 2 Luego Fx (x) = X 2 ∴ x ∈ (0,1) Fx (x) = 0 2.6 FUNCIÓN ∴ x ∉ (0,1) DE DENSIDAD PARA VARIABLE CONTINUA PLURIDIMENSIONAL En el caso de variable continua pluridimensional, la función de densidad f(x1 , x2 ,..., xn ) debe ser 1. f(x1 , x2 ,..., xn ) ≥ 0 ∀ X i ; i = 1,2,...., n 2. X 1 : Real; X 2 : Real;...; X n : Real ∞ 3. ∞ ∫ ∫ −∞ −∞ ∞ ....... ∫ f(x1 x2 ...x n )dx1 dx2 ...dx n = 1 −∞ 2.7 ESPERANZA MATEMÁTICA La esperanza matemática, valor esperado o media de la variable aleatoria X se define como: n E(x) = ∑ xi f(xi ) para variable discreta con dominio, X1, X2 . . ., Xn y función de i =1 densidad f(xi). Para variable continua la esperanza matemática se define como: ∞ E ( x) = ∫ Xf x ( x)dx ; siendo f(x) la función de densidad. −∞ En estructura, E(x) es similar a al media aritmética común, X , obtenida de los valores X1, X2, . . . ., Xn ; que observamos en una muestra, con frecuencias relativas h1, h2, . . . , hn respectivamente , así : X = n ∑ X i hi i =1 ∴ hi = ni ; en donde si el n tamaño de la muestra n es muy grande ⇒ hi ≈ f(xi ) (según lo que se afirmó en la teoría frecuencial de la probabilidad). TEÓRICAMENTE E(x) significa el valor central de la distribución de probabilidad. La esperanza matemática tiene las siguientes propiedades principales: 1. E(x) al igual que la media, es un número que depende de todos los valores de la serie y de sus respectivas probabilidades, ya que todos ellos entran en su cálculo. 2. Si X e Y son variables aleatorias, entonces : E (X + Y) = E(X) + E(Y) 3. Si “A” es una constante y X una variable, ⇒ E(Ax) = A E(x) 4. Se X e Y son variables aleatorias independientes ⇒ E(X.Y) = E(X) E(Y) 5. Si X1, X2, ......., Xe son variables aleatorias ⇒ E ( X 1 + X 2 + ..... + X e ) = E ( X 1 ) + E ( X 2 ) + .... + E ( X e ) 6. Si X1, X2, ......., Xt son variables aleatorias independientes E ( X 1 + X 2 + ..... + X t ) = E ( X 1 ) E ( X 2 ) * .... * E ( X t ) 7. La esperanza matemática es un valor que oscila en el intervalo (Mínimo Xi; máximo Xi), en donde, tiende a situarse en el centro, para así considerarse representativa de los valores de la serie de datos. “ X” 8. Si es variable aleatoria y “a” una constante, ⇒ E ( x + a) = E ( x) + a 9. X variable aleatoria y , “a” y “b” constantes, ⇒ E (ax + b) = aE ( x) + b 2.8 MOMENTOS CON RESPECTO AL ORIGEN Los momentos con respecto al origen de una variable aleatoria X, son los valores esperados de X γ . Para variables aleatorias de tipo discreto. X1, X2, ...., Xn se define el momento de orden γ con respecto al origen, como: n E ( X ) = ∑ ( xi) γ f ( xi) γ i =1 En variables continuas, es: E( X γ ) = ∞ ∫X γ f ( x)dx −∞ 2.9 Momentos de orden γ respecto a una constante - En variables discretas; n E((x − a) ) = ∑ (xi − a)γ . f(xi ) ∴ a, es una constante γ i =1 - Para variables continuas, se tiene: ∞ γ E (( x − a ) ) = ∫ ( x − a) γ f ( x)dx −∞ 2.10 Momentos de orden respecto a la media µ = E (x) Llamaremos, pues, de ahora en adelante, la media de la distribución de la variable o media poblacional con la letra griega µ. Luego el momento de orden γ respecto a µ , en variables discretas, es: n E((x − µ)γ ) = ∑ (xi − µ)γ .f(xi ) i =1 En variables continuas, es: γ E (( x − µ ) ) = ∞ ∫ (x − µ) γ . f ( x)dx −∞ El momento de orden uno o primer momento, con respecto a µ es igual a cero , o sea : E [( x − µ )] = 0; ya que E ( x − µ ) = E ( x) − µ = µ − µ = 0 . 2.11 Varianza de una función de probabilidad Si X es una variable aleatoria discreta, donde X = x1, x2, ...., xn con media E ( x) = µ ; la Varianza de X, a la cual llamaremos Var(x), se define como el momento de orden dos, con respecto a µ ; es decir, 2 Var(x) = σ x = E((x − µ)2 ) n = ∑ (xi − µ)2 f(xi ) i =1 Ahora, en el caso de variable continua, se tiene que: ∞ VAR( x) = ∫ (x − µ) 2 f ( x)dx −∞ Además, podemos probar que Var ( x) = τ x = E ( x) 2 − µ 2 para variables aleatorias discretas o continuas. 2 Veamos por ejemplo, si X es una variable aleatoria continua, con función de densidad f(x): ∞ ∫ (x − µ) ⇒ VAR ( x) = 2 . f ( x)dx −∞ ∞ 2 ∫ X f ( x)dx − 2 VAR ( x) = −∞ ∞ ∫ Xµd ( x)dx + −∞ ∞ ∫µ 2 f ( x)dx −∞ ∞ ∫X Pero 2 f ( x)dx = E ( x 2 ) −∞ ∞ ∞ −∞ −∞ ∴ − 2 ∫ Xµ f ( x)dx = −2µ ∫ X f ( x)dx = −2 µE ( x) = −2µ .µ = −2 µ 2 : Luego: VAR ( x) = E ( x 2 ) − 2 µ 2 + µ 2 VAR ( x) = E ( x 2 ) − µ 2 2.12 FUNCIÓN GENERATRIZ DE MOMENTOS Se llamará función generatriz de momentos (f.g.m.), a la expresión: Mx(t) = E (etx), cuando este valor esperado existe para –b < t < b; donde b es número real positivo. Para el caso de variables discretas se tiene que: M x (t ) = E (e tx ) = ∑ e tx . f ( x) ∴ f ( x) exista Y para variables continuas, así: ∞ M x (t ) = E (e ) = ∫ e tx . f ( x).dx tx −∞ 2.12.1 PROPIEDADES DE LA FUNCIÓN GENERATRIZ DE MOMENTOS La importancia de la función generadora de momentos, radica en el hecho de que ella es única y determina completamente la distribución de una variable aleatoria, esto es, si dos variables aleatorias tienen una misma función Generatriz de momentos, deben tener igual distribución. La demostración de esta propiedad omitida en estos apuntes, se basa en la unidad que existe entre la f.g.m. y la función de distribución. La existencia de la función generatriz de momentos para –b<t<b, donde b es número positivo, garantiza la existencia de las derivadas de cualquier orden en t=0. 2.12.2 TEOREMA: Sea X una variable aleatoria con función generatriz de momentos Mx(t). Sea y=a . x+b, entonces My(t) = ebtMx (at) Demostración: ( ) [ yt t ( ax + b ) M y (t ) = E e = E e ] = E (e ) = E (e t . ax + tb tax tb ) tb ( ) tax . e = e .E e tb M y (t ) = e .M x (ta ) 2.12.2 TEOREMA. Sean X, Y, variables aleatorias independientes y Z=X+Y, con funciones generatrices de momentos, Mx(t), My(t) y Mz(t) respectivamente, entonces: Mz(t) = Mx(t) My(t) DEMOSTRACIÓN: [ ] ) = E (e = E (e . e ) tz M z (t ) = E e t ( x+ y ) tx ty = M x (t ).M y (t ) El teorema anterior, se puede generalizar a n variables aleatorias independientes, xi, con función generatriz de momentos: n M xi (t) Z = ∑ X i , entonces Si i =1 n M z (t) = ∏ M xi (t) i =1 2.13 FUNCIÓN CARACTERÍSTICA Esta función siempre existe y se encuentra definida en el campo de los números complejos. Cumple las propiedades de la f.g.m. Sólo que se definen en un marco mucho más amplio como el de los números complejos. Se define como: ϕ ( ) iθx x (θ ) = E e En caso de variable aleatoria discreta, se tiene que: ϕ ( )= ∑e iθx x (θ ) = E e iθx ∀x . f x ( x) Y en caso continuo, así: ϕ ( )= ∫e iθx x (θ ) = E e 2.14 ∞ iθx . f x ( x)dx −∞ EJERCICIOS 2.14.1 Supóngase que un número se selecciona al azar entre los enteros del 1 al 20. Sea X el número de sus divisores. Construir la función de densidad de X. Cuál es la probabilidad de que haya 4 o más divisores al extraer un entero al azar. SOLUCIÓN: Hagamos el siguiente análisis; para detectar el número de divisores del 1 al 20, así: Divisores 1 2 3 4 5 6 7 8 9 10 11 12 12 14 15 16 17 18 19 20 1 1 1 1 1 1 1 1 1 1 1 2 3 2 5 2 7 2 3 2 3 4 9 6 8 4 1 1 1 1 1 1 11 2 13 2 3 2 17 2 19 2 5 3 7 5 4 3 4 10 4 14 15 8 6 5 9 10 18 20 6 16 12 ∴X : 1 1 1 Variable aleatoria que representa el número de divisores en los números del 1 al 20. X 1 2 3 4 5 6 f (x) 1/20 8/20 2/20 5/20 1/20 3/20 La probabilidad de que haya 4 o más divisores, es: P ( x ≥ 4) = f x (4) + f x (5) + f x (6) = 5 +1+ 3 9 = 20 20 2.14.2 Se lanza un dado hasta que aparezca seis. Hallar la función de densidad del número de tiradas. SOLUCIÓN Sea X la variable aleatoria que nos representa el número de tiradas. Luego, puede ocurrir que aparezca, seis, en la primera tirada P ( x = 1) = f x (1) = 1 6 Que aparezca al cabo de la segunda tirada, eso implica, que necesariamente en la primera tirada ocurrieran los resultados: 1, 2, 3, 4 o 5 únicamente y en la segunda aparecer el 6. 5 1 P ( x = 2) = f x (2) = . 6 6 1a 2a 3a 1a 2a 3a 2 5 5 1 ⎛5⎞ ⎛1⎞ 5 5 1 P ( x = 3) = f x (3) = x x = ⎜ ⎟ .⎜ ⎟ ⇒ x x 6 6 6 ⎝6⎠ ⎝6⎠ 6 6 6 4a 5 5 5 1 ⎛5⎞ P ( x = 4) = f x ( 4) = x x x = ⎜ ⎟ 6 6 6 6 ⎝6⎠ . . . . . . 3 1 5 5 5 1 .⎛⎜ ⎞⎟ ⇒ x x x ⎝6⎠ 6 6 6 6 . . . ⎛5⎞ P(x = x) = f x ( x) = ⎜ ⎟ ⎝6⎠ x −1 1 .⎛⎜ ⎞⎟ ⎝6⎠ 2.14.3 De un lote de 10 televisores hay 4 defectuosos; se extrae una muestra de 3 sin reemplazamiento. Hallar la función de densidad del número de defectuosos en la muestra. Sea X la variable aleatoria que representa el número de defectuosos en la muestra. P ( X = x) = f x ( x) = Casos favorables Casos posibles Los casos favorables pueden ocurrir de: ( ) ⎛⎜ 4 ⎞⎟ 6 ⎝ x ⎠ 3− x y los casos posibles son ⎛⎜ 10 ⎞⎟ o sea, el número total de muestras ⎝3 ⎠ posibles de tamaño 3. 4 )( 6 ( x . 3− x ) f ( x) = (103 ) ∴ X : 0, 1, 2, 3. x para x ∉ {0 , 1, 2 , 3} f x ( x) = 0 2.14.4 Dada la siguiente función de densidad: X 0 1 2 3 4 5 6 7 f (x) 0 c 2c 2c 3c c2 2c2 7c2+c Encontrar C y hallar P ( x ≥ 5) SOLUCIÓN: Sabemos que para que fx(x) sea función de densidad es necesario que se cumpla que: 7 ∑f x =0 x ( x) = 1 Partiendo de f x ( x) ≥ 0 Y ∑f x (x) = 1; tenemos: c + 2c + 2c + 3c + c2 + 7c2 + c = 1 10c2 + 9c –1 = 0 ∴ c= − 9 + 81 + 40 20 − 9 ± 11 c= 20 Pero como f x ( x) ≥ 0 = − 9 + 121 20 ⇒ c = 2 / 20 ó c = −1 ⇒ Que c = 1 / 10 Luego la tabla de probabilidades, queda: X 0 1 2 3 4 5 6 7 f (x) 0 1/10 2/10 2/10 3/10 1/100 2/100 17/100 P ( x ≥ 5) = f x (5) + f x (6) + f x (7) Ahora, = 1 + 2 + 17 20 1 = = 100 100 5 También se puede resolver esta pregunta, utilizando el complemento; ya que sabemos que la probabilidad en todo el espacio o recorrido de la variable es 1, tenemos: P ( x ≥ 5) = 1 − P ( x < 5) = 1 − P ( x ≤ 4) = 1 − Fx (4) 4 = 1 − ∑ f ( x) x =0 = 1 − { f x (0) + f x (1) + f x (2) + f x (3) + f x (4)} ⎧0 + 1 + 2 + 2 + 3⎫ = 1− ⎨ ⎬ 10 ⎩ ⎭ 8 2 1 = 1− = = 10 10 5 2.14.5 Una variable X tiene su gráfico de distribución, (Área), en forma de triángulo rectángulo de base 5, para X entre, 2 y 7. La pendiente de la hipotenusa es positiva. Dibujar el gráfico y hallar P ( x ≤ 4) y P ( x > 5) . Debemos encontrar la altura h del triángulo, partiendo de que el área, (Espacio muestral), debe ser igual a la unidad, así: Área : bxh =1 2 ⇒ 5 xh 2 =1 ∴ h = 2 5 Ahora para hallar P (x ≤ 4) ⇒ no es más que el valor del área del triángulo pequeño; para ello es necesario averiguar h; por triángulos semejantes se tiene que: h 5 2/5 5 = ∴ = h' 2 h' 2 4 4 5h ' = ⇒ h ' = 5 25 2 ∗ 4 / 25 4 Luego, P ( x ≤ 4) = = 2 25 En este ejercicio, bien lo podemos trabajar, como veníamos haciendo o bien, hallando la función, (ecuación), que actúa en dicho campo, (espacio). Para ello utilizamos la ecuación de la línea recta que pasa por dos puntos, es decir, la ecuación de la recta que pasa por los puntos: ( x1 , y1 ) Y − Y1 = Y2 − Y1 ( x − x1 ) x 2 − x1 2/5− 0 ( x − 2) 7−2 2 4 Y= x− 25 25 Y −0 = y ( x2 , y 2 ) (2 , 0) y ( 7 , 2/ 5 ) Luego: f x ( x) = X ∈ [2, 7 ] 2 4 x− 25 25 f x ( x) = 0 si X ∉ (2, 7) 7 4 ⎞ ⎛ 2 P ( x > 5) = ∫ ⎜ x − ⎟dx 25 25 ⎠ 5⎝ 16 = 25 = 1 − P( x ≤ 5) O también; 4 ⎞ ⎛ 2 = 1 − ∫ ⎜ x − ⎟dx 25 25 ⎠ 2⎝ 16 = 25 5 2.14.6 Si fx(x) = 4K (x3-1) para 1 < x < 10 , es una función que determina el tiempo de ocurrencia de un experimento. Hallar el valor de K, para el cual f(x) es función de probabilidad. Para que f(x) sea función de densidad de variable aleatoria continua, es necesario: 1. Dominio de X, sea real 2. f ( x ) ≥ 0 ∀x ∞ 3. ∫ f ( x)dx = 1 -∞ Según las 2 primera condiciones, implica que el valor de K debe ser positivo para que f (x) ≥ 0 ⇒ ∞ 1 10 −∞ −∞ 1 ∫ f(x)dx = ∫ 0dx + ∫ 4K(x ⇒ ⎤ ⎡ x4 = 4K ⎢ − X ⎥ = 1 ⎦ ⎣4 1 K= 9963 3 ∞ − 1)dx + ∫ 0dx = 1 10 3. DISTRIBUCIONES PROBABILÍSTICAS 3.1 Principales distribuciones de probabilidad para variable discreta. 3.1.1 Distribución Binomial Este modelo de probabilidad de refiere en general, a aquellos experimentos que consisten en un número de pruebas independientes, en la cual se llamará “p” la probabilidad de éxito de cada prueba y “q=1-p”, la probabilidad de fracaso. Para que un experimento se pueda calificar como Binomial8 debe presentar las 4 propiedades siguientes: 1. Debe haber un número finito de pruebas. 2. Cada prueba debe tener como resultado un “éxito” o un “fracaso”. 3. Todas las pruebas deben tener idénticas probabilidades de “éxito”. 4. Debe haber independencia entre cada una de las pruebas. Veamos ahora una serie de ejemplos en donde se cumple y en donde no se cumple, cada una de las propiedades anteriores. 1. Se lanza una moneda 5 veces; n=5 Luego se cumple la primera propiedad. - Se lanza una moneda hasta que aparezca cara. No hay un número finito de pruebas, luego aquí no se cumple la primera propiedad. 2. Al tirar una moneda aparecerá siempre cara o sello cada una con probabilidad 1/2 ; una de ellas se puede considerar “Éxito” según el caso y la otra “Fracaso”. Cumple la segunda propiedad. 8 Es decir, su experimentación se da a través del muestreo con reemplazamiento o en el muestreo sin Reemplazamiento que provenga de Poblaciones muy grandes y tamaños de muestra relativamente grandes. - Supongamos que en una jaula haya 3 ratones: Uno blanco, uno gris y otro negro. Si se considera “Éxito” extraer ratón blanco y “Fracaso” extraer ratón gris; qué se podrá decir entonces si la extracción fuera ratón negro? Luego en este caso no se cumple la segunda propiedad. 3. Al extraer una carta con reemplazamiento 4 veces de una baraja ordinaria, la probabilidad de extraer un as es: 4 1 = 40 10 y permanece constante. Cumple la tercera propiedad. Si la extracción se hace sin reemplazamiento, la probabilidad de éxito varía de una prueba a otra; luego no se cumple la tercera propiedad. 4. Citando la situación anterior, se puede adaptar aquí, ya que al hacer extracciones con reemplazamiento los sucesos son independientes y si se hacen sin reemplazamiento serían dependientes. Q Ahora, para analizar completamente la distribución Binomial y sus características, empecemos por definir la distribución de Bernoulli: Un ensayo de Bernoulli, es aquel experimento en el cual solo hay dos resultados que nos interesan: El suceso A y el suceso A’. Así por ejemplo, - Al lanzar 1 moneda ⇒ A: caer cara ⇒ A’ = caer sello - Al lanzar 1 dado ⇒ A: número obtenido es par ⇒ A’ : número obtenido es impar. - Al elegir una persona al azar, en una ciudad C ⇒ A : la persona elegida nació en C ⇒ A’ : la persona elegida no nació en C. Luego tenemos que A ∩ A' = φ ... A ∪ A' = S A un ensayo de Bernoulli, le hacemos corresponder una variable aleatoria X, así: ⎧1 : Si se presenta el suceso A X =⎨ ⎩0 : Si se presenta el suceso A' Entonces la P(x=1)= p: Probabilidad de éxito P(x=0)= q: y Probabilidad de fracaso Sea X la variable aleatoria que se distribuye como un ensayo de Bernoulli, donde su función de densidad fx(x), está dada por : f x ( x) = P ( X = x) = p x .q 1− x ; x = 0,1 para x ∉ {0, 1} f x ( x) = 0 Podemos decir también que un Ensayo de Bernoulli se conoce con el nombre de Binomial con parámetros (1, p) y podemos escribir b(1, p). CARACTERÍSTICAS DE LA BINOMIAL (1, p ) ; 3.1.1.1 1. ESPERANZA. Sea x~ b(1, p) 10 1 ⇒ E ( x) = ∑ X . f x ( x) x =0 1 = ∑ X . p x .q 1− x x =0 = 0+ p = p ⇒ E ( x) = µ = p 2. VARIANZA. Var ( x ) = σ x = E( x 2 ) − (E (x )) 2 1 ∴ E(x ) = ∑ X 2 .f(x) 2 x =0 = 0 2 .f x (0) + 12 .f x (1) = f x (1) = p Luego : ∴ 2 σx = p − p 2 σ x = pq 2 = p(1 − p) 3. FUNCIÓN GENERATRIZ DE MOMENTOS Por definición es: 9 Notación abreviada ~ : Interpretémoslo como, “se distribuye” 10 2 b(1, p)9 1 M x (t ) = E (e ) = ∑ e . f x ( x) tx tx x =0 t .0 t = e . f x + e . f x (1) t M x (t ) = q + p e 4. FUNCIÓN CARACTERÍSTICA ϕ X (θ ) = E (eiθx ) = ∑ eiθx . f x ( x) 1 x =0 (iθ ).0 =e iθ . f x (0) + e . f x (1) ϕ X (θ ) = q + p eiθ 3.1.1.2 DISTRIBUCIÓN BINOMIAL (n, p) : b(n, p)11 No es más que n ensayos de Bernoulli con una misma probabilidad de éxito p. Sean X1, X2, X3, ...... , Xn; Variables aleatorias independientes, todas binomiales (1, p); es decir: X 1 ~ b(1, p ) ⇒ f x1 (x1 ) = p x1 ⋅ q 1− x1 X 2 ~ b(1, p ) ⇒ f x2 (x2 ) = p x2 ⋅ q 1− x2 ..... ...... X n ~ b(1, p ) ⇒ f xn (xn ) = p xn ⋅ q 1− xn La variable aleatoria, X = X1+ X2+ X3+...... + Xn, se dice que se distribuye Binomial (n, p) : b(n, p) Por ejemplo, sean Xi, (i=1, 2, …, 5), binomiales (1, p) 11 Notación abreviada X = X1+ X2+ X3+ X4+ X5, es una Binomial (5, p); donde X representa el número total de éxitos, en 5 ensayos de Bernoulli. - Veamos otro ejemplo ilustrativo; sea el experimento aleatorio lanzar una moneda 10 veces, entonces definimos: Sea : X1 : número de caras en el primer lanzamiento. X2 : número de caras en el segundo lanzamiento. . . . . . . X10 : número de caras en el décimo lanzamiento. Luego: X = X1+X2 + --- + X10 ∴X : Representa el número de caras que pueden ocurrir en los 10 lanzamientos. Los posibles valores de X = {0, 1, 2, ......, 10} Y p = 0.5 (Probabilidad de caer cara) ⇒ X ~ b (10, 0.5) 3.1.1.3 CARACTERÍSTICAS DE LA b(n, p) 1. ESPERANZA Sea X = X1+X2+ ...... + Xn ∴ Cada Xi ~ b(1,p) ⇒ E(X) = E(x1+x2+ --- +xn) = E(x1)+ E(x2)+ --- +E(xn) Luego : = p+ p + ...+p n veces E ( X ) = n. p = µ : Media de la distribución b(n, p) 2. VARIANZA. Sea X ~ b(n, p) ∴ X = X1+X2+ ...... + Xn ∴ Cada Xi ~ b(1, p) ; luego: Var(X) = Var(X1+X2+ --- +Xn) = Var(X1) + Var(X2)+ --- + Var(Xn) = pq + pq + ... + pq n veces σx 2 Var(x) = npq = 3. FUNCIÓN GENERATRIZ DE MOMENTOS: M X (t) ∴ X = X1 + X 2 + − − − + X n y cada Xi ~ b (1, p) ( ) ] = E [e = E [e . e ... e ] = E (e ).E (e )...E (e ) tx ⇒ M x (t ) = E e t ( x1 + x2 +... xn ) tx1 tx2 tx1 txn tx2 txn = M x1 (t ).M x2 (t )...M xn (t ) ( ) (q + p e )...(q + p e ) = (q + p e ) (t ) = (q + p e ) t = q + pe t • t t n Mx t n 4. FUNCIÓN CARACTERÍSTICA: Sea X ~ b(n, p) ϕ ( ) = (q + p e ) iθx x (θ ) = E e iθ n La hallamos en forma similar a Mx(t), o también basta con hacer t = i θ en Mx(t) ϕ para así obtener x (θ ) . 5. Hallemos, el valor de la función de probabilidad, (Modelo), de la distribución Binomial (n, p). Encontremos fx(x) por medio de la función característica , así: Sabemos que, Además, ϕ x ϕ ( )= ∑e x ( Resaltemos que, (a + b ) n x =0 f x ( x) ) = ∑e iθ iθx iθ n (θ ) = q + p e [(q + p e )] Luego, n iθx (θ ) = E e n iθx f x ( x) x =0 n n 1 ( ) = ∑ nx a n − x ⋅ b x , fórmula del binomio de Newton, que x =0 asociaremos de la forma siguiente : (q + p e ) iθ n n =∑ x =0 (q + p e ) = ∑ nx ∴ 1 = ⇒ ∑ ( nx )e iθ n n x =0 n x =0 ( ) ( ) n q n − x ⋅ p iθ x e ( )e iθx x ⋅ q n− x ⋅ p x 2 2 iθx n ⋅ q n − x p x = ∑ e ⋅ f x ( x) iθx x =0 Luego para cada X ⇒ f x ( x) = ⎛⎜ n ⎞⎟ p x ⋅ q n − x ⎝x⎠ f x ( x) = 0 con X : 0,1,2,..., n Para X en otra parte Probemos que fx(x) es función de probabilidad: Es obvio que fx(x) ≥ 0. ∑ ( nx )p n Ahora resta, saber si x ⋅ q n− x = 1 x =0 ∴ ∑ ( nx )p n x ⋅ q n − x = (q + p ) : Por binomio de newton n x =0 = (1) n = 1 3.1.1.4 PROBLEMA Si la probabilidad de acertar en un blanco es 1/5 y se hacen 10 disparos en forma independiente. Cuál es la probabilidad de acertar por lo menos 2 veces. Encuéntrese también, la probabilidad de acertar en el blanco al menos 2 veces, si suponemos que se acertó por lo menos 1 vez? SOLUCIÓN p=1/5 : Probabilidad de acertar en el blanco o probabilidad de éxito. q=4/5 : Probabilidad de no acertar o sea probabilidad de fracaso. n=10: El experimento es claramente Binomial. ∴ X ~b (10, 1/5) X : Variable aleatoria que representa el número de veces de dar en el blanco, X = 0, 1, 2, ---, 10 Sea A suceso: “Acertar por lo menos 2 veces” ⇒ A’ : “Acertar a lo sumo una vez” ⇒ P(A' ) = P(X = 0) + P(X = 1) = f x (0) + f x (1) ( )( ) (45 ) + (101 )(51 ) (45 ) 1 = 10 0 5 = 0.36 0 1 10 9 Luego la probabilidad pedida es: P(A) = 1 – P(A’) = 1 - 0.36 P(A) = 0.64 Contestemos ahora la segunda pregunta, para ello definamos: Sea B : Suceso de acertar por lo menos 1 vez B’ : Suceso de fallar exactamente 10 veces ∴ B = {X / X = 1, 2, 3, ..., 10} B’ = {X / X = 0} Sabemos pues que X ~ b(10, 1/5) ( )( ) (45 ) 1 X ~ fx(x) = 10 x 5 Luego, x 10 − x ; X : 0,1,2,...10 P(B) = P( x ≥ 1) = 1 − P( x < 1) = 1 − P ( x = 0) = 1 − P ( B ' ) ⎛4⎞ = 1 − f x ( 0) = 1 − ⎜ ⎟ ⎝5⎠ P(B) = 1 – 0.10 = 0.90 P(B) = 0.90 10 Nos piden hallar, la probabilidad de acertar por lo menos 2 veces, (o sea P(A)), dado que se acertó por lo menos 1 vez, (P(B)); es decir, P ( A / B ) = P( A / B) = P( A ∩ B) ⇒ P( B) P ( A) 0.64 = = 0.71 P ( B ) 0.90 3.1.2 DISTRIBUCIÓN HIPERGEOMÉTRICA La distribución Hipergeométrica considera el caso en el cual una población finita se divide en dos grupos, uno de los cuales se considera “éxitos” y el otro “Fracasos”. Por consiguiente si se toma sin reemplazamiento una muestra de “n” elementos y se desea hallar la probabilidad de obtener “X” éxitos, tenemos: N = Tamaño de la población Np = Número de éxitos en la población Nq = Número de fracasos en la población ∴ Np + Nq = N X = Variable aleatoria que nos representa el número de éxitos en la muestra n = Tamaño de la muestra n – x = Número de fracasos en la muestra, utilizando las definiciones dadas, podemos hallar la función de densidad para una variable aleatoria X que se distribuya Hipergeométricamente, así: fx(x) = P(X=x); donde el suceso, (X=x), (o sea, suceso de éxitos en la muestra), se puede dar de: ⎛⎜ Np ⎞⎟⎛⎜ Nq ⎞⎟ ∴ ⎝ x ⎠⎝ n-x ⎠ x ≤ Np Ahora el número total de muestras posibles de tamaño n que podemos extraer de ( ) la población de N elementos es: nN ⎛⎜ Np ⎞⎟ ⋅ ⎛⎜ Nq ⎞⎟ x ⎠ ⎝ n− x ⎠ f x ( x) = ⎝ N n ( ) Luego, Para X = 0, 1, . . . , n ó X = 0, 1, ..., Np 3.1.2.1 sí x ≤ n ≤ Np Sí x ≤ Np ó n > Np CARACTERÍSTICAS DE LA DISTRIBUCIÓN HIPERGEOMÉTRICA 1. ESPERANZA: E(X): Para deducirla podemos emplear el mismo criterio que utilizamos en la distribución Binomial (n, p), en donde, consideremos la variable hipergeométrica X como una suma de n variables: X= X1+X2+ ... + Xn ; Pero, aquí hay que tener presente que cada Xi es dependiente, pero, ya que, la propiedad aditiva de la esperanza no nos exige el carácter de independencia o dependencia, no tenemos problema aplicarla aquí. Entonces, E(X) = E(x1+x2+ ... + xn) E(X) = E(x1) + E(x2) + ... + E(xn) ∴ Cada E ( Xi ) = E ( x) = Np = P: N Np Np Np + + ... + N N N n veces E( X ) = n ⋅ Np = nP N Proporción de éxito en la población, 2. VARIANZA: Var(x)= 2 σx : En este caso, ya no podemos deducir la Varianza en forma similar a como lo hicimos en la Binomial (n, p), ya que ella no es aditiva para variables dependientes, pero sin necesidad de entrar aquí en exposiciones de rigurosidad matemática, simplemente, podemos afirmar que la Varianza de esta distribución, es: ⎛ N −n⎞ ⎛ Np ⎞⎛ Nq ⎞ Var ( x) = ⎜ ⎟× n⋅⎜ ⎟⎜ ⎟ ⎝ N −1 ⎠ ⎝ N ⎠⎝ N ⎠ N −n Var ( x) = ⋅n⋅ P ⋅Q N −1 ∴ Q : Proporción de fracasos en la población, y N −n ; se denomina N −1 factor de corrección, para el muestreo sin reemplazamiento. En caso de que la población finita N sea muy grande, ( N → ∞) , Entonces 3.1.2.2 N −n →1 N −1 PROBLEMA Se quiere comprar un lote de 25 lámparas. Se eligen 5 de ellas al azar y se examinan de modo que si menos de 2 fallan, el lote es aceptado, de lo contrario será rechazado. Cuál es la probabilidad de que el lote sea rechazado si contiene un total de 4 lámparas defectuosas? SOLUCIÓN : Sea X : Variable aleatoria que representa el número de lámparas defectuosas en la muestra. El experimento que se realiza aquí es sin reemplazamiento en una población finita, en donde hay dos clases excluyentes de lámparas, unas defectuosas, (que llamamos éxitos), y otras no defectuosas, ( que llamamos fracasos). N = 25 : Total lámparas en la población Entonces, Nq = 21 : Total lámparas no defectuosas en la población Np = 4 : Total lámparas defectuosas en la población n = 5 : Tamaño de la muestra aleatoria sin reemplazamiento. Ahora, X : Puede tomar los valores; X = 0, 1, 2, 3, y 4 ⇒ X ≤Np ∧ n > Np ∴ X ~ Hipergeométricamente; con: 4 )( 21 ) ( x 5− x f ( x) = ∴ X :,1,2,3,4 x C 25 5 La probabilidad de que el lote sea rechazado, es por lo tanto; P ( X ≥ 2) = 1 – P(X<2) = 1 − P ( X ≤ 1) = 1 – Fx(1) = 1 – {fx(0) + fx(1)} = 0.17 3.1.2.3 APROXIMACIÓN DE LA DISTRIBUCIÓN HIPERGEOMÉTRICA A LA DISTRIBUCION BINOMIAL De manera intuitiva se puede observar, que para N y Np grande y n relativamente pequeño respecto a N, la distribución Hipergeométrica se aproxima a la Binomial (n, p); porque en este caso, la muestra sin reemplazamiento tiene efecto Np ⎞ ⎛ despreciable sobre la proporción P de éxitos de la población, ⎜ P = ⎟ . Ilustremos N ⎠ ⎝ esta situación mediante el ejemplo siguiente: Supongamos que una urna contiene 106 bolas rojas y 108 bolas blancas. Seleccionemos al azar, una muestra de 5 bolas, la probabilidad de que haya 3 bolas rojas en la muestra, la da la fórmula: 10 )⋅ (10 ) ( 5-3 f (3) = 3 (10 +310 ) 6 : x 6 8 X: 0, 1, 2, 3, 4, 5. 8 ∴ X < Np ∴ X ≤ n < Np Ahora, si la extracción se hace con reemplazamiento, se habrán repetido 5 10 6 pruebas independientes, con probabilidad constante P = 6 , de éxito, para 10 + 10 8 cada prueba. En este caso, la probabilidad de extraer 3 bolas rojas, lo obtenemos de la fórmula Binomial: () f x (3) = 53 p 3 (1 − p ) 2 () = 53 Resolviendo ⎛ 10 6 ⎞ ⎟ ⎜⎜ 6 8 ⎟ ⎝ 10 + 10 ⎠ y 3 ⎛ 10 6 ⎞ ⎟ ⎜⎜1 − 6 8 ⎟ ⎝ 10 + 10 ⎠ 2 podemos ver que ≈ 3.1.3 DISTRIBUCIÓN DE POISSON Esta distribución es aplicable a muchos procesos que indican demandas de servicio, tales como, el número de máquinas en una gran planta, que se paran durante cualquier día; el número de personas que atiende un cajero de banco en media hora; el número de llamadas telefónicas recibidas en una central durante 15 minutos; el número de autos que son atendidos en una estación de gasolina durante 10 minutos; el número de unidades de un artículo determinado vendido durante un día. También es aplicable el modelo de Poisson a fenómenos que no implican tiempo, tales como, el número de errores tipográficos por página; el número de conexiones soldadas defectuosamente en un ensamble eléctrico; el número de cuerpos extraños, (como piedritas o burbujitas), incrustados en una botellas de vidrio, etc. Dados los ejemplos de aplicación anteriores, los resultados posibles son 0, 1, 2, 3,. . . . y así sucesivamente; es así, que no puede haber ninguna llamada telefónica durante un período de 5 minutos o puede haber una, y así sucesivamente, lo que implica, que la variable de Poisson puede tomar valores desde cero hasta infinito. Para el análisis de esta distribución utilizaremos el siguiente ejemplo: Supongamos que una compañía de teléfonos recibe en un tiempo T un número R de llamadas. Sea t una fracción observada del tiempo T. Cuál es la probabilidad de que se produzcan X llamadas en t? Supongamos que T es mucho más grande que t ; como también suponemos que las llamadas están distribuidas con probabilidad uniforme en todo el tiempo, luego se deduce que la probabilidad de que haya X llamadas en t es: (RX )⎛⎜⎝ Tt ⎞⎟⎠ x t⎞ ⎛ ⎜1 − ⎟ ⎝ T⎠ R−x ⇒ Y partiendo de aquí, obtenemos la distribución de Poisson, haciendo que R y T sean lo más grandes, ( R → ∞ de llamadas y T → ∞), para que la densidad o probabilidad R permanezca constante. T Ahora escribamos el producto X R! t⎞ ⎛ R ⋅t ⎞ ⎛ ⎟ ⎜1 − ⎟ X ⎜ ( R − X )! X ! R ⎝ T ⎠ ⎝ T ⎠ , en la forma: R− X ; (Multiplicamos y dividimos por RX, con el fin de simplificar las expresiones factoriales). X ∴ t⎞ ⎛ R ⋅t ⎞ ⎛ R ( R − 1) ⋅ ( R − 2)( R − 3)...( R − ( x − 1)) ⋅ ( R − X )!⎜ ⎟ ⎜1 − ⎟ ⎝ T ⎠ ⎝ T⎠ X ( R − X )! X ! R R− X Vemos que entre R y (R-(x-1)), hay exactamente X productos, los cuales podemos dividir respectivamente por cada uno de los X productos que hay en RX , luego: X R⎛ 1 ⎞⎛ 2 ⎞⎛ 3 ⎞ ⎛ ( x − 1) ⎞⎛ R ⋅ t ⎞ ⎛ t⎞ ⎜1 − ⎟⎜1 − ⎟⎜1 − ⎟ ⋅ ⋅ ⋅ ⎜1 − ⎟⎜ ⎟ ⎜1 − ⎟ R ⎝ R ⎠⎝ R ⎠⎝ R ⎠ ⎝ R ⎠⎝ T ⎠ ⎝ T ⎠ X! Si llamamos p = t R y d= ; T T entonces: R− X 1 ⎞⎛ 2 ⎞ ⎛ ( x − 1) ⎞ td ⎞ ⎛ X ⎛ ⎜1 − ⎟⎜1 − ⎟ ⋅ ⋅ ⋅ ⎜1 − ⎟(t ⋅ d ) ⋅ ⎜1 − ⎟ R ⎠ R⎠ ⎝ R ⎠⎝ R ⎠ ⎝ ⎝ X! 1 ⎞⎛ 2 ⎞ ⎛ ( x − 1) ⎞ ⎛ X ⎜1 − ⎟⎜1 − ⎟ ⋅ ⋅ ⋅ ⎜1 − ⎟(t ⋅ d ) R ⎠ Lim ⎝ R ⎠⎝ R ⎠ ⎝ R→∞ X! R− X ⎛ td ⎞ ⋅ ⎜1 − ⎟ R⎠ ⎝ R− X = (t ⋅ d ) X e−td X! ; Podemos generalizar entonces, y decir, que una variable aleatoria X se distribuye según Poisson, si la función de densidad está dada por: f x ( x) = µ X ⋅e X! −µ ; x : 0,1,2.... µ = td , en el ejemplo, es cualquier número positivo y llamaremos en Donde general, N a la población, (que en nuestro ejemplo es R). Luego; µ = Np. 3.1.3.1 CARACTERÍSTICAS DE LA DISTRIBUCIÓN DE POISSON 1. ESPERANZA: E(x) E ( x) = ∞ ∑ X e ⋅µ −µ Y =0 X =1 e −µ ⋅µ X ( X − 1)! Y = x-1, tenemos: Haciendo E ( x) = ∑ ∞ =∑ X! X =0 ∞ X e −µ ⋅µ Y +1 =∑ Y! Y =0 ∞ E ( x) = µ ⋅ e ⋅ ∑ −µ ∞ Y =0 µ Y Y! e −µ Y ⋅µ ⋅µ Y! µ ∞ Y ∑ Y! , ∴ La expresión es la expansión en series de Maclaurín de Y =0 luego; E ( x) = µ ⋅ e ⋅ e = µ −µ µ E ( x) = µ : Media de la distribución 2. VARIANZA: Var(x)= 2 σX Var(x) = E(x2) – (E(x))2 x2 ⋅ e ⋅ µ −µ ∞ Var ( x) = ∑ x X! x =0 ∞ ∴ E(x ) = ∑ 2 x =0 ∞ =∑ x =1 −µ x2 ⋅ e ⋅ µ −µ x X! x⋅e ⋅µ −µ 2 ∞ =∑ x =0 x2 ⋅ e ⋅ µ −µ x x( x − 1)! x ( x − 1)! Haciendo Y = x-1 ⇒ X=y+1 ; luego ∞ E(x 2 ) = ∑ Y =0 ( y + 1)e− µ ⋅ µ Y! y +1 ∞ =∑ Y =0 ( y + 1)e− µ ⋅ µ ⋅ µ y Y! e µ , ∞ =∑ Ye y µ µ ∞ ∑ y =0 Ye +∑ Y! y =0 −µ µ y Y! y e µ µ −µ ∞ Y! y =0 =µ −µ +µ ∞ ∑ e µ −µ y Y! y =0 ⎛ ∞ −µ ⋅ y ⎞ µ ⎜ ⎟ e ⎜∴ ∑ Y ! = 1⎟ ⎜ y =0 ⎟ ⎝ ⎠ = µ E (Y ) + µ Pero E (Y ) = µ ⇒ E ( X 2 ) = µ 2 + µ ; entonces: Var ( x) = µ 2 + µ − µ 2 = µ Var ( x) = µ Nótese que en esta distribución la media y la varianza son iguales. 3. FUNCIÓN GENERATRIZ DE MOMENTOS MX(t) ( ) ∞ ∞ x M X (t ) = E e = ∑ e ⋅ f x ( x) = ∑ e tx ∴ M X (t ) = e tx x =0 x =0 −µ ∞ ∑ x =0 ⎛⎜ ⎝µ e ⎞⎟⎠ X! t x tx µ ⋅e X! −µ ⎧ −µ ⎪ ⎪ = e ⋅ ⎨1 + µ ⎪ ⎪⎩ −µ = e ⋅e M X (t ) = e µ et 2 3 ⎫ t⎞ ⎞⎟ ⎛⎜ ⎟ e ⎠ ⎝µ e ⎠ ⎪⎪ + + ...⎬ 2! 3! ⎪ ⎪⎭ ⎛⎜ µ t +⎝ t e =e µ ( et −1) µ ( et −1) Q Empleando la función generatriz de momentos, podemos hallar también la media y la varianza, de la distribución de Poisson, así: = E ( x) ⇒ M ' X (t = 0) ∴ M ' X (t ) = µ t e ⋅e µ ( et −1) E ( x) = M ' X (t = 0) = µ Ahora, Var ( x) = E ( X 2 ) − [E ( x)] 2 = M ' ' X (t = 0) − [M ' X (t = 0)] 2 t t ⎧⎪ ∴ M ' ' X (t ) = µ ⎨e µ ( e − 1) ⋅ e t + e µ ( e ⎪⎩ M ' ' X (t = 0) = µ {1 + µ } = µ + µ 2 − 1) ⎫ ⋅ µ e t ⋅ e t ⎪⎬ Luego; Var ( X ) = µ + µ 2 − µ 2 = µ ⎪⎭ ⇒ 3.1.3.2 APROXIMACIÓN DE LA DISTRIBUCIÓN DE POISSON A LA DISTRIBUCION BINOMIAL(n,p) Con el fin de comprobar de que la distribución de Poisson es una buena aproximación a la binomial, cuando n (tamaño de la muestra), es muy grande y p , (probabilidad de éxitos), muy pequeña; veamos el siguiente teorema, que dice : “Si la probabilidad p de éxito en una sola prueba, tiende a cero, (pÆ0) , mientras que el número de pruebas n tiende a infinito, ( n → ∞) , de una forma tal que la media µ = np permanezca constante, la aproximará a la distribución de Poisson con media distribución binomial se µ PRUEBA: Escribamos la fórmula de la distribución binomial (n, p), de la forma siguiente: f x ( x) = n(n − 1)(n − 2)...(n − x + 1)(n − x)! x n − x p ⋅q x!(n − x)! f x ( x) = n(n − 1)(n − 2)...(n − x + 1) x n− x p ⋅ (1 − p ) x! Multipliquemos el numerador y el denominador por nx f x ( x) = ∴ n(n − 1)(n − 2)...(n − x + 1) n− x (np ) x ⋅ (1 − p ) x n ⋅ x! p= µ n , Luego : _____ x productos _____ x n(n − 1)(n − 2)...(n − x + 1) ⎛ µ ⎞ ⎛ µ ⎞ f x ( x) = ⎜ n ⎟ ⋅ ⎜1 − ⎟ nx nx nx ........nx! n⎠ ⎝ n⎠ ⎝ _____ X veces _____ n− x 1 ⎞⎛ 1⎞ ⎛ x − 1⎞ ⎛ ⎜ 1 − ⎟⎜ 1 − ⎟...⎜ 1 − ⎟ n ⎠⎝ n⎠ ⎝ n ⎠ ⎝ f x (x) = (1 − p )x µx ⋅ (1 − p )n x! Ahora, expresemos (1 – p)n en la forma: (1 − p ) n 1 − ⎤ ⎡ = ⎢(1 − p ) p ⎥ ⎦ ⎣ − np 1 − ⎤ ⎡ = ⎢(1 − p ) p ⎥ ⎦ ⎣ −µ Además, según la definición del número e, ⇒ Lim (1 + Z )1 Z = e z →0 Por lo tanto, haciendo Z = - p [ Lim (1 − p )−1 p p→0 ] −µ =e ⇒ −µ ⎛ 1 ⎞⎛ 2 ⎞ ⎛ x − 1 ⎞ ⎜1 − ⎟⎜1 − ⎟...⎜1 − ⎟ n ⎠ Lim ⎝ n ⎠⎝ n ⎠ ⎝ =1 n→∞ (1 − p )x Además : Porque p → 0 y n → ∞, cuando µ = np es constante, luego la expresión queda: x fx µ ⋅e ( x) = X! −µ ; X : 0,1,2,... 3.1.3.3 EJERCICIOS 1. Un cuadro de teléfonos atiende un promedio de 600 llamadas durante una hora de aglomeración. El cuadro puede hacer un máximo de 20 conexiones por minuto. Estímese la probabilidad de que el cuadro quede rebasado en un minuto dado. SOLUCIÓN El cuadro atiende un promedio de llamadas por minuto, igual a: llamadas / hora 60 minutos / hora µ = 600 µ = 10 llamadas por minuto Sea X la variable aleatoria que representa el número de llamadas; entonces, la probabilidad de que el cuadro quede rebasado en un minuto dado es: P ( X > 20) = 1 − P ( X ≤ 20) 20 = 1− ∑ X =0 e −10 ⋅ 10 X X! = 1 − 0.99841 (tablas ) = 0.00159; es decir, que prácticamente el número de llamadas por minuto, no sobrepasan la capacidad máxima del cuadro telefónico. 2. Una compañía de seguros, halla que el 0.005% de la población, fallece cada año en cierto tipo de accidente. Cuál es la probabilidad de que la compañía tenga que pagar a más de 3 de sus 10.000 asegurados, contra tales accidentes, en un año dado? Sea p : Probabilidad de fallecer una persona en un año ∴ p = 0.00005 Sea X : Variable aleatoria que representa el número de personas que fallecen en un año dado. n = 10.000 número de asegurados o tamaño de la muestra. Este problema posee la característica de ser Binomial X ~ b(10.000, 0.00005) ) ( x 10.000 − x ⇒ f x ( x) = 10.000 x (0.00005) (0.99995) Cosa que por aquí resultaría muy laborioso, pero basta observar que p es muy pequeño, ( p → 0), y n es muy grande, (n → ∞); luego podemos resolver el problema aproximándolo a la distribución de Poisson; ∴ µ = n ⋅ p ⇒ µ = 10.000 ⋅ 0.00005 = 0 .5 X~Poisson con µ = 0.5 f x ( x) = ⇒ (0.5) X e−0.5 X! Luego, se pregunta: P ( X > 3) = 1 − P ( X ≤ 3) = 1 − Fx (3), µ = 0.5 µ = 0 .5 µ = 0.5 = 1-0.99825 = 0.00175 (Valor hallado en tablas) Quiere decir, que el riesgo que tiene la compañía aseguradora es casi nulo, o prácticamente ninguno. 3.2 PRINCIPALES DISTRIBUCIONES CONTINUAS 3.2.1 DISTRIBUCIÓN UNIFORME O RECTANGULAR Esta distribución surge, por ejemplo, en el estudio del redondeo de errores cuando las observaciones se registran con cierta precisión. Así por ejemplo, si las observaciones sobre la temperatura diaria se registran redondeadas al grado más próximo, podrá suponerse que la diferencia en grados entre la temperatura real y la registrada es un número que oscila entre –0.5 y 0.5 y que el error se distribuye uniformemente a lo largo de este intervalo. - Deduzcamos la función de densidad de esta distribución: Sean a y b dos números reales, tales que a<b. La variable aleatoria X se distribuye uniformemente en (a,b) si: f x ( x) = K Para todo X ∈ (a, b) f x ( x) = 0 Para todo X ∉ (a, b) Determinemos, ahora el valor de K ⇒ como f x ( x) = K ∀ X ∈ (a, b) ⇒ b ∫ b f ( x)dx = 1 ⇒ a ∫ Kdx = 1 a K (b − a ) = 1 K= 1 ; luego, la función de densidad de la distribución b−a uniforme es: f x ( x) = 1 para a < x < b b−a 3.2.1.1 CARACTERÍSTICAS DE LA DISTRIBUCIÓN UNIFORME 1. FUNCIÓN GENERATRIZ DE MOMENTOS: Mx(t) ( ) ∞ tx M x (t ) = E e = a ∫e tx ⋅ f x ( x)dx −∞ ∞ b ⎛ 1 ⎞ tx M x (t ) = ∫ 0dx + ∫ ⎜ ⎟ ⋅ e dx + ∫ 0dx − b a ⎝ ⎠ a b −∞ b M x (t ) = 1 1 tx dx = e ∫ b−a a t (b − a ) [(e bt −e at )] bt at −e e M x (t ) = t (b − a ) 2. ESPERANZA: E(X) ∞ a ∞ b b 1 ⎛ 1 ⎞ E ( X ) = ∫ X ⋅ f x ( x) ⋅ dx = ∫ 0dx + ∫ X ⎜ X ⋅ dx ⎟dx + ∫ 0 ⋅ dx = b − a ∫a ⎝b−a⎠ −∞ −∞ a b E( X ) = = 1 ⋅X2 2(b − a ) ] b a = b2 − a2 2(b − a ) (b − a ) ⋅ (b + a ) = a + b 2(b − a ) Luego E ( X ) = 2 a+b 2 3. VARIANZA: Var(x) = 2 σX Var ( x) = E ( x 2 ) − [E ( X )] 2 ∞ 2 ∫ X ⋅ f x ( x)dx = ∴ E( X 2 ) = −∞ ∴ E( X 2 ) = 1 X3 3(b − a ) ] b a = a ∞ b b 1 ⎞ 1 2 2⎛ 2 2 ∫−∞ X ⋅ 0dx + ∫a X ⎜⎝ b − a ⎟⎠dx + ∫b X ⋅ 0 ⋅ dx = b − a ∫a X dx b3 − a 3 3(b − a ) ( b − a )(b 2 + ab + a 2 ) b 2 + ab + a 2 = = 3(b − a ) ⇒ E( X 2 ) = 3 b 2 + ab + a 2 3 Luego, b 2 + ab + a 2 (a + b ) − Var ( x) = 3 4 2 4a 2 + 4ab + 4b 2 − 3a 2 − 6ab − 3b 2 Var ( x) = 12 a 2 − 2ab + b 2 (a − b ) = Var ( x) = 12 12 2 2 ( a − b) Var ( x) = 12 4. FUNCIÓN DE DISTRIBUCIÓN ACUMULATIVA FX(x) ∴ X~U(a, b) ⇒ Por definición FX(x) = P ( X ≤ x) ⎧0 ⎪ ∴ Fx ( x) = ⎨ ⎪1 ⎩ si x<a si x<b x Fx (x) = P(X ≤ x) = ∫ f(u)du = −∞ a = x 1 ⋅ du − b a a ∫ 0 ⋅ du + ∫ −∞ = Fx ( x) = x−a 1 ⋅ u ]ax = b−a b−a x−a Para a < x < b b−a Fx ( x) = 0 3.2.1.2 Para X ∉ ( a, b) EJEMPLO Una empresa tiene una curva de costos dada por la función C=1.000+2x; siendo X el número de artículos. En el mercado vende cada unidad a $5. La demanda de artículos es uniforme entre 25.000 y 30.000 unidades. Cuál es el beneficio esperado? SOLUCIÓN: X: Variable aleatoria que nos representa la demanda de los artículos ∴X ~ U (25.000; 30.000); 12 Sea B: El beneficio o utilidad, donde la función de utilidad la establecemos de la forma, ventas totales, menos, costos totales, así: B = 5X – (1.000 + 2.X) ∴ B = 3 X − 1.000 Luego, el beneficio esperado es: E ( B ) = E (3 X − 1000) = 3E ( x) − 1000 ⎛ 25.000 + 30.000 ⎞ E ( B ) = 3⎜ ⎟ − 1000 2 ⎝ ⎠ E ( B ) = 81.500 3.2.2 DISTRIBUCIÓN NORMAL (0, 1 ) : n(0, 1) Una variable aleatoria Z, se dice que tiene una distribución normal (0, 1), si su función de densidad, está dada por: f z ( x) = 12 1 2π ⋅e 1 − X2 2 −∞ < x < ∞ Léase, X “se distribuye uniforme” en el intervalo ...) El siguiente tipo de integrales que mencionaremos, son fundamentales para el desarrollo y pruebas de distribuciones continuas, como la normal, chi_cuadrado, T de student, entre otras , ellas son: ∞ ∫X p −1 ⋅e − ax γ ( p) ⋅ dx = ap 0 ∞ 2 p −1 ∫ X ⋅e − ax 2 ⋅ dx = 0 : Euleriana de primer orden γ ( p) : Euleriana de segundo orden 2a p ∴ γ ( p ) = ( p − 1)γ ( p − 1) = ( p − 1) ⋅ ( p − 2 )γ ( p − 2 ) p > 0 γ ( p ) = ( p − 1) ∀p ∈ Z + y γ (1 2 ) = π (Por definición) Probemos ahora sí, si f z ( x) = ∫ 2. −∞ = ∞ f ( x)dx = 1 ⇒ ∫ −∞ 2 2π ∞ ( −1 2 ) X 2 ∫e 0 2π ( −1 2 ) X 2 e , es función de densidad: ∀ X ∈ (− ∞, ∞ ) 1. Obvio que f z ( x) > 0 ∞ 1 1 2π ⋅ dx = ( −1 2 ) X 2 e 2 2π × dx γ (1 2) ⎛1⎞ 2⎜ ⎟ ⎝2⎠ 1 2 = π⋅ 2 =1 2π ∴ 2 p − 1 = 0 ⇒ p = 1 2 y, a = 1 2 Luego, fz(x) si es función de densidad. 3.2.2.1 CARACTERÍSTICAS DE LA NORMAL (0, 1) : n(0 , 1 ) 1. FUNCIÓN GENERATRIZ DE MOMENTOS: Mz(t) Operemos el exponente, de la siguiente forma: La integral es una Euleriana de Segundo Orden es la f.g.m.13 de z ~ n(0,1) Empleando la técnica de la función de distribución acumulativa Fx(x) hallemos la función de densidad Fx(x) para C ~ h ( m , s2) 14 x − µ⎤ ⎡ Fx x = P[ X ≤ x ] = P[zσ + µ ≤ x ] = P ⎢ z + ≤ σ ⎥⎦ ⎣ x− µ 1 1 −2 z ⎛ x− µ⎞ ∴ Fz ⎜ e dz ⎟ = Fx ( z ) = ∫− ∞σ 2π ⎝ σ ⎠ x−µ ∴z = σ ∴ f z′ ( z ) = Función de Densidad ⇒ 2 Por teorema del cálculo integral sabemos que: 13 f.g.m.: léase como función generatriz de momentos ⎡ x− µ 1 − 1 z 2 ⎤ e 2 dz ⎥ ⎢∫ σ −∞ 2π ⎥ = f ( z ) ⋅ µ ′( x ), luego d⎢ ⎥ ⎢ dX ⎢ ⎥ ⎢⎣ ⎥⎦ 1 2 Fx′ ( x ) = 1 −2 z 1 ⋅ ;⇒ e σ 2π f x (x ) = − ⎜ 1 ⋅ e 2⎝ 2π ⋅ σ 1 ⎛ x− µ ⎞ ⎟ σ ⎠ 2 ; −∞< x <∞ −∞< µ <∞ 3.2.2.2 CARACTERÍSTICAS PRINCIPALES 1. Función generatriz de momentos MX(t) [ ] [ ] [ = e ⋅ E [e ( ) ] = e ⋅ M M x (t ) = E e tx = E e t ( zσ + µ ) = E e t σ z ⋅ e µ t µt =e µt tσ z 1 2 2 t σ 2 ⋅e = µt 1 µ t + t 2σ 2 e z ] (tσ ) = M x (t ) 2. Función característica ϕ z( θ ) [ ] ϕ z (θ ) = E e i θ z haciendo t =iθ en la f.g.m. luego ϕ z (θ ) = 1 2 2 i θ 2 e ϕ z (θ ) = 1 − θ2 2 e = 1 − θ2 2 e ∴ Z ∼ η(0,1) 3. Esperanza: Ε[Ζ] Ε[Ζ] = Μ´z (t = 0) ∴ Μ´´ z (t ) = 1 ∴ Ε[Ζ] = Μ´z (t = 0) = 0 x e 2 1 2 t t.e 2 ( 0) 2 =0 Ε[Ζ] = 0 : media de la distribución η (0,1) 4. varianza : VAR (Z) = σ z2 14 Léase C se distribuye normal m , s2 [ ] VAR[Ζ ] = E Z 2 − E [(Z )]2 = M ′z′ (t = 0 ) − {M ′z (t = 0 )}2 ∴ Μ ′z′(t) = 1 2 (t) 2 e + 1 2 t 2 2 t e ⇒ VAR[Ζ ] = 1 − 0 = 1 [ ] ∴ E Z 2 = M z′′ (t = 0 ) = 1 3.2.3 DISTRIBUCION NORMAL CON MEDIA µ y VARIANZA σ 2 : η ( µ , σ 2 ) Sabemos que Ζ , variable aleatoria que se distribuye η (0,1) Decimos que la v.a12 Χ se distribuye η ( µ , σ 2 ) , si Χ = Ζσ + µ ∴σ > 0 para − ∞ < µ < ∞ y − ∞ < X < ∞ 2. Función Característica : ϕ x (θ ) Hacemos t= i θ en Μ x ( t ) a ϕ x ( θ ) = 1 i θ µ − σ 2θ 2 2 e 3. Media de la distribución Μ´ x ( t ) = ( µ + tσ )e 2 1 2 2 σ t 2 µt+ a Ε[x ] = Μ´x (t = 0) = µ 4 Varianza de la distribución : VAR( X ) = σ x 2 [ ∴ VAR( X ) = Ε( x 2 ) − [Ε( x)] = Μ´´x (t = 0) − Μ´( x ) (t = 0) 2 ∴ Μ´´ x ( t ) = σ .e 2 1 2 µ t + σ 2t 2 + ( µ + σ t )e a Μ´´x (t = 0) = σ 2 + µ 2 ; luego : VAR( X ) = σ x + µ 2 − µ 2 = σ x 2 12 léase variable aleatoria 2 2 2 1 2 µ t + σ 2t 2 ] 2 5. Forma de la curva de la distribución normal. Curva normal Las figuras muestran varias curvas de distribución de σ e idénticos valores de µ . normal con diferentes valores Al cambiar µ con σ constante, la forma de la curva no cambia, se correrá únicamente hacia la izquierda o hacia la derecha. Sobre la curva de la distribución normal ( ( µ ,σ 2 ) podemos afirmar: 1. Es simétrica respecto a la línea x = µ 2. Tiene un punto de máxima en x = µ 3. Tiene como asíntota horizontal al eje x 4. Presenta dos puntos de inflexión, en: x= µ − σ y µ + σ 5. La media, la moda y la mediana coinciden 6. El área comprendida entre dos puntos de inflexión, µ − σ y µ + σ ; es aproximadamente el 68 % en el área total. 7. El área comprendida entre µ − 2σ y µ + 2σ es aproximadamente el 95.4% del área total y el área comprendida entre µ − 3σ y µ + 3σ es aproximadamente el 99.7 % del área total. 3.2.4 Distribución JI dos con un grado de libertad : X (21 ) Sea X una v.a normal(0,1). Consideremos la variable Y = Χ 2 . Encontremos su función de densidad sea Fy (x) la función de distribución de Y, (∴ obviamente los valores de Χ deben ser positivos), a ] [ [ Fy (x) = P[ y ≤ x ] = Ρ X 2 ≤ x = Ρ − x ≤ x ≤ x x = ∫ −x ] 1 − (µ 2 ) 1 .e 2 .dµ 2π ∴ la función de densidad de Y será fy ( x ) = d d ⎡ Fy ( x) = ⎢ d ( x) d ( x) ⎣⎢ [ ] ∫ x −x 1 1 − 2 (µ 2 ) ⎤ e .dµ ⎥ 2π ⎦⎥ 1 1 −2( e 2π 1 x )2 . 1 − 2 (− d( x) − e dx 2π 1 x )2 . d (− x ) dx 1 − − x 1 .x 2 .e 2 , x > 0 ; es la función densidad de la distribución JI – DOS , 2π ∴ fy ( x ) = con un grado de libertad. Esta variable se simboliza por Χ 2 (1) : 3.2.4.1 Función Generatriz de momentos de la Χ 2 (1) : [ ] [ ] a Μ y (t ) = Μ X 2 (1) = Ε etx ϖ = ety 2 ∞ 1 1 − − x 1 X 2 .e 2 .dx = ∫e . 2π 0 tx ∞ = ∫ 0 1 . 1 − − x (1− 2 t ) x 1 X 2 .e 2 .dx 2π ∴ la integral anterior es una Eureliana de primera especie, se tiene que; 1 1 1 p − 1 = − ⇒ p = y a = (1 − 2t ), luego 2 2 2 1 1 Γ( ) − π. 2 1 2 = 2 Μ x 2 (1) (t ) = t = ( 1 − 2 ) . 1 2π 1 − 2t 12 ) (1 − 2t ) 2 . 2π ( 2 ∴ Μ x 2 (1) (t ) = (1 − 2t ) − 1 2 es la f. g. m de la Χ 2 (1) 3.2.4.2 Función característica de la Χ 2 (1) : ϕ x 2 (1) (θ ) Haciendo t = iθ en ϕ x 2 ( 1 ) ( θ ) = (1 − 2 iθ ) Μ x 2 (1) (t ) obtenemos la función característica así − 1 2 = Ε ⎡e i θ ⎢⎣ x 2(1 ) ⎤ ⎥⎦ 3.2.5 Distribución JI DOS, con n grados de libertad Χ 2 ( n ) consideramos ahora las variables aleatorias : X 1 , X 2 X n ...... Xn Todas las normales (0 , 1) e independientes Deduzcamos su función característica: [ ϕ x 2 ( n ) (θ ) = Ε eiθx 2 (n) ]a definamos primero a Χ 2 n = = X 2 1 + X 2 2 + ..........X 2 n esta nueva variable es la de JI – DOS con n grados de libertad13 como cada X j ∴ J = 1,2,......n; es una X 2 (1) , entonces la X 2 ( n ) es la suma de n X 2 (1) independientes. Luego: [ ϕ x 2 ( n ) ( θ ) = Ε e iθ ( x = Ε ⎡e ⎢⎣ 2 2 2 1 ,x 2 + ..........+ x n ⎤.Ε ⎡e iθx 21 ⎥⎦ ⎢⎣ iθx 21 ) ] ⎤(......)Ε ⎡e iθx 2 n ⎤ ⎥⎦ ⎢⎣ ⎥⎦ por ser independiente 1 iθx 2 pero cada Ε ⎡e J ⎤ = (1 - 2iθ ) 2 ∴ J = 1,2, ........ , n ⎥⎦ ⎢⎣ a ϕ x 2 ( n ) (θ ) = (1-2i θ ) − n 2 , ahora, retomando la función característica, encontramos la función de densidad de la X 2 ( n ) sea f x 2 ( n ) ( x) la función de densidad de la X 2 ( n ) . Por definición de función característica se cumple que: ϕ x 2 ( n ) (θ ) =(1-2i θ ) − n 2 iθx 2 ( n ) ⎤ ,= Ε ⎡e = ⎢⎣ ⎥⎦ ∞ ∫e iσx . . f x 2 ( n ) d ( x) (A) 0 por otra parte sabemos que: ∞ ∫∂ 0 13 p −1 .e − a.∂ .d∂ = Γ( p ) ap Los grados de libertad de g l , es el numero de variables aleatorias independientes. ∞ 1 Γ(p) 1 = z p −1 .e − az .dz = p p a Γ(p) 0 a ∫ En la integral anterior hagamos: a = 1− 2iθ y p = ∞ n 2 n −1 1 2 .e −(1− 2i σ) z .dz a = z n n ∫ Γ( )0 (1 − 2 θ i) 2 2 1 Apliquemos cambio de variable, así: Sea 2z = x a z = ( 1 − 2 i θ) − ∞ n 2 =∫ 0 ∞ = ∫ 0 x 1 a dz = dz a 2 2 n −1 χ2 1 . n .e n 2 Γ( ) 2 2 −1 2 n 1 n 2Γ ( ) 2 −1 − − x 2 .e i θ x dx x .χ 2 .e 2 .eiθx dx (B) ∞ ∫ = eiσx . f x 2 ( n ) ( x)dx (A) 0 comparando (A) y (B), para cada x se tiene que ∞ ∫e i θx 0 ∞ .f x 2 (x)dx = ∫ (n) 0 1 n 22 n Γ( ) 2 n x −1 − 2 2 .χ .e .e i θ x dx como existe una relación biunívoca entre la función característica y la función densidad . a f x 2 (x)dx = (n) 1 n 22 n Γ( ) 2 n x −1 − 2 2 χ .e ; x>0 La distribución de la χ 2 ( n ) esta dada por: ∞ f x 2 ( n ) ( x) = ∫ n 1 n n 0 2 2 Γ( ) −1 .µ 2 .e − µ 2d µ 2 3.2.5.1 Momentos de la χ 2 ( n ) : ya vimos que la f. g. m de la χ 2 ( n ) es: Μ x 2 ( n ) (t ) = (1 − 2t ) − n 2 a n n − −1 − −1 n Μ x 2 ( n ) (t ) = − (−2)(1 − 2t ) 2 = n(1 − 2t ) 2 2 n 2 Μ x 2 ( n ) (t ) = 2n( + 1)(1 − 2t ) n − −2 2 = n(n + 2)(1 − 2t ) n − −2 2 ∴ Μ x 2 ( n ) (t = 0) = n =∝1 : es el momento de orden 1 con respecto Al origen ∴ ∝1 = µ ∴ Μ x 2 ( n ) (t = 0) = n = (n + 2) =∝ 2 es el momento de orden 2 con respecto al origen ∝ 2 = Ε( χ 2 ) luego la varianza de la χ 2 ( n ) es: ν 2χ 2 (n) =∝ 2 −(∝1 ) 2 = n(n + 2) − n 2 = 2n a ν 2 χ 2 ( n ) = 2n vemos así que en la variable aleatoria χ 2 ( n ) , la media de µ coincide con el numero de grados de libertad y la varianza es dos veces este numero. DISTRIBUCION t DE ESTUDENT Sean: X , X 1 , X 2 X 3 ...... Xn variables aleatorias independiente todas las normales (0,ν ) ; se define la variable aleatoria t con n. g. l , Así: Χ t(n) = 1 2 (x 1 + x 2 2 + .......x 2 n ) n encontremos la función de densidad de la t( n ) , pero antes, definamos la variable , Υ así : Y= Χ 1 2 (x (1) + x 2 (2) + .......x 2 (n) ) ⇒ t(n) = Υ n como Χµη (0,ν ) ; su función de densidad es: 1 x2 − . 2 1 f x ( x) = e 2ν ν 2π La variable aleatoria Υ , se puede expresar de la siguiente forma Υ= x 2 (n) σ 2 x 2 (1) x 2 (2) x 2 (3) ( + 2 + 2 + ............... + 2 ) n σ2 σ σ σ Pero como cada xi es normal (0, σ) ; entonces xi , entonces es normal (0,1) a σ ⎡ x 2 (1) x 2 (2) x 2 (3) x 2 (n) ⎤ , , .......... ..... , ηχ 2 ( n ) ; luego; + + ⎢ 2 2 2 2 ⎥ σ σ σ ⎦ ⎣ σ σ2 2 Y= ⋅ x(n) n ⎤ ⎡ σ2 2 χ (n) ≤ y ⎥ ⎥⎦ ⎢⎣ n ∴ FY (y) = Ρ[Υ ≤ y ] = Ρ ⎢ ⎡σ 2 2 ⎤ n ⎡ ⎤ = Ρ⎢ χ ( n ) ≤ y 2 ⎥ = Ρ⎢χ 2( n ) ≤ 2 y 2 ⎥ σ ⎣ ⎦ ⎣ n ⎦ Fχ 2 ( (n) n 2 y ) σ2 sabemos que F χ 2 a FY (y) = (n) n 22 n Γ( ) 2 n 1 n . 2 2 Γ( n 1 n ) 2 ⋅ ∫σ 2 y2 0 ∫0σ 2 n −1 µ2 y2 ⋅e n −1 µ2 − ⋅e − µ 2 dµ µ 2 dµ La función de densidad de Υ será, por tanto: n n µ d 2 y 2 2 −1 − 2 f Y (y) = F´Y (y) = n µ .e dµ dy ∫0 . n 2 2 Γ( ) 2 1 = 1 .( n n ν 2 τ( ) 2 n . 2 2 n −1 2 2 y ) .e 1 n − . 2 y2 2ν . 2n ν2 .y n n 2( ) 2 − n y 2 2 2 e. 2σ y n −1 f Y (y) = n σ 2 Γ( ) 2 Ahora la función de densidad conjunta ( ( Χ, Υ ) , está dada por f x , y ( x. y ) = f x ( x). f y ( y ) n f x, y (x.y) = = K.y n −1 .e − 1 e σ 2π 1 ny 2 + x 2 2 ν2 1 x2 − 2 2σ n 2 − 2y n 2( ) 2 .e 2σ y.n −1 . 2 n σ n Γ( ) 2 ; − ∞ < x < ∞;0 < y < ∞ n ∴K = n 2( ) 2 2 n σ n +1 2π Γ( ) 2 Llamemos Ft ( n ) ( z ) a la función de distribución de la v.a t ⎡x ⎤ Ft ( n ) ( z ) = Ρ t( n ) ≤ Z = Ρ ⎢ ≤ Z ⎥ = ∫ ⎣y ⎦ e [ ] ∫ f ( x, y)dxdy la región C es aquel recinto de la distribución conjunta en donde donde x ≤ yz ) ∴ − ∞ < z < ∞ veamos la gráfica a Ftn ( z ) = K ∫ z. y 0 y n −1.e 1 ny 2 + x 2 − . 2 ν2 Hagamos el siguiente cambio en las variables: ∂x x = µ ⋅ v⎫ ∂µ ⎬ ⇒ J = ∂y y=v ⎭ ∂µ ∂x ∂v v = ∂y 0 ∂v ⇒ v = v; ya que v = y ; y ≥ o µ =v 1 x ≤ Z ; (o sea, y ⇒ dxdy = vdu.dv ∴ Los limites son: Para V, igual que para Y:(0,∞) x con v fijo, x → −∞ ⇒ µ → −∞ v z. y ⎧ ⎪µ = ∴ x = z.y ⇒ ⎨ v ⎪⎩= z Para µ = Ft(n) (z) = K ∫ ∞ z 0 ⎧ = K∫ ⎨ −∞ ⎩ z ∞ ∫0 V ∫−∞V n .e n −1 .e 1 nV 2 + µ.V 2 − . 2 σ2 1 n+ µ2 − . 2 ⋅v 2 2 σ .V.dµV.d ⎫ dV ⎬.dµ ⎭ La integral “entre llaves” es una eureliana de segundo orden, donde : 2p-1 =n n+1 n + µ2 ⇒Ρ= ∧a= 2 2σ 2 ∞ ⇒ ∫ V n .e 1 n+ µ2 − . 2 ⋅v 2 2 σ 0 n +1 ) 2 Ft ( n ) ( z ) = n nπ τ ( ) 2 τ( ∫ n+1 ) z dµ 2 .dv = .∫ 2 n +1 − ∞ n+ µ µ2 2 2( ) (1 + ) 2σ 2 n Γ( du z −∞ (1 + µ2 n ) n +1 2 Esta función de distribución de la “t” con n, n.gl . Su función de densidad, será entonces: n +1 ) 1 2 ;−∞ < x < ∞ . f t ( n ) ( x) = 2 n +1 n nπ τ ( ) (1 + x ) 2 2 n τ( 3.2.7 DISTRIBUCCION F DE SNEDECOR: Sean χ1, χ 2,........... χ m ; y1 , y2,.......... yn ; (m+n) variables aleatorias independientes normales (0,ν ); se define la variable aleatoria F de snedecor con (m,n) g , l como: 1 2 ( χ1 + χ 22 + .............. + χ m2 ) Χ m F= ⇒F= 1 2 Υ ( y1 + y22 + .............. + yn2 ) n 1 2 1 ( χ1 + χ 22 + .............. + χ m2 ) ∧ ( y12 + y22 + .............. + yn2 ) m n ∴Χ = Para determinar la función de densidad F, encontremos antes las distribuciones de Χ eΥ . a Función de distribución de Χ sea: Χ = x ⎤ ν 2 ⎡ x1 2 ( ) + ........... + (( m ) 2 ⎥ ⎢ m⎣ ν ν ⎦ Como cada x1ηµ (0,ν ) ; los a Χ1= ν2 m xi ν ηµ (0,1) χ (2m ) ∴ ⎡ν 2 ⎤ m ⎤ m ⎡ a Fx ( x) = Ρ[Χ ≤ x ] = Ρ ⎢ χ (2m ) ≤ x ⎥ = Ρ ⎢ χ (2m ) ≤ x ⎥ = F x 2 ( m ) ( .x) ν ν m ⎣ ⎦ ⎣ ⎦ = 1 m 22 m τ( ) 2 ∫ m ν2 0 x µ m 1 −1 − µ 2 .e 2 .du m 1 m −1 − 2 x m m ⇒ f x (x) = F´ x (x) = m .( 2 x) 2 .e 2 σ . 2 σ σ m 2 2 Γ( ) 2 1 m m m m ( )2 −1 − 2 x 2 ⇒ f x (x) = .χ 2 .e 2σ Para 0 < x < ∞ m m σ Γ( ) 2 en forma similar obtenemos a f y ( y ) ∴ n n n n ( )2 −1 − 2 .y 2 2σ 2 f y (y) = .y .e ; para 0 < y < ∞ n n σ Γ( ) 2 por la independencia entre x , y ; su densidad conjunta es: f ( x , y ) = f x ( x). f y ( y ) para 0 < x, y < ∞ ⇒ f (x, y) = K.X m 1 m n −1 −1 − 2 ((mx + ny)) 2 y 2 .e 2σ n m n ( ) 2 .( ) 2 2 2 ∴K = m n m + n. ν τ ( ).τ ( ) 2 2 ahora la función de distribución F es: ⎡Χ ⎤ F( F ) ( z ) = Ρ[F ≤ z ] = Ρ ⎢ ≤ z ⎥ = ⎣Υ ⎦ ∫ ∫ f ( x, y)dxdy R ∴ R es la región en donde Χ ≤ yz ; como especificamos en la siguiente gráfica: F( F ) ( z ) = K Z ∫ ∫ 0 zy 0 χ m −1 2 1 n ( mx + ny ) −1 − 2 σ 2 2 . y .e dydy hacemos las variables, así x = µ .v y=v vµ ⎫ = v a j = V =V ⎬ ⇒J= 0,1 ⎭ a dxdy = Vdudv Encontremos los limites: Para V, son los mismos para y ⇒ V ∈ (0, ∞) x , para x = 0 → µ = 0 V Para x = zy → µ = z Para µ =; µ = F( F ) ( z ) = K z = K∫ µ 0 Z ∞ 0 0 ∫ ∫ ( µ .V ) m −1 2 n −1 .V 2 .e m+ n mµ + n m ⎡ .V ∞ 2 −1 − −1 2 2 ⎢ V .e 2ν ⎢0 ⎣ ∫ − 1 2ν 2 ( mµV + nV ) VdVdµ ⎤ ⎥ dµ ⎥ ⎦ la integral entre llaves es una Euleriana de primer orden, así P −1 = m +1 m.µ + n −1∧ a = 2 2 m + n) τ( ⎧ ⎫ 2 Luego: ⎨ ⎬ = = m+n + µ m n ⎩ ⎭ 2 ( ) 2ν 2 ( ⎧ ⎫ ⎨ ⎬=2 ⎩ ⎭ m + n) 2 ν − m+n τ( )( µ .m + n) 2 m+n m+n 2 Entonces la función de distribución de la F de snedecor es: m n m n m+n m n m+n ( ) 2 .( ) 2 .2 2 .2 2 .σ m + µ Γ( ) z m −1(mµ + n)− 2 2 2 FF (z) = 2 dµ ∫0 µ 2 m n Γ( )Γ ( ) 2 2 Simplificando la constante y derivado la integral con respecto a z, y cambiando z por x, la función de densidad de la F con (m , n) g , l , será en definitiva: f (x) = m n 2 m .n 2 m+n m+2 ) m −1 − 2 2 χ (mx + n) 2 y x > 0 m n Γ( )ΓΓ ) 2 2 Γ( Volvamos a la definición de la V , a F (m, n) : ∴ F(m, n) = 1 m 2 ∑ xi m 1 n 1 yi2 ∑ n 1 ⇒ 1 F(m,n) = 1 n 2 ∑ yi n 1 1 m 2 ∑ Xi m 1 = F(n, m) Esto significa que el inverso de una F con (m, n) g , l es una F con (n, m) g , l . En el manejo de tablas es muy útil esta propiedad, ya que: ⎡ 1 1⎤ 1⎤ ⎡ Ρ f ( m, n ) ≤ x = Ρ ⎢ ≥ ⎥ = Ρ ⎢ f ( n, m ) ≥ ⎥ x⎦ ⎣ ⎣⎢ f ( m , n ) x ⎥⎦ [ ] 3.2.8 TEOREMA CENTRAL DEL LIMITE (De Lindeberg y levy) sea {xi } = {x1 , x2 , x3 .......} una sucesión de variables aleatorias independeintes e igualmente distribuidas con medias µ y varianzas σ 2 finitas. A partir de esta sucesión podemos definir otra así ⎧ ⎫ {y n } = ⎪⎨ S n − Ε(S n ) ⎪⎬ ⎪⎩ σ sn ⎪⎭ con S n = x1 + x2 + ................ + xn entonces la suceción normal (0,1) {yn } converge en distribución a una variable aleatoria Z Esta forma es aplicable en aquellos casos en los cuales debamos encontrar probabilidaes relativas a la suma de n variables aleatorias con n grande sí S n = x1 + x2 + ................ + xn y las distribuidas , (n grande), entonces: xi a S n aproxima η {E ( S n ); so independientes e igualmente σ sn } 3.2.9 TEOREMA DE MOIVRE : Sea {xn } = {x1 , x2 , x3 .......xn...........} una sucesión de (n,p); entonces la sucesión, ⎧ ⎫ ⎪⎩ n. p.q ⎪⎭ v.a. independientes binomiales {yn } = ⎪⎨ χ n − n. p ⎪⎬ , converge en distribucion a una variable aleatoria zµη ( 0,1). Este teorema, es un caso partucular del T.C.L14 En efecto, ∀n a χ n = B1 + B2 + ..........Bn con independientes entre si cada Bin b (1 , p) ∴ las bi son ⇒ np = Ε(xn ); n.p.q = σ xn ⇒ y(n) xn − E(xn ) σ xn las y( n ) cumplen con las hipótesis del T.L.C al igual que en el teorema de moivre es aplicable para binomiales (n, p , con “n” grande: Si X η b (n,p) con n grande a 14 Léase T.C.L. como teorema central de limite. S n aproxima η (n.p; n. p.q ) 3.2.10 Ejercicios Ilustremos las aplicaciones de estos teoremas, con algunos ejemplos: 1. Sea x la media de una muestra aleatoria tamaño n= 100 de la distribución χ 502 encontrar, en forma aproximada el valor de P(49 < x < 51). Solucion : x = 1 2 ( x1 + ..........xn ) cada xi N χ 50 e independientes n η ( µ ,ν ) ; por T.L.C a ( x1 + ..........x100 donde µ = 100E ( xi ) = 100 x 50 = 5000 ∴ x1 + x 2 + .......... + x100 ∼ η a xµ ( (5000,100) 5000 100 ; ) 100 100 a x µ (50,1) a Ρ(49 < x < 51) = Ρ( 49 − 50 51 − 50 <Z < )= 1 1 a Ρ(−1 < z < 1) = 0.6826 = η (1) − η (−1) 1 3 encontrar un valor aproximado de Ρ(22 ≤ Υ ≤ 28) 2. sea Υ una variable aleatoria binomial (72; =) solución 1 Ε(Υ ) = 72. = 24 = n. p 3 2 σ 2y = 24. = n.p.q = 16 3 a Υ ∧ η (24,4) ; Por teorema de Moivre a Ρ(22 ≤ Υ ≤ 28) = Ρ(21.5 ≤ Υ ≤ 28.5) , usando corrección para variable de V.A discreta = Ρ( 21.5 − 24 28.5 − 24 <Z < ) = 4 4 Ρ(−0.625 < z < 1.125) = 0.6042. 1 2 3. sea Υ ∧ b(100, ) encuentre P(y = 50) solución: E(y) =100 1 1 = 50 ∴ ν 2 = 50 = 25 2 2 a Υ ∧ η (50;5) ; por teorema de moivre a Ρ( y = 50) = Ρ(49.5 < y < 50.5) usando la correción para V.A .D = Ρ( 49.5 − 50 50.5 − 50 <Z < )= 5 5 = Ρ( −0.1 < Z < 0.1) = 0.0796 = η (0.1) − η (−0,1) 4. La venta diaria de ua fábrica de cierto articulo, tiene una distribución uniforme entre 20 y 40 artículos . Que probabilidad tiene la fábrica de vender más de 6370 artículos en 182 días. Solución sea Χ la venta total en los 182 días ⇒ Χ = x1 + x2 + .......... + x182 ; donde xi es la venta en el día i- ésimo. ∴ x i ∼ uniforme (20, 40) ∴ f( x) = 1 1 = ; para X ∈ (20,40) 20 b − a a E ( xi ) = 30 40 ∴ Ε(xi2 1 40 2 x3 ⎤ 56000 2800 = = = )= x dx ⎥ ∫ 20 20 60 ⎦ 20 60 3 ∴ σ x21 = 2800 100 − (30)2 = 3 3 ⇒ Ε(x) = 182. Ε(xi ) = 182.30 = 5460 ⇒ σ x2 = 182.σ x2i = 182. ⇒ Χ ∼ η (5460; Ρ( x > 6370) = Ρ( Z > 100 18200 = 3 3 18200 ) ; luego 3 6370 − 5460 )= 18200 3 P(Z > 11.8 ) = 0 Es casi imposible que la venta en 182 dias supere los 6370 articulos 5. una persona acostumbra participar en un juego en las cuales sus probabilidades de ganar y perder son iguales. Siempre que gana una partida recibe $ 5 y siempre que pierde paga # 5. Un día se dirige al sitio de juego con la intension de jugar 400 partidas. ¿Que cantidad de dinero debe llevar si quiere tener probabilidad de 0.95, de hacer frente a sus posibles perdidas? Solución Sea Χ i la V.A que indica la perdida en la partida i - ésima? a Χ = x1 + x2 + ........ + x400 es la perdida total en las 400 partidas Ρ( xi = 5) = a Ε( xi2 ) = 52 1 2 ∧ Ρ( xi = −5) = 1 1 50 + ( −5) 2 = = 25 2 2 2 1 2 al menos una ⇒ σ xi2 = 25 − 0 = 25 = 5 2 luego, Ε( x) = 400 E ( xi ) = 0 σ x2 = 400σ xi2 = 400.5 2 = 10.000 ⇒ Χ ∼ η (0;100) ; por T.C.L Sea K las cantidad que debe llevar, de modo que Ρ( x ≤ k ) = 0.95 a Ρ( x ≤ a k ) = 0.95 100 k = 1.645 a k = 164.50 100 a debe llevar $ 164.50 6. Demuestre que si x1 , x 2 ,........, x n son V.A independiente e igualmente distribuidas f x ( x) = 2 x para 0 ≤ x ≤ 1 ; entonces: n ⎡ − +k Ρ ⎢ x1 , x2 ......... + xn ≤ e 2 ⎣⎢ n ⎤ ⎥ = F ( 2k ); con f ( x) ⎦⎥ funcion de distribucion η (0,1). Suponga n grande. Solucion: n ⎡ − +k Ρ ⎢[x1 ........x n ] ≤ e 2 ⎢⎣ n ⎤ n ⎡ ⎤ ⎥ = Ρ ⎢l nx1 + l nx2 + .........l nxn ≤ − + k n ⎥ 2 ⎣ ⎦ ⎥⎦ sea Χ 1 = l nx1 + l nx2 + .........l nxn las variables l nx son igualmente distribuidas e independientes: i Ε( Ln xi ) = 1 ∫l 0 n x.2 xdx 1 = − ; resolviendo por parte 2 2 ∴ Ε(Ln xi ) = ⇒ σ l2xi = 1 ∫0 ( l n x) .2xdx = 1 2 1 1 2 1 1 − ( − )2 = − = 2 2 4 4 4 1 2 luego: Ε( x) = n(− ) = − σ x2 = 2 n 2 n n n ; luego x ∼ η (- ; ) 2 2 4 n a Ρ( X ≤ − + k n ) = Ρ( Z ≤ 2 − = Ρ( Z ≤ 2k ) = F (2k ) . l.q.qd . n n +k n + 2 2) n 2 BIBLIOGRAFIA BERENSON , Mark y LEVINE David. 1987 “ Estadística para Administración y Economía”.Interamericana. BLANCO, Castañeda Liliana. 2004. "Probabilidad". Unibiblos. Universidad Nacional de Colombia. FELLER , William.1985. “ Introducción a la Teoría de Probabilidades y sus Aplicaciones”. Limusa. Méjico, KENETT, Ron; SHELEMYAHU, Zacks. 2000. ”Estadística Industrial Moderna”.International Thomson Editores.Méjico. LOPES, Paulo Alfonso.1999 ”Probabilidad y Estadística”. Prentice-Hall. Bogotá MASON ,Robert y LIND , Douglas.1995. “ Estadística para Administración y Economía”. Alfaomega , Méjico MENDENHALL, William; SINCICH, Ferry.1997 .”Probabilidad y Estadística para Ingeniería y Ciencias”.Prentice-Hall Hispanoamericana.Méjico. MOOD , Alexander y GRAYBILL , Franklin. 1980. “ Introducción a la Teoría de la Estadística”. Aguilar. Madrid MUÑOZ, Quevedo José María, 2002. "Introducción a la teoría de Conjuntos". Cuarta Edición. Panamericana, formas e impresos S.A. P. L. MEYER. 1992. “ Probabilidad y Aplicaciones Estadísticas”.Adisson Wesley Iberoamericana. SCHEAFFER, Richard L. ; McCLAVE, James T. 1993 “Probabilidad y Estadística para Ingeniería”.Grupo Editorial Iberoamericana.Méjico. WALPOLE , R.E. y MEYER , R.H. 1990. “ Probabilidad y Estadística para Ingenieros”.Interamericana. Méjico, YA LUN CHOU. “ Análisis Estadístico”. Interamericana. Méjico,1985.