1 3.- DISTRIBUCIONES. 1 1.-Variable aleatoria Tenemos un experimento aleatorio, estudiado en el tema anterior, llamamos: E= espacio muestral S= conjunto de sucesos p= probabilidad asociada a cada suceso, es decir: p: S ))))))))> [0,1] a la terna (E,S,p) le llamamos espacio probabilístico. Definición: Llamamos variable aleatoria o variable estocástica X a un aplicación X: E))))))))>R es decir, a toda función que asocia a cada elemento del espacio muestral E un número real. De forma sencilla: es el valor númerico que 'de alguna manera' se asigna a un suceso. El conjunto imagen de la aplicación se llama recorrido de la variable. Suele confundirse variable aleatoria con recorrido. Ejemplos: 1) Tomamos como experimento el lanzar tres monedas al aire. ¿Cúal es su espacio muestral? Definimos la variable aleatoria X, consistente en contar el número de caras que salen en cada tirada. X:E))))))))>R X toma los posibles valores {0,1,2,3}, caras posibles que pueden salir 2) Tomamos como experimento las notas de un examen redondeadas a calificaciones enteras. (Ejemplo realizado en el tema 7). ¿Cúal es su espacio muestral? Definimos la variable aleatoria X en contar el número de alumnos con cada calificación Toma los ejemplos del tema 7 y establece la variable. 3) Mismo experimento del ejemplo anterior, pero tomando las calificaciones en intervalos [0,2).....[8,10]. Definimos la variable aleatoria X en contar el número de alumnos con cada calificación 4) Consideramos el experimento aleatorio que consiste en elegir un alumno del Instituto. Espacio muestral (E) son todos los alumnos. Definimos la variable aleatoria X como medir la estatura de un individuo. 5) Experimento: piezas electricas construidas por una fabrica. Variable aletoria X="tiempo de funcionamiento de una pieza electrica, medida en años". 6)Experimento: Tornillos fabricados por una empresa. Variable aleatoria X=" Medir la longitud (en cm.) de los tornillos construidos". 7) Experimento: nacimientos en un hospital. Variable aleatoria X="Contar el número de ellos que son niñas". IV: Distribuciones 8) Consideramos el experimento de elegir un enfermo en la Residencia. Enuncia variables aleatorias que se te ocurran. 9) Realizamos un juego con el dado de la siguiente manera: si sale 1 ó 2 se cobra 3 ($$). si sale 4,5,6 se cobra 1 si sale 3 se paga 5 Definición: Decimos que una variable aleatoria es discreta cuando solo puede tomar un número finito o infinito numerable de valores. Decimos que una variable aleatoria es continua, cuando puede tomar, al menos teoricamente, todos los valores posibles dentro de un intervalo de la recta real. Ejemplo: clasifica todos los ejemplos anteriores. Consideramos X:E))))))))>R una v.a. y x,R. Se utiliza las siguientes notaciones: [X=x] = {e,E / X(e)=x} [X#x] = {e,E / X(e)#x} [X$x] = {e,E / X(e)$x} estos son subconjuntos de E, y por lo tanto, sucesos. Ejemplos: 1) Continua del ejemplo 9 anterior. [X=-5]={3} [X=3]={1,2} [X=1]={4,5,6} [X=0'5]=0 2) Tomamos como experimento el lanzar tres monedas al aire. ¿Cúal es su espacio muestral? Definimos la variable aleatoria X, consistente en contar el número de caras que salen en cada tirada. X:E))))))))>R X toma los posibles valores {0,1,2,3}, caras posibles que pueden salir. [X=2]={ (c,c,+) (c,+,c) (+,c,c)} [X#1]={ (+,+,+) (c,+,+) (+,c,+) (+,+,c)} IV: Distribuciones 2.-Variable aleatoria discreta Sea el espacio probabilistico (E,S,p) E= espacio muestral S= conjunto de sucesos p= probabilidad asociada a cada suceso, es decir: p: S ))))))))> [0,1] Definición: Llamamos variable aleatoria discreta X a un aplicación X: E))))))))>R y que toma valores en un número finito de números o un número infinito numerable. (Infinito numerable: se puede establecer una aplicación biyectiva entre el conjunto y N.) Ejemplos: Son ejemplos los citados en la pagina 225 con los números 1,2,3,7,9 Vamos a estudiar el ejemplo siguiente en el apartado de variable aleatoria discreta. Experimento: lanzar dos dados Variable aleatoria X="Sumar los números que están en las caras superiores de los dados". E={1,2,3,4,5,6} x {1,2,3,4,5,6} Im (X)={2,3,4,5,6,7,8,9,10,11,12} Resultados posibles de la suma. Utilizamos las notaciones: [X=5] = { (1,4) (4,1) (2,3) (3,2)} [x#3] = [X=2]+[X=3]= { (1,1) (1,2) (2,1) } 2.1.-Función masa de probabilidad Definición: Llamamos función de probabilidad de una variable aleatoria X a la aplicación que asocia a cada valor xi de la variable su probabilidad pi Im (X) ))))))))> R xi ~)))))))> p(xi) = p[X=xi] = pi también se llama función masa de probabilidad de la variable X. La representamos esquematicamente mediante tablas: X x1 x2 .... xn p(X) p1 p2 .... pn bien en este sentido, bien en el sentido vertical (como hicimos en el tema 7). Graficamente se representarán por un diagrama de barras, como se ve a la derecha. IV: Distribuciones Ejemplo: 1) Con el ejemplo de lanzar 2 dados y sumar los resultados, la función de probabilidad será la siguinte: X 2 1 p(X) )) 36 3 4 5 6 7 8 9 10 11 12 2 )) 36 3 ))) 36 4 ))) 36 5 ))) 36 6 ))) 36 5 ))) 36 4 ))) 36 3 ))) 36 2 ))) 36 1 ))) 36 Lanzar 2 dados Probabilidad 0.2 0.15 0.1 0.05 0 2 3 4 5 6 7 8 Suma 9 10 2) Función de probabilidad del ejemplo 9, del juego con dados: si sale 1 ó 2 se cobra 3 ($$). si sale 4,5,6 se cobra 1 si sale 3 se paga 5 la función la podemos representar en tabla X -5 1 3 p(X) 1/6 1/2 1/3 o como una función sobre esos puntos. Propiedades: A) pi $ 0 para todo i=1,2,...,n en efecto, los números pi son todos positivos por ser probabilidades de sucesos. B) p1 + p2 + ... + pn = 1 en efecto, ya que se trata de la probabilidad del suceso seguro. IV: Distribuciones 11 12 2.2.-Función de distribución de una v.a. discreta Vamos a asociarle a una v.a. discreta una función real de varible real que se lama su función de distribución. Es una generalización del concepto de distribución de frecuencias relativas acumuladas. Sea X una aleatoria discreta y sea p una probabilidad definida en E. Definición: La función F: R)))))))>R definida por F(x)=p[X#x] (se lee probabilidad de que X tome un valor # x) se denomina función de distribución de la varible aleatoria X. Es decir, para cada x la función vale la suma acumulada de las probabilidades de todos los casos anteriores a x. También se llama función de distribución acumulativa. +)Q *0 si x < x1 *p(x1) si x1 # x < x2 F(x) = *p(x1)+p(x2) si x2 # x < x3 *....................... .................... *p(x1)+p(x2)+....+p(xn) si xn-1 # x < xn-2 *1 si x $ xn .)Q Aclaraciones: 1) Al ser F(x) igual a una probabilidad, entonces 0#F(x)#1 2) X es el simbolo que representa a una variable aleatoria discreta. 3) x es un valor cualquiera de R. 4) Si x1 , x2 ,....,xn son menores que x: E F(x)=p[X#xn]=p[(X=x1)U(X=x2)U....U(X=xn)] = p[X=x1]+p[X=x2]+...+p[X=xn]= p(xi) Ejemplo: 1) Sigamos con el mismo ejemplo de lanzar 2 dados, su función de distribución será la siguiente: X F(X) 2 3 4 5 6 7 8 9 10 11 12 1 ))) 36 3 ))) 36 6 ))) 36 10 ))) 36 15 ))) 36 21 ))) 36 26 ))) 36 30 ))) 36 33 ))) 36 35 ))) 36 36 ))) 36 donde F(x) representa el valor acumulado. La gráfica de la función, escalonada como todas las funciones de distribución de v.a. IV: Distribuciones Algunos ejemplos de cálculo: F(1)=p[X#1]=0 F(4)=p[X#4]= p[x=2] + p[X=3] + p[X=4] = 1/36+2/36+3/36= 6/36=1/6. F(3'4)=p[X#3'4]=3/36 F(13)=p[X#13]=1 p[1<x<3]=F(3)-F(1)=1/36-0=1/36 2) Ejemplo del lanzamiento de un dado (pag. 226) La Función de Distribución vendrá dada por la función: +)Q *0 si x < -5 *1/6 si -5 # x < 1 F(x) = *4/6 si 1 # x < 3 *1 si 3 # x .)Q y su gráfica IV: Distribuciones 3.-Variable aleatoria continua. Sea el espacio probabilistico (E,S,p) E= espacio muestral S= conjunto de sucesos p= probabilidad asociada a cada suceso, es decir: p: S ))))))))> [0,1] Definición: Llamamos variable aleatoria continua X a un aplicación X: E))))))))>R que puede tomar tomar al menos teoricamente, todos los valores posibles dentro de un intervalo de la recta real. Ejemplos: Son ejemplos los citados en la pagina 225 con los números 4) 5) 6). Otros ejemplos: a) E=Almejas extraidas de la rias gallegas Variable aleatoria X="medir el tamaño de las conchas" b) E=Niños recien nacidos en el materno. Variable aleatoria X="pesarlos" Son otros ejemplos: la estatura, pesos, temperaturas, y en la práctica, las variables discretas si toman muchos valores. Los conceptos siguientes, función de densidad y función de distribución nacen de la generalización a términos probabilisticos, de los conceptos de frecuencia relativa, histogramas, etc., vistos en el primer tema. Recuerde el alumno, el concepto de probabilidad , como límite de las frecuencias realtivas. 3.1.-Función de densidad Definición: Se dice que f:[a,b] ))))))))> R es una función de densidad de la variable aleatoria continua X, si se verifica: a) f(x)$0, para todo x,[a,b] b) f es integrable en todo el intervalo [a,b] y: !b "a * f(x) dx = 1 Ejemplo: +Q 1) Dada la función *x/2 si 0#x#2 f(x)=* ver que es f. de densidad *0 en otro caso .Q IV: Distribuciones 3.2.-Función de distribución Definición: La función F:R ))))))))>R es una función de distribución de la variable aleatoria continua X, si se verifica que F(x)=p[X#x]. Es decir: +)Q *0 si x<a * * !x F(x)=* * f(t) dt si a#x#b * "a * *1 si x>b * .)Q Nota: Podría decirse que la función de distribución mide, para cada real " la cantidad de probabilidad que hay antes de dicho número real". Ejemplos: 1) Función de distribución asociada a la función de densidad del ejemplo 1 del apartado anterior. +Q *x/2 si 0#x#2 f. densidad----> f(x)=* *0 en otro caso .Q integrando la función x/2, obtenemos la f. de distribución. +Q *0 si x<0 f. DISTRIBUCION F(x)=*x²/4 si 0#x<2 *1 si x$2 .Q IV: Distribuciones 2) Una v.a. continua toma valores en el intervalo [0,1] y tiene una función de densidad dada por f:[0,1]))))))))>R f(t)=kAt Se pide: a) Calcular el valor de k para que f sea una f. de densidad. b) Calcular la función de distribución. !1 a) Por ser una función de densidad: "0 * kAt dt = 1 ! 1 + ,1 * kAt dt = kA*t²/2* = kA1/2 = 1 " . -0 ==> k=2 0 luego la función buscada es: f(t)=2At. b) La función de distribución será ! x + ,x F(x) = * 2At dt = *t²* = x². " . -0 0 resultando como función de distribución: +)Q *0 si x<0 * F(x)=* x² si 0#x#1 * *1 si x>1 .)Q Propiedades: 1.-La función de distribución F es creciente, es decir: x1 < x2 ==> F(x1) # F(x2) 2.-Como consecuencia de la anterior: x2 ! " p[x1<X#x2] = F(x2) - F(x1) = * f(t)Adt x1 gráficamente significa que la probabilidad de que X tome valores comprendidos entre x1 y x2 está dada por el área que encierra f con el eje OX entre las ordenadas x1 y x2. 3.-Para una v.a. continua, la probabilidad en un punto es cero, o bien, la probabilidad de que la variable X tome un determinado valor x, es igual a 0. p[X=x]=0 IV: Distribuciones 4.-La derivada de la función de distribución es la función de densidad, en el dominio de derivabilidad: F'(x) = f(x) Ejemplo: Seguimos con la v.a. continua que tiene por función de densidad: f: [0,1]))))))))>R f(t)=2t. ¿cúanto vale p [-1#X#3/4? ! 3/4 p [-1#X#3/4] = 9 p [0#X#3/4] = * 2tAdt = )) " 16 0 4.-Características de una variable aleatoria Debemos pensar en variables aleatorias como una abstracción de las variables estadísticas. Por otro lado las probabilidades podemos verlas como límites de las frecuencias relativas. En este apartado vamos a estudiar las medidas básicas estudiadas en Estadística Descriptiva (media y desviación típica), generalizadas para variables aleatorias. 4.1.-Variable aleatoria discreta Sea X una variable aleatoria discreta Definición: Se llama media, esperanza matemática o valor esperado de la variable discreta X, y se representa por : o E[X] a la expresión: n := 1 E x Ap i i Recuerde el alumno que pi equivale a un límite de f.relativas. Ejemplo: 1) Seguimos con el juego de lanzar el dado si sale 1 ó 2 se cobra 3 ($$). si sale 4,5,6 se cobra 1 si sale 3 se paga 5 con la función de probabilidad: X -5 1 3 p(X) 1/6 1/2 1/3 su media será: :=-5A1/6 + 1A1/2 + 3A1/3= -5/6+1/2+1=4/6 Intuitivamente si x describe las ganancias y pérdidas en un juego, la esperanza indica: si es 0 que el juego es equitativo, si es + se trata de un juego favorable y si es - de un juego desfavorable. Definición: Se llama varianza de la variable aleatoria discreta X, y se designa por F² o V[X] a la expresión: IV: Distribuciones n F²= E (x - : )² A p i i 1 Definición: Se llama desviación típica de la variable aleatoria discreta X, y se designa por F o D[X] a la raiz cruadrada postiva de la varianza. Ejemplo: (sacado del libro: El hombre anumérico de Jhon Allen Paulos) Supongamos una pequeña compañia de seguros, en la que supone que: 1 de cada 10.000 polizas terminará en una reclamación de 200.000 dolares. 1 de cada mil, terminará en reclamación de 50.000 dolares. 1 de cada cincuenta, en una reclamación de 2.000 dolares. el resto no dará lugar a reclamación, es decir, 0 dolares. A la compañia le gustaría conocer cúal es gasto esperado para cada poliza, o dicho de otra manera, cual es el gasto medio de una poliza. Antes de hacer la solución debes plantear el problema de modo exacto, es decir, espacio muestral, variable aleatoria, función de probabilidad. El resultado es la media o esperanza matemática o valor esperado: := (200.000A1/10.000) + (50.000A1/1000) + (2.000A1/50) + (0A9.789/10.000)=110 dolares. 4.2.-Variable aleatoria continua Sea X una variable aleatoria continua cuyo recorrido es el intervalo [a,b] y f(x) la función de densidad de dicha variable. Definición: Se llama media, esperanza matemática o valor esperado de la variable continua X, y se representa por : o E[X] al valor de la integral: !b : = * xAf(x) dx "a Definición: Se llama varianza de la variable continua X, y se representa por F o V[X] al valor de la integral: !b F²= * (x-:)²Af(x) dx "a Definición: Se llama desviación típica de la variable aleatoria continua X, y se designa por F o D[X] a la raiz cruadrada postiva de la varianza. Ejemplo: Seguimos con la v.a. continua que tiene por función de densidad: IV: Distribuciones f: [0,1]))))))))>R f(t)=2t. realizando los cálculos correspondientes obtenemos: !1 media: : = * xA2x dx = 2/3 "0 !1 varianza: F²= * (x-2/3)²A2x dx = 1/18 "0 desviación típica: IV: Distribuciones F = 0'235 5.-Distribución binomial Vamos a estudiar el ejemplo más conocido de variable aleatoria discreta. Vamos a estudiar ejemplos en las que solamente hay dos resultados posibles. Se llama experimento de Bernouilli de n pruebas al experimento aleatorio que consiste en realizar 'n' pruebas que verifican las siguientes condiciones: a) En cada prueba son posibles solamente dos sucesos incompatibles, que llamaremos A y B. b) El resultado de cada prueba es independiente de los resultados de las anteriores. c) La probabilidad p(A) de que ocurra A no varia de una prueba a otra. Evidentemente tambien la probabilidad p(B). d) Si p(A)=p y p(B)=q es p+q=1 Ejemplos: son ejemplos de este experimento. El lanzamiento de una moneda al aire 10 veces (n veces). Los descendientes de una determinada pareja. Una máquina produce tornillos y tiene una probabilidad de 0,001 de fabricar alguno defectuoso. Este es un experimiento de Bernouilli, pues: a) Una pieza puede resultar defectuosa (suceso A) o no (B). b) El tornillo puede ser defectuoso en su fabricación independientemente de como hayan sido fabricados los anteriores. c) La probabilidad de obtener un tornillo defectuoso es p(A)=0,001. Los sucesos posibles en un experimento de Bernouilli son W={A,B}. Como A y B son sucesos incompatibles: _ p(A) = p y p(B) = p(A) = q = 1-p El espacio muestral E después de n pruebas será: E = WxWx.....xW = W6 El número de elementos del espacio muestral es el número de elemento de E (Card (E)) y será: Card (E) = VRn,2 = 26 Definimos la variable aleatoria X:E))))))))>R que asocia a cada suceso el número de ves que ocurre A en dicho suceso. Esta variable aleatoria es discreta pues alcanza los valores 0,1,2,...,n Una variable aleatoria en estas condiciones se dice que es una variable aleatoria binomial o variable de Bernouilli. La función de probabilidad de X es la función definida: Im (X) ))))))))>R x~))))))))> p(x) = p[X=x] veamos que vale esta probilidad. IV: Distribuciones Realizamos el experimento n veces y deseamos saber la probabilidad de obtener x éxitos en las n pruebas (con x#n). p(A)=p p(B)=q Consideramos uno de los casos que se obtienen x éxitos, y por lo tanto, n-x fracasos, agrupandoles el suceso será: x éxitos n-x fracasos AA............ABB..........B como son sucesos independientes se verifica: p(A1A1....1A1B1B1....1B) = p(A)Ap(A)A...Ap(A)Ap(B)Ap(B)A...p(B)= pxAqn-x este es solo caso de los sucesos de E. ¿Cúantos sucesos hay en E en las mismas condicones del anterior, es decir, x éxitos y n-x fracasos? El número de casos son las distintas maneras de colocar los x éxitos en los n lugares. x 'aes' A A A ))) ))) ))) ))) ..................... ))) ))) n lugares son, por tanto, x veces el suceso A en 'n' lugares, es decir, las combinaciones de n elementos tomados de x en x: siendo estos últimos los sucesos distintos con x exitos y cada uno con la probabilidad pxAqn-x en total tendremos: En definitiva la función de probabilidad de X viene dada por: {0,1,2,....n} ))))))))> R x ~)))))))))))> p (x) el nombre de binomial es debido a que la expresión corresponde con un término del desarrollo del binomio de Newton. Esta función así definida cumple las condiciones de la función probabilidad. Las medidas características en un experimento de Bernoulli de n pruebas se demuestra IV: Distribuciones que vienen dadas por las expresiones siguientes: : = np Media: Varianza: F²= npq F =%npq ___ Desviación típica: Ejemplo: ¿Cúal es la probabilidad de que una famila con seis hijos tenga dos hijos varones, suponiendo que las probabilidades de que nazca varón o hembra son iguales? Sea A el suceso consistente en que nazca un varón ...... p(A)=1/2 Sea B el suceso consistente en que nazca una hembra..... p(B)=1/2. Este es un experimento de Bernouilli pues: a) Solo son posibles 2 sucesos e incompatibles entre si. b) El que nazca hembra o varón no depende del anterior nacimiento. c) La probabilidad de que sea varón es siempre la misma. Siendo E el espacio muestral formado por todas las combinaciones de varón y hembras que puede haber en 6 hijos. La variable aleatoria será: X: E ))))))))>R e~)))))))>X(e)=número de hijos varones. donde por notación [X=2] representa el suceso en el que 2 de los seis hijos son varones. La función de probabilidad es la siguiente: {0,1,2,....6} ))))))))> R x ~)))))))))))> p (x) nos están pidiendo la probabilidad de tener 2 hijos varones, será por lo tanto: Sobre el mismo experimiento, calculemos la media de hijos varones y la desviación típica: : = np = 6A1/2 = 3 F = % npq = %6A0'5A0'5 = %6/2 ____ ________ _ Sea X una variable aleatoria binomial que toma valores en el conjunto 0,1,2,...,n Definición: Se llama función de distribución binomial o función de distribución de la variable IV: Distribuciones aleatoria binomial X, representamos por F, a la aplicación de R en R que asocia a cada número real x la probabilidad de que la variable X tome valores menores e iguales que x. F: R))))))))>R x~))))))> F(x)=p[X#x] donde *x* representa la parte entera de x, es decir, el mayor entero menor o igual que x. Ejemplo: ¿Cual es la probabilidad de que una famila de 6 hijos tenga como máximo cuatro varones? Todos estos valores se pueden calcular con las tablas que se encuentran al final del tema. Aplicaciones de la distribución binomial: la distribución binomial tiene un gran campo de aplicación en experimentos reales, vacunas, fabricación de componentes, etc. El alumno lo comprobará en los ejercicios. Notación : es frecuente designar a la distribución binomial como B(n,p). 6.-Distribución normal Vamos a estudiar una distribución de variable aleatoria continua de gran importancia, llamada distribución normal o de Gauss. Esta distribución se acomoda a gran cantidad de fenómenos reales: biológicos, físicos, técnicos, sociológicos, etc. En ellos vemos que los histogramas de frecuencias adoppta una forma que se repite. Ejemplo: la distribución por tallas de una población la distribución por pesos de una población. No todos los fenómenos siguen este comportamiento, por ejemplo la distribución de las riquezas ( como facilmente puede comprobarse). Definición: Se dice que una varible aleatoria continua X tiene un distribución normal de media : y desviación típica F, designaremos por N(:,F), si se cumplen las siguientes condiciones: a) La variable recorre todo R. b) La función de densidad de X es: IV: Distribuciones los valores : y F se llaman parametros de la distribución normal. Sin demostración admitimos que esta función es función de densidad, llamada función de Gauss, verificando las condiciones de función de densidad. Vamos a representar graficamente la función de Gauss, para ello se hacen los cálculos normales en la representación de funciones: 1.-Dominios de definición y derivabilidad Está definida en toda la recta real 2.-Simetrías La función es simétrica respecto de la recta x=:, ya que se verifica: f(:+h)=f(:+h) 3.-Cortes con los ejes Eje X: no hay cortes, ya que la función exponencial no es nunca 0. Eje Y: haciendo x=0, se obtiene: 4.-Máximos y mínimos Haciendo los cálculos correspondientes obtenomos que f tiene maximo en: 5.-Puntos de inflexión Haciendo los cálculos correspondientes obtendremos como puntos de inflexión: x=:-F x=:-F 6.-Asíntotas Verticales no tiene, ya que el dominio es toda la recta real Horizontales: haciendo el limite x))>4 obtenemos 0, y por lo tanto, asintota horizontal en y=0, es decir, el eje de las X. En definitiva, la representación gráfica de la función queda: IV: Distribuciones El eje representado es el de simetría. Los puntos trazados con linea discontinua son los p. de inflexión. El 'extremo de arriba' es el máximo calculado antes. El área encerrada bajo la curva, por ser una función de densidad es 1: !+4 "-4 * f(x) dx=1 El alumno puede tomar un intervalo [a,b], despreciando lo que queda a izquierda y a derecha como cero. por su forma esta función se le denomina campana de Gauss La función de distribución de una varible aleatoria X con distribución N(:,F), tendiendo en cuenta la definción de función de distribución será: Graficamente representa el área comprendida entre -4 y x bajo la curva f(x), y por lo tanto, #1. Por definición de la distribución las medidas características son: media=: varianza=F² desviación típica=F La función de densidad de una variable normal depende de : y de F, y para cada valor distinto de una u otra tendremos funciones distintas y gráficas distintas. A la derecha tienes un ejemplo de gráfica de una distribución normal de desviación típica pequeña y ,por tanto, con el pico o extremo más alto. Representa una distribución concentrada entorno a la media, donde predominan los valores centrales. IV: Distribuciones A la derecha tienes un ejemplo de gráfica de una distribución normal de desviación típica grande y ,por tanto, con el pico o extremo más bajo. Representa una distribución dispersa respecto a la media, donde los valores centrales pierden representatividad. En definitiva, cuanto mayor sea la desviación típica mayor es la dispersión y , por tanto, la gráfica de la función es más alargada y menos alta (el máximo alcanza un valor más pequeño). Por contra si la d. típica es menor, disminuye la dispersión y la gráfica será mas puntiaguda y más concentrada. De todas las distribuciones N(:,F) tiene especial interés la N(0,1) llamada ley normal standar o curva normal tipificada. En este caso tendremos: IV: Distribuciones 7.-Manejo de tablas de la normal 7.1.-Variable tipificada N(0,1) Para el cálculo de la distribución normal en el caso de una varible N(0,1) tenemos unas tablas que nos dan los valores (Al final del tema). Si observas la tabla verás que solamente viene dada para los valores $0 y el valor que indica es el de la función de distribución, es decir, F(x)=p[X#x] los que tiene la probabilidad menor o igual que x. Para el cálculo de cualquier otro valor no directamente expresado en las tablas deben seguirse los siguientes principios generales: a) La curva que representa la función de densidad es simétrica. b) El área encerrada bajo la función de densidad es 1. Ejemplo: Sea X una variable N(0,1) a) Calcular F(1,95) Viene directamente en las tablas: F(1,95)=p[X#1,95] = 0,9744 b) Calcular p[0,5#X#1,5] Es el área comprendida entre 0,5 y 1,5 de manera que la probabilidad pedida: p[0,5#X#1,5] = F(1,5) - F(0,5) = 0,9332 - 0,6915 =0,2417 c) Calcular p[X#-0,55] La tabla solamente nos trae los valores positivos. Para calcular la negativa nos basaremos en que f es simétrica respecto del eje Y. El área encerrada por p[X#-0,55] es igual al área encerrada en el intervalo [0'55 , +4] y esta es igual al area total que encierra f(x) menos el area del intervalo [-4,-0'55]. Por tanto: p[X#-0'55]=p[X$0'55]=1-p[X#0'55]=1-0'7088=0'2912 O sea si x<0 se hace F(x)=1-F(-x) 7.2.-Tipificación de una variable La curva normal tipificada dispone de unas tablas para el cálculo de los valores de la función de distribución. No podemos hacer tantas tablas como posibles distribuciones hay. Haremos un camino inverso, dada una variable X que sigue una distribución N(:,F) transformarla en una distribución normal tipificada. Esta transformación es conocida como tipificación de una variable. Los pasos consitirán en: a) Centrar o hacer media nula, lo conseguiremos restando a cada variable la media :. b) Reducir o hacer que la desviación típica sea 1, lo haremos dividendo cada varible por F. Haciendo estos dos pasos a la vez, obtendremos: X-: Z=))))) F Sea X con una distribución N(:,F) y F:R))))))))>R su función de distribución. Llamamos F1 a la función de distribución normal de la variable tipificada: IV: Distribuciones X-: F(x)= F1 (Z)= F1 ()))))) F en efecto Se verifica la siguiente igualdad entre sucesos: +) *X-: [X#x] =*)))) * F .) # ), * ))))) * F * )- x-: entonces: +) *X-: F(x)=p[X#x] =p *)))) * F .) # ), +) ), * * X-: * X-: ))))) * = p *Z# ))))) * = F1 ())))) F * * F * F ).Q )- x-: Este resultado nos permite conectar áreas que encierra una curva normal cualquiera con áreas dterminadas por la curva normal tipificada. Por tanto, mediante una única tabla de la normal, podemos calcular cualquier probabilidad de una normal N(:,F) Se verifica: p[x1#X#x2] =p +) *x1-: *)))) * F .) Ejemplo: Sea X,N(3,2), es decir, :=3 y a) Calcular p[X#2] +) * p[X#2] =p *Z * .) b) Calcular p[1#X#4] # ), x2-: * # Z # )))) * F * F=2 )- ), * )))) * = p [Z#-0'5] = 1-p[Z#0'5] = 1-0'6915 = 0'3085 2 * )- 2-3 +) *1-3 p[1#X#4] =p *))))# Z * 2 .) # ), * ))))) * = p[-1#Z#0'5] = F1(0'5) - F1(-1)= 2 * )- 4-3 = F1(0'5) -(1- F1(1)) = F1(0'5) + F1(1) -1 =0'6915+0'8413-1=0'5328 La media de los pesos de los habitantes de una población es 65 kg y la desviación típica 6 kgr. Sabiendo que los pesos se distribuyen normalmente, calcular la probabilidad de que un individuo pese: a) A lo sumo 65 kgr b) Entre 60 y 75 kgr c) 75 o más de 75 kgr. Sea X la v.a. que denota el peso de un individuo. Sera una distribución N (65,6) a) IV: Distribuciones +) ), * p[X#65] =p *Z * .) 65-65* # )))) * = p [Z#0] = 0'5 6 * )- b) +) *60-65 p[60#X#75] =p *)))))# Z * 6 .) ), 75-65 * # ))))) * = p[-0'83#Z#1'66] = F1(1'66) - F1(-0'83)=0'7484 6 * )- c) +) * p[X$75] =p *Z * .) ), 75-65* $ )))) 6 * = p [Z$1'66] = 1-p[Z#1'66] = 0'0485 * )- 7.3.-Intervalos de centro media : y desviación típica F La desviación típica nos señala lo dispersos que están los datos del centro o media. Cabe pensar si podemos saber algún dato más trabajando con los intervalos de centro :. ¿Qué porcentaje de individuos del espacio muestral están en el entorno de centro : y radio F?. Es decir: E(:,F)=(:-F,:+F) por ser una v.a. continua la probabilidad en un punto es cero y por tanto: p[:-F<X<:+F] = p[:-F#X#:+F] tipificando la variable y aplicando conceptos de cálculo obtenemos: +) *:-F-: p[:-F#X#:+F]=p *))))))# Z * F .) ), :-F-: * # ))))) * = p[-1#Z#1]=F1(1)-(1- F1(1)) = F * - =2AF1(1) - 1 = 2A0'8413 - 1 = 0'6826 Analogamente se pueden calcular en los intervalos: (:-2F,:+2F) y (:-3F,:+3F) INTERVALO IV: Distribuciones PORCENTAJE (:-F,:+F) 68'26 % (:-2F,:+2F) 95'4 % (:-3F,:+3F) 99'7 % 8.-Aproximación de la binomial a la normal La importancia de la distribución normal no se termina en que sirva de modelo para muchos modelos de la vida real. Tambien sirve para aproximar distribuciones estadísticas. Repaso el ejercicio hecho en el tema 7 de calificaciones en la manera de resolver 2 (calificaciones aproximadas en intervalos de longitud 2). Veamo el ejercicio siguiente: Ejemplo: El porcentaje de españoles con estudios medios es del 35 %. Escogemos 8 personas al azar. a) probabilidad de encontrar 1,2,...,8 con estudios. Escribe la tabla que define la tabla de probabilidad y la gráfica. b) calcular la probabilidad de que entre 3 y 5 personas tengan estudios medios. Es un claro ejemplo de experimento de Bernouilli (escribe claramente los motivos). a) Las probabilidades vienen dadas en las tablas para: p=0'35 n=8 número probabipersonas dad ======== ======= 0 3,19 1 13,73 2 25,87 3 27,86 4 18,75 5 8,08 6 2,17 7 0,33 8 0,02 : = np = 2'8 F = % npq = 1'3490 ____ Si observas la gráfica verás 'que recuerda a la normal' b) la probabilidad entre 3 y 5 personas viene dada por: p[3#X#5]=p[X=3]+p[X=4]+p[X=5]=0,2786+0,1875+0,0808=0,5469 ¿Qué ocurre cuando aumentamos 'n'? -Los cálculos se complican: no es suficiente la tabla de trabajo en la que llegamos hasta n=8. Puede trabajarse con tablas de n=10, pero es dificil encontrar alguna mayor. La alternativa es pasar a cálculos con ordenador (la calculadora se quedará pequeña muy pronto). -La gráfica cada vez recuerda más a una normal. observa la gráfica siguiente, y como se parece más a la normal. IV: Distribuciones número probabipersonas dad ======== ======== 0 0,568800 1 3,675328 2 10,88462 3 19,53651 4 23,66923 5 20,39195 6 12,81033 7 5,912460 8 1,989770 9 0,476184 10 0,076922 11 0,007530 12 0,000337 media 4,2 d.tip. 1,652271 Pues bien cuando n--->4 la distribución binomial se acerca cada vez más a la distribución normal. Con ello nos permitirá trabajar con la distribución considerandola como normal y los cálculos (previa tipificación son más sencillos). ¿Cómo tomamos la distribución normal, y a partir de que número de pruebas 'n' de la distribución binomial se puede considerar como aceptable los cálculos que se obtengan con la normal?. Dada la distribución binomial de 'n' experimentos y con una probabiliad 'p' es necesario previamente calcular la media (:) y la desviación típica (F), y aproximamos la d.binomial B por la d. normal N(:,F) d. binomial ))))))))> d. normal B (n,p) ))))))))> N(:,F) Se considera una buena aproximación cuando: nAp$5 y nAq$5 Tambien, es otra forma de decir lo mismo, si n$30 y 0.1<p<0.9 es decir, cuanto mayor sea 'n'. En la práctica dada una binomial B(n,p) , la normal del tipo N(np,%nqp) será una buena aproximación si se cumple np$5 y nq$5. En el supuesto anterior los cáculos de B(n,p) puede sustituirse por cáculos con la normal, respetando los convenios: (Se llama Correción de Yates). p(B=k) = p(k - 0.5 < N < k+0.5) p(B<k) = p(N< k+0.5) p(h < B < k) = p( h - 0.5 < N < k + 0.5) IV: Distribuciones Ejemplo: en los ejemplos de antes (con n=8 y n=12) vemos que no cumple la condición para que la aproximación en los cálculos sean buenos. Realizamos, no obstante, la aproximación y veamos como quedan los cálculos. Es decir, el ejercicio tendría una última parte: c) Calcular la probabilidad de entre 8 personas tomadas al azar, entre 3 y 5 tengan estudios medios, con aproximación previa a la normal (p=0'35). Recordemos los resultados del ejercicio realizado en pagina 247 : = np = 2'8 ____ F = % npq = 1'3490 p[3#X#5]=0,5469 Aproximemos a la normal: N(2'8,1'35), realizando los cálculos pertinentes: p[2'5#X#5'5] =p [-0'22# Z # 2 ] = 0'9772-0'4129 = 0'5643 hay diferencia con el valor real obtenido, debido a que está lejos de ser representativa la muestra tomada (n=8) así como el producto nAp=2'8. NOTA SOBRE LOS TEST DE NORMALIDAD : Si se dispone de una serie de datos, obtenidos empíricamente cabe cuestionarse si se ajustaran o no a una distribución normal. A menudo ocurre que el polígono de frecuencias de una variable estadística X recuerda la forma de una distribución normal. En tal caso puede pensarse en calcular una distribución normal que se aproxime a la distribución estudiada. Generalmente el método seguido para resolver el problema consiste en tomar : y F respectivamente iguales a la media y la desviación observadas en el estudio. La sustitución de X por una normal N se llama ajuste. Para comprobar si el ajuste es bueno existen diversos métodos: prueba de "68-95-99", la simetría (Pearson), el método de la curtosis, etc. Veamos brevemente algunos de estos métodos: Método "68-95-99": Consiste simplemente en comprobar si en los intervalos [: - F , : + F] ,[ :+2F , :+ 2F ] , [ :3F , :+3F] se encuentra respectivamente el 68% , el 95% y el 99% (aprox. ) de los valores de la variable X. Si el resultado se juzga positivo se acepta la hipótesis de que la variable X se comporta normalmente. Si no es así , se rechaza. Metodo de la Asimetría: En general cuando se habla de simetría o asimetría se hace con respecto a la media. Existen varios tipos de coeficientes que ofrecen una mediad de la asimetría de una distribución. Uno de ellos es el coeficiente de asimetría de Pearson: Ap = 3 ( : - Mediana ) / F Si Ap = 0 distribución simétrica. Si Ap > 0 distribución asimétrica a derecha ( asimetría positiva.) Si Ap < 0 distribución asimétrica a izquierda ( asimetría negativa). Una distribución de fecuencias se dice que tiene una asimetría aceptable como normal si Ap toma valores entre -0.3 y 0.3. IV: Distribuciones