DISTRIBUCION NORMAL: Puesto que la densidad de probabilidad normal no puede integrarse en forma cerrada entre cada par de limites A Y B las probabilidades relacionadas con las Distribuciones Normales se obtienen usualmente de Tablasa Especiales. DISTRIBUCION GAMMA: Varias densidades de probabilidda importantes ,cuyas aplicaciones se explicaran mas adelante son casos especiales de la distribucion gamma .Esta distribucion tiene la densidda de probabilidad F(x)={ 1/ 1 (a) Xa –1 e-x / para x>.0 a.> 0 en otra parte >0 Donde (a) es un valor de la funsion gamma definida por a-1 e-x dx (a)=0 X La integracion por partes muestra que (a)=(a-1) (a-1) para toda a> 1 y po ende , que (a) =(a-1) cuando a es un numero entero positivo La media y la varianza de la distribucion gamma pueden obtenerse con el uso de la funcion gamma y sus propiedades especiales ya mencionadas .Para la media tenemos a-1 e-x/ dx = 1/ (a) x.x 0 y tras conceder que y =x/, obtenemos =/(a) y e-y dy = (a+1)/ (a) 0 Despues ,haciendo uso de la identitad (a+1)=a. (a) llegamos al resultado Media de la Distribucion Gamma = a Usando metodos similares ,atmbien es posible demostrar que la varianza de la distribucion Gamma esta dada por a2 = a2 En el caso especial en el que a=1, obtenemos la distribucion exponencial ,cuya densidad de probabilidad es entonces (x)=1/ e-x/ para x > 0 > 0 0 en otra parte y cuya media y varinza son = y a2 = 2 LA DISTRIBUCION BETA: (a+1) (x) = (a). () xa –1 (1-x) -1 para 0<x<1,a>0 en otra parte La media y la varianza de esta Distribucion esta dad por =a/a+ y a2 = a/(a+)2 (a++1) LA DISTRIBUCION DE WEIBULL: Estrechamente relacionadacon la distribucion exponencial esta la distribucion de Weibull,cuya densidad de probabilidda esta dada por (x)= ax-1 e-ax para x>0,a, >0 0 en otra parte Para demostrar esta relacion ,evaluamos la probabilidad de que una variable aleatoria con la distribucion de Weibull adopte un valor menor que a es decir la integral. a ax -1 e-ax dx 0 Efectuado el cambio de variables y=x obtenemos a ae-ay dy =1-e-aa 0 y como puede verse y es un valor de una variable aleatoria con una distribucion exponencial. La media de la distribucion de Weibull con los parametros a y puede obtenerse evaluando la integral -1 = x.ax e-u du 0 y reconociendo las integral como (1+1/) es decir como un valor de la funcion Gamma Encontramos que la media de la distribucion de Weibull esta dada por =a-1/ (1+1/) DISTRIBUCION EXPONENCIAL: La distribucion exponencial tiene funcion de densidad F(x)=xe- x x>= 0 =0 Media y Varianza de la Distribucion Exponencial La media y la varianza de dist exp son E(x) = x x e-xx dx=-xe -xx + e-xx dx =1/x 0 0 0 =[ y V(x) = x2 e-xx dx –(1/x)2 0 -x2 e-xx + 2 x e –xx dx] – (1/x)2 = 1/x 2 0 0 La desviacion estandar es 1/x y en consecuencia la media y la desviacion estandar son iguales La funcion genera matriz de momento es Mx(t)=(1-t/x)-1 Siempre que t< x DISTRIBUCION DE LA QUE SE DEDUCE CLARAMENTE LO MISMO QUE SU HISTIGRAMA QUE LA DISTRIBUCION DE LAS MEDIAS ES EN F BINOMIAL NEGATIVA: La distribucion de probabilidad para una variable aleatoria se conoce como distribucion binomial negativa .La formula de esta distribucion . La distribucion de probabilidda binomial negativa La distribucion de probabilidad para una variable aleatoria binomial negativa esta dada por: r y-1 P(y)=(y-1 Y R-1) P q (y=r,r+1,r+2...) Donde p=probabilidda de éxito con una sola prueba de Bemoulli q=1 –p y=Numero de pruebas hasta que se observa el r-esimo éxito La media y la varianza de una variable aleatoria bin.neg.son. respectivamente =r/p y T2 rq/p2 propiedad de falta de memoria de la distancia exponencial. La distancia exponencial tiene una interesante y unica propiedad de falta de memoria para variables continuas esto es; s P(x7x + 1x7x) = P( x7x + s ) P( x7x ) -x(x + s) -xs =e =e -xx e Por lo que ; P(x7x + s1x7x) = P(x7s) Por ejemplo, si un tubo de rayos catodicos tiene una distancia exponencial de tiempo de falla y se advierte que al tiempo t continua funcionando, entoncaes la vida restante tiene la misma distancia de falla de tiempoque el tubo tenia en el tiempo cero. DISTRIBUCION La distancia t fue introducida por W. S. Hosset, que hizo publicaciones bajo el nombre de “Student” (1908) la distancia t es la distancia de la variable aleatoria. T= x r/n Bajo las siguientes hipotesis. N es un entero positivo que se llama numero de grados de libertad de la distancia t ; X y Y son variables aleatorias independientes, de las cuales X es normal con media 0 y varianza 1 y Y tiene distancia ji cuadrada con n grados de libertad. La variable t representa con frecuencia por t. La distribucion t tiene densidad Para n 1, esta es la distribucion de Bauchiy que nos tiene valor medio,.Para n= 2,3…, el valor medio de la distancia t es ; Para n = 1y2, la distancia t no tiene varianza. Para n=3,4...,tenemos T= n n-2 Cuando aumenta , la funcion de distancia de la distancia t tiende ala funcion de la distancia normal, con valor medio O y varianza 1. DISTANCIA GEOMÉTRICA Supongamos que en una secuencia de ensayos nos interesa el numero de insayoen el que ocurre el primer éxito, y que todos menos el primero de los supuestos adyacentes en la distancia binominal son satisfechos; en otras palabras, n no es fijo, evidentemente, si el primer éxito ocurre en el x-esimo ensayo, deven antesederlo x-1 fracasos en x-1 ensayos es (1-p) x-1. Asi pues si multiplicamos esta exprecion por la palabra .P de un éxito el el xe’xesimo ensayo esta dada por G(x,p)=p(1-p)x-1 para x=1,2,3,4.. Esta distribucion de probabilidad se llama distribucion Geometrica y su media es =1/n DISTRIBUCION MULTINOMIAL: Una generalizacion inmediata de la distribucion binomial surge del hecho de que cada ensayo pueda tener mas de dos resultados posibles Esto sucede ,por ejemplo cuando a un producto manufacturado se le clasifica como superior ,promedio o deficiente o cuando el desempeño de un estudiante puede mereser la calificacion A,B,C,D,E.. Para tratar en general este tipo de problemas ,consideremos el caso en el que hay n ensayos independientes ,cada uno de los cuales permite K resultados mutuamente excluyentes ,cuyas respectivas probabilidades son p,p2,..pk (con k pi=1) Haciendo referencia a los resultados como del primer tipo ,segundo tipo ..., y K esimo tipo, nos interesa la probabilidad f(x1,x2...xk) de obtener x resultados del primer tipo x2 resultados del segundo tipo ... y xk resultados del k esimo tipo con k Xi=n Usando argumentos similares a los que empleamos en l aderivacion para la distribucion binomial ,es posible demostrar que la prob deseada esta dada por F(x1,x2.....,xk)= n!/x1!,x2!…xk! p1. p2 …. Pk Para cada x1=0,1..n para cada I sujeta a la restriccion k =n La distribucion de probabilidad conjunta cuyos valores de la x las probabilidades se llama distribucion multinomial , debe su nombre al hecho de que para los diversos valores de la x1, las probabilidades estan dadas por los terminos correspondientes a ala expansion multinomial de (p1+p2+....+pk) DISTRIBUCION UNIFORME: La distribucion Uniforme con los parametros tiene la funcion de densidad de probabilidda F(x)=1/ para < x < En otra parte Para determinar la media y la varianza de la distribucion uniforme evaluamos primero las dos integrales = 0 x. 1/ -x dx= + /2 2= x2. 1/-x dx=x2+x+x+2/3 0 = +/2 Media de la distribucion Uniforme de la formula T2 = 2-2 Detreminamos que 2 2 Varianza d el adistribucion uniforma T =1/12 -x) INSTITUTO TECNOLÓGICO DE MATAMOROS CARLOS JOSAFAT RODRIGUEZ DE LA CRUZ HORA: 10:00 – 11:00 AM R11 AULA: PROFR. Ing. Fidencio Sandoval Conceptos de la materia de Estadistica H. Matamoros, Tam. A 26 De Septiembre del 2002