Distribución Binomial En Estadística, la Distribución Binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos independientes de Bernoulli, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli. Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p, se escribe: La distribución Binomial es la base del test binomial de significación estadística. Ejemplos La siguiente situación es un ejemplo de experimento que puede modelizarse por esta distribución: Se lanza un dado diez veces y se cuenta el número de tres obtenidos: X ~ B(10, 1/6) Experimento Binomial Existen muchas situaciones en las que se presenta una experiencia binomial. Este tipo de experiencias se caracteriza por estar formada por un número predeterminado n de experimentos iguales. Cada uno de los experimentos es independiente de los restantes (la probabilidad del resultado de un experimento no depende del resultado del resto). El resultado de cada experimento ha de admitir sólo dos categorías (a las que se denomina éxito y fracaso). Las probabilidades de ambas posibilidades han de ser constantes en todos los experimentos (se denotan como p y q o p y 1-p). Se designa por X a la variable que mide el número de éxitos que se han producido en los n experimentos. Cuando se dan estas circunstancias, se dice que la variable X sigue una distribución de probabilidad binomial, y se nota B(n,p). Características analíticas Su función de probabilidad está dada por: donde , siendo elementos tomados de en ) las combinaciones de en ( Propiedades características Relaciones con otras variables aleatorias Se verifica que si son tales que cada una sigue una distribución Bernouilli de parámetro entonces de parámetros , y todas ellas son independientes entre sí, resulta ser una variable aleatoria con distribución binomial . Además, si n es grande y es pequeño, de modo que el producto entre ambos parámetros tiende a , entonces la distribución de la variable aleatoria binomial tiende a una Distribución de Poisson de parámetro Por último, se cumple que cuando n es muy grande (n ≥ 30) la distribución binomial se aproxima a la distribución normal. Propiedades reproductivas Dadas n variables aleatorias , tales que: Todas tienen una distribución binomial; Todas tienen el mismo parámetro ; Cada una tiene su propio parámetro (es decir, los n no necesariamente tienen que ser iguales); NO son TOTALMENTE independientes entre sí; Se toma la variable aleatoria ; Se toma ; Entonces: La variable aleatoria Y tiene una distribución Binomial, con parámetros y . Por lo tanto, dadas n variables binomiales independientes, de parámetros ni , i = 1, ..., n y , su suma es también una variable binomial, de parámetros n1 + ... + nn y . Distribución binomial Función de probabilidad Función de distribución de probabilidad Parámetros número de ensayos (entero) probabilidad de éxito (real) Dominio Función de probabilidad (fp) Función de distribución (cdf) Media Uno de Mediana Moda Varianza Coeficiente de simetría Curtosis Entropía Función generadora de momentos (mgf) Función característica Distribución de Poisson En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de probabilidad discreta. Expresa la probabilidad de un número k de eventos ocurriendo en un tiempo fijo si estos eventos ocurren con una tasa media conocida, y son independientes del tiempo desde el último evento. La distribución fue descubierta por Siméon-Denis Poisson (1781–1840) que publicó, junto con su teoría de probabilidad, en 1838 en su trabajo Recherches sur la probabilité des jugements en matières criminelles et matière civile ("Investigación sobre la probabilidad de los juicios en materias criminales y civiles"). El trabajo estaba enfocado en ciertas variables aleatorias N que cuentan, entre otras cosas, un número de ocurrencias discretas (muchas veces llamadas "arribos") que tienen lugar durante un intervalo de tiempo de duración determinada. Si el número esperado de ocurrencias en este intervalo es λ, entonces la probabilidad de que haya exactamente k ocurrencias (siendo k un entero no negativo, k = 0, 1, 2, ...) es igual a: dónde e es el base del logaritmo natural (e = 2.71828...), k! es el factorial de k, k es el número de ocurrencias de un evento, λ es un número real positivo, equivalente al número esperado de ocurrencias durante un intervalo dado. Por ejemplo, si los eventos ocurren de media cada 4 minutos, y se está interesado en el número de eventos ocurriendo en un intervalo de 10 minutos, se usaría como modelo una distribución de Poisson con λ = 2.5. Por ejemplo, si 2% de los libros encuadernados en cierto taller tiene encuadernación defectuosa, obtener la probabilidad de que 5 de 400 libros encuadernados en este taller tengan encuadernaciones defectuosas. Su media y su varianza son: Como una función de k, ésta es la función probabilidad de masa. La distribución de Poisson puede ser vista como un caso limitante de la distribución binomial, es decir, que una distribución binomial en la que y se puede aproximar por una distribución de Poisson de valor La distribución de Poisson es también llamada Poissoniana, análogamente al término Gaussiana para una distribución de Gauss o distribución normal. Procesos de Poisson La distribución de Poisson, se aplica a varios fenómenos discretos de la naturaleza (esto es, aquellos fenómenos que ocurren 0, 1, 2, 3, ... veces durante un periodo definido de tiempo o en una área determinada) cuando la probabilidad de ocurrencia del fenómeno es constante en el tiempo o el espacio. Ejemplos de estos eventos que pueden ser modelados por la distribución de Poisson incluyen: El número de autos que pasan a través de un cierto punto en una ruta (suficientemente distantes de los semáforos) durante un periodo definido de tiempo. El número de errores de ortografía que uno comete al escribir una única página. El número de llamadas telefónicas en una central telefónica por minuto. El número de servidores Web accedidos por minuto. El número de animales muertos encontrados por unidad de longitud de ruta. El número de mutaciones de determinada cadena de ADN después de cierta cantidad de radiación. El número de núcleos atómicos inestables que decayeron en un determinado periodo de tiempo en una porción de sustancia radiactiva. La radiactividad de la sustancia se debilitará con el tiempo, por lo tanto el tiempo total del intervalo usado en el modelo debe ser significativamente menor que la vida media de la sustancia. El número de estrellas en un determinado volumen de espacio. La distribución de receptores visuales en la retina del ojo humano. La inventiva de un inventor a través de su carrera. Propiedades El valor esperado de una variable aleatoria con distribución de Poisson es igual a λ y también lo es su varianza. Los momentos más altos de la distribución de Poisson son polinomios de Touchard en λ cuyos coeficientes tienen un sentido combinatorio. De hecho, cuando el valor esperado de la distribución de Poisson es 1, entonces la fórmula de Dobinski dice que el enésimo momento iguala al número de particiones de tamaño n. La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual a (o suelo de λ), el cual es el número entero más grande menor o igual a λ. Esto también es expresado como la función parte entera de λ. Cuando λ es un entero positivo, las modas son λ y (λ − 1). Sumas de las variables aleatorias de distribución de Poisson: Si sigue una distribución de Poisson con parámetro y Xi son independientes entonces también sigue una distribución de Poisson cuyo parámetro es la suma de los parámetros del componente. La función generadora de momentos de la distribución de Poisson con valor esperado λ es: Todas las acumulaciones de la distribución de Poisson son iguales al valor esperado λ. El enésimo momento factorial de la distribución de Poisson es λn. La distribuciones de Poisson son funciones probabilísticas infinitamente divisibles. La divergencia Kullback-Leibler dirigida entre Poi(λ0) y Poi(λ) está dada por: Cuando λ tiende a infinito, podemos aproximar a una distribución normal. Por ello, podemos tipificar ya que conocemos cual es la media y varianza de una Poisson. X˜Po(λ) ~ N(λ,λ) Tipificando: Y ˜ N(0,1) Distribución de Poisson Función de probabilidad El eje horizontal es el índice k. La función solamente está definida en valores enteros de k. Las líneas que conectan los puntos son solo guías para el ojo y no indican continuidad. Función de distribución de probabilidad El eje horizontal es el índice k. Parámetros Dominio Función de probabilidad (fp) Función de distribución (cdf) Media Mediana Moda Varianza Coeficiente de (dónde Γ(x, y) es la Función gamma incompleta) simetría Curtosis Entropía Función generadora de momentos (mgf) Función característica Distribución Normal o de Gauss En Estadística y Probabilidad se llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece en fenómenos reales. La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. Esta curva se conoce como campana de Gauss. La importancia de esta distribución radica en que permite modelizar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la ingente cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes. La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos. Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son: caracteres morfológicos de individuos como la estatura; caracteres fisiológicos como el efecto de un fármaco; caracteres sociológicos como el consumo de cierto producto por un mismo grupo de individuos; caracteres psicológicos como el cociente intelectual; nivel de ruido en telecomunicaciones; errores cometidos al medir ciertas magnitudes; etc. La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución muestral de las medias muestrales es aproximadamente normal, incluso si la distribución de la población de la cual se extrae la muestra no es normal. Además, la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una supuesta "normalidad". En probabilidad la distribución normal aparece como el límite de varias distribuciones de probabilidad continuas y discretas. Distribución normal Función de densidad de probabilidad La línea verde corresponde a la distribución normal estándar Función de distribución de probabilidad Parámetros Dominio Función de densidad (pdf) Función de distribución (cdf) σ>0 Definición formal Hay varios modos de definir formalmente una distribución de probabilidad. La forma más visual es mediante su función de densidad. De forma equivalente, también pueden darse para su definición la función de distribución, los momentos, la función característica y la función generatriz de momentos, entre otros. Función de densidad Se dice que una variable aleatoria continua X sigue una distribución normal de parámetros μ y σ y se denota X ~ N (μ, σ) si su función de densidad está dada por: donde μ (mu) es la media y σ (sigma) es la desviación típica (σ2 es la varianza) Se llama distribución normal "estándar" a aquella en la que sus parámetros toman los valores μ = 0 y σ = 1. En este caso la función de densidad tiene la siguiente expresión: Su gráfica se muestra a continuación y con frecuencia se usan TABLAS para el cálculo de los valores de su distribución. Propiedades Algunas propiedades de la distribución normal son: 1. Es simétrica respecto de su media, μ; 2. La moda y la mediana son ambas iguales a la media, μ; 3. Los puntos de inflexión de la curva se dan para x = μ − σ y x = μ + σ. 4. Distribución de probabilidad en un entorno de la media: en el intervalo [μ - σ, μ + σ] se encuentra comprendida, aproximadamente, el 68,26% de la distribución; en el intervalo [μ - 2σ, μ + 2σ] se encuentra, aproximadamente, el 95,44% de la distribución; por su parte, en el intervalo [μ -3σ, μ + 3σ] se encuentra comprendida, aproximadamente, el 99,74% de la distribución. Estas propiedades son de gran utilidad para el establecimiento de intervalos de confianza. Por otra parte, el hecho de que prácticamente la totalidad de la distribución se encuentre a tres desviaciones típicas de la media justifica los límites de las tablas empleadas habitualmente en la normal estándar. 5. Si X ~ N(μ, σ) y a y b son números reales, entonces (aX + b) ~ N(aμ+b, aσ). 6. Si X ~ N(μx, σx) e Y ~ N(μy, σy) son variables aleatorias normales independientes, entonces: Su suma está normalmente distribuida con U = X + Y ~ N(μx + μy, σx2 + σy2). Recíprocamente, si dos variables aleatorias independientes tienen una suma normalmente distribuida, deben ser normales (Teorema de Crámer). Su diferencia está normalmente distribuida con . Si las varianzas de X e Y son iguales, entonces U y V son independientes entre sí. La [[divergencia de Kullback-Leibler, 7. Si e son variables aleatorias independientes normalmente distribuidas, entonces: Su producto XY sigue una distribución con densidad p dada por donde K0 es una función de Bessel modificada de segundo tipo. Su cociente sigue una distribución de Cauchy con X / Y˜ Cauchy (0,σX / σY). De este modo la distribución de Cauchy es un tipo especial de distribución cociente. 8. Si son variables normales estándar independientes, sigue una distribución χ² con n grados de entonces libertad. 9. Si son variables normales estándar independientes, entonces la media muestral y la varianza muestral son independientes. Esta propiedad caracteriza a las distribuciones normales y contribuye a explicar por qué el test-F no es robusto respecto a la no-normalidad). Estandarización de variables aleatorias normales Como consecuencia de la Propiedad 1, es posible relacionar todas las variables aleatorias normales con la distribución normal estándar. Si X ~ N (μ,σ2), entonces es una variable aleatoria normal estándar: Z ~ N (0,1). La transformación de una distribución X ~ N (μ, σ) en una N (0, 1) se llama normalización, estandarización o tipificación de la variable X. Una consecuencia importante de esto es que la función de distribución de una distribución normal es, por consiguiente, A la inversa, si Z es una distribución normal estándar, Z ~ N (0,1), entonces X = σZ + μ es una variable aleatoria normal de media μ y varianza σ2. La distribución normal estándar está tabulada (habitualmente en la forma del valor de la función de distribución Φ) y las otras distribuciones normales pueden obtenerse como transformaciones simples, como se describe más arriba, de la distribución estándar. De este modo se pueden usar los valores tabulados de la función de distribución normal estándar para encontrar valores de la función de distribución de cualquier otra distribución normal. Uso de tablas La probabilidad de que una variable aleatoria (que sigue una distribución normal) se encuentre entre dos valores determinados será en general difícil de calcular (hay que usar la integral de la función de probabilidad). Para ello, existen TABLAS CON LOS VALORES CORRESPONDIENTES, si bien éstos se calculan para la distribución Normal Tipificada. Básicamente, se busca un valor de x (por ejemplo, nos da la probabilidad de que ), y la tabla : En el caso de que la distribución no sea estándar, por ejemplo, con y , tendremos que tipificar la variable de la siguiente manera: Y se obtiene una variable Z normal, que además está tipificada, ahora se consulta en la tabla, La tabla Esta tabla de doble entrada, presenta la probabilidad para Z < x, de la distribución normal tipificada, para valores de x iguales o mayores que cero, en la fila superior esta la parte entera de x, y en la columna de la izquierda los dos primeros decimales, en la casilla donde se cruzan la fila y la columna correspondientes, figura el valor de la probabilidad de que Z < x, con seis cifras decimales, separadas de tres en tres por un espacio en blanco para facilitar la lectura. Tabla Distribución Normal Tipificada. Zp 0,00 1,00 2,00 3,00 4,00 0,00 0, 500 000 0, 841 344 0, 977 249 0, 998 650 0, 999 968 0,01 0, 503 989 0, 843 752 0, 977 784 0, 998 693 0, 999 969 0,02 0, 507 978 0, 846 135 0, 978 308 0, 998 736 0, 999 970 0,03 0, 511 966 0, 848 494 0, 978 821 0, 998 777 0, 999 972 0,04 0, 515 953 0, 850 830 0, 979 324 0, 998 817 0, 999 973 0,05 0, 519 938 0, 853 140 0, 979 817 0, 998 855 0, 999 974 0,06 0, 523 922 0, 855 427 0, 980 300 0, 998 893 0, 999 975 0,07 0, 527 903 0, 857 690 0, 980 773 0, 998 929 0, 999 976 0,08 0, 531 881 0, 859 928 0, 981 237 0, 998 964 0, 999 977 0,09 0, 535 856 0, 862 143 0, 981 691 0, 998 999 0, 999 978 0,10 0, 539 827 0, 864 333 0, 982 135 0, 999 032 0, 999 979 0,11 0, 543 795 0, 866 500 0, 982 570 0, 999 064 0, 999 980 0,12 0, 547 758 0, 868 643 0, 982 997 0, 999 095 0, 999 981 0,13 0, 551 716 0, 870 761 0, 983 414 0, 999 125 0, 999 981 0,14 0, 555 670 0, 872 856 0, 983 822 0, 999 155 0, 999 982 0,15 0, 559 617 0, 874 928 0, 984 222 0, 999 183 0, 999 983 0,16 0, 563 559 0, 876 975 0, 984 613 0, 999 211 0, 999 984 0,17 0, 567 494 0, 878 999 0, 984 996 0, 999 237 0, 999 984 0,18 0, 571 423 0, 880 999 0, 985 371 0, 999 263 0, 999 985 0,19 0, 575 345 0, 882 976 0, 985 737 0, 999 288 0, 999 986 0,20 0, 579 259 0, 884 930 0, 986 096 0, 999 312 0, 999 986 0,21 0, 583 166 0, 886 860 0, 986 447 0, 999 336 0, 999 987 0,22 0, 587 064 0, 888 767 0, 986 790 0, 999 358 0, 999 987 0,23 0, 590 954 0, 890 651 0, 987 126 0, 999 380 0, 999 988 0,24 0, 594 834 0, 892 512 0, 987 454 0, 999 402 0, 999 988 0,25 0, 598 706 0, 894 350 0, 987 775 0, 999 422 0, 999 989 0,26 0, 602 568 0, 896 165 0, 988 089 0, 999 442 0, 999 989 0,27 0, 606 419 0, 897 957 0, 988 396 0, 999 462 0, 999 990 0,28 0, 610 261 0, 899 727 0, 988 696 0, 999 480 0, 999 990 0,29 0, 614 091 0, 901 474 0, 988 989 0, 999 499 0, 999 991 0,30 0, 617 911 0, 903 199 0, 989 275 0, 999 516 0, 999 991 0,31 0, 621 719 0, 904 902 0, 989 555 0, 999 533 0, 999 991 0,32 0, 625 515 0, 906 582 0, 989 829 0, 999 549 0, 999 992 0,33 0, 629 299 0, 908 240 0, 990 096 0, 999 565 0, 999 992 0,34 0, 633 071 0, 909 877 0, 990 358 0, 999 581 0, 999 992 0,35 0, 636 830 0, 911 491 0, 990 613 0, 999 595 0, 999 993 0,36 0, 640 576 0, 913 084 0, 990 862 0, 999 610 0, 999 993 0,37 0, 644 308 0, 914 656 0, 991 105 0, 999 624 0, 999 993 0,38 0, 648 027 0, 916 206 0, 991 343 0, 999 637 0, 999 994 0,39 0, 651 731 0, 917 735 0, 991 575 0, 999 650 0, 999 994 0,40 0, 655 421 0, 919 243 0, 991 802 0, 999 663 0, 999 994 0,41 0, 659 096 0, 920 730 0, 992 023 0, 999 675 0, 999 994 0,42 0, 662 757 0, 922 196 0, 992 239 0, 999 686 0, 999 995 0,43 0, 666 402 0, 923 641 0, 992 450 0, 999 698 0, 999 995 0,44 0, 670 031 0, 925 066 0, 992 656 0, 999 709 0, 999 995 0,45 0, 673 644 0, 926 470 0, 992 857 0, 999 719 0, 999 995 0,46 0, 677 241 0, 927 854 0, 993 053 0, 999 729 0, 999 995 0,47 0, 680 822 0, 929 219 0, 993 244 0, 999 739 0, 999 996 0,48 0, 684 386 0, 930 563 0, 993 430 0, 999 749 0, 999 996 0,49 0, 687 933 0, 931 887 0, 993 612 0, 999 758 0, 999 996 0,50 0, 691 462 0, 933 192 0, 993 790 0, 999 767 0, 999 996 0,51 0, 694 974 0, 934 478 0, 993 963 0, 999 775 0, 999 996 0,52 0, 698 468 0, 935 744 0, 994 132 0, 999 784 0, 999 996 0,53 0, 701 944 0, 936 991 0, 994 296 0, 999 792 0, 999 997 0,54 0, 705 401 0, 938 219 0, 994 457 0, 999 799 0, 999 997 0,55 0, 708 840 0, 939 429 0, 994 613 0, 999 807 0, 999 997 0,56 0, 712 260 0, 940 620 0, 994 766 0, 999 814 0, 999 997 0,57 0, 715 661 0, 941 792 0, 994 915 0, 999 821 0, 999 997 0,58 0, 719 042 0, 942 946 0, 995 059 0, 999 828 0, 999 997 0,59 0, 722 404 0, 944 082 0, 995 201 0, 999 834 0, 999 997 0,60 0, 725 746 0, 945 200 0, 995 338 0, 999 840 0, 999 997 0,61 0, 729 069 0, 946 301 0, 995 472 0, 999 846 0, 999 997 0,62 0, 732 371 0, 947 383 0, 995 603 0, 999 852 0, 999 998 0,63 0, 735 652 0, 948 449 0, 995 730 0, 999 858 0, 999 998 0,64 0, 738 913 0, 949 497 0, 995 854 0, 999 863 0, 999 998 0,65 0, 742 153 0, 950 528 0, 995 975 0, 999 868 0, 999 998 0,66 0, 745 373 0, 951 542 0, 996 092 0, 999 873 0, 999 998 0,67 0, 748 571 0, 952 540 0, 996 207 0, 999 878 0, 999 998 0,68 0, 751 747 0, 953 521 0, 996 318 0, 999 883 0, 999 998 0,69 0, 754 902 0, 954 486 0, 996 427 0, 999 887 0, 999 998 0,70 0, 758 036 0, 955 434 0, 996 532 0, 999 892 0, 999 998 0,71 0, 761 148 0, 956 367 0, 996 635 0, 999 896 0, 999 998 0,72 0, 764 237 0, 957 283 0, 996 735 0, 999 900 0, 999 998 0,73 0, 767 304 0, 958 184 0, 996 833 0, 999 904 0, 999 998 0,74 0, 770 350 0, 959 070 0, 996 927 0, 999 907 0, 999 998 0,75 0, 773 372 0, 959 940 0, 997 020 0, 999 911 0, 999 998 0,76 0, 776 372 0, 960 796 0, 997 109 0, 999 915 0, 999 999 0,77 0, 779 350 0, 961 636 0, 997 197 0, 999 918 0, 999 999 0,78 0, 782 304 0, 962 462 0, 997 281 0, 999 921 0, 999 999 0,79 0, 785 236 0, 963 273 0, 997 364 0, 999 924 0, 999 999 0,80 0, 788 144 0, 964 069 0, 997 444 0, 999 927 0, 999 999 0,81 0, 791 029 0, 964 852 0, 997 522 0, 999 930 0, 999 999 0,82 0, 793 892 0, 965 620 0, 997 598 0, 999 933 0, 999 999 0,83 0, 796 730 0, 966 375 0, 997 672 0, 999 935 0, 999 999 0,84 0, 799 545 0, 967 115 0, 997 744 0, 999 938 0, 999 999 0,85 0, 802 337 0, 967 843 0, 997 813 0, 999 940 0, 999 999 0,86 0, 805 105 0, 968 557 0, 997 881 0, 999 943 0, 999 999 0,87 0, 807 849 0, 969 258 0, 997 947 0, 999 945 0, 999 999 0,88 0, 810 570 0, 969 946 0, 998 011 0, 999 947 0, 999 999 0,89 0, 813 267 0, 970 621 0, 998 073 0, 999 949 0, 999 999 0,90 0, 815 939 0, 971 283 0, 998 134 0, 999 951 0, 999 999 0,91 0, 818 588 0, 971 933 0, 998 192 0, 999 953 0, 999 999 0,92 0, 821 213 0, 972 571 0, 998 249 0, 999 955 0, 999 999 0,93 0, 823 814 0, 973 196 0, 998 305 0, 999 957 0, 999 999 0,94 0, 826 391 0, 973 810 0, 998 358 0, 999 959 0, 999 999 0,95 0, 828 943 0, 974 412 0, 998 411 0, 999 960 0, 999 999 0,96 0, 831 472 0, 975 002 0, 998 461 0, 999 962 0, 999 999 0,97 0, 833 976 0, 975 580 0, 998 510 0, 999 964 0, 999 999 0,98 0, 836 456 0, 976 148 0, 998 558 0, 999 965 0, 999 999 0,99 0, 838 912 0, 976 704 0, 998 605 0, 999 966 0, 999 999 Ejemplo: Buscar la probabilidad normal tipificada de que Z < 2,04. En la columna del 2 y la fila del 0,04, esta el valor 0,979 324, esto es: Para otros valores En la tabla anterior se pueden buscar los valores de la probabilidad normal tipificada: para valores de x mayores o iguales a cero, como el ejemplo anterior, hay más casos, que con los datos de la tabla se pueden resolver. Para x < 0 Para hacer este cálculo hay que tener en cuenta lo siguiente: sabiendo que la suma de la probabilidad de que Z sea menor que un valor, más la probabilidad de que sea mayor que ese valor es uno: despejando: Y sabiendo que la función normal tipificada es simétrica respecto al eje x = 0: y sustituyendo, tenemos que: Donde el valor: se busca en la tabla. Ejemplo Cual es la probabilidad: P(Z(0,1) < − 1,32) los valores negativos no vienen en la tabla, pero según lo anterior: según la tabla: por tanto: que resulta: Probabilidad de Z > x y x > 0 Como en el caso anterior partimos de: despejando: y el valor: se busca en la tabla. Ejemplo Cual es la probabilidad: P(Z(0,1) > 2,11) según el calculo anterior: de la tabla tenemos: lo que resulta: que resulta: Probabilidad de Z > x y x < 0 Para calcular: Partimos de la simetría de la función normal tipificada: y sustituyendo: resulta: ordenando Ejemplo Cual es la probabilidad: P(Z(0,1) > − 2,02) Según lo anterior: buscando el valor en la tabla, tenemos que: Probabilidad de x1 < Z < x2 Para calcular la probabilidad de que la variable se encuentre entre dos valores x1 y x2, siendo x1 < x2 se tiene en cuenta que: los valores de cada una de estas probabilidades se buscan en la tabla por separado, o se calculan según el caso, por los métodos anteriores. Ejemplo Cual es la probabilidad: P(1,50 < Z(0,1) < 2,00) se buscan en la tabla las probabilidades: Luego, según lo anterior: esto es: Realizando la operación: AUTOEVALUACION Distribución Binomial 1. Un agente de seguros contrata 5 pólizas con personas de la misma edad y de buena salud. Según las tablas en uso, la probabilidad de que una persona de esa edad esté viva dentro de 30 años es 2/3. Hallar la probabilidad de que dentro de 30 años vivan: Las 5 personas Al menos 4 A lo sumo una No menos de una 2. Calcular, para una distribución binomial en la que p= 0,7 y N = 60: La media La desviación típica El coeficiente momento de sesgo El coeficiente momento de curtosis 3. Si el 20% de las MEMORY CARD SCPH-1020 para PlayStation ensambladas por SONY son defectuosas, determinar la probabilidad de que, entre cuatro memorias escogidas al azar: tres sean defectuosas Ninguna sea defectuosa Al menos dos sean defectuosas Una sea sin defectos A lo sumo tres funcionen correctamente Distribución de Poisson 1. Si el 3% de las válvulas manufacturadas por una compañía son defectuosas, hallar la probabilidad de que en una muestra de 100 válvulas 5 sean defectuosas. 2. Entre las 2 PM y las 4 PM el número promedio de llamadas telefónicas por minuto que recibe una centralista es 2,5. hallar la probabilidad de que en un minuto cualquiera se produzcan menos de 2 llamadas. 3. Si la probabilidad de que un equipo de computación sufra un nuevo ataque por el virus informático alphamiubeta (una variante Z del gusano Blaster), luego de instalarle determinado programa antivirus es 0,001. Hallar la probabilidad de que entre 2000 equipos con dicho programa instalado por lo menos dos de ellos “sufran tal infección”. Distribución Normal 1. Hallar el area ubicada bajo la curva normal y entre los valores de Z señalados: Z = 0 y Z = 1,23 Z = -1,45 y Z = 0 Z = -0,89 y Z = 1,39 Z = 1,06 y Z = 1,94 Z = -2,96 y Z = -2,54 A la izquierda de Z = - 0,67 A la derecha de Z = - 1,28 2. Si los diámetros de las bolas de cojinetes están normalmente distribuidas con media de 0,6140 pulgadas y desviación típica de 0,0025. determine el porcentaje de ellas con diámetros: Entre 0,610 y 0,618; ambos inclusive Mayores que 0,617 Menores que 0,608 Distribución híper geométrica En Estadística la Distribución híper geométrica es una distribución de probabilidad discreta con tres parámetros discretos N, d y n cuya función de probabilidad es: N = Tamaño de población. n = Tamaño de muestra. d = Cantidad de elementos que cumple característica deseada. x = Cantidad de éxitos. Aquí, se refiere al coeficiente binomial, o al número de combinaciones posibles al seleccionar b elementos de un total a. Esta distribución se refiere a un espacio muestral donde hay elementos de 2 tipos posibles. Indica la probabilidad de obtener un número de objetos x de uno de los tipos, al extraer (sin reemplazo) una muestra de tamaño n, de un total de N objetos, de los cuales d son del tipo requerido. El valor esperado de una variable aleatoria X de distribución híper geométrica es Y su varianza Llamando , entonces: La distribución híper geométrica se puede aproximar por una distribución binomial Bi (n,p) si y Una variable tiene distribución hipergeométrica si procede de un experimento que cumple las siguientes condiciones: 1) Se toma una muestra de tamaño n, sin reemplazamiento, de un conjunto finito de N objetos. 2) K de los N objetos se pueden clasificar como ‚éxitos y N - K como fracasos. X cuenta el número de éxitos obtenidos en la muestra. El espacio muestral es el conjunto de los números enteros de 0 a n, ó de 0 a K si K < n. En este caso, la probabilidad del éxito en pruebas sucesivas no es constante pues depende del resultado de las pruebas anteriores. Por tanto, las pruebas no son independientes entre sí. Parámetros Dominio Función de probabilidad (fp) Media Moda Varianza Coeficiente de simetría Curtosis Función generadora de momentos (mgf) Función característica Distribución multinomial La distribución multinomial es esencialmente igual a la binomial con la única diferencia de que cada prueba tiene más de dos posibles resultados mutuamente excluyentes. Si tenemos K resultados posibles (Ei , i = 1, ... , K) con probabilidades fijas (pi , i = 1, ... , K), la variable que expresa el número de resultados de cada tipo obtenidos en n pruebas independientes tiene distribución multinomial. La probabilidad de obtener x1 resultados E1, x2 resultados E2, etc. se representa como: Los parámetros de la distribución son p1,..., pK y n. Distribución exponencial La distribución exponencial es una distribución de probabilidad continua con un parámetro λ > 0 cuya función de densidad es -Su función de distribución es Aquí e significa el número e. El valor esperado y la varianza de una variable aleatoria X con distribución exponencial son Función Función de de densidad distribución de de probabilidad probabilidad Parámetros Dominio Función de densidad (pdf) λe − λx Función de distribución (cdf) 1 − e − λx Media Mediana Moda Varianza Coeficiente de simetría Curtosis Entropía Función generadora de momentos (mgf) Función característica AUTOEVALUACION Distribución multinomial 1. Se lanza un dado 6 veces. Hallar la probabilidad de que: a) salga uno una vez, dos veces el dos y tres veces tres; b) que salga cada numero una vez. 2. una caja contiene 5 bolas de color rojo, 4 de color blanco y tres de color azul. Se saca al azar una bola de la caja, se anota su color y se vuelve a colocar en la caja. Hallar la probabilidad de que entre seis bolas asi seleccionadas, 3 sea de color rojo, 2 de color blanco y 1 azul. 6.8.4.1 Ejemplo En un experimento de laboratorio se utilizan 10 gramos de . Sabiendo que la duración media de un átomo de esta materia es de 140 días, ¿cuantos idas transcurrirán hasta que haya desaparecido el de este material? Solución: El tiempo T de desintegración de un átomo de de distribución exponencial: Como el número de átomos de es una v.a. existentes en una muestra de 10 gramos es enorme, el histograma de frecuencias relativas formado por los tiempos de desintegración de cada uno de estos átomos debe ser extremadamente aproximado a la curva de densidad, f. Del mismo modo, el polígono de frecuencias relativas acumuladas debe ser muy aproximado a la curva de su función de distribución F. Entonces el tiempo que transcurre hasta que el del material radiactivo se desintegra es el percentil 90, t90, de la distribución exponencial, es decir Figura: Como el número de átomos (observaciones) es extremadamente alto en 10 gramos de materia, el histograma puede ser aproximado de modo excelente por la función de densidad exponencial, y el polígono de frecuencias acumuladas por la función de distribución. 6.8.4.2 Ejemplo Se ha comprobado que el tiempo de vida de cierto tipo de marcapasos sigue una distribución exponencial con media de 16 años. ¿Cuál es la probabilidad de que a una persona a la que se le ha implantado este marcapasos se le deba reimplantar otro antes de 20 años? Si el marcapasos lleva funcionando correctamente 5 años en un paciente, ¿cuál es la probabilidad de que haya que cambiarlo antes de años? Solución: Sea T la variable aleatoria que mide la duración de un marcapasos en una persona. Tenemos que Entonces En segundo lugar Luego como era de esperar, por ser propio a un mecanismo exponencial, o sea, en la duración que se espera que tenga el objeto, no influye en nada el tiempo que en la actualidad lleva funcionando. Es por ello que se dice que ``la distribución exponencial no tiene memoria". 4) DISTRIBUCIÓN HIPERGEOMETRICA GENERALIZADA. Características: a) Al realizar un experimento con este tipo de distribución, se esperan más de dos tipos de resultados. b) Las probabilidades asociadas a cada uno de estos resultados no son constantes. c) Los ensayos o repeticiones del experimento no son independientes entre sí. d) El número de repeticiones del experimento n, es constante. Entonces en este caso se tienen más de dos tipos de objetos, por lo que la fórmula a utilizar sería: donde: N = x + y + z = total de objetos a = total de objetos del primer tipo b = total de objetos del segundo tipo c = N-a-b = total de objetos del tercer tipo n = objetos seleccionados en la muestra x = objetos del primer tipo en la muestra y = objetos del segundo tipo en la muestra z = n-x-y = objetos del tercer tipo en la muestra Ejemplos: 1.En un lote de productos se tienen 20 productos sin defectos, 3 con defectos menores y 2 con defectos mayores, se seleccionan al azar 5 productos de este lote, determine la probabilidad de que a) 3 de los productos seleccionados no tengan defectos y 1 tenga defectos menores, b) 4 de los productos seleccionados no tengan defectos y 1 tenga defectos menores. Solución: a)N= 20+3+2 =25 total de artículos a=20 productos sin defectos b= 3 productos con defectos menores N-a-b= 2 productos con defectos mayores n= 5 productos seleccionados en la muestra x = 3 productos sin defectos en la muestra = variable que nos define el # de productos sin defectos en la muestra y = 1 producto con defectos menores en la muestra = variable que nos define el # de productos con defectos menores en la muestra z = n-x-y = 5–3−1 = 1 producto con defectos mayores en la muestra = variable que nos define el # de productos con defectos mayores en la muestra b)N= 25 a=20 productos sin defectos b= 3 productos con defectos menores N-a-b= 2 productos con defectos mayores n= 5 productos seleccionados en la muestra x = 4 productos sin defectos en la muestra = variable que nos define el # de productos sin defectos en la muestra y = 1 producto con defectos menores en la muestra = variable que nos define el # de productos con defectos menores en la muestra z = n-x-y = 5–4−1 = 0 productos con defectos mayores en la muestra = variable que nos define el # de productos con defectos mayores en la muestra 3.Un club de estudiantes extranjeros tiene en sus listas a 2 canadienses, 3 japoneses, 5 italianos y 2 alemanes. Si se selecciona aleatoriamente un comité de 4 estudiantes, encuentre la probabilidad de que: a)estén representadas todas las nacionalidades, b)estén representadas todas las nacionalidades, excepto la italiana. Solución: a) N = 12 estudiantes a = 2 Canadienses b = 3 Japoneses c = 5 Italianos N-a-b-c = 2 Alemanes n = 4 estudiantes seleccionados para formar comité x = 1 estudiante Canadiense en el comité seleccionado y = 1 estudiante Japonés en el comité seleccionado z = 1 estudiante Italiano en el comité seleccionado n-x-y-z = 1 estudiante Alemán en el comité seleccionado b) N = 7 estudiantes quitando a los Italianos a = 2 Canadienses b = 3 Japoneses N-a-b = 2 Alemanes n = 4 estudiantes seleccionados para formar comité x = 1 o 2 estudiantes Canadienses en el comité seleccionado y = 1 o 2 estudiantes Japoneses en el comité seleccionado n-x-y= 1 o 2 estudiantes Alemanes en el comité seleccionado p(estén representadas todas las nacionalidades, excepto la italiana) Distribución hipergeométrica Por claridad, consideremos el siguiente ejemplo: Tenemos una baraja de cartas españolas (N=40 naipes), de las cuales nos vamos a interesar en el palo de oros (D=10 naipes de un mismo tipo). Supongamos que de esa baraja extraemos n=8 cartas de una vez (sin reemplazamiento) y se nos plantea el problema de calcular la probabilidad de que hayan k=2 oros (exactamente) en esa extracción. La respuesta a este problema es En lugar de usar como dato D es posible que tengamos la proporción existente, p, entre el número total de oros y el número de cartas de la baraja de modo que podemos decir que: Este ejemplo sirve para representar el tipo de fenómenos que siguen una ley de distribución hipergeométrica. Diremos en general que una v.a. X sigue una distribución hipergeométrica de parámetros, N, n y p, lo que representamos del modo, si su función de probabilidad es 6.4.10.1 Observación Cuando el tamaño de la población (N) es muy grande, la ley hipergeométrica tiende a aproximarse a la binomial: El valor esperado de la hipergeométrica es el mismo que el de la binomial, sin embargo su varianza no es exactamente la de la binomial, pues está corregida por un factor, , que tiende a 1 cuando . A este factor se le denomina factor de corrección para población finita.