MODELOS ESTOCASTICOS IVAN DERPICH C. 1 REPASO VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD 2 4.1. Variables Aleatorias: Ideas Básicas La mayoría de las aplicaciones que los administradores hacen de la teoría de probabilidades envuelve variables aleatorias y resultados numéricos. Ejemplo: La sobreventa, que es el número de personas que teniendo reservas de un vuelo, finalmente no lo toman. Este número es aleatorio y varía de un vuelo a otro, y día por día, y de una aerolínea a otra. Ciertamente esta variable es una variable numérica, por lo cual tiene sentido hablar del número promedio de sobreventa. El concepto de variable aleatoria es la idea central en el entendimiento de resultados numéricos aleatorios. Informalmente una variable aleatoria es un resultado cuantitativo obtenido de un experimento aleatorio. Por ejemplo, considere el experimento de seleccionar a un administrador aleatoriamente desde un pool de administradores en una empresa. 3 Definamos como Y el número de años de escolaridad que ha tenido el administrador. Este resultado será numérico, tal como 12 o 16, no una categoría como “privado” o “publico”. Luego, Y está sujeto a variación aleatoria. Si el experimento se repite haciendo una nueva selección, el resultado será distinto. Estas dos características – resultados numéricos y sujetos a aleatoriedad- son aspectos claves de la definición de una variable aleatoria. Para especificar una variable aleatoria, necesitamos conocer sus posibles valores y sus probabilidades. Para los años de escolaridad, por ejemplo, los valores pueden ser 0,1,2,…hasta un máximo, quizás de 20. Las probabilidades pueden ser obtenidas de los registros de personal de la empresa. Por ejemplo si 284 de 500 administradores han completado exactamente 4 años de universidad (después de 12 años de básica y media) la probabilidad de que Y=16 debería ser 284/500=0,568. ç Las probabilidades para otros valores se pueden obtener de manera similar. 4 Definición informal) 4.1 Variable aleatoria: (Definición Una variable aleatoria es cualquier resultado cuantitativo de un experimento que está sujeto a variabilidad aleatoria. Se determina fijando los posibles valores y la probabilidad asociada con cada valor. La probabilidad asociada con cada valor de una variable aleatoria, se obtiene sumando las probabilidades de todos los resultados que dan ese valor. Suponga que una planta produce teléfonos celulares en dos líneas de producción. Se seleccionan aleatoriamente 3 teléfonos al azar para ser inspeccionados destructivamente. Llamemos H y T las líneas de producción. Encuentre la distribución de probabilidades de Y, el número de teléfonos muestreados producidos en la línea H. Se tienen 8 resultados posibles. Resultado HHH HHT HTH THH HTT THT TTH TTT Probabilidad 1/8 1/8 1/8 1/8 1/8 1/8 1/8 1/8 Valor de Y 3 2 2 2 1 1 1 0 Luego, por ejemplo para Y=2 se tiene: Pr{Y = 2} = Pr{HHT } + Pr{HTH } + Pr{THH } = 1 1 1 3 + + = 8 8 8 8 Se acostumbra nombrar a las variables aleatorias con letras mayúsculas del final de alfabeto, así por ejemplo 5 Y = número de suscriptores al diario la tercera en una muestra de 200 personas. Los valores que toma una variable aleatoria se denotan habitualmente por letras minúsculas. Así podríamos decir que y vale 0, 1 ó 2. La diferencia entre Y, la variable aleatoria e y uno de sus valores particulares es la diferencia entre un proceso y un resultado particular. Ejemplo 4.1: Suponga que se toma una muestra aleatoria de dos personas de una gran población que se compone de un 30% de subscriptores a una revista de negocios y 70% de no subscriptores. a) Lista de posibles resultados b) Asignar posibilidades c) Defina la variable cuantitativa Y como el número de subscriptores en la muestra. Especifique los valores posibles que la variable aleatoria puede asumir y determine cada uno de los valores de probabilidad. Solución a) Si definimos como S a un subscriptor y N a un no subscriptor, entonces todos los resultados posibles del experimento de muestreo son : { (S,S), (S,N), (N,S), (N,N) } 6 b) De la definición del problema, sabemos que P(S)=0,3 y P(N)=0,7. Bajo el supuesto que los resultados de las dos personas son independientes, se tiene se tienen las siguientes probabilidades: P(S,S)= (0,3)2 =0,09 P(S,N)= (0,3)*(0,7)=0,21 P(N,S)= (0,7)*(0,3)=0,21 P(N,N)=(0,7)2 =0,49 1,00 c) Si la variable aleatoria Y es el número de subscriptores en una muestra de dos personas de la población de interés, entonces los posibles valores de Y son 0, 1 y 2. Las probabilidades asociadas con estos valores se pueden determinar de las probabilidades de los resultados del experimentos correspondientes a cada valor numérico de la variable Y. Resultado del Probabilidad y experimento (N,N) (N,S) (S,N) (S,S) 0,49 0,21 0,21 0,09 0 1 1 2 P(y) 0,49 0,42 0,09 7 V. A Discretas Las variables aleatorias que hemos considerados hasta ahora son discretas, sus posibles valores han sido distintivos y separados, como 0 o 1 o 2 o 3. V. A. Continuas Otras variables aleatorias que se consideran habitualmente son las continuas: sus posibles valores forman un intervalo o rango (o continuum) Por ejemplo, los retornos anuales por peso invertido en una acción común podrían estar en un rango desde 0 hasta un valor muy grande. En la practica, virtualmente todas las variables aleatorias asumen un conjunto de valores discretos; el retorno por peso de una inversión de un millón de pesos en una acción común, podría ser 1,06219424 o 1,06219425. Pero cuando hay muchos valores posibles para una variable aleatorias a veces matemáticamente útil tratarla como continua. De hecho, una de las importantes especificaciones de probabilidades teóricas, es -la bien formada distribución normal- que formalmente solo se aplica a variables continuas. En este capitulo solo se definirán algún lenguaje y notación para variables aleatorias continuas. 8 9 4.2. Distribuciones aleatorias discretas de Probabilidad: Variables Distribución de probabilidades La distribución de probabilidades PY(y) de una variable aleatoria discreta Y asigna una probabilidad a cada valor y de la variable aleatoria. La distribución de probabilidades para Y se puede expresar como una formula, un gráfico o una tabla. Definición 4.2 Propiedades de una Distribución de Probabilidad Discreta 1. La probabilidad PY(y) asociada con cada valor de Y debe cumplir: 0 ≤ PY ( y ) ≤ 1 2. La suma de las probabilidades de todos los valores de Y es igual a 1. ∑ P ( y) = 1 Y y 3. Ya que los diferentes valores de Y son eventos mutuamente excluyentes, sus probabilidades son aditivas. Por lo tanto: P(Y = a oY = b) = PY (a) + PY (b) Para la variable Y= numero de líneas H de una muestra de tres teléfonos, podemos definir Y a través de una tabla, como sigue: 10 y: PY(y): 0 1/8 1 3/8 2 3/8 3 3/8 O podemos usar una fórmula: PY ( y ) = 3! 1 ( ) y!(3 − y )! 8 Donde en general k!= k (k − 1)(k − 2)...(1) y por convención 0!= 1 . Sustituyendo y=0,1,2 y 3 en la formula anterior se tienen las mismas probabilidades listadas en la tabla anterior. PY ( y = 0) : 0 1 2 3 × 2 ×1 1 1 = (1)(3 × 2 × 1) 8 8 3 × 2 ×1 1 3 = (1)(2 × 1) 8 8 3 × 2 ×1 1 3 = (2 × 1)(1) 8 8 3 3 × 2 ×1 1 1 = (3 × 2 × 1)(1) 8 8 Histograma de probabilidades Un gráfico de esta distribución de probabilidades, llamado histograma de probabilidades, se muestra en la figura 4.2. La variable aleatoria discreta Y es el número de teléfono de la línea H en una muestra de tres. Gráfico de PY(y) para el experimento de muestreo de telefonos 0,40 Pro b ab ilid ad es 0,35 0,30 0,25 0,20 0,15 0,10 0,05 0,00 1 2 3 4 número de fonos de la linea H Función de distribución acumulada La función de distribución acumulada es otra función que es particularmente apropiada cuando se calculan probabilidades y tiene aplicaciones en métodos computacionales. En general la función de distribución acumulativa FY(y) para una variable aleatoria discreta Y es una función que especifica la probabilidad de que 11 Y ≤ y para todos los valores de y. Por la ley de la suma de probabilidades, todo lo que debemos hacer es sumar las probabilidades individuales para valores menores o iguales al valor especificado y. De este modo: FY ( y ) = P(Y ≤ y ) = PY (0) + PY (1) + ... + PY ( y ) Esto puede ilustrarse para el ejemplo de muestreo de teléfonos discutido previamente: y: PY(y) FY(y) 0 1/8 1/8 1 3/8 4/8 2 3/8 7/8 3 1/8 8/8 Como el nombre lo sugiere y el ejemplo ilustra, la función de distribución acumulativa para un valor particular y suma todas las probabilidades para Y ≤ y . Por ejemplo: FY (2) = P (Y ≤ 2) = 1 3 3 7 + + = 8 8 8 8 y FY (3) = P(Y ≤ 3) = 1 La función de distribución acumulativa (abreviada fda) se usa frecuentemente para construir tablas de probabilidad, de modo que el usuario no tenga que sumar muchos datos para encontrar las probabilidades. Como ilustración, supongamos que Y es el número de casos de ataques coronarios que llegan en un día dado a un gran hospital de enseñanza metropolitano. La función de distribución de distribución acumulada queda como sigue: y: FY(y): y: FY(y): 0 0,001 9 0,510 1 0,003 10 0,672 2 0,006 11 0,782 3 0,011 12 0,870 4 0,024 13 0,925 5 0,061 14 0,964 6 0,139 15 0,988 7 0,224 16 0,997 8 0,336 17 1,00 Suponga que el hospital tiene 14 camas de cuidados coronarios disponibles al comienzo de un día particular. La probabilidad de que el número de nuevos casos Y es menor o igual que 14 puede leerse directamente de la tabla 0,964. Es casi tan fácil como encontrar la probabilidad de Y sea 15 o mas; P (Y ≥ 15) = 1 − P (Y ≤ 14) = 1 − 0,964 = 0,036 . 12 4.3. Valor esperado, Varianza y Desviación estándar En la sección previa introducimos el lenguaje de variables aleatorias. Ya que las variables aleatorias tienen valores numéricos, tiene sentido hablar de promedios y variabilidad. En esta sección definiremos la media (o valor esperado) y la varianza de una cantidad aleatoria. Valor esperado El valor promedio de una variable aleatoria debe tomar en cuenta todos los posibles valores de esa variable y sus respectivas probabilidades .El valor esperado de invariable aleatoria discreta Y con distribución de probabilidad PY(y) es el promedio ponderado en probabilidad de sus posibles valores. Recordemos que un promedio ponderado es la suma de los valores ponderados dividido por la suma de los pesos ponderadores. El valor esperado de Y es también llamado media de Y , se denota E(Y) o µ y . Definición 4.3 Valor Esperado de una Variable Aleatoria Discreta Para una variable aleatoria discreta Y con distribución de probabilidad PY(y), el valor esperado de Y es: µ y = E (Y ) = ∑ yPY ( y ) y Para encontrar E(Y) tome cada uno de los valores posibles de y, multiplíquelo por su probabilidad PY(y) y sume todos los resultados. Ejemplo 4.3 Una firma está considerando dos posibles inversiones. Como aproximación gruesa, la firma asigna probabilidades (subjetivas) para los resultados posibles de las inversiones, que son perder un 20% por peso invertido, perder 10%, mantenerse sin ganar o perder, ganar un 10% por peso invertido y ganar un 20%. Sea Y el retorno por peso invertido en el primer proyecto y Z el retorno por peso invertido. Las probabilidades de la firma son: y: PY(y) -0,20 0,1 -0,10 0,2 0 0,4 0,10 0,2 0,20 0,1 Z: PZ(z) -0,20 0,01 -0,10 0,04 0 0,1 0,10 0,5 0,20 0,35 Calcule los retornos esperados por peso invertido en cada proyecto. ¿ Cuál inversión parece ser más atractiva ? Solución: El proyecto Y, parece menos atractivo que el Z, pero ¿ es así ? para ello calculemos el valor esperado de cada proyecto. 13 y -0,20 -0,10 0 0,10 0,20 PY(y) 0,1 0,2 0,4 0,2 0,1 y PY(y) -0,02 -0,02 0 0,02 +0,02 E(Y)=0 z -0,20 -0,10 0 0,10 0,20 PZ(z) 0,01 0,04 0,1 0,5 0,35 zPZ(z) -0,002 -0,004 0 0,050 +0,070 E(Y)=0,114 El valor esperado Y es menor que el de Z, por lo tanto el proyecto Z es preferible al proyecto Y. Estos cálculos pueden ser hechos fácilmente con una hoja de cálculo o un paquete estadístico. Liste los posibles valores en una columna, las probabilidades correspondientes en otra columna, multiplicar los valores correspondientes y luego sume. Interpretación de E(Y) El valor esperado (media) de una variable aleatoria Y puede ser interpretado i en varias formas. Primero, es simplemente un promedio ponderado de probabilidades, segundo se puede pensar como un promedio de largo plazo. Ejemplo 4.4. Suponga que una población consta de los siguientes valores y frecuencias asociadas. Valor: 1000 2000 3000 4000 Frecuencia 80 60 40 20 (N=200) La media poblacional es 2000. sea Y una variable aleatoria de la población. Encuentre PY(y) y E(Y). Solución: Los posibles valores y sus probabilidades son: y: 1000 2000 3000 PY(y) 80/200=0,4 60/200=0,3 40/200=0,2 4000 20/200=0,1 El valor esperado es: E (Y ) = 1000 * 0,4 + 2000 * 0,3 + 3000 * 0,2 + 4000 * 0,1 = 2000 E(Y) es la media de la población. Varianza de una variable aleatoria Hemos discutido las diferentes interpretaciones asociadas con el valor esperado de una variable aleatoria discreta. Otra característica igualmente importante de una variable aleatoria discreta es la varianza y la desviación estándar. La varianza de un conjunto de datos es el promedio de las desviaciones cuadráticas de la media. 14 Similarmente, la varianza de una variable aleatoria Y, Var(Y), es el promedio ponderado por las probabilidad de las desviaciones cuadráticas con respecto a la media. Definición 4.4 Varianza y Desviación Estándar de una Variable aleatoria discreta: Si Y es una variable aleatoria discreta, entonces : σ Y2 = Var (Y ) = ∑ ( y − µ Y ) 2 PY ( y ) , donde µ Y = E (Y ) y La desviación estándar de Y, denotada por σ Y = Var (Y ) Para calcular Var(Y), tomar cada valor restar el valor esperado µ Y = E (Y ) , elevar al cuadrado esta diferencia , multiplicar por la probabilidad PY(y), y sumar. Ejemplo 4.6 Encuentre la varianza y desviación estándar para Y y Z del ejemplo 4.3. Solución: En el ejemplo 4.3 se encontró µ y = E (Y ) = 0 y µ Z = E ( Z ) = 0,114 . y -0,20 -0,10 0 0,10 0,20 z -0,20 -0,10 0 0,10 0,20 PY(y) 0,1 0,2 0,4 0,2 0,1 PZ(z) 0,01 0,04 0,1 0,5 0,35 (y- µ Y ) -0,20 -0,10 0 0,10 0,20 (z- µ Z ) -0,314 -0,214 -0,114 0-,114 0,086 (y- µ Y ) 2 0,04 0,01 0 0,01 0,04 (y- µ Y ) 2PY(y) 0,004 0,002 0 0,002 0,004 2 σ Y = 0,012 σ Y = 0,12 = 0,110 (z- µ Z ) 2 (z- µ Z ) 2PZ(z) 0,098596 0,045796 0,012996 0,00196 0,07396 0,000988596 0,00183184 0,00129960 0,00009800 0,00258860 σ Z2 = 0,006804 σ Z = 0,006804 = 0,082 La distribución Y tiene mayor variabilidad. El grueso de la distribución Z está concentrado entre los valores mayores 0,1 y 0,2; mientras que las probabilidades Y están mas repartidas entre todos los valores posibles. La varianza de una inversión se toma habitualmente como una medida de riesgo, en que mayores varianzas indican mayores niveles de riesgo. En este ejemplo la inversión Z tiene mayor valor esperado de retorno y menor riesgo. 15 La computación de la varianza y la desviación estándar son fáciles de hacer en una planilla electrónica o en un paquete estadístico. Se hace una columna (o una fila) con los valores y otra con sus probabilidades, tal como lo hicimos para calcular el valor esperado. Se construye una nueva columna restando la media de cada uno de los valores y se eleva al cuadrado el resultado. Luego se multiplican los valores cuadráticos por la probabilidad correspondiente y finalmente se suman todos los resultados para obtener la varianza. Luego se toma la raíz cuadrada de la varianza para obtener la desviación estándar. En la figura 4.6 se presenta un arreglo en Excel para calcular el valor esperado, la varianza y la desviación estándar de la variable Y= número de cajas abiertas en un supermercado a las 8 AM. 16 Figura 4.6 Valor esperado, Varianza y desviación estándar con Excel y P(y) 0 1 2 3 4 5 6 7 8 9 10 0,1 0,15 0,25 0,2 0,1 0,08 0,05 0,02 0,02 0,015 0,015 0 0,15 0,5 0,6 0,4 0,4 0,3 0,14 0,16 0,135 0,15 9 4 1 0 1 4 9 16 25 36 49 0,9 0,6 0,25 0 0,1 0,32 0,45 0,32 0,5 0,54 0,735 yP(y) Valor Esperado y-uY (y-uY)2 Varianza Valor esperado= Varianza = Desviación estándar= SUMA(B3:L3) SUMA((B7:L7) 2,935 4,715 2,171 La varianza y la desviación estándar de una variable no pueden ser negativas. La varianza es 0 si todos los valores están concentrados en un sólo valor. Mientras mas repartida está la probabilidad entre todos los valores, mayor es su valor. Este hecho proviene de que la varianza es el promedio en probabilidad de las desviaciones cuadráticas. Si las mayores desviaciones cuadráticas están en los extremos hay mayor probabilidad de que la varianza y la desviación estándar serán grandes. 4.4 Distribución Conjunta de Probabilidad e Independencia Hemos desarrollado un lenguaje básico para variables aleatorias discretas. En esta sección se extiende el lenguaje a distribuciones conjuntas de probabilidad para dos variables aleatorias X e Y. Se hacen nuevas definiciones para el caso de 2 variables aleatorias discretas. Probabilidades Conjuntas Cuando nos enfrentamos a dos variables aleatorias X e Y, es conveniente trabajar con probabilidades conjuntas. La distribución conjunta de los eventos A y B es la probabilidad que ambos eventos ocurran, P(A y B). Sea A el evento X=x, y B el evento Y=y. Se define la probabilidad PXY(x,y) como la función que provee la distribución conjunta para cada par de valores x e y. Ejemplo 4.9 Suponga que en la sala de emergencia de un pequeño hospital, la mayoría de los casos que llegan son ataques cardíacos y traumas (por accidentes o acciones de violencia). Definamos las llegadas de personas de una noche cualquiera de fin de semana como, X=número de ataques cardíacos e Y=número de traumas. La distribución conjunta de probabilidades PXY(x,y) se muestra a continuación: 17 Y 0 2/82 4/84 6/84 X 0 1 2 1 3/84 6/84 9/84 2 4/84 8/84 12/84 3 5/84 10/84 15/84 Interprete el valor 10/84 en la tabla. Solución: El valor 10/84 es la probabilidad conjunta PXY(1,3) , esto es, la probabilidad de que X=1 y Y=3 en una noche de fin de semana cualquiera. Dicho de otra forma es la probabilidad de que ocurra 1 caso de ataque cardíaco y 3 traumas en una noche cualquiera de fin de semana. Probabilidades marginales Una vez que se ha establecido la distribución conjunta de probabilidad, las probabilidades marginales se pueden calcular, por suma. Ejemplo 4.10 Encontrar la distribución de probabilidad conjunta de X y la distribución de probabilidad conjunta de Y del ejemplo 4.9. Solución: Sume a través de las columnas para obtener la probabilidad marginal de X y a través de las filas para obtener la probabilidad marginal de Y. x 0 1 Y 2 0 1 2 PY(y) 2/82 4/84 6/84 12/84 3/84 6/84 9/84 18/84 4/84 8/84 12/84 24/84 3 PX(x) 5/84 10/84 15/84 30/84 14/84 28/84 42/84 Estas ideas se pueden expresar también en fórmulas. Para encontrar PX(x) sume las probabilidades conjuntas de x para todo valor posible de y : PX ( x) = ∑ P( x, y ) y En este ejemplo P( X = 1) = ∑ PXY (1, y ) y = PXY(1,0) + Pxy(1,1) + Pxy(1,2) + PXY(1,3) = 4 6 8 10 28 + + + = 84 84 84 84 84 En este ejemplo: 18 P(Y = 1) = ∑ PXY ( x,1) x = PXY (0,1) + PXY (1,1) + PXY (2,1) = = 3 6 9 18 + + = 84 84 84 84 En una planilla electrónica se pueden hacer estos cálculos de manera muy sencilla. Por ejemplo suponga que una compañía de arriendo de automóviles como parte de su sistema de créditos, recoge las probabilidades conjuntas de dos variables: X= número de muertes ocurridas e Y= número de tarjetas de crédito impagas, resultantes de una toma de datos aleatoria. El archivo Excel se muestra en la figura 4.7. A 1 Probabili B Figura 4.7 D C E F G y dades Conjuntas 2 3 4 X 5 6 0 1 2 A 1 Probabili B 0 0,06 0,13 0,08 1 0,11 0,24 0,04 2 0,16 0,09 0,03 3 0,03 0,02 0,01 =SUMA(C3:C5) =SUMA(D3:D5) =SUMA(E3:E5) =SUMA(F3:F5) C D dades Conjuntas 2 3 4 5 6 X E =SUMA(C3:F3) =SUMA(C4:F4) =SUMA(C5:F5) F G 3 0,03 0,02 0,01 0,06 0,36 0,48 0,16 1 y 0 1 2 0 0,06 0,13 0,08 0,27 1 0,11 0,24 0,04 0,39 2 0,16 0,09 0,03 0,28 La fórmula “=SUMA” calcula la probabilidad marginal inmediatamente. Se puede extender la notación básica de probabilidad a probabilidades condicionales. Para ello definamos la probabilidad condicional de B dado A como sigue: P( B ) = A P( A ∩ B) P( A) 19 Distribución condicional Llamemos Probabilidad condicional de Y dado X=x a PY / X ( y / x) . Así para cualquier valor de Y tenemos: P(Y = y / X = x) = P( X = x ∩ Y = y ) PXY ( x, y ) = P( X = x) PX ( x) La necesidad de esta notación viene de la idea de independencia. Recordemos que tenemos dos definiciones de independencia para los eventos A y B: P( A / B) = P( B) P ( A ∩ B ) = P ( A) P ( B ) Definiciones equivalentes de independencia estadística Tenemos también dos definiciones equivalentes de independencia estadística, para las variables aleatorias X e Y: PY / X ( y / x) = PY ( y ), para todo x,y PXY ( x, y ) = PX ( x) PY ( y ), para todo x, y Usualmente nosotros usaremos la segunda definición de independencia. Ejemplo 4.11 Mostrar que X e Y de los ejemplos 4.9 y 4.10 son independientes Solución: En el ejemplo 4.10 encontramos PX(x) y PY(y). Al multiplicar adecuadamente ambos términos se obtiene la siguiente tabla: x 0 1 2 0 (12/84)(14/84) (12/84)(28/84) (12/84)(42/84) 12/84 y 1 2 3 (18/84)(14/84) (24/84)(14/84) (30/84)(14/84) (18/84)(28/84) (24/84)(28/84) (30/84)(28/84) (18/84)(42/84) (24/84)(42/84) (30/84)(42/84) 18/84 24/84 30/84 PX(x) 14/84 28/84 42/84 Al reducir a fracciones los datos de esta tabla, se llegan a los datos de la tabla del ejemplo 4.9. De esta forma PXY(x,y)=PX(x)PY(y) para todo x e y; por lo que X e Y son independientes. El supuesto de independencia fue construido en forma matemática para PXY(x,y). En la práctica, frecuentemente se supone que X e Y son independientes: una vez que especificamos PX(x) y PY(y), se calcula PXY(x,y) como el producto PX(x)PY(y). En el ejemplo 4.9 hay una situación en la cual el supuesto de independencia parece 20 razonable. El número de casos coronarios que llegan a la sala de emergencia no debería ser relevante para predecir el número de casos de trauma que llegan. Ejercicios 4.21 Una empresa manufacturera de televisores vendo dos modelos principales. Defínase X=ventas del modelo A en Diciembre (cerca de 100.000) e Y=ventas del modelo B en Diciembre. El equipo de marketing estima que las probabilidades conjuntas son PXY(x,y) son: X 1 2 3 4 a. b. c. d. y 2 0,055 0,07 0,075 0,07 1 0,03 0,055 0,07 0,075 3 0,07 0,075 0,07 0,055 4 0,075 0,07 0,055 0,030 Encontrar P(X=1,Y=2) Encontrar P ( X ≤ 2, Y ≤ 2) Encontrar PX ( x) y PY ( y ) ¿ Son X e Y independientes? 4.22 El dueño de una pequeña tienda de equipos musicales define las siguientes variables; X= número de amplificadores vendidos en un día de semana e Y= número de parlantes vendidos durante el mismo día. x: Px(x) 0 0,10 1 0,40 2 0,25 3 0,20 4 0,05 a. Asuma que X e Y son independientes, calcula la distribución conjunta PXY(x,y). b. Cheque su trabajo encontrando las probabilidades marginales. 4.23 ¿ Cree ud. que la independencia es un supuesto razonable en el ejercicio 4.22.? ¿ Debería ser verdad que las ventas de amplificadores son irrelevantes para las ventas de parlantes ? 4.24 Una pequeña empresa consultora presenta propuestas orales y escritas en un esfuerzo por obtener nuevos contratos. Los registros indican que la distribución de probabilidades PXY(x,y) de X=número de propuestas orales en una semana e Y=número de propuestas escritas en una semana está dada por la siguiente tabla: 21 y x 0 1 2 3 4 0 0,01 0,020 0,030 0,040 0,050 1 0,015 0,030 0,045 0,060 0,075 2 0,030 0,045 0,100 0,045 0,030 3 0,075 0,060 0,045 0,030 0,015 4 0,050 0,040 0,030 0,020 0,010 a. Encuentre la probabilidad de que hayan dos propuestas orales y dos propuestas escritas en una semana. b. Encuentre la probabilidad de que hayan exactamente dos propuestas orales en una semana y dos o menos propuestas escritas en una semana. 4.25 Refiérase al ejercicio 4.24. 4.26 a. Use las distribuciones de probabilidad para construir las distribuciones de probabilidad marginales de X e Y. b. Asumiendo estas probabilidades por usted calculadas, ¿ son X e Y independientes ? 4.26 Calcula la distribución condicional de Y dado cada valor posible de X usando las distribuciones del ejercicio 4.24 ¿ son estas distribuciones de probabilidad condicionales independientes ? 4.5. Covarianza y Correlación de Variables Aleatorias En la sección previa se definió la noción de independencia de una variable aleatoria. Ahora hablaremos sobre como medir el grado de dependencia entre dos variables aleatorias. Hay muchas medidas de dependencia que se pueden usar. Dos medidas, covarianza y correlación, son particularmente importantes porque están estrechamente relacionadas al concepto de varianza de una variable aleatoria. La correlación, en particular, es una forma de saber en que medida dos variables aleatorias varían juntas. Comencemos, una vez mas, con un ejemplo: Un empleado de confianza de un banco supone las siguientes (subjetivas) probabilidades conjuntas para el porcentaje de retorno (interés mas cambio en valor de mercado) de dos bonos. Los retornos se muestran como X e Y. y x 8 9 10 11 12 8 0,03 0,04 0,02 0,00 0,00 9 0,04 0,06 0,08 0,04 0,00 10 0,03 0,06 0,20 0,06 0,03 11 0,00 0,04 0,08 0,06 0,04 12 0,00 0,00 0,02 0,04 0,03 PX(x) 0,10 0,20 0,40 0,20 0,10 22 0,09 0,22 0,38 0,22 0,09 1,00 Hay una relación entre X e Y. Por ejemplo, dado x=8, las probabilidades de Y se concentran en los valores mas pequeños de y=8,9 y 10. En el otro extremo dado x=12, las probabilidades se concentran sobre los valores mayores de y=10, 11 y 12. En general hay tendencia para que X e Y varíen juntos. La convergencia y correlación de dos variables aleatorias miden la fortaleza de la tendencia. La covarianza de dos variables aleatorias se basa en el producto de las desviaciones con respecto a las medias, ponderadas por la probabilidad conjunta. Si un valor particular de x es menor que µ X y un valor de y está por debajo de µ Y , ambas desviaciones serán negativas y el producto será positivo. Similarmente si ambas desviaciones están por arriba de las correspondientes medias, el producto también será positivo. En cambio, si la desviación de una variable está por sobre la media y la desviación de la otra está por debajo de la media, el resultado del producto será negativo. Definición 4.7 Covarianza de dos Variables Aleatorias X e Y. Si X e Y son dos variables aleatorias discretas con medias µ X y µ Y , y con distribución de probabilidad conjunta PXY(x,y), la Covarianza de X e Y, denotada por Cov(x,y) se define como: Cov( x, y ) = ∑∑ ( x − µ X )( y − µ Y ) PXY ( x, y ) x y Una fórmula corta para calcular la covarianza es Cov( x, y ) = ∑∑ xyPXY ( x, y ) − µ X µ Y x y Ejemplo 4.12 Computar Cov(X,Y) para la distribución conjunta dada en la discusión precedente. Use la definición primera y luego cheque la fórmula corta, verificando que ambos métodos dan el mismo resultado. Solución: De las probabilidades marginales PX (x) y PY ( y ) , se obtienen las medias o valores esperados: µ x = 8 * 0,1 + 9 * 0,2 + 10 * 0,4 + 11 * 0,2 + 12 * 0,10 = 10 µ Y = 8 * 0,9 + 9 * 0,22 + 10 * 0,38 + 11 * 0,22 + 12 * 0,09 = 10 Como se puede ver los números de X están igualmente distribuidos alrededor de 10, este valor es la media o valor esperado. Lo mismo ocurre con los valores de Y. La covarianza se puede ahora computar usando la definición: Cov( x, y ) = ∑∑ ( x − µ X )( y − µ Y ) PXY ( x, y ) x y 23 Cov ( X , Y ) = (8 − 10 ) * (8 − 10 ) * 0,3 + (8 − 10 ) * (9 − 10 ) * 0,04 + + (8 − 10 ) * (10 − 10 ) * 0,03 + (8 − 10 ) * (11 − 10 ) * 0,0`( 8 − 10 ) * (12 − 10 ) * 0,0 + (9 − 10 ) * (8 − 10 ) * 0,04 + .... + (12 − 10 ) * (12 − 10 ) * 0,03 = 0,60 Similarmente, usando la fórmula corta: Cov( x, y ) = ∑∑ ( x − µ X )( y − µ Y ) PXY ( x, y ) x y 8 * 8 * 0,03 + 8 * 9 * 0,04 + 8 * 10 * 0,03 + ... + 12 * 12 * 0,03 − 10 * 10 = 100,6 − 100 = 0,60 En una planilla electrónica la covarianza se puede calcular más fácilmente. 1 A Probabilidades Conjuntas 2 3 4 5 6 7 8 Total 9 10 11 12 13 14 15 16 B 8 9 10 11 12 C D E F G H 0,03 0,04 0,02 0,00 0,00 0,09 9 0,04 0,06 0,08 0,04 0,00 0,22 10 0,03 0,06 0,20 0,06 0,03 0,38 11 0,00 0,04 0,08 0,06 0,04 0,22 12 0,00 0,00 0,02 0,04 0,03 0,09 Total 0,10 0,20 0,40 0,20 0,10 1,00 0,12 0,08 0,00 0,00 0,00 0,08 0,06 0,00 -0,004 0,00 0,00 0,00 0,00 0,00 0,00 0,00 -0,04 0,00 0,06 0,08 0,00 0,00 0,00 0,08 0,12 I 0,6 La covarianza de dos variables aleatorias esta estrechamente relacionada correlación. a su 24 Definición 4.8 Correlación de dos Variables Aleatorias X e Y: Si X e Y son dos variables aleatorias discretas con desviaciones estándares respectivas σ X y σ Y , su correlación ρ XY se define como : ρ XY = Cov( X , Y ) σ XσY Cov( X , Y ) = ρ XY σ X σ Y De aquí se concluye: La correlación entre X e Y esta en el rango -1,00 y +1,00. Un valor -1,00 ó +1,00 indica predicción lineal perfecta en la población, mientras que un valor 0 indica que no existe ninguna predicción lineal. Ejemplo 4.13: Encuentre ρ XY para la distribución discutida en el ejemplo 4.12 reciente. Solución: En el ejemplo 4.12 se encontró Cov(X,Y)=0,6 . Para obtener ρ XY se necesita las desviaciones estándar de X e Y, las cuales pueden ser computadas desde la perspectiva de probabilidades marginales. La fórmula corta para una varianza puede usarse para computar σ X2 y σ Y2 . σ X2 = ∑ x 2 PX ( x) −µ X2 x = 8 2 (0,10) + 9 2 (0,20) + 10 2 (0,40) + 112 (0,20) + 12 2 (0,10) − 10 = 101,20 − 100 = 1,20 y σ X = 1,20 = 1,095 Similarmente se tiene σ Y = ∑ y 2 PY ( y ) − µ Y2 = 1 ,16 y σ Y = 1,16 = 1,077 Sustituyendo en la definición de ρ XY , se tiene : 25 ρ XY = Cov( X , Y ) σ XσY = 0,60 = 0,509 1,095(1,077) 26 5.1 Contando los resultados posibles Este capitulo contiene una discusión sobre la distribución de probabilidades que se aplican en varias situaciones comunes. La mas común de estas es cuando se toma una muestra de una población, y se usa la expresión: P (evento) = numero de resultados favorables número total de resultados Para usar esta idea necesitamos un método para contar posibles resultados sin el trabajo de listar explícitamente los resultados. Esta sección contiene una sección dedicada a fórmulas de conteo. Estas fórmulas son necesarias también para el desarrollo de la distribución de probabilidad binomial que se aborda en la siguiente sección. Los métodos de conteo responden a las siguientes dos preguntas: 1. ¿Cuántas secuencias de k símbolos se pueden formar de un conjunto de r distintos símbolos, usando cada símbolo no más de una vez ? 2. ¿Cuántos subconjuntos de k símbolos se pueden formar de un conjunto de r símbolos distintos, usando cada símbolo no mas de una vez ? La única diferencia entre una secuencia y un subconjunto es que el orden importa para las secuencias y no para los subconjuntos. La secuencia ABC no es la misma que la secuencia CBA, pero el subconjunto {A,B,C} es el mismo que el subconjunto {C,B,A}. Como ejemplo considere secuencias y subconjuntos de tres de las primeras cinco letras del alfabeto. Hay 60 secuencias pero solo 10 subconjuntos. (Tabla 5.1) {A,B,C} {A,B,D} {A,B,E} {A,C,D} {A,C,E} {A,D,E} {B,C,D} {B,C,E} {B,D,E} {C,D,E} ABC ABD ABE ACD ACE ADE BCD BCE BDE CDE ACB ADB AEB ADC AEC AED BDC BEC BED CED BAC BAD BAE CAD CAE DAE CBD CBE DBE DCE CAB DAB EAB DAC EAC EAD DBC EBC EBD ECD BCA BDA BEA CDA CEA DEA CDB CEB DEB DEC CBA DBA EBA DCA ECA EDA DCB ECB EDB EDC Número de secuencias =r(r-1)…(r-k+1) Por ejemplo, elija una secuencia de k=3 letras de un total de k=5 letras, como en la tabla 5.1, tenemos 5 elecciones para la primera letra, y 4 elecciones para la segunda y 3 para la tercera. Por lo tanto hay 5x4x3=60 secuencias diferentes. La fórmula de la secuencia aparece como un factorial (r!) excepto que está truncado en r-k+1 en vez de continuar hasta 1. 27 Los números de secuencias se llaman habitualmente número de permutaciones, de k tomados de r y se denota r r Pk y se expresa via factoriales como: Pk = r! = r (r − 1)...(r − k + 1) (r − k )! El número de subconjuntos es llamado número de combinaciones de k símbolos r tomados de r y se denota como r Ck o k r r! = k k!(r − k )! Por ejemplo, para elegir un subconjunto de k=3 letras de un total de k=5 letras, como en la tabla 5.1, tenemos 5 5! 5 x 4 x3 x 2 x1 = = = 10 3 3!(5 − 3)! 3 x 2 x1(2 x1) r El símbolo se lee “r sobre k”, sugiriendo la elección de un subconjunto de k k cosas de un conjunto de r cosas. La formula de combinaciones es particularmente útil para muestreo aleatorio, porque elegir un tamaño de muestra k sin reemplazo desde una población de tamaño r es exactamente lo mismo que un subconjunto de k cosas tomadas de un conjunto de r cosas. Habitualmente no nos importa el orden durante el muestreo de modo que la formula de permutaciones no es importante en este caso. Frecuentemente se deben contar el número de formas que se pueden obtener dos subconjuntos. Por ejemplo, si tenemos un total de 920 ítems buenos y 80 ítems malos, ¿cuantas formas hay de elegir 12 buenos y 4 malos? 920 80 formas de elegir los ítems buenos y formas de elegir los malos. Hay 12 4 Cualquier elección de ítems buenos se puede juntar con la elección de ítems malos, luego para encontrar el número de formas en que pueden ocurrir ambas cosas, es decir elegir 12 ítems buenos y 4 ítems malos, basta multiplicar ambas formulas. Luego hay 920 80 formas de hacer estas elecciones. 12 4 28 5.2. Distribuciones Discretas de Probabilidad: Distribución Binomial Es una de las distribuciones discretas más útiles. Sus areas de aplicación incluyen inspección de calidad, ventas, marketing, medicina, investigación de mercados, etc. Para entender esta distribución se debe imaginar un experimento en el que el resultado es la ocurrencia o la no ocurrencia de de un evento. Sin pérdida de generalidad, llámese éxito a la ocurrencia del evento y fracaso a la no ocurrencia del evento. Además sea p la probabilidad de éxito y 1-p la probabilidad de fracaso. Supóngase que el experimento se repite n veces, y cada uno de estos experimentos es independiente de los demás, y sea X la variable aleatoria que representa el número de éxitos en los n ensayos. El interés está en la probabilidad de obtener exactamente n ensayos. Los dos supuestos claves para la distribución binomial son: 1. La probabilidad de éxito p permanece constante para cada ensayo. 2. Los n ensayos son independientes entre si. Varios problemas parecen adherirse razonablemente a las suposiciones anteriores. Por ejemplo, un proceso de manufactura produce un determinado producto en el que algunas unidades se encuentran defectuosas. Si la proporción de unidades defectuosas producidas por este proceso es constante durante un período razonable y si como procedimiento de rutina, se seleccionan aleatoriamente un determinado número de unidades, entonces el cálculo de probabilidad puede hacerse con la distribución binomial, de la siguiente forma: Sea p la proporción de unidades defectuosas producidas. Entonces se sacan n artículos para ver cuantos salen defectuosos. Por ejemplo supongamos que se sacan 5 artículos y se quiere calcular la probabilidad de que 2 de estos 5 artículos sean defectuosos. Entonces si D es artículo defectuoso y N artículo no defectuoso, se tiene lo siguiente: DDNN N o DNDNN o D N N D N o D N N N D o… 5 Entonces hay formas o combinaciones de sacar 2 artículos defectuosos en 5 2 artículos sacados. La probabilidad de sacar 2 artículos defectuosos y 3 no defectuosos en cualquier orden es p * p * (1 − p ) * (1 − p ) * (1 − p ) = p 2 * (1 − p ) 3 n En general si se quieren obtener k éxitos en n ensayos, se tienen formas y cada k n− k caso tiene probabilidad p k (1 − p ) . 29 Formalicemos ahora estas ideas sobre la distribución binomial. Definición Distribución Binomial: Sea X una variable aleatoria que representa el número de éxitos en n ensayos y p la probabilidad de éxito con cualquiera de éstos. Se dice entonces que X tiene una distribución binomial con función de probabilidad: n! n− x p x (1 − p ) x = 0,1,2,..., n p (x; n, p ) = (n − x )! x! 0 para cualquier otro valor 0 ≤ p ≤ 1 Los parámetros de la distribución binomial son n y p. Estos definen una familia de distribuciones binomiales. Valor esperado de una variable X distribuida Binomial(n,p) Si X ≈ Bin(n, p) ⇒ E ( X ) = np Varianza de una variable X distribuida Binomial(n,p) Si X ≈ Bin(n, p ) ⇒ V ( X ) = np(1 − p ) Ejemplos: 1.- Supóngase que para personas de cierta edad, la probabilidad de contagio de cierta enfermedad invernal es 0,001. ¿Cual es la probabilidad de que se contagien el 30% ? El 30% puede entenderse como 30 de n=100. Luego lo que se pregunta es por una variable X que cuenta el número de infectados con la enfermedad invernal. Esta variable distribuye binomial, con parámetros p=0,01 y n=100. Es decir Pr{X = 30} = 100! 100 −30 0,0130 (1 − 0,01) = 1,45 E − 35 (100 − 30)!30! Si la pregunta se cambia a ¿Cual es la probabilidad de que se contagien el 1% ? Entonces Pr{X = 1} = 100! 100 −1 0,011 (1 − 0,01) = 0,369 (100 − 1)!1! 30 5.3. Distribución de Poisson Esta distribución se aplica cuando una sucesión de eventos ocurren aleatoriamente a través del tiempo. Una instalación eléctrica enfrenta ocasionales tormentas que derriba las líneas de transmisión o daña los transformadores. Aunque la probabilidad de largo plazo de ocurrencia de una tormenta se puede determinar con total seguridad, el tiempo en que ocurrirá la siguiente tormenta es impredecible. Un administrador de un centro computacional de una universidad enfrenta variaciones aleatorias, en los tiempos de llegadas de trabajos. La distribución de Poisson es el modelo más simple y mas ampliamente usado de eventos que ocurren en el tiempo. Esta distribución es el resultado matemático de una serie de supuestos. Si los supuestos no son correctos, a lo menos aproximadamente, para una situación particular, la Distribución de Poisson puede hacer un mal modelo de la situación. Los supuestos cruciales son los siguientes: 1. Los eventos ocurren uno a la vez. No ocurren dos o más eventos al mismo tiempo. 2. La ocurrencia del evento de interés en un período dado es independiente de la ocurrencia del evento en un período no traslapado de tiempo. Esto significa que la ocurrencia (o no ocurrencia) de un evento durante un período de tiempo no cambia la probabilidad de que ocurra un evento en algún período de tiempo posterior. 3. El número esperado de eventos en un período de tiempo se mantiene constante, de modo que, el número esperado de eventos durante un cierto período de tiempo es el mismo que el de otro período de tiempo del mismo largo. El tercer supuesto hace la matemática más fácil, pero se puede probar que es irrelevante. Con estos supuestos se llega a la siguiente distribución de probabilidades. Definición : Distribución de probabilidades de Poisson Sea Y una variable con distribución de Poisson. Esto lo denotaremos como Y ≈ Poisson(λ ) Entonces : PY ( y ) = e− µ µ y y! Donde µ es el número esperado de eventos que ocurrirán en un período dado y además e = 2,71828 . 31 5.4. Distribuciones Continuas de Probabilidad Distribución Uniforme: Se caracteriza porque todos los intervalos de igual tamaño tienen la misma probabilidad de ocurrir. Es muy utilizada para modelar tiempos de ocurrencia de eventos, cuando no se tiene información adicional, que permita inferir alguna condición sobre la frecuencia de ocurrencia de los valores que pueda tomar la variable. Definición formal: Sea X una variable con distribución uniforme, con valores reales entre a y b. Entonces la función de densidad de probabilidad (fdp) de X es : 1 ; a≤ x≤b (b − a ) Con esto se puede obtener la Función de Probabilidad acumulada F (x) . fdp X = x F (x ) = ∫ a Luego x x 1 1 1 (x − a ) fdp X dx = ∫ dx = dx = ∫ (b − a ) (b − a ) a (b − a ) a 1 Pr{X ≤ x} = (x − a ) ; a ≤ x ≤ b (b − a ) 32