Distribución de Probabilidad Distribución de Probabilidad Conjunta j Jhon J. Padilla A., PhD. J. Padilla A., PhD. Introducción • LLos resultados de un experimento pueden ser causa de l d d i d d múltiples variables. • En estas situaciones se requiere de tener una f.d.p E t it i i d t f d que describa la variación de la probabilidad de ocurrencia con respecto a la variación de estas variables con respecto a la variación de estas variables. • Esta f.d.p que tiene en cuenta el efecto de múltiples variables aleatorias se denomina distribución de variables aleatorias se denomina distribución de probabilidad conjunta. • Una distribución de probabilidad conjunta puede ser p j p discreta o continua dependiendo del tipo de v.a.’s que describe. Definición • La función de masa de probabilidad conjunta f ió d d b bilid d j de dos variables aleatorias contínuas X y Y se denota como fXY(x,y), y satisface las siguientes propiedades • 1) para toda x,y f ( x, y ) ≥ 0 • 2) ∞ ∞ XY ∫∫ f XY ( x, y )dxdy = 1 −∞ −∞ • 3) Para cualquier región R del espacio bidimensional: P([ X , Y ∈ R]) = f ( x, y)dxdy ∫∫ R XY Distribución de probabilidad bidimensional Variables aleatorias Múltiples Variables aleatorias Múltiples • La función de distribución de probabilidad j p conjunta para las variables X 1, X2,…,Xp, se denota como: f X1 X 2 ... X p ( x1 , x2 ,...x p ) Definición • U Una función de distribución de probabilidad f ió d di t ib ió d b bilid d conjunta para las variables aleatorias continuas X1, X X2,…,X Xp, denotada como , denotada como f X X ... X ( x1 , x2 ,,...x p ) satisface las siguientes propiedades • 1) f X X ... X ( x1 , x2 ,...x p ) ≥ 0 1 1 • 2) 2 ∞ ∞ p p ∞ ∫ ∫ .... ∫ −∞ −∞ 2 −∞ f X1 X 2 ... X p ( x1 , x2 ,...x p )dx d 1dx d 2 ...dx d p =1 • 3) 3) Para cualquier región B del espacio de p Para cualquier región B del espacio de p dimensiones, P([ X 1 , X 2 ,..., X p ] ∈ B ) = ∫ ∫ ....∫ f X1 X 2 ... X p ( x1 , x2 ,...x p )dx1dx2 ...dx p B Independencia • Las variables aleatorias contínuas X1, X2,…,Xp, p y son independientes si y sólo si f X1 X 2 ... X p ( x1 , x2 ,...x p ) = f X1 ( x1 ) f X 2 ( x2 ).... f X p ( x p ) • Para toda x1,, x2,,…,x , p COVARIANZA • Cuando la probabilidad depende de más de d l b bilid d d d d á d una variable aleatoria, resulta conveniente describir la relación entre las variables. • La covarianza es una medida común de la relación entre dos variables aleatorias • La covarianza es una medida de asociación La covarianza es una medida de asociación lineal entre las v.a’s. • Si la relación entre las v.a’s Si l l ió t l ’ no es lineal, la li l l covarianza podría no ser sensible a la relación. Definición • La covarianza entre dos v.a. X y Y, denotada como cov(X,Y) ó ( , ) σxy,, es σ XY = E[( X − µ X )(Y − µY )] = ∞ ∞ ∫ ∫ ( x − µ )( y − µ x Y ) f XY ( x, y )dxdyy −∞ −∞ • Y se puede demostrar que también p q σ XY = E[( X − µ X )(Y − µY )] = ∞ ∞ ∫ ∫ xyf XY ( x, y )dxdy − µ X µY −∞ −∞ σ XY = E[( X − µ X )(Y − µY )] = E ( XY ) − µ X µY Distribuciones de probabilidad conjuntas y el signo de la covarianza conjuntas y el signo de la covarianza entre X y Y y CORRELACION • La correlación mide el grado de relación lineal entre dos variables. • La correlación escala la covarianza por la desviación estándar de cada variable desviación estándar de cada variable. • Es una cantidad adimensional Definición • La correlación entre las variables aleatorias X y Y, denotada como , ρxy,, es ρ XY = σ cov( X , Y ) = XY V ( X )V (Y ) σ X σ Y • Además, , −1 ≤ ρ XY ≤ +1 Interpretación de la correlación Interpretación de la correlación • Si Si los puntos de la distribución de probabilidad l t d l di t ib ió d b bilid d conjunta de X y Y tienden a caer en una recta con pendiente positiva (negativa) entonces la pendiente positiva (negativa), entonces la correlación estará cerca de +1 (o de ‐1). Si la correlación da +1 ó ‐1 1, entonces los puntos entonces los puntos • Si la correlación da +1 ó de la distribución de probabilidad conjunta caen exactamente en una línea recta. • Se dice que dos v.a con correlación diferente de cero están correlacionadas. • Finalmente, si X y Y son v.a’s independientes, entonces σ XY = ρ XY = 0