Probabilidad Espacio muestral: es el conjunto de todos los resultados del experimento “Ω”. Eventos: subconjunto del espacio muestral “A, B…”. pueden ser simples o compuestos dependiendo de los resultados que incluyan. Sean A, B tal que 𝐴 ∩ 𝐵 = ∅ entonces se dice que son mutuamente excluyentes o disjuntos 𝑷(𝑨 ∪ 𝑩) = 𝑷(𝑨) + 𝑷(𝑩) − 𝑷(𝑨 ∩ 𝑩) 𝒏! Permutaciones: Pk,n = (𝒏−𝒌)! 𝒏! Combinaciones: (𝒏𝒌) = 𝒌!(𝒏−𝒌)! Probabilidad condicional: 𝑷(𝑨|𝑩) = 𝑷(𝑨∩𝑩) 𝑷(𝑩) Regla de la multiplicación: 𝑷(𝑨 ∩ 𝑩) = 𝑷(𝑨|𝑩) 𝑷(𝑩) Ley de probabilidad total: si A1,…,Ak son eventos mutuamente excluyentes y exhautivos, entonces, para cualquier otro evento B: 𝑷(𝑩) = ∑𝒌𝒊=𝟏 𝑷(𝑩|𝑨i) 𝑷(𝑨i) Teorema de Bayes: 𝑷(𝑨i|𝑩) = 𝑷(𝑨𝒊∩𝑩) 𝑷(𝑩) = 𝑷(𝑩|𝑨𝒊) 𝑷(𝑨𝒊) ∑𝒌 𝒋=𝟏 𝑷(𝑩|𝑨𝒋) 𝑷(𝑨𝒋) Independencia: dos eventos A y B son independientes cuando: 𝑷(𝑨|𝑩) = 𝑷(𝑨) ⇔ 𝑷(𝑨 ∩ 𝑩) = 𝑷(𝑨)𝑷(𝑩) Variables Aleatorias Discretas Distribucion de probabilidad o función de probabilidad de masa de una VA discreta esta definida para todo numero x por p(x)=P(X=x)=P(toda s perteneciente a Ω : X(s)=x). las condiciones que deben darse son: 𝒑(𝒙) ≥ 𝟎 y ∑∀𝒙 𝒑(𝒙) = 𝟏 Funcion de distribución acumulada: 𝑭(𝒙) = 𝑷(𝑿 ≤ 𝒙) = ∑𝒚:𝒚≤𝒙 𝒑(𝒚) Esperanza: 𝑬(𝑿) = 𝝁x = ∑∀𝒙 𝒙 𝒑(𝒙) 𝑬(𝒉(𝒙)) = 𝝁h(x) = ∑∀𝒙 𝒉(𝒙) 𝒑(𝒙) Para cualquier función lineal h(x), (aX+b) con a y b constantes 𝑬(𝒂𝑿 + 𝒃) = 𝒂𝑬(𝑿) + 𝒃 | 𝑬(𝒂𝑿) = 𝒂𝑬(𝒙) | 𝑬(𝑿 + 𝒃) = 𝑬(𝑿) + 𝒃 Varianza: 𝑽(𝑿) = 𝝈2x = ∑∀𝒙(𝑿 − 𝝁x)2 𝒑(𝒙) = 𝑬[(𝑿 − 𝝁)2] 𝑽(𝑿) = 𝑬(𝑿2) − [𝑬(𝑿)]2 𝑽[𝒉(𝑿)] = ∑∀𝒙{𝒉(𝑿) − 𝑬[𝒉(𝑿)]}2 𝒑(𝒙) Para cualquier función lineal h(x), (aX+b) con a y b constantes 𝑽(𝒂𝑿 + 𝒃) = |𝒂| 𝝈X | 𝑽(𝒂𝑿) = |𝒂| 𝝈X | 𝑽(𝑿 + 𝒃) = 𝝈2X Desviación estándar: 𝝈x = √𝝈2x VA Binomial: X = Numero de éxitos en n ensayos X~Bin(n,p) donde n es el numero de ensayos y p la probabilidad de éxito 𝑛 ( ) 𝑝x(1 − 𝑝)n-x, 𝑥 = 1,2, … , 𝑛 𝑝(𝑥) = { 𝑘 0, 𝑐𝑐 𝝁x = 𝒏𝒑 | 𝝈2x = 𝒏𝒑(𝟏 − 𝒑) VA Hipergeometrica: X= numero de éxitos en la muestra de tamaño n, extraida de una población de tamaño N, formada por M éxitos y (N-M) fracasos. X~H(n,M,N) y 𝒑(𝒙) = 𝑵−𝑴 (𝑴 𝒙 )( 𝒏−𝒙 ) (𝑵 ) 𝒏 max(0, 𝑛 − 𝑁 + 𝑀) ≤ 𝑥 ≤ min(𝑛, 𝑀) 𝐸(𝑋) = 𝑛 𝑀 𝑁 | 𝑉(𝑋) = ( 𝑁−𝑛 𝑁−1 )𝑛 𝑀 𝑁 𝑀 (1 − ) 𝑁 VA Poisson: 𝒑(𝒙) = 𝒆-λ 𝝀x 𝒙! Para x=0,1,2,… y 𝜆 > 0 𝝁x = 𝝀 𝒚 𝝈2x = 𝝀 Aproximación a binomial: si n≥100 , p≤.01 y np≤20 Entonces X~Bin(n,p) → X~P(𝝀) con 𝝀 = 𝒏𝒑 VA Geometrica: X= numero de ensayos hasta el primer éxito X~Geom(p) y 𝒑(𝒙) = (𝟏 − 𝒑)x-1𝒑 𝟏 𝟏−𝒑 𝝁= 𝒀 𝝈2 = 𝒑 𝒑2 VA Binomial negativa: X= numero de ensayos harta el r-esimo éxito X~BinNeg(r,p) entonces 𝒑(𝒙) = (𝒙−𝟏 )𝒑r (𝟏 − 𝒑)x-r 𝒓−𝟏 𝝁= y 𝒓 𝒑 Variables Cleatorias Continuas Función de distribución de probabilidad o función de densidad de probabilidad 𝒃 F(x) tal que 𝑷(𝒂 ≤ 𝑿 ≤ 𝒃) = ∫𝒂 𝒇(𝒙)𝒅𝒙 Condiciones: 𝒇(𝒙) ≥ 𝟎 𝒚 ∞ ∫−∞ 𝒇(𝒙)𝒅𝒙 = 𝟏 Funcion de distribución acumulada: 𝑭(𝒙) = 𝑷(𝑿 = 𝒙) = 𝒙 ∫−∞ 𝒇(𝒚)𝒅𝒚 Distribución uniforme: X~U(A, B) 𝝈𝟐 = (𝒃−𝒂)𝟐 𝟏𝟐 𝒚𝝁= 𝒃+𝒂 𝟐 𝟏 𝒇(𝒙) = {𝑩 − 𝑨 𝒔𝒊 𝑨 ≤ 𝒙 ≤ 𝑩 𝟎 𝒄𝒄 𝟎 𝒔𝒊 𝒙 < 𝐴 𝒙−𝑨 𝑭(𝒙) = { 𝒔𝒊 𝑨 ≤ 𝒙 ≤ 𝑩 𝑩−𝑨 𝟏 𝒔𝒊 𝒙 ≥ 𝑩 Percentiles: p є [0,1] el 100p percentil denotado por 𝜂(𝑝) es: 𝜼(𝒑) 𝒑 = 𝑭(𝜼(𝒑)) = ∫−∞ 𝒇(𝒚)𝒅𝒚 Mediana: 𝝁 ̃ = 𝜼(. 𝟓) ∞ Valor esperado, media esperanza:𝝁x = 𝑬(𝑿) = ∫−∞ 𝒙 𝒇(𝒙)𝒅𝒙 Si X es va con pdf f(x) y h(x) es cualquier función de X: ∞ 𝑬[𝒉(𝒙)] = ∫−∞ 𝒉(𝒙)𝒇(𝒙)𝒅𝒙 Si h(x) es una función lineal de X: 𝑬[𝒉(𝒙)] = 𝑬(𝒂𝑿 + 𝒃) = 𝒂𝑬(𝑿) + 𝒃 ∞ Varianza:𝝈2 = 𝑽(𝑿) = ∫−∞(𝑥 − 𝜇) 2 𝑓(𝑥)𝑑𝑥 = 𝐸[(𝑥 − 𝜇)2] = 𝑬(𝑿2) − [𝑬(𝑿)]2 Desvió estándar: √𝝈2 Distribución normal: X~N (𝝁, 𝝈2) Normal estándar: 𝜇 = 0, 𝜎2 = 1 𝑷(𝒁 ≤ 𝒛) = 𝚽(𝒛) → 𝒔𝒂𝒍𝒆 𝒑𝒐𝒓 𝒕𝒂𝒃𝒍𝒂 Si X no es normal estándar: X~N (𝝁, 𝝈2) entonces 𝒁 = 𝑿−𝝁 𝝈 tiene una distribución normal estándar. 𝑎−𝜇 𝑏−𝜇 𝑏−𝜇 𝑎−𝜇 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝑃 ( <𝑍< ) = Φ( ) − Φ( ) 𝜎 𝜎 𝜎 𝜎 Aproximación normal a binomial: 𝑠𝑖 𝑋~𝐵𝑖𝑛(𝑛, 𝑝) 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝜇 = 𝑛𝑝 𝜎 = √𝑛𝑝(1 − 𝑝) Se usa cuando: 𝑛𝑝 ≥ 10 𝑦 𝑛(1 − 𝑝) ≥ 10 entonces: 𝑥 + .5 − 𝑛𝑝 𝑥 + .5 − 𝜇 𝑃(𝑋 ≤ 𝑥) = Φ ( ) = Φ( ) 𝜎 √𝑛𝑝(1 − 𝑝) Aproximacion normal a poisson: si 𝑋~𝑃(𝜆) 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝜇 = 𝜆 𝑦 𝜎 = √𝜆 Se usa cuando 𝜆 > 5 entonces: 𝑥−𝜇 ) 𝜎 Distribución exponencial: 𝑿~𝑬(𝝀) 𝒄𝒐𝒏 𝝀 > 0 𝟎 𝒔𝒊 𝒙 < 0 -λx 𝒔𝒊 𝒙 < 0 𝒇(𝒙) = {𝝀𝒆 𝑭(𝒙) = { 𝟏 − 𝒆-λx 𝒔𝒊 𝒙 ≥ 𝟎 𝟎 𝑪𝑪 𝑃(𝑋 ≤ 𝑥) = Φ ( 𝟏 𝝀 𝝈2 = 𝟏 𝝀2 𝝁= Distribucion de probabilidad conjunta Funcion de probabilidad de masa conjunta: 𝑝(𝑥, 𝑦) = 𝑃(𝑋 = 𝑥 𝑦 𝑌 = 𝑦) 𝑷[(𝑿, 𝒀) ∈ 𝑨] = ∑(𝒙,𝒚)∈𝑨 ∑ 𝒑(𝒙, 𝒚) condiciones 𝒑(𝒙, 𝒚) ≥ 𝟎∀(𝒙, 𝒚) 𝒚 ∑𝒙 ∑𝒚 𝒑(𝒙, 𝒚) = 𝟏 Función de probabilidad de masa marginal: 𝒑x(𝒙) = ∑𝒚 𝒑(𝒙, 𝒚) y 𝒑y(𝒚) = ∑𝒙 𝒑(𝒙, 𝒚) Función de densidad de probabilidad conjunta: 𝑷[(𝑿, 𝒀) ∈ 𝑨] = ∬𝑨 𝒇(𝒙, 𝒚)𝒅𝒙 𝒅𝒚 𝑠𝑖 𝐴 𝑒𝑠 𝑒𝑙 𝑟𝑒𝑐𝑡𝑎𝑛𝑔𝑢𝑙𝑜 {(𝑥, 𝑦): 𝑎 ≤ 𝑥 ≤ 𝑏, 𝑐 ≤ 𝑦 ≤ 𝑑} 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑏 𝑑 𝑃[(𝑋, 𝑌) ∈ 𝐴] = 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏, 𝑐 ≤ 𝑌 ≤ 𝑑) = ∫ ∫ 𝑓(𝑥, 𝑦)𝑑𝑥 𝑑𝑦 Condiciones: 𝒇(𝒙, 𝒚) ≥ 𝟎 𝒚 𝑎 𝑐 ∞ ∞ ∫−∞ ∫−∞ 𝒇(𝒙, 𝒚)𝒅𝒙 𝒅𝒚 =𝟏 Funciones de densidad marginal: 1. 2. 3. 2 3. ] donde 𝑆 = √ ̅ ∑𝑛 𝑖=1(𝑋𝑖 −𝑋)^2 𝑛−1 n puede ser √𝑛 Sea X1, X2 ,…, Xn MA con distribución desconocida donde 𝜇 es desconocido y 𝜎 2 desconocido. IC para 𝜇: 𝑆 𝐼𝐶 = [𝑋̅ ± 𝑧𝛼 ] donde n debe ser grande y 𝑆 = √𝑛 ̅ ∑𝑛 𝑖=1(𝑋𝑖 −𝑋 )^2 √ Covarianza:𝒄𝒐𝒗(𝑿, 𝒀) = 𝑬[(𝑿 − 𝝁x)(𝒀 − 𝝁y)] ∞ ∞ ∫ ∫ (𝒙 − 𝝁x)(𝒚 5. −∞ −∞ 𝑋̅ (1−𝑋̅) ] n debe ser grande 𝑝̂ (1 − 𝑝̂ ) 𝐼𝐶 = [𝑝̂ ± 𝑧 𝛼 √ ] 𝑛 2 𝝈x 𝝈y Distribución de la media muestral: sea X1,X2,…Xn una muestra aleatoria con valor medio µ y desviación estándar σ entonces 2 𝝈 ̅ ) = 𝝈2x̃ = 𝝈 𝑬(𝑿) = 𝝁x̃ = 𝝁 y 𝑽(𝑿 𝒚 𝝈x̅ = √𝒏 𝑻0 = 𝑿1 + 𝑿2 + ⋯ + 𝑿n, 𝑬(𝑻𝟎) = 𝒏𝝁 𝑽(𝑻0) = 𝒏𝝈2 𝝈To = √𝒏𝝈 Teorema central de limite: sea X1,X2,…Xn una muestra aleatoria de una distrubucion con media µ y varianza σ2 ̅ tiene una entonces si n es lo suficientemente grande, 𝑿 distribución normal aprox. Con 𝝁x = 𝝁 𝒚 𝝈2x = 𝑛 2 𝑪𝒐𝒗(𝑿,𝒀) 𝒏 𝑛−1 Sea X1, X2 ,…, Xn MA con Xi ~ B(1, 𝑝) el IC para 𝑝: 𝐼𝐶 = [𝑋̅ ± 𝑧1− 𝛼 √ − 𝝁y)𝒇(𝒙, 𝒚)𝒅𝒙 𝒅𝒚 𝑪𝒐𝒗(𝑿, 𝒀) = 𝑬(𝑿𝒀) − 𝝁x 𝝁y 𝝈𝟐 𝒏 6. ̅ 2 Momento muestral de orden k para una MA X1,X2,…,Xn: ∑𝑛𝑖=1 𝑋𝑖𝑘 𝑛 Para estimar k parámetros se utilizan los k primeros momentos, para un parámetro: ∑𝑛𝑖=1 𝑋𝑖 𝐸(𝑋) = 𝑛 Método de EMV: Función de verosimilitud L(X1,X2,…,Xn,θ1,θ2,…,θn)= ∏𝑛𝑖=1 𝑓(𝑥𝑖) 𝑛 Sea X1, X2 ,…, Xn MA con Xi ~ N(𝜇1 , 𝜎1 2 ) e Y1, Y2, … , Yn una MA con Yi ~ N(𝜇2 , 𝜎2 2 ) ambas independientes con 𝜎1 2 𝑦 𝜎2 2 conocidos. IC para 𝜇: 𝐼𝐶 = [𝑋̅ − 𝑌̅ ± 𝜎1 2 𝑧𝛼 √ y T0 tambien tiene una distribución normal con 𝝁To = 𝒏𝝁 𝒚 𝝈2To = 𝒏𝝈2 Para usarlo n>30 Estimación puntual: Metodo de los momentos: ∑∀𝑥 𝑥 𝑘 𝑃(𝑥) 𝑠𝑖 𝑒𝑠 𝑑𝑖𝑠𝑐𝑟𝑒𝑡𝑎 Momento de orden k:𝐸(𝑋 𝑘 ) = { ∞ 𝑘 ∫−∞ 𝑥 𝑓(𝑥)𝑑𝑥 𝑠𝑖 𝑒𝑠 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑎 IC para la media 𝜆 de una distribución poisson 𝐼𝐶 = 𝑋 [𝑋̅ ± 𝑧 𝛼 √ ] en donde n debe ser grande 7. 2 8. 𝑛1 + 𝜎2 2 𝑛2 ] Sea X1, X2 ,…, Xn MA con Xi ~ N(𝜇1 , 𝜎1 2 ) e Y1, Y2, … , Yn una MA con Yi ~ N(𝜇2 , 𝜎2 2 ) ambas independientes con 𝜎1 2 𝑦 𝜎2 2 desconocidos pero inguales 𝜎1 2 = 𝜎2 2 : 𝐼𝐶 = [(𝑋̅ − 𝑌̅) ± 𝑡𝛼,(𝑛1+𝑛2 −2) 𝑆𝑝 √ 1 𝑛1 2 + 1 𝑛2 ] donde 𝑆𝑝 = (𝑛1 −1)𝑆12 +(𝑛2 −1)𝑆22 √ 𝑛1 +𝑛2 −2 Y si 𝜎1 2 ≠ 𝜎2 2 : 𝐼𝐶 = [(𝑋̅ − 𝑌̅) ± 𝑡𝛼,(𝑛1+𝑛2 −2) 𝑆𝑝 √ 𝑆12 𝑛1 2 9. ] chico Sea X1, X2 ,…, Xn MA con distribución desconocida donde 𝜇 es desconocido y 𝜎 2 = 𝑉(𝑋𝑖 ) conocido. IC para 𝜎 𝜇: 𝐼𝐶 = [𝑋̅ ± 𝑧𝛼 ] donde n debe ser grande 2 −∞ −∞ Correlación: 𝝆X,Y = 𝑆 √𝑛 2 4. ∞ 𝒐 𝜎 √𝑛 n puede ser chico Sea X1, X2 ,…, Xn MA con Xi ~ N(𝜇, 𝜎 2 ) donde 𝜇 es desconocido y 𝜎 2 desconocido. IC para 𝜇: 𝐼𝐶 = [𝑋̅ ± 𝑡𝛼 ,𝑛−1 𝑬(𝑿, 𝒀) = ∫ ∫ 𝒙𝒚 𝒇(𝒙, 𝒚)𝒅𝒙 𝒅𝒚 𝒚 𝜃 ∀𝜃 2 −∞ 𝒙 < 0 es maximo Error cuadrático medio: 𝐸𝐶𝑀(𝜇̂ ) = 𝑉(𝜇̂ ) + 𝑠𝑒𝑠𝑔𝑜 2 (𝜇̂ ) Intervalos de confianza IC: de nivel 1 − 𝛼 1. Sea X1, X2 ,…, Xn MA con Xi ~ N(𝜇, 𝜎 2 ) donde 𝜇 es desconocido y 𝜎 2 conocido. IC para 𝜇: 𝐼𝐶 = [𝑋̅ ± 𝑧𝛼 𝒇y(𝒚) = ∫ 𝒇(𝒙, 𝒚)𝒅𝒙 𝒄𝒐𝒏 − ∞ ≤ 𝒚 ≤ ∞ ∑ ∑(𝒙 − 𝝁x)(𝒚 − 𝝁y)𝒑(𝒙, 𝒚) 𝜕2 𝜃 punto critico, despejo θ 𝑛→∞ −∞ ∞ ∞ 𝜕𝜃 𝜕ln(𝐿) Asintóticamente insesgado: 𝐸(𝜃̂ ) → 𝒇x(𝒙) = ∫ 𝒇(𝒙, 𝒚)𝒅𝒚 𝒄𝒐𝒏 − ∞ ≤ 𝒙 ≤ ∞ Función de densidad de probabilidad condicional de Y dado que X=x: 𝒇(𝒙, 𝒚) 𝒇y|x(𝒚|𝒙) = 𝒇x(𝒙) Esperanza de h(X,Y):∑𝒙 ∑𝒚 𝒉(𝒙, 𝒚)𝒑(𝒙, 𝒚) 𝒐 ∫ ∫ 𝒉(𝒙, 𝒚)𝒇(𝒙, 𝒚)𝒅𝒙 𝒅𝒚 𝜕ln(𝐿) Un estimador es insesgado si 𝐸(𝜃̂ ) = 𝜃 ∀𝜃 Sesgo: 𝑏(𝜃̂) = 𝐸(𝜃̂) − 𝜃 2. ∞ ln(𝐿( )) = ln(∏𝑛𝑖=1 𝑓(𝑥𝑖)) + 𝑆22 𝑛2 ] Sea X1, X2 ,…, Xn MA con Xi ~ N(𝜇1 , 𝜎1 2 ) e Y1, Y2, … , Yn una MA con Yi ~ N(𝜇2 , 𝜎2 2 ) no son independientes con 𝜎1 2 𝑦 𝜎2 2 desconocidos y con muestras del mismo 𝑆 tamaño: 𝐼𝐶 = [𝑍̅ ± 𝑡𝛼 ] donde 𝑍𝑖 = 2 (𝑋𝑧 − 𝑌𝑧 )∀ 𝑖 y 𝑍̅ = ,(𝑛1 +𝑛2 −2) √𝑛 ̅ 2 ∑𝑛 𝑖=1(𝑍𝑖 − 𝑍) 2 ∑𝑛 𝑖=1 𝑍𝑖 𝑛 y𝑆 = 𝑛−1