1 Independencia Estocástica La dependencia o la independencia estocástica conllevan implı́citamente la posibilidad de relacionar probabilı́sticamente los sucesos, experimentos o variables. Por tanto se hace necesaria la consideración de un espacio probabilı́stico común de referencia, que genéricamente denominaremos (Ω, σ, P ). 1.1 Independencia de dos sucesos Un argumento heurı́stico sobre el significado del concepto de independencia (estocástica) del suceso A del B (A, B ∈ σ) conduce rápidamente a la conclusión de que el conocimiento de la ocurrencia de B no aporta ninguna nueva información sobre la ocurrencia de A. Puesto que la información con que contamos sobre la posibilidad de ocurrencia del suceso A está medida a través de la función de probabilidad, por P (A), y el aporte de información sobre A que nos da la ocurrencia de B queda reflejado a través de P (A/B), la formulación matemática inicial de la independencia del suceso A del B será: P (A/B) = P (A), y recurriendo a la definición de probabilidad condicionada P (A/B) = P (A ∩ B) si P (B) > 0 P (B) llegariamos a P (A ∩ B) = P (A)P (B) como definición adecuada de independencia de A respecto de B cuando P (B) > 0. En particular, teniendo en cuenta que si P (B) = 1 entonces P (A/B) = P (A), se confirma el hecho intuitivo de que el conocimiento de la ocurrencia de un suceso de probabilidad 1 no aporta ninguna información probabilı́stica sobre ningún otro suceso del espacio. Por otra parte, de la relación P (A) = P (A ∩ B) + P (A ∩ B c ) se deduce, si A es independiente de B: P (A ∩ B c ) = P (A) − P (A)P (B) = P (A)(1 − P (B)) = P (A)P (B c ). Luego de la definición inicial de independencia, pasando por la caracterización P (A ∩ B) = P (A)P (B) obtenemos no sólo el papel simétrico que juegan A y B, que justifica que hablemos de dos sucesos independientes, sino que la relación es equivalente a la P (A ∩ B c ) = P (A)P (B c ), y en consecuencia que sean tanto la ocurrencia como la no ocurrencia de B las que no aporten nueva información sobre la posible ocurrencia de A. Estos hechos justifican que la definición de independencia incluya “por definición” que un suceso de probabilidad 0 sea independiente de cualquier otro, al adoptar la anterior caracterización como definición: Definición 1.1 Dos sucesos A y B de un espacio probabilı́stico (Ω, σ, P ), son (estocásticamente) independientes si P (A ∩ B) = P (A)P (B). La siguiente proposición es ahora inmediata a partir de las anteriores consideraciones, intercambiando los papeles de los sucesos A y B y finalmente de A y Ac . 1 Proposición 1.2 Si dos sucesos A y B son independientes también lo son A y B c , Ac y B, y Ac y B c . 1.2 Independencia de dos clases de sucesos Otra cuestión natural, está relacionada con sucesos que son independientes de un tercero: En general de la independencia de los sucesos A y B1 y de la de A y B2 no puede deducirse la independencia de A de un suceso obtenido a partir de B1 y B2 . En el siguiente ejemplo clásico se pone de manifiesto cómo dos sucesos pueden no ser, por separado, en absoluto informativos sobre otro, mientras que conjuntamente determinan completamente la ocurrencia o no de aquel. Ejemplo 1.3 Sea (Ω, σ, P ) el espacio discreto formado por las ternas (1, 1, 1), (2, 2, 2), (3, 3, 3), (1, 2, 3), (1, 3, 2), (2, 1, 3), (2, 3, 1), (3, 1, 2), (3, 2, 1) y la probabilidad uniforme que da a cada una probabilidad 91 . Sean Bi , i = 1, 2 los sucesos “i aparece en su lugar natural” y A el suceso “3 aparece en su lugar natural”. Los tres sucesos A, B1 , B2 tienen la misma probabilidad, 31 . Además se tiene A ∩ B1 = {(1, 2, 3)} = A ∩ B2 = A ∩ B1 ∩ B2 , por lo que P (A ∩ B1 ) = P (A ∩ B2 ) = 1 3 × 1 3 = 1 9 = P (A ∩ B1 ∩ B2 ) 6= 91 × 13 y los sucesos A y B1 , asi como los A y B2 resultan ser independientes, mientras que A y B1 ∩ B2 son completamente dependientes (si ocurre B1 ∩ B2 entonces necesariamente ocurre A). Otro sencillo cálculo prueba que en el anterior ejemplo el suceso A tampoco es independiente del B1 ∪ B2 . Sin embargo, si además de las independencias entre A y B1 y entre A y B2 asumimos la independencia entre A y B1 ∩ B2 , utilizando la fórmula de inclusión exclusión, no es difı́cil probar que también se verificará la independencia entre A y B1 ∪B2 : P ((B1 ∪ B2 ) ∩ A) = P (B1 ∩ A) + P ((B2 − B1 ) ∩ A) = P (B1 )P (A) + P (B2 )P (A) − P (B1 ∩ B2 )P (A) = (P (B1 ) + P (B2 ) − P (B1 ∩ B2 ))P (A) = P (B1 ∪ B2 )P (A). Lo que ya puede resultar mucho más difı́cil es probar este tipo de resultado cuando se manejan más de tres conjuntos y las operaciones entre ellos admiten variantes. Supóngase por ejemplo que cada suceso Bi , i = 1, ...10 es independiente de A, y que además la ocurrencia simultanea de cualquier subconjunto de sucesos de entre los B’s es independiente de A. ¿Serán independientes los sucesos (((B1 −B2 )∪(B3 ∩B4c ∪B5 ))∆(B6 ∪B7c ∪B8 ∩B9 ))∩B10 y A?. La definición de independencia de clases de conjuntos y los resultados que la siguen dan una respuesta general a este tipo de cuestiones. Definición 1.4 Sean C, D ⊂ σ dos clases de sucesos en el espacio probabilı́stico (Ω, σ, P ). Diremos que C y D son independientes si todo suceso de C es independiente de todo suceso de D: P (C ∩ D) = P (C)P (D) para todo C ∈ C y todo D ∈ D. 2 El siguiente lema es la clave que permite una demostración inmediata de algunos de los resultados que perseguimos. Lema 1.5 Sea (Ω, σ, P ) un espacio probabilı́stico y A ∈ σ un suceso cualquiera. La clase ΓA = {B ∈ σ : P (A ∩ B) = P (A)P (B)} es una λ-clase. Demostración: Como ya sabemos que Ω es independiente de cualquier suceso y que si un suceso B es independiente de A también lo es B c , bastará probar que ΓA es cerrada para uniones numerables disjuntas: Sea {Bn }n una familia numerable de sucesos disjuntos en la clase ΓA . Entonces X P (( n X Bn ) ∩ A) = P ( n (Bn ∩ A)) = X P (Bn ∩ A) = n X X P (Bn )P (A) = P ( n Bn )P (A), n por la σ-aditividad de la probabilidad y la independencia entre A y cada suceso Bn . 2 Proposición 1.6 Sean α1 , α2 ⊂ σ dos clases de sucesos del espacio (Ω, σ, P ). Si α1 y α2 son independientes y cerradas para intersecciones finitas entonces σ(α1 ) y σ(α2 ) también son independientes. Demostración: Sea A ∈ α1 fijo, y sea ΓA = {B ∈ σ(α2 ) : P (A ∩ B) = P (A)P (B)}. Por el lema anterior ΓA es una λ-clase que, por hipótesis, contiene a la π-clase α2 . Como consecuencia del teorema de la π − λ-clase de Dynkin se tiene entonces ΓA = σ(α2 ) y, en consecuencia P (A ∩ B) = P (A)P (B) para todo A ∈ α1 y todo B ∈ σ(α2 ). Cambiando ahora los papeles de α1 y α2 por las nuevas clases σ(α2 ) y α1 y repitiendo el razonamiento anterior se obtiene el resultado. 2 1.3 Sucesos mutuamente independientes La situación anteriormente descrita por la que es posible que A sea independiente de C, B sea independiente de C y, sin embargo A ∩ B no sea independiente de C, conduce a ser más exigente a la hora de plantear una correcta definición que refleje lo que debe significar que tres sucesos sean independientes. Por extensión llegamos a la siguiente definición. Definición 1.7 Sean A1 , A2 , ...An sucesos del espacio (Ω, σ, P ). Diremos que estos sucesos son (mutuamente) independientes si se verifican las relaciones P (Ai ∩ Aj ) = P (Ai )P (Aj ) si i es distinto de j P (Ai ∩ Aj ∩ Ak ) = P (Ai )P (Aj )P (Ak ) si i, j, k son distintos ... P (A1 ∩ A2 ∩ ...An ) = P (A1 )P (A2 )...P (An ). 3 El adjetivo “mutuamente” refleja la distinción con los sucesos independientes “por parejas” (para cada pareja i 6= j se tiene P (Ai ∩ Aj ) = P (Ai )P (Aj )) y con otras alternativas obvias, aunque habitualmente no se explicitará. Más generalmente, cuando está involucrada una familia cualquiera de sucesos utilizaremos la siguiente definición, claramente equivalente a que cualquier subfamilia finita esté formada por sucesos (mutuamente) independientes. Definición 1.8 Sea (At )t∈T una familia de sucesos del espacio (Ω, σ, P ). Diremos que estos sucesos son (mutuamente) independientes si para cualquier subconjunto finito, J, de T (J ∈ PF (T )) se verifica \ P( Aj ) = j∈J Y P (Aj ). j∈J La generalización a familias de clases de sucesos es inmediata: Definición 1.9 Sea (Ct )t∈T una familia de clases de sucesos del espacio (Ω, σ, P ). Diremos que estas clases son (mutuamente) independientes si para cualquier J ∈ PF (T ) y cualquier selección de conjuntos Cj ∈ Cj , j ∈ J, se verifica P( \ Cj ) = j∈J Y P (Cj ). j∈J Del mismo modo que veı́amos que de la independencia de dos sucesos podı́a deducirse la de sus complementarios, y que se obtenı́a el lema fundamental 1.5, veremos a continuación que de la independencia de una familia de clases puede deducirse la de clases ampliadas convenientemente. Proposición 1.10 Sea (Ct )t∈T una familia de clases independientes de sucesos del espacio (Ω, σ, P ). La independencia se conserva si ampliamos las clases a las Ct∗ incluyendo • Todos los sucesos de Ct . • Todos los sucesos de probabilidad 0 ó 1. • Las diferencias propias de sucesos de Ct . • Las uniones numerables de conjuntos disjuntos de Ct . • Los lı́mites monótonos de sucesos de Ct . Demostración: Supongamos sin pérdida de generalidad que Ω está en cada clase Ct (en caso contrario su inclusión no comporta ningún problema). Entonces, por una parte, la independencia de las clases (Ct )t∈T es equivalente a la de cualquier subfamilia finita (Ctj )nj=1 , y ésta, por la consideración anterior, a que para cada selección de un conjunto Cj ∈ Ctj de cada una de las clases se tenga P (C1 ∩ C2 ∩ ... ∩ Cn ) = P (C1 )P (C2 )...P (Cn ). 4 Debemos probar que esta relación se sigue verificando si los conjuntos se eligen de las nuevas clases (Ct∗j )nj=1 . Para ello fijemos previamente los conjuntos Cj ∈ Ctj , j = 2, ...n, y definamos C = C2 ∩ ... ∩ Cn . Por la hipótesis de independencia se tiene P (C) = P (C2 ∩ ... ∩ Cn ) = P (C2 )...P (Cn ). Sea ahora H un conjunto perteneciente a alguna de las categorias enumeradas anteriormente, que componen la clase Ct∗1 . Es inmediato comprobar, con las mismas técnicas ya utilizadas, que P (H ∩ C) = P (H)P (C) = P (H)P (C2 )...P (Cn ), por lo que, variando los conjuntos Cj ∈ Ctj , j = 2, ..., n, llegamos a que las clases Ct∗1 , Ct2 , ..., Ctn son independientes. Fijando ahora los conjuntos C1 ∈ Ct∗1 , C3 ∈ Ct3 , ...Cn ∈ Ctn y argumentando igual con los conjuntos de Ct∗2 llegaremos a la independencia de las clases Ct∗1 , Ct∗2 , ...Ctn , y en n pasos a la independencia de las n clases Ct∗1 , Ct∗2 , ...Ct∗n , como querı́amos probar. 2 Si además las clases involucradas son cerradas para intersecciones finitas, el resultado es más fuerte, y cualesquiera que sean los sucesos Ct que “dependan” de las clases Ct serán sucesos independientes: Proposición 1.11 Sea (Ct )t∈T una familia de clases independientes de sucesos del espacio (Ω, σ, P ). Si las clases son cerradas para intersecciones finitas entonces las σ-álgebras engendradas siguen siendo independientes: La familia {σ(Ct )}t∈T es de clases independientes. Demostración: Argumentando igual que en la demostración anterior, fijados los conjuntos Cj ∈ Ctj , j = 2, ...n, y definiendo C = C2 ∩ ... ∩ Cn , podemos considerar la clase ΓC = {H ∈ σ(Ct1 ) : P (H ∩ C) = P (H)P (C)}, y el argumento empleado en la proposición 1.6 lleva inmediatamente a la independencia de las clases σ(Ct1 ), Ct2 , ...Ctn . La demostración termina como la anterior. 2 Como consecuencia de esta proposición obtenemos el siguiente resultado. Proposición 1.12 Sea (At )t∈T una familia de sucesos independientes en el espacio (Ω, σ, P ). Si T = T1 + T2 + ... + Tn + ... es una partición del conjunto de ı́ndices y definimos las σ-álgebras σ j = σ({At , t ∈ Tj }), j = 1, 2, ...n, ..., las σ-álgebras de la familia (σ j )∞ j=1 son independientes. Demostración: Las clases Cj := { \ As , Hj ∈ PF (Tj )}, s∈Hj son, por definición, cerradas para intersecciones finitas. 5 Para demostrar la independencia de estas clases sean Mj1 = \ \ As1 ∈ Cj1 , Mj2 = s1 ∈Hj1 As2 ∈ Cj2 , ..., Mjk = s2 ∈Hj2 \ Ask ∈ Cjk , sk ∈Hjk donde Hj1 ∈ PF (Tj1 ), Hj2 ∈ PF (Tj2 ), ... Hjk ∈ PF (Tjk ). Entonces, como los conjuntos de la familia finita {At }t∈Hj1 ∪Hj2 ∪...∪Hjk son independientes, se tiene: P (Mj1 ∩ Mj2 ∩ ... ∩ Mjk ) = P ( k \ \ A si ) = i=1 si ∈H i k Y Y P (Asi ) = i=1 si ∈H i j j k Y P (Mji ) i=1 por la independencia de cada subfamilia {Asi }si ∈Hji . El resultado se sigue, por tanto, del anterior, teniendo en cuenta que σ j = σ(Cj ). 2 1.4 Independencia de variables aleatorias Por último adoptaremos la siguiente definición para variables aleatorias. Definición 1.13 Sea (Ω, σ, P ) un espacio probabilı́stico y {(Ωt , σ t )}t∈T una familia de espacios medibles. Sea (Xt )t∈T , Xt : Ω → Ωt , σ|σ t -medible, una familia de variables aleatorias. Diremos que las variables que componen la familia (Xt )t∈T , son (mutuamente) independientes si lo son las σ-álgebras que engendran: Las clases {σ(Xt )}t∈T son independientes. La siguiente caracterización es inmediata a partir de la definición de σ-álgebra engendrada por una variable aleatoria. Proposición 1.14 Con la notación de la definición anterior, las variables (Xt )t∈T son independientes si para cualquier J ∈ PF (T ) y cualquier selección de conjuntos Bj ∈ σ j , j ∈ J, se verifica P( \ (Xj ∈ Bj )) = j∈J Y P (Xj ∈ Bj ). j∈J De forma análoga a la proposición 1.12 podemos establecer el siguiente resultado, fundamental en el estudio de la independencia. Proposición 1.15 Con la notación anterior, sea T = T1 + T2 + ... + Tn + ... una partición del conjunto de ı́ndices T . Si las variables de la familia (Xt )t∈T son independientes y definimos las σ-álgebras σ j = σ({Xt , t ∈ Tj }), entonces las σ-álgebras de la familia (σ j )∞ j=1 son independientes. 6 Demostración: Las clases Mj := { \ (Xs ∈ Bs ), Bs ∈ σ s , s ∈ Hj , Hj ∈ PF (Tj )}, j ∈ N , s∈Hj son, por construcción, cerradas para intersecciones finitas y generan las σ-álgebras σ j , j ∈ N . Por último, teniendo en cuenta que, por la hipótesis de independencia, los conjuntos de cualquier familia del tipo {(Xt ∈ Bt )}t∈T son independientes, la demostración puede terminarse como la de la proposición 1.12. 2 Por otra parte, si las σ-álgebras σ t están engendradas por clases Ct cerradas para intersecciones finitas, entonces las clases Ht := {Xt−1 (Ct ), Ct ∈ Ct } son cerradas para intersecciones finitas y verifican σ(Ht ) = σ(Xt ), por lo que resulta igualmente inmediata la siguiente proposición y su natural consecuencia en el marco de las variables aleatorias reales. (La generalización a vectores aleatorios es inmediata.) Proposición 1.16 Con la notación previa, si las σ-álgebras σ t están engendradas por clases Ct cerradas para intersecciones finitas, las variables aleatorias (Xt )t∈T son independientes si para cualquier J ∈ PF (T ) y cualquier selección de conjuntos Cj ∈ Cj , j ∈ J, se verifica Y \ P (Xj ∈ Cj ). P ( (Xj ∈ Cj )) = j∈J j∈J Corolario 1.17 Sea (Xt )t∈T una familia de variables aleatorias reales definidas en el espacio (Ω, σ, P ). Las variables de esta familia son independientes si y sólo si para cualquier subconjunto finito {t1 , t2 , ...tn } ⊂ T se verifica F(Xt1 ,Xt2 ,...Xtn ) (x1 , x2 , ...xn ) = n Y FXti (xi ) para cualesquiera x1 , x2 , ...xn ∈ < i=1 siendo F(Xt1 ,Xt2 ,...Xtn ) y FXti , i = 1, 2, ...n, las funciones de distribución conjunta y marginales de las variables involucradas. En particular, en el caso de sucesiones de variables aleatorias se tiene: Las variables de la sucesión (Xn )n son independientes si y sólo si para cualquier n ∈ N se verifica F(X1 ,X2 ,...Xn ) (x1 , x2 , ...xn ) = n Y FXi (xi ) para cualesquiera x1 , x2 , ...xn ∈ <. i=1 Demostración: Como la clase C := {(−∞, x], x ∈ <} es cerrada para intersecciones finitas y genera la σ-álgebra de Borel de <, el primer resultado es consecuencia de la proposición 1.16 y de la definición de función de distribución. El segundo es consecuencia además de la proposición que damos a continuación. 2 7 Puesto que el estudio de la independencia de familias de variables aleatorias se reduce al de las subfamilias finitas, los siguientes enunciados resultan de gran utilidad práctica. Proposición 1.18 Las variables aleatorias reales X1 , X2 , ...Xn , definidas en el espacio (Ω, σ, P ) son independientes si y sólo si su función de distribución conjunta es el producto de las marginales: F(X1 ,X2 ,...Xn ) (x1 , x2 , ...xn ) = n Y FXi (xi ) para cualesquiera x1 , x2 , ...xn ∈ <. i=1 Demostración: Deberemos probar que si {i1 , ...ik } ⊂ {1, 2, ...n}, F(Xi1 ,Xi2 ,...Xik ) (xi1 , xi2 , ...xik ) = k Y FXij (xj ) para cualesquiera x1 , x2 , ...xk ∈ <. j=1 Supongamos sin pérdida de generalidad que los k ı́ndices seleccionados son los primeros. Como la función de distribución marginal correspondiente al subvector (X1 , X2 , ...Xk ) puede obtenerse de la conjunta a través de la relación F(X1 ,X2 ,...Xk ) (x1 , x2 , ...xk ) = lim xk+1 →∞,...xn →∞ F(X1 ,X2 ,...Xn ) (x1 , x2 , ...xk , xk+1 , ...xn ) y, por otra parte, lim FXk+1 (xk+1 ) = 1, x lim FXk+2 (xk+2 ) = 1, ... x lim FXn (xn ) = 1, →∞ →∞ xk+1 →∞ n k+2 el resultado se sigue de inmediato. 2 Terminaremos el tema estableciendo la caracterización de la independencia de variables aleatorias cuando estas tienen función de densidad. Proposición 1.19 Sean X1 , X2 , ...Xn variables aleatorias reales independientes, definidas en el espacio (Ω, σ, P ). Si las variables admiten, respectivamente, funciones de densidad f1 , f2 , ...fn , entonces existe función de densidad conjunta dada por f (x1 , x2 , ...xn ) = f1 (x1 )f2 (x2 )...fn (xn ). Por otra parte, si X1 , X2 , ...Xn son variables que admiten una densidad conjunta, f , la condición necesaria y suficiente para que sean independientes es que f (x1 , x2 , ...xn ) = f1 (x1 )f2 (x2 )...fn (xn ), para cualesquiera x1 , x2 , ...xn ∈ <, siendo fi , para cada i = 1, 2, ...n, la función de densidad marginal de la variable Xi . 8 Demostración: Definiendo f (x1 , x2 , ...xn ) = f1 (x1 )f2 (x2 )...fn (xn ), resulta fácil (utilizando el Teorema de Fubini) demostrar que f define una función de densidad en <n . Si consideramos la correspondiente probabilidad Q(B) := Z <n f (t1 , t2 , ...tn )dt1 dt2 ...dtn , B ∈ β n será suficiente probar que Q coincide con P(X1 ,X2 ,...Xn ) en los conjuntos de una clase cerrada para intersecciones finitas, que genere β n , como la formada por los conjuntos del tipo (−∞, x1 ] × (−∞, x2 ] × ... × (−∞, xn ]. Pero de la independencia, por la proposición anterior, aplicando de nuevo el teorema de Fubini, obtenemos: P(X1 ,X2 ,...Xn ) ((−∞, x1 ] × (−∞, x2 ] × ... × (−∞, xn ]) = F(X1 ,X2 ,...Xn ) (x1 , x2 , ...xn ) = n Y i=1 Z Qn i=1 (−∞,xi ] FXi (xi ) = n Z xi Y i=1 −∞ n Y Z fi (ti )dti = Qn i=1 (−∞,xi ] i=1 fi (ti )dti = f (t1 , t2 , ...tn )dt1 dt2 ...dtn = Q((−∞, x1 ] × (−∞, x2 ] × ... × (−∞, xn ]). Esto demuestra que f es función de densidad conjunta de X1 , X2 , ...Xn . Para la otra parte de la proposición es suficiente observar que de la existencia de la función de densidad conjunta siempre se deduce la existencia de las funciones de densidad marginales, por lo que puede aplicarse la primera parte de la proposición. 2 2 Una primera incursión en lo asintótico Las propiedades asintóticas son aquellas relacionadas con el comportamiento lı́mite de los modelos que consideramos. Si nuestro análisis se centra en una sucesión de resultados de diversos experimentos aleatorios, X1 , X2 , ...Xn , ..., los sucesos asintóticos, en los que estamos interesados ahora, son aquellos cuya ocurrencia (o no) no dependerá de lo que observemos hasta cualquier ı́ndice finito. Ejemplos de sucesos de este tipo serı́an “aparecen infinitos valores mayores que 0”, “la sucesión (Xn )n converge”, “la sucesión sólo toma un número finito de valores fuera del intervalo [a, b]”, etc. Como por otra parte, los sucesos de interés deberán estar vinculados a la sucesión de observaciones, los correspondientes conjuntos deberán poder “expresarse” en términos de las variables Xn ’s, esto es, ser medibles en la mı́nima σ−álgebra que hace medibles todas las variables involucradas. En términos más precisos, estos sucesos deberán estar en σ(X1 , X2 , ...Xn , ...), pero al no depender de 9 las primeras k variables, en realidad deberán estar en σ(Xk+1 , Xk+2 , ...Xk+n , ...), y esto es válido para cualquier k. En definitiva, los sucesos a los que nos referimos son aquellos que están en ∩∞ k=0 σ(Xk+1 , Xk+2 , ...Xk+n , ...). Esta intersección de σ−álgebras es una nueva σ−álgebra, formada por los sucesos relevantes para la teorı́a asintótica, por lo que estableceremos la siguiente definición. Definición 2.1 Se denominan sucesos asintóticos asociados a la sucesión de conjuntos (resp. variables aleatorias) (An )n (resp. (Xn )n , a los sucesos que pertenecen a la σ−álgebra σ∞ (A1 , A2 , ....An , ...) := ∞ \ σ(Ak+1 , Ak+2 , ...Ak+n , ...) k=0 (resp. σ∞ (X1 , X2 , ....Xn , ...) := ∞ k=0 σ(Xk+1 , Xk+2 , ...Xk+n , ...)). Análogamente, las variables medibles en esta σ−álgebra se denominarán variables asintóticas (sucesos cola y variables cola son términos que también se utilizan en este contexto). La σ−álgebra se denominará la σ−álgebra asintótica y la denotaremos simplemente como σ∞ cuando no exista duda sobre la sucesión de conjuntos o variables que constituya el correspondiente marco de trabajo. T El estudio de los sucesos asintóticos en la Teorı́a de la Probabilidad está fundamentalmente basado en el análisis de la probabilidad del lı́mite superior de una sucesión de conjuntos. Curiosamente los resultados clave son de una gran sencillez y trascendencia. De hecho suelen estar basados en variaciones de los denominados Lemas de Borel-Cantelli que, a continuación exponemos. Lema 2.2 (Borel-Cantelli). Sea (An )n una sucesión de sucesos en el espacio probabilı́stico (Ω, σ, P ). • 1er Lema: Si ∞ n=1 P (An ) < ∞, entonces P (lim sup An ) = 0. P o • 2 Lema: Si los sucesos (An )n son independientes y ∞ n=1 P (An ) = ∞, entonces P (lim sup An ) = 1. P Demostración: Para el primer lema consideremos los conjuntos Bm =P ∞ n=m An . Por T∞ ∞ definición se tiene Bm ↓ m=1 Bm = lim sup An , y, desde luego, P (Bm ) ≤ n=m P (An ) → 0, cuando m → ∞, al ser la serie convergente. En consecuencia, tendremos P (lim sup An ) ≤ limm→∞ P (Bm ) = 0. S El segundo lema necesita una mayor elaboración. En primer lugar observemos que se da la desigualdad elemental 1 − x ≤ e−x , válida para todo x ∈ [0, 1], como puede obtenerse simplemente del hecho de que ambas expresiones coinciden en x = 0, mientras que la derivada de la expresión en el primer miembro es menor que la del segundo. De esta desigualdad, y de la independencia de los sucesos (Acn )n , deducimos inmediatamente que para todo m: P( ∞ \ n=m Acn ) = ∞ Y (1 − P (An )) = lim n=m r→∞ r Y (1 − P (An )) ≤ lim e− n=m 10 r→∞ Pr n=m P (An ) = 0, por lo que P (lim sup An ) = 1 − P ( ∞ \ ∞ [ Acn ) = 1. m=1 n=m 2 Debe destacarse que, al tratarse de series de términos positivos, la serie ∞ n=1 P (An ) o bien converge o bien diverge, por lo que, en el caso en que los sucesos (An )n son independientes, esta dicotomı́a y los dos lemas de Borel-Cantelli nos llevan a la que ser nuestra primera“ley 0-1”: la probabilidad del suceso lim sup An es 0 ó 1, además es 0 si y P sólo si ∞ n=1 P (An ) converge. En otras palabras, si los sucesos (An )n son independientes, P∞ si n=1 P (An ) = ∞ entonces “casi seguro” que ocurren infinitos de ellos; por el contrario, P si ∞ n=1 P (An ) < ∞, entonces “casi nunca” ocurrirán infinitos de ellos. La terminologı́a entrecomillada que acabamos de introducir aparece continuamente en la Teorı́a de la Probabilidad y expresa respectivamente que el suceso al que se refiere tiene probabilidad 1(casi seguro) ó 0 (casi nunca). El suceso {An ocurre infinitas veces}, esto es, lim sup An , es un ejemplo claro de suceso asintótico (ligado a la sucesión (An )n ). El siguiente resultado, conocido como la ley 0-1 de Kolmogorov extiende la sorprendente propiedad que acabamos de enunciar a todos los sucesos asintóticos ligados a sucesiones de variables independientes. P Teorema 2.3 Sea (Xn )n una sucesión de variables independientes y σ∞ la correspondiente σ−álgebra de los sucesos asintóticos asociados. Entonces todos los sucesos de σ∞ tienen probabilidad 0 ó 1. Demostración: Probaremos que σ∞ es independiente de si misma, por lo que cada suceso A en ella verificará P (A) = P (A ∩ A) = (P (A))2 y, en consecuencia P (A) será 0 ó 1. Por definición de σ∞ , se tiene que σ∞ ⊂ σ(X1 , X2 , ...Xn , ...), pero esta última σ−álgebra S coincide con la σ−álgebra generada por la unión de σ−álgebras ∞ n=1 σ(X1 , X2 , ...Xn ), es decir: σ(X1 , X2 , ...Xn , ...) = σ ∞ [ ! σ(X1 , X2 , ...Xn ) . n=1 Además la clase ∞ finitas (de hecho es n=1 σ(X1 , X2 , ...Xn ) es cerrada para intersecciones S∞ un álgebra), por lo que si demostramos que σ∞ es independiente de n=1 σ(X1 , X2 , ...Xn ), por la Proposición 1.6 también será independiente de la σ−álgebra engendrada, es decir, de σ(X1 , X2 , ...Xn , ...), y de cualquier subclase de ella, en particular de la misma σ∞ . S Sea entonces H ∈ ∞ n=1 σ(X1 , X2 , ...Xn ). H pertenecerá por tanto a alguna de las σ−álgebras σ(X1 , X2 , ...Xn ). Por otra parte, si A ∈ σ∞ , entonces debe ocurrir que A ∈ σ(Xm , Xm+1 , ....) para todo m. En particular A ∈ σ(Xn+1 , Xn+2 , ....), luego será independiente de todos los sucesos de σ(X1 , X2 , ...Xn ) (recuérdese la Proposición 1.16), y en particular de H. S 11 2 3 Problemas propuestos. 1. Sean C, D clases cerradas para uniones finitas. Probar que si C y D son independientes entonces también lo son σ(C) y σ(D). 2. Probar que los conjuntos A1 , ...An son (mutuamente) independientes si y sólo si cada conjunto Ai es independiente de la clase Ci := σ({Aj , j 6= i}) para cada i = 1, ..., n. 3. Probar que los sucesos de la familia (At )t∈T son independientes si y sólo si lo son las variables aleatorias de la familia (IAt )t∈T . 4. Sea (Ω, σ, P ) un espacio probabilı́stico y {(Ωt , σ t )}t∈T una familia de espacios medibles. Sea, para cada t ∈ T , Xt : Ω → Ωt una variable σ|σ t -medible. Probar que las variables de la familia (Xt )t∈T son independientes si y sólo si para cualquier familia (ft )t∈T de funciones, ft : Ωt → <, σ t |β-medibles, las variables de la familia (ft (Xt ))t∈T son independientes. 5. Sea (Xn )n una sucesión de variables aleatorias reales independientes y (Bn )n una sucesión de conjuntos de Borel de <. Probar que P [X1 ∈ B1 , X2 ∈ B2 , ...Xn ∈ Bn , ....] = Π∞ i=1 P [Xi ∈ Bi ]. 6. Un dispositivo eléctrico cuenta con n componentes y funciona mientras lo hacen todas sus componentes. Sea F la función de distribución común de los tiempos de fallo de cada componente. Obtener la distribución del tiempo de fallo del sistema. 7. Sea (Ω, σ, P ) un espacio probabilı́stico y σ 0 ⊂ σ una σ-álgebra tal que σ 0 y σ 0 son independientes. Probar que (a) Todos los conjuntos de σ 0 tienen probabilidad 0 ó 1. ~ : Ω → <k es un vector aleatorio σ 0 |β-medible, existe x~0 ∈ <k tal que (b) Si X ~ = x~0 ) = 1. P (X 8. Sean X1 , X2 , ...Xn variables independientes e igualmente distribuidas, con función de distribución F y función de densidad f . Hallar la función de densidad conjunta de las variables U = inf{X1 , X2 , ...Xn } y V = sup{X1 , X2 , ...Xn }. 9. Sean X, Y variables aleatorias independientes con distribución exponencial (con función de densidad f (x) = e−x I(0,∞) (x)). Probar que las variables U = X + Y y V = X son Y independientes. 10. √ Sean X, Y variables aleatorias independientes con distribución N (0, σ) y sean ρ = Y X 2 + Y 2 , Θ = arc tag X . Probar que ρ y Θ son independientes. 12 11. Se define en <∞ (el espacio de las sucesiones de números reales) la σ-álgebra β ∞ como la mı́nima que hace medibles las proyecciones πn : <∞ → <, πn (x1 , x2 , ...xn , ...) = xn , i = 1, 2, ...n, ... Probar que β ∞ es también la σ-álgebra engendrada por las clases C = {< × < × ...< × Bn × < × ...., Bn ∈ β, n ∈ N } y D = {(−∞, x1 ] × (−∞, x2 ] × ... × (−∞, xn ] × < × ...., xi ∈ <, i = 1, ...n, n ∈ N } y que D es cerrada para intersecciones finitas. Probar que X : Ω → <∞ , X = (X1 , X2 , ...Xn , ...) es σ|β ∞ -medible si y sólo si todas sus componentes, Xn , n ∈ N , son variables aleatorias σ|β-medibles. 12. Sean (Xn )n e (Yn )n dos sucesiones de variables independientes. Probar que las sucesiones son igualmente distribuidas si y sólo si L(Xn ) = L(Yn ) para todo n ∈ N . 13. Sea (Fn )n una sucesión de funciones de distribución en <. Probar que existe una sucesión de variables aleatorias reales, (Xn )n , definidas en algún espacio probabilı́stico (Ω, σ, P ), que son independientes y tales que, para cada n ∈ N , Fn es la función de distribución de Xn . 14. Sean (Xn )n , (Yn )n dos sucesiones de variables tales que P (Xn = Yn ) = 1 para cada n. Probar que si las variables de la sucesión (Xn )n son independientes, entonces también lo son las de la sucesión (Yn )n . 15. Sea (Xn )n una sucesión de variables independientes que converge con probabilidad 1 a la variable X. Probar que la variable X es degenerada, es decir, es constante casi seguro. (Incluir la posibilidad de lı́mites infinitos). 16. Demostrar que una sucesión, (Xn )n , de variables independientes converge a 0 casi P seguro si y sólo si ∞ n=1 P (|Xn | > ) < ∞ para cualquier > 0. 17. Sea (An )n una sucesión de sucesos independientes. Obtener la probabilidad de los P P (A conjuntos lim inf An y lim sup An en función del carácter de las series ∞ n) y n=1 P∞ c n=1 P (An ) . 18. Sea (fn )n una sucesión de funciones reales y a ∈ <. Probar las siguientes relaciones: (a) {lim sup fn < a} ⊂ lim inf{fn < a} (b) lim inf{fn ≤ a} ⊂ {lim sup fn ≤ a} (c) {lim inf fn > a} ⊂ lim inf{fn > a}. Dar un ejemplo que pruebe que las contenciones pueden ser estrictas. 19. Sea (Xn )n una sucesión de variables aleatorias reales y sea a ∈ <. Si las variables son independientes entonces el conjunto Ca = {ω : Xn (ω) → a} tiene probabilidad 0 ó 1. Construir una sucesión de variables en algún espacio probabilı́stico y dar algún valor a tal que la probabilidad de Ca no sea 0 ni 1. 13 20. Sea (Xn )n una sucesión de variables aleatorias independientes con distribución exponencial de parámetro 1/λ (función de densidad f (x) = (1/λ) exp[−x/λ]I[0,∞) (x)). Probar que P [lim sup Xn / log n = λ] = 1. (Sugerencia: Considérense los conjuntos An (δ) = {Xn > (1 + δ)λ log n} y estúdiense diferenciadamente los casos δ = 0 y δ > 0). 21. Se dice que las variables X1 , ..., Xn son intercambiables cuando (X1 , ..., Xn ) =d (Xi1 , ..., Xin ) para cualquier permutación (i1 , ..., in ) de los ı́ndices {1, ..., n}. Probar que si las variables X1 , ..., Xn son intercambiables entonces P [X1 < X2 < ... < Xn ] = P [Xi1 < Xi2 < ... < Xin ] para cualquier permutación (i1 , ..., in ). Probar que variables independientes e igualmente distribuidas son intercambiables y dar un ejemplo que demuestre que la afirmación opuesta no es necesariamente correcta. 22. Sean X e Y variables aleatorias con densidad conjunta f (x, y). Probar que P [X = Y ] = 0. Utilizar el problema anterior para demostrar que si las variables X1 , ..., Xn son intercambiables con densidad conjunta f (x1 , ...xn ), entonces P [X1 < X2 < ... < Xn ] = 1/n!. 23. Sean X0 , X1 , ...Xn , ... variables independientes e igualmente distribuidas con función de densidad, y sea An = {Xn < X0 }. ¿Son los conjuntos An , n = 1, 2, ....., independientes?. Obtener P [lim inf An ]. (Sugerencia: Demostrar primero que el suceso {Xn+1 < X0 } ∩ {Xn+2 < X0 } ∩ {Xn+3 < X0 } ∩ {Xn+k < X0 } tiene probabilidad 1/(k + 1)). 14