1 Independencia Estocástica

Anuncio
1
Independencia Estocástica
La dependencia o la independencia estocástica conllevan implı́citamente la posibilidad
de relacionar probabilı́sticamente los sucesos, experimentos o variables. Por tanto se
hace necesaria la consideración de un espacio probabilı́stico común de referencia, que
genéricamente denominaremos (Ω, σ, P ).
1.1
Independencia de dos sucesos
Un argumento heurı́stico sobre el significado del concepto de independencia (estocástica)
del suceso A del B (A, B ∈ σ) conduce rápidamente a la conclusión de que el conocimiento
de la ocurrencia de B no aporta ninguna nueva información sobre la ocurrencia de A.
Puesto que la información con que contamos sobre la posibilidad de ocurrencia del suceso
A está medida a través de la función de probabilidad, por P (A), y el aporte de información
sobre A que nos da la ocurrencia de B queda reflejado a través de P (A/B), la formulación
matemática inicial de la independencia del suceso A del B será: P (A/B) = P (A), y
recurriendo a la definición de probabilidad condicionada
P (A/B) =
P (A ∩ B)
si P (B) > 0
P (B)
llegariamos a P (A ∩ B) = P (A)P (B) como definición adecuada de independencia de A
respecto de B cuando P (B) > 0.
En particular, teniendo en cuenta que si P (B) = 1 entonces P (A/B) = P (A), se
confirma el hecho intuitivo de que el conocimiento de la ocurrencia de un suceso de
probabilidad 1 no aporta ninguna información probabilı́stica sobre ningún otro suceso del
espacio. Por otra parte, de la relación P (A) = P (A ∩ B) + P (A ∩ B c ) se deduce, si A es
independiente de B:
P (A ∩ B c ) = P (A) − P (A)P (B) = P (A)(1 − P (B)) = P (A)P (B c ).
Luego de la definición inicial de independencia, pasando por la caracterización P (A ∩
B) = P (A)P (B) obtenemos no sólo el papel simétrico que juegan A y B, que justifica
que hablemos de dos sucesos independientes, sino que la relación es equivalente a la
P (A ∩ B c ) = P (A)P (B c ), y en consecuencia que sean tanto la ocurrencia como la no
ocurrencia de B las que no aporten nueva información sobre la posible ocurrencia de A.
Estos hechos justifican que la definición de independencia incluya “por definición” que
un suceso de probabilidad 0 sea independiente de cualquier otro, al adoptar la anterior
caracterización como definición:
Definición 1.1 Dos sucesos A y B de un espacio probabilı́stico (Ω, σ, P ), son (estocásticamente) independientes si
P (A ∩ B) = P (A)P (B).
La siguiente proposición es ahora inmediata a partir de las anteriores consideraciones,
intercambiando los papeles de los sucesos A y B y finalmente de A y Ac .
1
Proposición 1.2 Si dos sucesos A y B son independientes también lo son A y B c , Ac y
B, y Ac y B c .
1.2
Independencia de dos clases de sucesos
Otra cuestión natural, está relacionada con sucesos que son independientes de un tercero:
En general de la independencia de los sucesos A y B1 y de la de A y B2 no puede
deducirse la independencia de A de un suceso obtenido a partir de B1 y B2 . En el siguiente
ejemplo clásico se pone de manifiesto cómo dos sucesos pueden no ser, por separado, en
absoluto informativos sobre otro, mientras que conjuntamente determinan completamente
la ocurrencia o no de aquel.
Ejemplo 1.3 Sea (Ω, σ, P ) el espacio discreto formado por las ternas
(1, 1, 1), (2, 2, 2), (3, 3, 3), (1, 2, 3), (1, 3, 2), (2, 1, 3), (2, 3, 1), (3, 1, 2), (3, 2, 1)
y la probabilidad uniforme que da a cada una probabilidad 91 . Sean Bi , i = 1, 2 los sucesos
“i aparece en su lugar natural” y A el suceso “3 aparece en su lugar natural”.
Los tres sucesos A, B1 , B2 tienen la misma probabilidad, 31 . Además se tiene A ∩ B1 =
{(1, 2, 3)} = A ∩ B2 = A ∩ B1 ∩ B2 , por lo que P (A ∩ B1 ) = P (A ∩ B2 ) =
1
3
×
1
3
=
1
9
= P (A ∩ B1 ∩ B2 ) 6= 91 × 13 y los sucesos A y B1 , asi como los A y B2 resultan ser
independientes, mientras que A y B1 ∩ B2 son completamente dependientes (si ocurre
B1 ∩ B2 entonces necesariamente ocurre A).
Otro sencillo cálculo prueba que en el anterior ejemplo el suceso A tampoco es independiente del B1 ∪ B2 . Sin embargo, si además de las independencias entre A y B1 y entre
A y B2 asumimos la independencia entre A y B1 ∩ B2 , utilizando la fórmula de inclusión
exclusión, no es difı́cil probar que también se verificará la independencia entre A y B1 ∪B2 :
P ((B1 ∪ B2 ) ∩ A) =
P (B1 ∩ A) + P ((B2 − B1 ) ∩ A) = P (B1 )P (A) + P (B2 )P (A) − P (B1 ∩ B2 )P (A) =
(P (B1 ) + P (B2 ) − P (B1 ∩ B2 ))P (A) = P (B1 ∪ B2 )P (A).
Lo que ya puede resultar mucho más difı́cil es probar este tipo de resultado cuando se
manejan más de tres conjuntos y las operaciones entre ellos admiten variantes. Supóngase
por ejemplo que cada suceso Bi , i = 1, ...10 es independiente de A, y que además la ocurrencia simultanea de cualquier subconjunto de sucesos de entre los B’s es independiente de
A. ¿Serán independientes los sucesos (((B1 −B2 )∪(B3 ∩B4c ∪B5 ))∆(B6 ∪B7c ∪B8 ∩B9 ))∩B10
y A?.
La definición de independencia de clases de conjuntos y los resultados que la siguen
dan una respuesta general a este tipo de cuestiones.
Definición 1.4 Sean C, D ⊂ σ dos clases de sucesos en el espacio probabilı́stico (Ω, σ, P ).
Diremos que C y D son independientes si todo suceso de C es independiente de todo suceso
de D:
P (C ∩ D) = P (C)P (D) para todo C ∈ C y todo D ∈ D.
2
El siguiente lema es la clave que permite una demostración inmediata de algunos de
los resultados que perseguimos.
Lema 1.5 Sea (Ω, σ, P ) un espacio probabilı́stico y A ∈ σ un suceso cualquiera. La clase
ΓA = {B ∈ σ : P (A ∩ B) = P (A)P (B)} es una λ-clase.
Demostración: Como ya sabemos que Ω es independiente de cualquier suceso y que si un
suceso B es independiente de A también lo es B c , bastará probar que ΓA es cerrada para
uniones numerables disjuntas:
Sea {Bn }n una familia numerable de sucesos disjuntos en la clase ΓA . Entonces
X
P ((
n
X
Bn ) ∩ A) = P (
n
(Bn ∩ A)) =
X
P (Bn ∩ A) =
n
X
X
P (Bn )P (A) = P (
n
Bn )P (A),
n
por la σ-aditividad de la probabilidad y la independencia entre A y cada suceso Bn . 2
Proposición 1.6 Sean α1 , α2 ⊂ σ dos clases de sucesos del espacio (Ω, σ, P ). Si α1 y α2
son independientes y cerradas para intersecciones finitas entonces σ(α1 ) y σ(α2 ) también
son independientes.
Demostración: Sea A ∈ α1 fijo, y sea ΓA = {B ∈ σ(α2 ) : P (A ∩ B) = P (A)P (B)}. Por
el lema anterior ΓA es una λ-clase que, por hipótesis, contiene a la π-clase α2 . Como
consecuencia del teorema de la π − λ-clase de Dynkin se tiene entonces ΓA = σ(α2 ) y, en
consecuencia
P (A ∩ B) = P (A)P (B) para todo A ∈ α1 y todo B ∈ σ(α2 ).
Cambiando ahora los papeles de α1 y α2 por las nuevas clases σ(α2 ) y α1 y repitiendo el
razonamiento anterior se obtiene el resultado. 2
1.3
Sucesos mutuamente independientes
La situación anteriormente descrita por la que es posible que A sea independiente de C,
B sea independiente de C y, sin embargo A ∩ B no sea independiente de C, conduce a ser
más exigente a la hora de plantear una correcta definición que refleje lo que debe significar
que tres sucesos sean independientes. Por extensión llegamos a la siguiente definición.
Definición 1.7 Sean A1 , A2 , ...An sucesos del espacio (Ω, σ, P ). Diremos que estos sucesos son (mutuamente) independientes si se verifican las relaciones
P (Ai ∩ Aj ) = P (Ai )P (Aj ) si i es distinto de j
P (Ai ∩ Aj ∩ Ak ) = P (Ai )P (Aj )P (Ak ) si i, j, k son distintos
...
P (A1 ∩ A2 ∩ ...An ) = P (A1 )P (A2 )...P (An ).
3
El adjetivo “mutuamente” refleja la distinción con los sucesos independientes “por parejas” (para cada pareja i 6= j se tiene P (Ai ∩ Aj ) = P (Ai )P (Aj )) y con otras alternativas
obvias, aunque habitualmente no se explicitará.
Más generalmente, cuando está involucrada una familia cualquiera de sucesos utilizaremos la siguiente definición, claramente equivalente a que cualquier subfamilia finita esté
formada por sucesos (mutuamente) independientes.
Definición 1.8 Sea (At )t∈T una familia de sucesos del espacio (Ω, σ, P ). Diremos que
estos sucesos son (mutuamente) independientes si para cualquier subconjunto finito, J,
de T (J ∈ PF (T )) se verifica
\
P(
Aj ) =
j∈J
Y
P (Aj ).
j∈J
La generalización a familias de clases de sucesos es inmediata:
Definición 1.9 Sea (Ct )t∈T una familia de clases de sucesos del espacio (Ω, σ, P ). Diremos que estas clases son (mutuamente) independientes si para cualquier J ∈ PF (T ) y
cualquier selección de conjuntos Cj ∈ Cj , j ∈ J, se verifica
P(
\
Cj ) =
j∈J
Y
P (Cj ).
j∈J
Del mismo modo que veı́amos que de la independencia de dos sucesos podı́a deducirse la
de sus complementarios, y que se obtenı́a el lema fundamental 1.5, veremos a continuación
que de la independencia de una familia de clases puede deducirse la de clases ampliadas
convenientemente.
Proposición 1.10 Sea (Ct )t∈T una familia de clases independientes de sucesos del espacio
(Ω, σ, P ). La independencia se conserva si ampliamos las clases a las Ct∗ incluyendo
• Todos los sucesos de Ct .
• Todos los sucesos de probabilidad 0 ó 1.
• Las diferencias propias de sucesos de Ct .
• Las uniones numerables de conjuntos disjuntos de Ct .
• Los lı́mites monótonos de sucesos de Ct .
Demostración: Supongamos sin pérdida de generalidad que Ω está en cada clase Ct (en
caso contrario su inclusión no comporta ningún problema). Entonces, por una parte,
la independencia de las clases (Ct )t∈T es equivalente a la de cualquier subfamilia finita
(Ctj )nj=1 , y ésta, por la consideración anterior, a que para cada selección de un conjunto
Cj ∈ Ctj de cada una de las clases se tenga
P (C1 ∩ C2 ∩ ... ∩ Cn ) = P (C1 )P (C2 )...P (Cn ).
4
Debemos probar que esta relación se sigue verificando si los conjuntos se eligen de las
nuevas clases (Ct∗j )nj=1 . Para ello fijemos previamente los conjuntos Cj ∈ Ctj , j = 2, ...n, y
definamos C = C2 ∩ ... ∩ Cn . Por la hipótesis de independencia se tiene
P (C) = P (C2 ∩ ... ∩ Cn ) = P (C2 )...P (Cn ).
Sea ahora H un conjunto perteneciente a alguna de las categorias enumeradas anteriormente, que componen la clase Ct∗1 . Es inmediato comprobar, con las mismas técnicas
ya utilizadas, que
P (H ∩ C) = P (H)P (C) = P (H)P (C2 )...P (Cn ),
por lo que, variando los conjuntos Cj ∈ Ctj , j = 2, ..., n, llegamos a que las clases
Ct∗1 , Ct2 , ..., Ctn son independientes.
Fijando ahora los conjuntos C1 ∈ Ct∗1 , C3 ∈ Ct3 , ...Cn ∈ Ctn y argumentando igual con
los conjuntos de Ct∗2 llegaremos a la independencia de las clases Ct∗1 , Ct∗2 , ...Ctn , y en n pasos
a la independencia de las n clases Ct∗1 , Ct∗2 , ...Ct∗n , como querı́amos probar. 2
Si además las clases involucradas son cerradas para intersecciones finitas, el resultado
es más fuerte, y cualesquiera que sean los sucesos Ct que “dependan” de las clases Ct serán
sucesos independientes:
Proposición 1.11 Sea (Ct )t∈T una familia de clases independientes de sucesos del espacio
(Ω, σ, P ). Si las clases son cerradas para intersecciones finitas entonces las σ-álgebras
engendradas siguen siendo independientes: La familia {σ(Ct )}t∈T es de clases independientes.
Demostración: Argumentando igual que en la demostración anterior, fijados los conjuntos
Cj ∈ Ctj , j = 2, ...n, y definiendo C = C2 ∩ ... ∩ Cn , podemos considerar la clase ΓC =
{H ∈ σ(Ct1 ) : P (H ∩ C) = P (H)P (C)}, y el argumento empleado en la proposición 1.6
lleva inmediatamente a la independencia de las clases σ(Ct1 ), Ct2 , ...Ctn . La demostración
termina como la anterior. 2
Como consecuencia de esta proposición obtenemos el siguiente resultado.
Proposición 1.12 Sea (At )t∈T una familia de sucesos independientes en el espacio (Ω, σ, P ).
Si T = T1 + T2 + ... + Tn + ... es una partición del conjunto de ı́ndices y definimos las
σ-álgebras σ j = σ({At , t ∈ Tj }), j = 1, 2, ...n, ..., las σ-álgebras de la familia (σ j )∞
j=1 son
independientes.
Demostración: Las clases
Cj := {
\
As , Hj ∈ PF (Tj )},
s∈Hj
son, por definición, cerradas para intersecciones finitas.
5
Para demostrar la independencia de estas clases sean
Mj1 =
\
\
As1 ∈ Cj1 , Mj2 =
s1 ∈Hj1
As2 ∈ Cj2 , ..., Mjk =
s2 ∈Hj2
\
Ask ∈ Cjk ,
sk ∈Hjk
donde
Hj1 ∈ PF (Tj1 ), Hj2 ∈ PF (Tj2 ), ... Hjk ∈ PF (Tjk ).
Entonces, como los conjuntos de la familia finita {At }t∈Hj1 ∪Hj2 ∪...∪Hjk son independientes,
se tiene:
P (Mj1 ∩ Mj2 ∩ ... ∩ Mjk ) = P (
k
\
\
A si ) =
i=1 si ∈H i
k
Y
Y
P (Asi ) =
i=1 si ∈H i
j
j
k
Y
P (Mji )
i=1
por la independencia de cada subfamilia {Asi }si ∈Hji .
El resultado se sigue, por tanto, del anterior, teniendo en cuenta que σ j = σ(Cj ). 2
1.4
Independencia de variables aleatorias
Por último adoptaremos la siguiente definición para variables aleatorias.
Definición 1.13 Sea (Ω, σ, P ) un espacio probabilı́stico y {(Ωt , σ t )}t∈T una familia de
espacios medibles. Sea (Xt )t∈T , Xt : Ω → Ωt , σ|σ t -medible, una familia de variables
aleatorias. Diremos que las variables que componen la familia (Xt )t∈T , son (mutuamente)
independientes si lo son las σ-álgebras que engendran: Las clases {σ(Xt )}t∈T son independientes.
La siguiente caracterización es inmediata a partir de la definición de σ-álgebra engendrada por una variable aleatoria.
Proposición 1.14 Con la notación de la definición anterior, las variables (Xt )t∈T son
independientes si para cualquier J ∈ PF (T ) y cualquier selección de conjuntos Bj ∈
σ j , j ∈ J, se verifica
P(
\
(Xj ∈ Bj )) =
j∈J
Y
P (Xj ∈ Bj ).
j∈J
De forma análoga a la proposición 1.12 podemos establecer el siguiente resultado,
fundamental en el estudio de la independencia.
Proposición 1.15 Con la notación anterior, sea T = T1 + T2 + ... + Tn + ... una partición
del conjunto de ı́ndices T . Si las variables de la familia (Xt )t∈T son independientes y
definimos las σ-álgebras σ j = σ({Xt , t ∈ Tj }), entonces las σ-álgebras de la familia
(σ j )∞
j=1 son independientes.
6
Demostración: Las clases
Mj := {
\
(Xs ∈ Bs ), Bs ∈ σ s , s ∈ Hj , Hj ∈ PF (Tj )}, j ∈ N ,
s∈Hj
son, por construcción, cerradas para intersecciones finitas y generan las σ-álgebras σ j , j ∈
N . Por último, teniendo en cuenta que, por la hipótesis de independencia, los conjuntos
de cualquier familia del tipo {(Xt ∈ Bt )}t∈T son independientes, la demostración puede
terminarse como la de la proposición 1.12. 2
Por otra parte, si las σ-álgebras σ t están engendradas por clases Ct cerradas para
intersecciones finitas, entonces las clases Ht := {Xt−1 (Ct ), Ct ∈ Ct } son cerradas para
intersecciones finitas y verifican σ(Ht ) = σ(Xt ), por lo que resulta igualmente inmediata
la siguiente proposición y su natural consecuencia en el marco de las variables aleatorias
reales. (La generalización a vectores aleatorios es inmediata.)
Proposición 1.16 Con la notación previa, si las σ-álgebras σ t están engendradas por
clases Ct cerradas para intersecciones finitas, las variables aleatorias (Xt )t∈T son independientes si para cualquier J ∈ PF (T ) y cualquier selección de conjuntos Cj ∈ Cj , j ∈ J,
se verifica
Y
\
P (Xj ∈ Cj ).
P ( (Xj ∈ Cj )) =
j∈J
j∈J
Corolario 1.17 Sea (Xt )t∈T una familia de variables aleatorias reales definidas en el espacio (Ω, σ, P ). Las variables de esta familia son independientes si y sólo si para cualquier
subconjunto finito {t1 , t2 , ...tn } ⊂ T se verifica
F(Xt1 ,Xt2 ,...Xtn ) (x1 , x2 , ...xn ) =
n
Y
FXti (xi ) para cualesquiera x1 , x2 , ...xn ∈ <
i=1
siendo F(Xt1 ,Xt2 ,...Xtn ) y FXti , i = 1, 2, ...n, las funciones de distribución conjunta y marginales de las variables involucradas.
En particular, en el caso de sucesiones de variables aleatorias se tiene: Las variables
de la sucesión (Xn )n son independientes si y sólo si para cualquier n ∈ N se verifica
F(X1 ,X2 ,...Xn ) (x1 , x2 , ...xn ) =
n
Y
FXi (xi ) para cualesquiera x1 , x2 , ...xn ∈ <.
i=1
Demostración: Como la clase C := {(−∞, x], x ∈ <} es cerrada para intersecciones finitas
y genera la σ-álgebra de Borel de <, el primer resultado es consecuencia de la proposición
1.16 y de la definición de función de distribución. El segundo es consecuencia además de
la proposición que damos a continuación. 2
7
Puesto que el estudio de la independencia de familias de variables aleatorias se reduce
al de las subfamilias finitas, los siguientes enunciados resultan de gran utilidad práctica.
Proposición 1.18 Las variables aleatorias reales X1 , X2 , ...Xn , definidas en el espacio
(Ω, σ, P ) son independientes si y sólo si su función de distribución conjunta es el producto
de las marginales:
F(X1 ,X2 ,...Xn ) (x1 , x2 , ...xn ) =
n
Y
FXi (xi ) para cualesquiera x1 , x2 , ...xn ∈ <.
i=1
Demostración: Deberemos probar que si {i1 , ...ik } ⊂ {1, 2, ...n},
F(Xi1 ,Xi2 ,...Xik ) (xi1 , xi2 , ...xik ) =
k
Y
FXij (xj ) para cualesquiera x1 , x2 , ...xk ∈ <.
j=1
Supongamos sin pérdida de generalidad que los k ı́ndices seleccionados son los primeros.
Como la función de distribución marginal correspondiente al subvector (X1 , X2 , ...Xk )
puede obtenerse de la conjunta a través de la relación
F(X1 ,X2 ,...Xk ) (x1 , x2 , ...xk ) =
lim
xk+1 →∞,...xn →∞
F(X1 ,X2 ,...Xn ) (x1 , x2 , ...xk , xk+1 , ...xn )
y, por otra parte,
lim FXk+1 (xk+1 ) = 1, x lim
FXk+2 (xk+2 ) = 1, ... x lim
FXn (xn ) = 1,
→∞
→∞
xk+1 →∞
n
k+2
el resultado se sigue de inmediato. 2
Terminaremos el tema estableciendo la caracterización de la independencia de variables
aleatorias cuando estas tienen función de densidad.
Proposición 1.19 Sean X1 , X2 , ...Xn variables aleatorias reales independientes, definidas
en el espacio (Ω, σ, P ). Si las variables admiten, respectivamente, funciones de densidad
f1 , f2 , ...fn , entonces existe función de densidad conjunta dada por
f (x1 , x2 , ...xn ) = f1 (x1 )f2 (x2 )...fn (xn ).
Por otra parte, si X1 , X2 , ...Xn son variables que admiten una densidad conjunta, f ,
la condición necesaria y suficiente para que sean independientes es que
f (x1 , x2 , ...xn ) = f1 (x1 )f2 (x2 )...fn (xn ), para cualesquiera x1 , x2 , ...xn ∈ <,
siendo fi , para cada i = 1, 2, ...n, la función de densidad marginal de la variable Xi .
8
Demostración: Definiendo
f (x1 , x2 , ...xn ) = f1 (x1 )f2 (x2 )...fn (xn ),
resulta fácil (utilizando el Teorema de Fubini) demostrar que f define una función de
densidad en <n . Si consideramos la correspondiente probabilidad
Q(B) :=
Z
<n
f (t1 , t2 , ...tn )dt1 dt2 ...dtn , B ∈ β n
será suficiente probar que Q coincide con P(X1 ,X2 ,...Xn ) en los conjuntos de una clase cerrada
para intersecciones finitas, que genere β n , como la formada por los conjuntos del tipo
(−∞, x1 ] × (−∞, x2 ] × ... × (−∞, xn ].
Pero de la independencia, por la proposición anterior, aplicando de nuevo el teorema de
Fubini, obtenemos:
P(X1 ,X2 ,...Xn ) ((−∞, x1 ] × (−∞, x2 ] × ... × (−∞, xn ]) = F(X1 ,X2 ,...Xn ) (x1 , x2 , ...xn ) =
n
Y
i=1
Z
Qn
i=1
(−∞,xi ]
FXi (xi ) =
n Z xi
Y
i=1 −∞
n
Y
Z
fi (ti )dti = Qn
i=1
(−∞,xi ] i=1
fi (ti )dti =
f (t1 , t2 , ...tn )dt1 dt2 ...dtn = Q((−∞, x1 ] × (−∞, x2 ] × ... × (−∞, xn ]).
Esto demuestra que f es función de densidad conjunta de X1 , X2 , ...Xn .
Para la otra parte de la proposición es suficiente observar que de la existencia de la
función de densidad conjunta siempre se deduce la existencia de las funciones de densidad
marginales, por lo que puede aplicarse la primera parte de la proposición. 2
2
Una primera incursión en lo asintótico
Las propiedades asintóticas son aquellas relacionadas con el comportamiento lı́mite de los
modelos que consideramos. Si nuestro análisis se centra en una sucesión de resultados
de diversos experimentos aleatorios, X1 , X2 , ...Xn , ..., los sucesos asintóticos, en los que
estamos interesados ahora, son aquellos cuya ocurrencia (o no) no dependerá de lo que observemos hasta cualquier ı́ndice finito. Ejemplos de sucesos de este tipo serı́an “aparecen
infinitos valores mayores que 0”, “la sucesión (Xn )n converge”, “la sucesión sólo toma un
número finito de valores fuera del intervalo [a, b]”, etc. Como por otra parte, los sucesos de
interés deberán estar vinculados a la sucesión de observaciones, los correspondientes conjuntos deberán poder “expresarse” en términos de las variables Xn ’s, esto es, ser medibles
en la mı́nima σ−álgebra que hace medibles todas las variables involucradas. En términos
más precisos, estos sucesos deberán estar en σ(X1 , X2 , ...Xn , ...), pero al no depender de
9
las primeras k variables, en realidad deberán estar en σ(Xk+1 , Xk+2 , ...Xk+n , ...), y esto
es válido para cualquier k. En definitiva, los sucesos a los que nos referimos son aquellos que están en ∩∞
k=0 σ(Xk+1 , Xk+2 , ...Xk+n , ...). Esta intersección de σ−álgebras es una
nueva σ−álgebra, formada por los sucesos relevantes para la teorı́a asintótica, por lo que
estableceremos la siguiente definición.
Definición 2.1 Se denominan sucesos asintóticos asociados a la sucesión de conjuntos (resp. variables aleatorias) (An )n (resp. (Xn )n , a los sucesos que pertenecen a la
σ−álgebra
σ∞ (A1 , A2 , ....An , ...) :=
∞
\
σ(Ak+1 , Ak+2 , ...Ak+n , ...)
k=0
(resp. σ∞ (X1 , X2 , ....Xn , ...) := ∞
k=0 σ(Xk+1 , Xk+2 , ...Xk+n , ...)). Análogamente, las variables medibles en esta σ−álgebra se denominarán variables asintóticas (sucesos cola y
variables cola son términos que también se utilizan en este contexto). La σ−álgebra se
denominará la σ−álgebra asintótica y la denotaremos simplemente como σ∞ cuando no
exista duda sobre la sucesión de conjuntos o variables que constituya el correspondiente
marco de trabajo.
T
El estudio de los sucesos asintóticos en la Teorı́a de la Probabilidad está fundamentalmente basado en el análisis de la probabilidad del lı́mite superior de una sucesión de
conjuntos. Curiosamente los resultados clave son de una gran sencillez y trascendencia.
De hecho suelen estar basados en variaciones de los denominados Lemas de Borel-Cantelli
que, a continuación exponemos.
Lema 2.2 (Borel-Cantelli). Sea (An )n una sucesión de sucesos en el espacio probabilı́stico
(Ω, σ, P ).
• 1er Lema: Si ∞
n=1 P (An ) < ∞, entonces P (lim sup An ) = 0.
P
o
• 2 Lema: Si los sucesos (An )n son independientes y ∞
n=1 P (An ) = ∞, entonces
P (lim sup An ) = 1.
P
Demostración: Para el
primer lema consideremos los conjuntos Bm =P ∞
n=m An . Por
T∞
∞
definición se tiene Bm ↓ m=1 Bm = lim sup An , y, desde luego, P (Bm ) ≤ n=m P (An ) →
0, cuando m → ∞, al ser la serie convergente. En consecuencia, tendremos P (lim sup An ) ≤
limm→∞ P (Bm ) = 0.
S
El segundo lema necesita una mayor elaboración. En primer lugar observemos que
se da la desigualdad elemental 1 − x ≤ e−x , válida para todo x ∈ [0, 1], como puede
obtenerse simplemente del hecho de que ambas expresiones coinciden en x = 0, mientras
que la derivada de la expresión en el primer miembro es menor que la del segundo.
De esta desigualdad, y de la independencia de los sucesos (Acn )n , deducimos inmediatamente que para todo m:
P(
∞
\
n=m
Acn ) =
∞
Y
(1 − P (An )) = lim
n=m
r→∞
r
Y
(1 − P (An )) ≤ lim e−
n=m
10
r→∞
Pr
n=m
P (An )
= 0,
por lo que
P (lim sup An ) = 1 − P (
∞ \
∞
[
Acn ) = 1.
m=1 n=m
2
Debe destacarse que, al tratarse de series de términos positivos, la serie ∞
n=1 P (An )
o bien converge o bien diverge, por lo que, en el caso en que los sucesos (An )n son
independientes, esta dicotomı́a y los dos lemas de Borel-Cantelli nos llevan a la que ser
nuestra primera“ley 0-1”: la probabilidad del suceso lim sup An es 0 ó 1, además es 0 si y
P
sólo
si ∞
n=1 P (An ) converge. En otras palabras, si los sucesos (An )n son independientes,
P∞
si n=1 P (An ) = ∞ entonces “casi seguro” que ocurren infinitos de ellos; por el contrario,
P
si ∞
n=1 P (An ) < ∞, entonces “casi nunca” ocurrirán infinitos de ellos. La terminologı́a
entrecomillada que acabamos de introducir aparece continuamente en la Teorı́a de la
Probabilidad y expresa respectivamente que el suceso al que se refiere tiene probabilidad
1(casi seguro) ó 0 (casi nunca).
El suceso {An ocurre infinitas veces}, esto es, lim sup An , es un ejemplo claro de suceso
asintótico (ligado a la sucesión (An )n ). El siguiente resultado, conocido como la ley 0-1
de Kolmogorov extiende la sorprendente propiedad que acabamos de enunciar a todos los
sucesos asintóticos ligados a sucesiones de variables independientes.
P
Teorema 2.3 Sea (Xn )n una sucesión de variables independientes y σ∞ la correspondiente σ−álgebra de los sucesos asintóticos asociados. Entonces todos los sucesos de σ∞
tienen probabilidad 0 ó 1.
Demostración: Probaremos que σ∞ es independiente de si misma, por lo que cada
suceso A en ella verificará P (A) = P (A ∩ A) = (P (A))2 y, en consecuencia P (A) será 0 ó
1.
Por definición de σ∞ , se tiene que σ∞ ⊂ σ(X1 , X2 , ...Xn , ...), pero esta última σ−álgebra
S
coincide con la σ−álgebra generada por la unión de σ−álgebras ∞
n=1 σ(X1 , X2 , ...Xn ), es
decir:
σ(X1 , X2 , ...Xn , ...) = σ
∞
[
!
σ(X1 , X2 , ...Xn ) .
n=1
Además la clase ∞
finitas (de hecho es
n=1 σ(X1 , X2 , ...Xn ) es cerrada para intersecciones
S∞
un álgebra), por lo que si demostramos que σ∞ es independiente de n=1 σ(X1 , X2 , ...Xn ),
por la Proposición 1.6 también será independiente de la σ−álgebra engendrada, es decir,
de σ(X1 , X2 , ...Xn , ...), y de cualquier subclase de ella, en particular de la misma σ∞ .
S
Sea entonces H ∈ ∞
n=1 σ(X1 , X2 , ...Xn ). H pertenecerá por tanto a alguna de las
σ−álgebras σ(X1 , X2 , ...Xn ). Por otra parte, si A ∈ σ∞ , entonces debe ocurrir que
A ∈ σ(Xm , Xm+1 , ....) para todo m. En particular A ∈ σ(Xn+1 , Xn+2 , ....), luego será
independiente de todos los sucesos de σ(X1 , X2 , ...Xn ) (recuérdese la Proposición 1.16), y
en particular de H.
S
11
2
3
Problemas propuestos.
1. Sean C, D clases cerradas para uniones finitas. Probar que si C y D son independientes entonces también lo son σ(C) y σ(D).
2. Probar que los conjuntos A1 , ...An son (mutuamente) independientes si y sólo si cada
conjunto Ai es independiente de la clase Ci := σ({Aj , j 6= i}) para cada i = 1, ..., n.
3. Probar que los sucesos de la familia (At )t∈T son independientes si y sólo si lo son las
variables aleatorias de la familia (IAt )t∈T .
4. Sea (Ω, σ, P ) un espacio probabilı́stico y {(Ωt , σ t )}t∈T una familia de espacios medibles. Sea, para cada t ∈ T , Xt : Ω → Ωt una variable σ|σ t -medible. Probar que las
variables de la familia (Xt )t∈T son independientes si y sólo si para cualquier familia
(ft )t∈T de funciones, ft : Ωt → <, σ t |β-medibles, las variables de la familia (ft (Xt ))t∈T
son independientes.
5. Sea (Xn )n una sucesión de variables aleatorias reales independientes y (Bn )n una
sucesión de conjuntos de Borel de <. Probar que
P [X1 ∈ B1 , X2 ∈ B2 , ...Xn ∈ Bn , ....] = Π∞
i=1 P [Xi ∈ Bi ].
6. Un dispositivo eléctrico cuenta con n componentes y funciona mientras lo hacen
todas sus componentes. Sea F la función de distribución común de los tiempos de
fallo de cada componente. Obtener la distribución del tiempo de fallo del sistema.
7. Sea (Ω, σ, P ) un espacio probabilı́stico y σ 0 ⊂ σ una σ-álgebra tal que σ 0 y σ 0 son
independientes. Probar que
(a) Todos los conjuntos de σ 0 tienen probabilidad 0 ó 1.
~ : Ω → <k es un vector aleatorio σ 0 |β-medible, existe x~0 ∈ <k tal que
(b) Si X
~ = x~0 ) = 1.
P (X
8. Sean X1 , X2 , ...Xn variables independientes e igualmente distribuidas, con función de
distribución F y función de densidad f . Hallar la función de densidad conjunta de
las variables U = inf{X1 , X2 , ...Xn } y V = sup{X1 , X2 , ...Xn }.
9. Sean X, Y variables aleatorias independientes con distribución exponencial (con función
de densidad f (x) = e−x I(0,∞) (x)). Probar que las variables U = X + Y y V = X
son
Y
independientes.
10. √
Sean X, Y variables aleatorias independientes con distribución N (0, σ) y sean ρ =
Y
X 2 + Y 2 , Θ = arc tag X
. Probar que ρ y Θ son independientes.
12
11. Se define en <∞ (el espacio de las sucesiones de números reales) la σ-álgebra β ∞
como la mı́nima que hace medibles las proyecciones
πn : <∞ → <, πn (x1 , x2 , ...xn , ...) = xn , i = 1, 2, ...n, ...
Probar que β ∞ es también la σ-álgebra engendrada por las clases
C = {< × < × ...< × Bn × < × ...., Bn ∈ β, n ∈ N } y
D = {(−∞, x1 ] × (−∞, x2 ] × ... × (−∞, xn ] × < × ...., xi ∈ <, i = 1, ...n, n ∈ N }
y que D es cerrada para intersecciones finitas.
Probar que X : Ω → <∞ , X = (X1 , X2 , ...Xn , ...) es σ|β ∞ -medible si y sólo si todas
sus componentes, Xn , n ∈ N , son variables aleatorias σ|β-medibles.
12. Sean (Xn )n e (Yn )n dos sucesiones de variables independientes. Probar que las sucesiones son igualmente distribuidas si y sólo si L(Xn ) = L(Yn ) para todo n ∈ N .
13. Sea (Fn )n una sucesión de funciones de distribución en <. Probar que existe una
sucesión de variables aleatorias reales, (Xn )n , definidas en algún espacio probabilı́stico (Ω, σ, P ), que son independientes y tales que, para cada n ∈ N , Fn es
la función de distribución de Xn .
14. Sean (Xn )n , (Yn )n dos sucesiones de variables tales que P (Xn = Yn ) = 1 para cada
n. Probar que si las variables de la sucesión (Xn )n son independientes, entonces
también lo son las de la sucesión (Yn )n .
15. Sea (Xn )n una sucesión de variables independientes que converge con probabilidad 1
a la variable X. Probar que la variable X es degenerada, es decir, es constante casi
seguro. (Incluir la posibilidad de lı́mites infinitos).
16. Demostrar que una sucesión, (Xn )n , de variables independientes converge a 0 casi
P
seguro si y sólo si ∞
n=1 P (|Xn | > ) < ∞ para cualquier > 0.
17. Sea (An )n una sucesión de sucesos independientes. Obtener la probabilidad
de los
P
P
(A
conjuntos lim inf An y lim sup An en función del carácter de las series ∞
n) y
n=1
P∞
c
n=1 P (An ) .
18. Sea (fn )n una sucesión de funciones reales y a ∈ <. Probar las siguientes relaciones:
(a) {lim sup fn < a} ⊂ lim inf{fn < a}
(b) lim inf{fn ≤ a} ⊂ {lim sup fn ≤ a}
(c) {lim inf fn > a} ⊂ lim inf{fn > a}.
Dar un ejemplo que pruebe que las contenciones pueden ser estrictas.
19. Sea (Xn )n una sucesión de variables aleatorias reales y sea a ∈ <. Si las variables
son independientes entonces el conjunto Ca = {ω : Xn (ω) → a} tiene probabilidad 0
ó 1. Construir una sucesión de variables en algún espacio probabilı́stico y dar algún
valor a tal que la probabilidad de Ca no sea 0 ni 1.
13
20. Sea (Xn )n una sucesión de variables aleatorias independientes con distribución exponencial de parámetro 1/λ (función de densidad f (x) = (1/λ) exp[−x/λ]I[0,∞) (x)).
Probar que P [lim sup Xn / log n = λ] = 1. (Sugerencia: Considérense los conjuntos
An (δ) = {Xn > (1 + δ)λ log n} y estúdiense diferenciadamente los casos δ = 0 y
δ > 0).
21. Se dice que las variables X1 , ..., Xn son intercambiables cuando (X1 , ..., Xn ) =d
(Xi1 , ..., Xin ) para cualquier permutación (i1 , ..., in ) de los ı́ndices {1, ..., n}. Probar que si las variables X1 , ..., Xn son intercambiables entonces P [X1 < X2 < ... <
Xn ] = P [Xi1 < Xi2 < ... < Xin ] para cualquier permutación (i1 , ..., in ). Probar
que variables independientes e igualmente distribuidas son intercambiables y dar un
ejemplo que demuestre que la afirmación opuesta no es necesariamente correcta.
22. Sean X e Y variables aleatorias con densidad conjunta f (x, y). Probar que P [X =
Y ] = 0. Utilizar el problema anterior para demostrar que si las variables X1 , ..., Xn
son intercambiables con densidad conjunta f (x1 , ...xn ), entonces P [X1 < X2 < ... <
Xn ] = 1/n!.
23. Sean X0 , X1 , ...Xn , ... variables independientes e igualmente distribuidas con función
de densidad, y sea An = {Xn < X0 }. ¿Son los conjuntos An , n = 1, 2, ....., independientes?. Obtener P [lim inf An ]. (Sugerencia: Demostrar primero que el suceso
{Xn+1 < X0 } ∩ {Xn+2 < X0 } ∩ {Xn+3 < X0 } ∩ {Xn+k < X0 } tiene probabilidad
1/(k + 1)).
14
Descargar