1 Esperanza Matemática Los conceptos de σ-álgebra, medida (en particular las medidas de probabilidad), y función medible (en particular las variables aleatorias), han surgido de los esfuerzos hechos en el siglo XIX y principios del XX para ampliar el concepto de integral a clases cada vez más amplias de funciones. La ampliación definitiva fue llevada a cabo por Lebesgue, después de que Borel abriera el camino. Lebesgue trabajo con la medida especial conocida como “medida de Lebesgue”. Radon aplicó el mismo punto de vista, trabajando con medidas de “Stieljes-Lebesgue”. Por último, Frechet, usando aún el punto de vista de Lebesgue, prescindió de las restricciones sobre el espacio de medida sobre el que estaban definidas las funciones numéricas a integrar. La axiomática de la probabilidad de Kolmogorov, introduciéndola como una medida sobre una σ-álgebra “de los sucesos”, supuso un importante avance de la Teorı́a de la Probabilidad, que tuvo desde entonces el importante apoyo de la Teorı́a de la Medida en su evolución. Asi, el concepto de Esperanza Matemática, que juega en el Cálculo de Probabilidades un papel preponderante como medida de centralización, pasó de ser una simple media aritmética ponderada, calculable en ciertos casos, a su generalización como una “integral respecto de una medida de probabilidad”. Al tiempo, la Teorı́a de la Probabilidad ha enriquecido notablemente a la Teorı́a de la Medida no sólo por la justificación práctica que supone, sino por la abundancia de nuevas ideas que ha introducido y por los nuevos métodos de demostración que ha impuesto. Lebesgue tiene dos definiciones equivalentes de integral, una descriptiva a partir de sucesiones “convenientes” (mas propia del Análisis Matemático), que básicamente consiste en la completización del espacio de las variables simples respecto de la distancia inducida por la integral, y otra constructiva. Usaremos la definición constructiva de integral, de la cual hay muchas variantes, pero las ideas básicas son siempre las mismas y, en general, la integral se comienza definiendo siempre para funciones simples. Aunque no excluiremos los valores infinitos, sin embargo deberemos evitar la aparición de la expresión ∞ − ∞ a la que no daremos sentido. Una de las propiedades esenciales de la integral es la de ser continua para limites monótonos, y en la construcción aue vamos a realizar apuntaremos a conseguir rápidamente este resultado. Utilizaremos indistintamente los términos Esperanza Matematica (o Esperanza para abreviar), media e integral, y para una variable aleatoria dada, X,R representaremos su R R R esperanza por XdP, X(ω)dP (ω), X(ω)P (dω) o EX e incluso X cuando no haya lugar a dudas sobre el espacio probabilı́stico (Ω, σ, P ) que consideraremos fijo en todo el tema. Como generalización natural del concepto de media aritmética, e incluso del de centro de gravedad en sentido fı́sico, comenzaremos por definir la Esperanza Matematica para variables simples. Definición 1.1 Dada una variable simple X = ni=1 xi IAi , xi ∈ <, Ai ∈ P β, i = 1, ...n llamaremos esperanza matemática (o integral) de X (respecto de P ) al valor ni=1 xi P (Ai ). P Para ver que la definicion es consistente habrá que probar que el valor asignado a la integral no depende de la representación de X elegida. 1 Supongamos por tanto que X= n X xi IAi = i=1 m X yj IBj , j=1 donde además podemos suponer que la primera representación es la “canónica”, es decir, Ai = (X = xi ), i = 1, ..., n. Sea Γ = {C1 ∩ C2 ∩ ... ∩ Cm , Cj = Bj ó Bjc }. Claramente los conjuntos de Γ forman una partición del espacio. Además es inmediato comprobar que cada conjunto de Γ está contenido en uno y sólo un conjunto Ai (salvo que fuera vacı́o). P De hecho se tiene que Ai = D∈Γi D, siendo Γi = {D ∈ Γ, D ⊂ Ai } = {D = C1 ∩ C2 ∩ ... ∩ Cm , con Cj1 = Bj1 , ...Cjk = Bjk , y Cr = Brc si r ∈ / {j1 , ..., jk }, tales que k X yjp = xi }. p=1 Por otra parte también es inmediato que Bj = m X yj P (Bj ) = m X D∈Γ, D⊂Bj X yj j=1 j=1 P D. Por tanto P (D), D∈Γ, D⊂Bj y, desarrollando, resulta que para un D ∈ Γ, genérico, D = C1 ∩ C2 ∩ ... ∩ Cm , con Cj1 = Bj1 , ...Cjk = Bjk , y Cr = Brc si r ∈ / {j1 , ..., jk }, P (D) aparece en la suma k veces multiplicada por los correspondientes yj1 , ..., yjk , y reordenando m X X yj P (Bj ) = j=1 D∈Γ n X X i=1 D∈Γi P (D)( X yj ) = n X xi i=1 P (D)( i=1 D∈Γi j: D⊂Bj P (D)xi = n X X X P (D) = n X X yj ) = j: D⊂Bj xi P (Ai ), i=1 D∈Γi justificando la definición. En particular se tiene (utilizando la descomposición canónica) que EX = n X i=1 xi P (X = xi ) = n X xi P ◦ X i=1 −1 (xi ) = n X xi PX (xi ), i=1 que prueba que la esperanza de X sólo depende de su distribución, y no del espacio en que esté definida la variable. De hecho, la esperanza puede considerarse como una ampliacion natural del concepto de probabilidad, pues se tiene P (A) = E(IA ) para todo A ∈ σ y es la única prolongación de ésta al espacio de las variables simples que es lineal y positiva. En la siguiente proposición se obtienen las principales propiedades de la esperanza de variables simples. 2 Proposición 1.2 Sea S la clase de las variables aleatorias simples definidas en el espacio (Ω, σ, P ). La esperanza matemática tiene sobre S las siguientes propiedades: 1. 2. 3. 4. 5. 6. EIA = P (A) para todo A ∈ σ, E(k) = k, para toda constante k ∈ <. Si X ∈ S y X ≥ 0, entonces EX ≥ 0. E(kX) = kEX para toda k ∈ < y toda X ∈ S. Si X, Y ∈ S, entonces E(X + Y ) = EX + EY . Si X, Y ∈ S y X ≤ Y , entonces EX ≤ EY . Si (Xn )n ↑ X (resp. (Xn )n ↓ X), siendo Xn , X ∈ S, entonces EXn ↑ EX (resp. EXn ↓ EX). Demostracion: 1) es consecuencia directa de la definición. P 2) es obvia si se escribe la variable en la forma canónica X = ni=1 xi I(X=xi ) , puesto que P entonces debe ser xi ≥ 0 para todo i = 1, 2..., n, y entonces EX = ni=1 xi P (X = xi ) ≥ 0. Pn 3) se obtiene fácilmente teniendo en cuenta que si X = i=1 IAi , entonces kX = Pn Pn k i=1 xi IAi = i=1 (kxi )IAi , luego E(kX) = n X n X i=1 i=1 (kxi )P (Ai ) = k xi P (Ai ) = kEX. 4) es inmediata a partir del hecho de que la esperanza de una variable simple no dependa de la forma particular enPque se descomponga como combinación lineal de indicadores de P conjuntos de σ: Si X = ni=1 xi IAi , Y = m j=1 yj IBj , con Ai , Bj ∈ σ, es obvio que X + Y = x1 IA1 + x2 IA2 + ... + xn IAn + y1 IB1 + y2 IB2 + ... + ym IBm , y entonces E(X + Y ) = x1 P (A1 ) + ... + xn P (An ) + y1 P (B1 ) + ... + ym P (Bm ) = EX + EY. Para probar 5) obsérvese que si X ≤ Y entonces Y − X ≥ 0 y, por otra parte, Y − X también es una variable simple, luego de 2) obtenemos E(Y − X) ≥ 0, y de 3) y 4) que E(Y − X) = EY − EX, luego EX ≤ EY. Por las propiedades de linealidad y monotonı́a que hemos obtenido, para probar 6) será suficiente probar que si Xn ↓ 0, entonces EXn → 0. Si M = sup{x11 , x12 , ..., x1n1 }, siendo {x11 , x12 , ..., x1n1 } el conjunto de valores que toma la variable X1 , es claro que para cualquier > 0, se tiene Xn ≤ M I{Xn >} + ; por las propiedades ya probadas de la esperanza se tiene entonces EXn ≤ M P ({Xn > }) + , pero, como Xn ↓ 0, {Xn > } ↓ ∅, luego P ({Xn > }) ↓ 0, y se obtiene 0 ≤ lim EXn ≤ para todo > 0, y, en consecuencia EXn → 0. 2 Teniendo en cuenta que toda variable positiva es lı́mite creciente de variables positivas simples, y la propiedad de continuidad monótona secuencial de la esperanza en S es posible extender la definicion de esperanza también a variables positivas (el conjunto de estas se denotará por L+ 0. 3 Definición 1.3 Sea X ∈ L+ 0 y (Xn )n una sucesion de variables simples tales que Xn ↑ X. La esperanza de X es el valor (finito o infinito) EX = lim EXn . (Nótese que el lı́mite existe por ser (EXn )n una sucesión creciente.) Esta definición de esperanza necesita ser justificada demostrando que no existe ambigüedad: que el valor adjudicado a EX no depende de la “sucesión aproximadora”. Con el siguiente lema preparamos además el argumento para probar fácilmente la monotonı́a de la esperanza sobre L+ 0. Lema 1.4 Sean Xn , Y ∈ S, n ∈ N . Si Xn ↑ X, y X ≥ Y , entonces lim EXn ≥ EY. Demostración: Definiendo las nuevas variables (simples) Zn = inf{Xn , Y } se consigue una nueva sucesión monótona y convergente, Zn ↑ Y , ahora hacia una variable simple, que además verifica Zn ≤ Y y Zn ≤ Xn para todo n. Las propiedades dadas en la proposición 1.2 aseguran entonces que EZn ≤ EY, EZn ≤ EXn y EZn ↑ EY , de donde lim EXn ≥ lim EZn = EY. (nótese de nuevo que la existencia del lı́mite lim EXn está garantizada por la monotonı́a de la sucesión (Xn )n ). 2 Proposición 1.5 Sean (Xn )n e (Yn )n dos sucesiones de variables en S, tales que Xn ↑ X, Yn ↑ X. Entonces lim EXn = lim EYn (y, en consecuencia, la definición 1.3 es consistente). Demostración: De las convergencias Xn ↑ X, Yn ↑ X se deduce que lim Xn = X ≥ Yk y lim Yn = X ≥ Xk para todo k. El lema 1.4 asegura entonces que lim EXn ≥ EYk y lim EYn ≥ EXk para todo k, y, en consecuencia, lim EXn = lim EYn . 2 Respecto a la monotonı́a de la esperanza tenemos: Proposición 1.6 Sean X, Y ∈ L+ 0 . Si X ≤ Y entonces EX ≤ EY . Demostración: Sean (Xn )n e (Yn )n dos sucesiones de variables en S, tales que Xn ↑ X, Yn ↑ Y . Entonces Y ≥ Xk para todo k y, por el lema 1.4, lim EYn ≥ EXk para todo k, luego EY = lim EYn ≥ lim EXn = EX. 2 En particular se obtiene la propiedad (por otra parte obvia a partir de la definición): EX ≥ 0 si X es una variable aleatoria positiva. Otras propiedades de interés de la esperanza sobre las variables positivas se muestran en la siguiente proposición. Proposición 1.7 Sea L+ 0 el conjunto de las variables aleatorias positivas en (Ω, σ, P ). Entonces: 1. Si X ∈ L+ 0 y c ≥ 0: E(cX) = cEX. 4 2. Si X1 , X2 ∈ L+ 0 : E(X1 + X2 ) = EX1 + EX2 = E(sup(X1 , X2 )) + E(inf(X1 , X2 )). 3. Xn ∈ L+ 0 , y Xn ↑ X ⇒ EXn ↑ EX. Demostración: Todas las propiedades se demuestran a partir de las correspondientes de la esperanza de variables simples dadas en la proposición 1.2. 1) Sean Xn ∈ S tales que Xn ↑ X. Entonces, si c ≥ 0, también cXn ∈ S y cXn ↑ cX. Además por 3) en la proposición 1.2, E(cXn ) = cEXn . Por tanto se tendrá E(cX) = lim E(cXn ) = lim cEXn = cEX. 2) Sean Xn1 , Xn2 ∈ S tales que Xn1 ↑ X1 , Xn2 ↑ X2 . Entonces Xn1 + Xn2 ↑ X1 + X2 y Xn1 + Xn2 ∈ S. Como E(Xn1 + Xn2 ) = EXn1 + EXn2 por 4) en la proposición 1.2, fácilmente obtenemos E(X1 + X2 ) = lim E(Xn1 + Xn2 ) = lim(EXn1 + EXn2 ) = EX1 + EX2 . Finalmente la igualdad E(X1 + X2 ) = E(sup(X1 , X2 )) + E(inf(X1 , X2 )) es consecuencia inmediata de la identidad X1 + X2 = sup(X1 , X2 ) + inf(X1 , X2 ). 3) Sea para cada n (Ymn )m una sucesión de variables simples tales que Ymn ↑ Xn . Definiendo las nuevas variables (simples) Zm = sup Ymn , n:n≤m obtenemos una nueva sucesión creciente que verifica Ymn ≤ Zm ≤ Xm para todo m ≥ n. Entonces la monotonı́a de la esperanza sobre las variables simples nos asegura EYmn ≤ EZm ≤ EXm si m ≥ n y EZm ≤ EZm+1 para todo m. Haciendo m → ∞ y después n → ∞, obtenemos finalmente X = lim Xm = lim Zm y lim EXm = lim EZm = E(lim Zm ) = E(lim Xm ) = EX. 2 La ampliación del campo de definición de la integral a variables cualesquiera está basada en la búsqueda inmediata de linealidad conservando las propiedades de convergencia. Definición 1.8 Sea X una variable aleatoria cualquiera. Si al menos uno de los valores EX + , EX − es finito definimos la esperanza de X como el valor (posiblemente infinito) EX = EX + − EX − . Cuando los dos valores EX + y EX − son finitos (o, de forma equivalente, cuando EX es finito) diremos que la variable X es integrable. 5 Puesto que |X| = X + + X − , de las propiedades de la integral sobre las variables positivas se deduce de inmediato que una variable aleatoria, X, es integrable si y sólo si lo es su módulo, |X|. Además en este caso la variable X debe ser finita casi seguro (P (|X| = ∞) = 0): Si X es integrable, de la desigualdad |X|I{|X|=∞} ≤ |X| se deduce cP (|X| = ∞) ≤ E(|X|I{|X|=∞} ) ≤ E|X| para todo c > 0, y haciendo tender c a ∞ obtendriamos, si suponemos P (|X| = ∞) > 0, la incompatibilidad ∞ = E|X| < ∞. La siguiente proposición sintetiza las propiedades fundamentales de la esperanza matemática. También comenzaremos a utilizar de forma sistemática el calficativo “casi seguro” para hacer referencia a propiedades que se verifican salvo a lo sumo en un conjunto de probabilidad 0, ó, lo que representa la principal diferencia con el “casi siempre” habitual en la teorı́a de integración de Lebesgue, cuando la propiedad es cierta en un conjunto de probabilidad 0. Proposición 1.9 Sean X e Y , con o sin subı́ndices, variables aleatorias cualesquiera. 1. (Teorema de anulación). La igualdad E|X| = 0 se da si y sólo si X = 0 casi seguro (P (X = 0) = 1). 2. X ≥ 0 ⇒ EX ≥ 0. 3. E(cX) = cE(X) si existe EX. 4. E(X + Y ) = EX + EY si X + Y está bien definida y si X + e Y + (o X − e Y − son integrables. 5. Si X = Y casi seguro, entonces EX = EY (si una de ellas existe también existe la otra y sus valores, finitos o no, coinciden). 6. X ≤ Y casi seguro ⇒ EX ≤ EY si ambas existen. En particular |EX| ≤ E|X| si EX existe. 7. (Teorema de la convergencia monótona). • Xn ↑ X ⇒ EXn ↑ EX si EXn−0 < ∞ para algún n0 . • Xn ↓ X ⇒ EXn ↓ EX si EXn+0 < ∞ para algún n0 . Demostración: 1) Obsérvese que el estudio realizado hasta ahora sólo nos permite calcular la integral de poco más que variables simples. Puesto que una variable positiva que toma una infinidad numerable de valores puede escribirse fácilmente como lı́mite de simples, es inmediato el cálculo, basado en la serie correspondiente, de su esperanza. Nuestra demostración estará basada en el cálculo de la esperanza de variables adecuadas construidas a partir de una variable, X, cualquiera. Sean las variables positivas Y1 = 0I{X=0} + Σ∞ k=1 kI{k−1<|X|≤k} + ∞I{|X|=∞} Y2 = 0I{X=0} + Σ∞ k=1 1 1 I 1 + 1I{|X|>1} . n + 1 { n+1 <|X|≤ n } 6 Es evidente que 0 ≤ Y2 ≤ |X| ≤ Y1 , y por tanto (al ser variables positivas), tenemos 0 ≤ EY2 ≤ E|X| ≤ EY1 . Si X = 0 casi seguro, entonces EY1 = 0, y por tanto E|X| = 0. Si, por el contrario, suponemos que E|X| = 0, entonces EY2 = 0, y debe ocurrir X = 0 casi seguro. 2) Ya se demostró en la proposición 1.7. 3) Si c ≥ 0 se tiene E(cX) = E(cX)+ − E(cX)− = E(cX + ) − E(cX − ) = cEX + − cEX − = cEX. Si, por el contrario, c < 0 : E(cX) = E(−c(−X)) = −cE(−X) = −c(E(−X)+ − E(−X)− ) = −c(EX − − EX + ) = c(EX + − EX − ) = cEX. 4) Observemos en primer lugar que si X1 , X2 son dos variables positivas y X1 (ω) − X2 (ω) 6= ∞ − ∞ en todo punto ω ∈ Ω, siendo una de ellas integrable, la variable X = X1 − X2 es casi integrable y EX = EX1 − EX2 , ya que se tiene X + ≤ X1 y X − ≤ X2 (y por tanto X es casi integrable), y X + + X2 = X − + X1 (de donde resulta que EX + − EX − = EX1 − EX2 ). La aditividad de la esperanza en las condiciones propuestas es ahora consecuencia de la descomposición X + Y = (X + + Y + ) − (X − + Y − ). 5) Si X es finita casi seguro también lo es Y , y por 1) tendremos X = Y casi seguro ⇒ X − Y = 0 casi seguro ⇒ E|X − Y | = 0. Por 4): 0 = E|X −Y | = E(X −Y )+ +E(X −Y )− , y por 2): E(X −Y )+ = E(X −Y )− = 0. Entonces E(X − Y ) = 0, y por 3) y 4): EX = EY. Además, si fuera P (X = ∞) > 0, debe ocurrir P (X = −∞) = 0 (en caso contrario no existirı́a EX), y por ser X = Y casi seguro, también P (Y = ∞) > 0 y P (Y = −∞) = 0, luego serı́a EX = EY = ∞. El caso −∞ es análogo. 6) Si X ≤ Y casi seguro, entonces X = inf(X, Y ) y Y = sup(X, Y ) casi seguro, y además X ≤ Y, luego por 5) bastará probar el resultado cuando se da la desigualdad X ≤ Y. Si las variables son finitas (o finitas casi seguro) el resultado proviene de 2) y 4), y si toman valores infinitos con probabilidad positiva, de la casi integrabilidad de las variables, actuando como en la segunda parte de la demostración de 5) se asegura igualmente el resultado. Respecto a la desigualdad |EX| ≤ E|X|, si E|X| = ∞ es trivial. Si E|X| < ∞, entonces las variables X y − X son integrables y además se tienen las desigualdades X ≤ |X|, −X ≤ |X|. Por tanto EX ≤ E|X| y − EX = E(−X) ≤ E|X|, pero como |EX| = sup(EX, −EX), el resultado es obvio. 7) Probaremos sólo el caso creciente. Si Xn ↑ X y EXn−0 < ∞, entonces X − ≤ Xn− ≤ Xn−0 , si n ≥ n0 , y por tanto las variables X, Xn , si n ≥ n0 , son casi integrables. Además 0 ≤ Xn + Xn−0 ↑ X + Xn−0 si n → ∞, luego por la propiedad 4) y la proposición 1.7: EXn + EXn−0 ↑ EX + EXn−0 y entonces EXn ↑ EX. 2 A partir del resultado de convergencia monótona en la proposición anterior obtendremos los famosos criterios de Fatou-Lebesgue de “convergencia dominada”, que al igual 7 que el criterio de Levy de convergencia monótona, permiten estudiar los lı́mites de integrales a partir de las integrales de los lı́mites. Teorema 1.10 Sea (Xn )n una sucesión de variables aleatorias y sean Y, Z variables integrables. • Si Xn ≥ Y para todo n, entonces E lim inf Xn ≤ lim inf EXn . • Si Xn ≤ Z para todo n, entonces E lim sup Xn ≥ lim sup EXn . • Si Xn → X y |Xn | ≤ Z, entonces EX = lim EXn . Demostración: Comenzaremos observando que si Y (resp. Z) es una variable integrable y otra variable X verifica Y ≤ X (resp. Z ≥ X), entonces X − (resp. X + ) es integrable y X es, por tanto casi integrable. Entonces, si Y ≤ Xn para todo n e Y es integrable, como Xn ≥ Yn := inf k≥n Xk ↑ lim inf Xn y además Yn ≥ Y para todo n, por el teorema de la convergencia monótona obtenemos: lim inf EXn ≥ lim EYn ≥ E lim inf Xn . El segundo resultado se prueba análogamente, mientras que el último es consecuencia inmediata de los dos primeros al ser entonces lim inf Xn = lim sup Xn = X y por tanto EX = E lim inf Xn ≤ lim inf EXn ≤ lim sup EXn ≤ E lim sup Xn = EX. 2 El proceso seguido en la construcción de la integral permite, como ya se advirtió en la introducción, obtener propiedades recorriendo los diferentes escalones visitados en esta construcción, que, recuérdese que no son otros que los dados en la definición “constructiva” de las variables aleatorias. La siguiente proposición formaliza esta idea. Proposición 1.11 Sea τ una familia de variables aleatorias reales positivas, definidas en el espacio medible (Ω, σ), que verifica las siguientes propiedades: 1. Si X, Y ∈ τ y a, b ≥ 0 son constantes cualesquiera entonces aX + bY ∈ τ. 2. Si Xn ∈ τ, n ∈ N y Xn ↑ X, entonces X ∈ τ . 3. Para todo A ∈ σ se tiene IA ∈ τ . Entonces τ contiene todas las variables positivas. Demostración: Las propiedades primera y tercera aseguran que τ contiene todas las variables simples positivas, y, como toda variable positiva es lı́mite de una sucesión creciente de variables simples y positivas, la segunda propiedad prueba el resultado. 2 Los siguientes resultados, sencillas consecuencias del principio establecido en la proposición anterior, suelen denominarse como teorema del cambio de variable, y demuestran además que la esperanza matemática de una variable aleatoria sólo depende de la distribución de probabilidades que engendra. 8 Teorema 1.12 Sean X e Y variables aleatorias igualmente distribuidas, con valores en el espacio medible (Ω0 , σ 0 ), y sea Φ : Ω0 → < una variable aleatoria real (σ 0 |β-medible). Entonces EΦ(X) = EΦ(Y ), en el sentido de que si uno de los dos miembros de la igualdad existe, entonces existe el otro y ambos son iguales. Demostración: Supongamos que (Ω1 , σ 1 , P1 ) y (Ω2 , σ 2 , P2 ) son los dos espacios probabilı́sticos (que eventualmente podrı́an coincidir) en los que respectivamente están definidas las variables X e Y . Recordando la definición (1.16 en el Capı́tulo de Aplicaciones Medibles) de variables igualmente distribuidas tendremos que si Φ = IB para algún conjunto B ∈ σ 0 , entonces EΦ(X) = 1.P1 (X ∈ B) = 1.P2 (Y ∈ B) = EΦ(Y ). Si τ es la clase de las variables aleatorias positivas, Φ, definidas en (Ω0 , σ 0 ) que satisfacen la igualdad EΦ(X) = EΦ(Y ), por las propiedades de la integral es inmediato que verifica las propiedades 1) y 2) en la proposición 1.11, y la tercera acaba de ser probada. Por tanto todas las variables positivas verifican la igualdad, y realizando la descomposición habitual en parte positiva y negativa se completa la demostración. 2 Corolario 1.13 Sea (Ω, σ, P ) un espacio probabilı́stico y (Ω0 , σ 0 ) un espacio medible. Si X : Ω → Ω0 es una variable aleatoria y PX es la probabilidad que induce en (Ω0 , σ 0 ), entonces para cualquier variable aleatoria, Φ : Ω0 → <, tal que Φ(X) sea casi integrable, se verifica E(Φ(X)) = Z Ω Φ(X(ω))P (dω) = Z 0 Ω Φ(ω 0 )PX (dω 0 ). Demostración: Basta hacer en la proposición anterior Y = IdΩ0 . 2 Obsérvese que la utilización reiterada del corolario anterior permite prolongar la cadena de igualdades y obtener también: E(Φ(X)) = Z Ω Z Φ(X(ω))P (dω) = 0 Ω0 0 Φ(ω )PX (dω ) = Z < xPΦ(X) (dx), si PΦ(X) es la ley de probabilidad de la variable aleatoria Φ(X). En relación con el cálculo de esperanzas debemos hacer notar que hasta ahora sólo nos hemos atrevido con las de las variables simples y las de las elementales (las que sólo toman una infinidad numerable de valores). El siguiente resultado es la base del cálculo para la esperanza de distribuciones que pueden obtenerse a partir de funciones de densidad. ~ : Ω → <k un vector aleatorio definido en el espacio probabiı́stico Teorema 1.14 Sea X (Ω, σ, P ), cuya distribución tiene función de densidad conjunta f (~x). Si Φ : <k → <, es ~ es casi integrable, entonces una variable aleatoria tal que Φ(X) ~ = E(Φ(X)) Z <p 9 Φ(~x)f (~x)d~x. Demostración: Utilizaremos de nuevo la proposición 1.11. Como la esperanza matemática es lineal y la integral de Lebesgue también, al igual que para la esperanza matemática contamos con un teorema de la convergencia monótona y para la integral de Lebesgue también, si definimos Rτ como el conjunto de las variables aleatorias positivas Φ : <k → < ~ = p Φ(~x)f (~x)d~x, τ verifica las propiedades 1) y 2) en la proposición tales que E(Φ(X)) < 1.11. Por último, si A ∈ β k , entonces ~ = 1.P (X ~ ∈ A) = E(IA (X)) Z f (~x)d~x = A Z IA (~x)f (~x)d~x por definición de función de densidad de un vector aleatorio. Entonces τ también verifica ~ = 3) y, de acuerdo con la proposición 1.11, toda variable positiva verificará E(Φ(X)) R x)f (~x)d~x. <p Φ(~ La descomposición habitual en parte positiva y negativa de una variable aleatoria Φ : <k → < general permite, por último tratar ambas en el esquema anterior, y la hipótesis de casi integrabilidad asegura que la diferencia de las esperanzas matemáticas por un lado y la de las integrales (de Lebesgue) por otro coinciden. 2 Otro resultado relacionado con el cálculo de esperanzas permite obtener la esperanza matemática a partir de la función de distribución de una variable aleatoria: Teorema 1.15 Sea X una variable aleatoria positiva con función de distribución F . Entonces EX = Z ∞ (1 − F (x)dx. 0 Demostración: Supongamos primero que la variable X es simple y toma los valores x1 , x2 , ...xn que consideramos ordenados de menor a mayor, con probabilidades respectivas R P p1 , p2 , ...pn . La esperanza de X es por tanto ni=1 xi pi . La integral 0∞ (1 − F (x))dx es, por otra parte, la suma de las áreas de los rectángulos cuyas bases son x1 − 0, x2 − x1 , ..., xn − xn−1 y cuyas respectivas alturas son 1, 1 − p1 , 1 − p1 − p2 , ..., 1 − p1 − p2 − ... − pn−1 (= pn ), luego Z ∞ 0 (1 − F (x))dx = x1 + (x2 − x1 )(1 − p1 ) + (x3 − x2 )(1 − p1 − p2 ) + ... + (xn − xn−1 )pn = agrupando los factores que multiplican a cada xi , x1 (1 − (1 − p1 )) + x2 ((1 − p1 ) − (1 − p1 − p2 )) + ...+ xn−1 ((1 − p1 − ... − pn−2 ) − (1 − p1 − ... − pn−1 )) + xn pn = n X xi pi = EX. i=1 Sea ahora X una variable positiva cualquiera, y sea (Xn )n una sucesión de variables simples positivas tal que Xn ↑ X. Si Fn (respectivamente F ) es la función de distribución 10 de Xn (resp. X), se tiene 1 − Fn (x) = P (Xn > x) ↑ P (X > x) = 1 − F (x), x ∈ <, ya que {ω : Xn (ω) > x} ↑ {ω : X(ω) > x} para cada x ∈ <. El teorema de la convergencia monótona para la esperanza matemática prueba por una parte que EXn ↑ EX, mientras que el teorema de la convergencia monótona para la integral de Lebesgue prueba que R∞ R∞ R∞ 0 (1 − Fn (x))dx ↑ 0 (1 − F (x))dx, por lo que las igualdades EXn = 0 (1 − Fn (x))dx, obtenidas en la primera parte, aseguran que también los lı́mites son iguales: EX = R∞ 0 (1 − F (x))dx. 2 Obsérvese que se da la siguiente igualdad entre integrales Z ∞ (1 − F (x))dx = Z ∞ P (X > x)dx = P (X ≥ x)dx 0 0 0 Z ∞ debido a que los integrandos son iguales salvo a lo sumo para un conjunto numerable (el de los puntos de discontinuidad de F ). En general, aún si X no es positiva se tiene la identidad Z XdP = aP (X > a) + Z ∞ P (X > x)dx, a (X>a) válida para cualquier constante a ≥ 0, que se obtiene de inmediato considerando en el resultado anterior la variable positiva Y = XI(X>a), cuya función de distribución G toma los valores G(x) = 0, si x < 0 P (X ≤ a), si 0 ≤ x < a F (x), si a ≤ x Los productos de variables integrables no necesariamente son integrables, pero el caso de variables independientes es diferente. Aunque la condición no es necesaria (búsquese un ejemplo que lo demuestre), la independencia de n variables aleatorias asegura la integrabilidad del producto cuando las variables son integrables y permite su cálculo a partir de las esperanzas de los factores. Este resultado es inmediato por inducción (si X1 , X2 , ..., Xn son independientes entonces también lo son las dos variables Y := X1 .X2 ...Xn−1 y Xn ) a partir del siguiente en el que demostraremos el caso particular de dos variables. Teorema 1.16 Sean X, Y variables aleatorias independientes e integrables. Entonces X.Y es una variable aleatoria integrable y se tiene EX.Y = EX.EY . Demostración: Si X e Y son variables simples, podemos escribir X = ni=1 xi IAi , Y = Pm j=1 yj IBj , donde Ai = (X = xi ), Bj = (Y = yj ), y de la independencia de X e Y se deduce la de cada conjunto Ai con cada Bj y, en consecuencia P P (Ai ∩ Bj ) = P (X = xi , Y = yj ) = P (X = xi )P (Y = yj ) = P (Ai )P (Bj ). 11 Por tanto n X m X EX.Y = E( xi yj IAi∩Bj ) = i=1 j=1 n X m X xi yj P (Ai )P (Bj ) = i=1 j=1 n X m X xi yj P (Ai ∩ Bj ) = i=1 j=1 n X xi P (Ai ) i=1 m X yj P (Bj ) = EX.EY. j=1 Para el caso general definamos las funciones de Borel (ya utilizadas para demostrar que toda variable aleatoria real es lı́mite de variables simples), Φn : <+ → <+ , Φn (x) =:= n n2 X k−1 I[(k−1)/2n ,k/2n ) (x) + I[n,∞] (x). n 2 k=1 Sea ahora Xn = Φn (X + )−Φn (X − ) y análogamente Yn = Φn (Y + )−Φn (Y − ). Entonces Xn e Yn son variables independientes y simples (al igual que |Xn | y |Yn |), luego E|Xn .Yn | = E|Xn |E|Yn |, y 0 ≤ |Xn | ↑ |X|, 0 ≤ |Yn | ↑ |Y |, 0≤ |Xn .Yn | ↑ |X.Y |. Si X e Y son integrables entonces E|Xn .Yn | = E|Xn |E|Yn | ↑ E|X|E|Y | < ∞ y, se sigue del teorema de la convergencia monótona que E|XY | < ∞. Como además Xn .Yn → X.Y y |Xn .Yn | ≤ |X.Y |, del teorema de la convergencia dominada obtenemos que EX.Y = lim EXn Yn = lim EXn EYn = EX.EY. n→∞ n→∞ En consecuencia X.Y es integrable y EX.Y = EXEY . 2 12