Cointegración - Pág. 1 COINTEGRACION INDICE 1. INTRODUCCIÓN .............................................. 2 1.1. SERIES NO ESTACIONARIAS .................................. 2 1.2. RELACIÓN DE EQUILIBRIO A LARGO PLAZO ..................... 3 1.3. EJEMPLO HAMILTON (Cáp. 19) .............................. 4 2. PROPIEDADES PROCESOS INTEGRADOS ............................. 5 2.1. DEFINICIONES ............................................. 5 2.2. EJEMPLO BANARJEE ET AL ................................... 7 3. COINTEGRACIÓN ............................................... 8 3.1. DEFINICIÓN GENERAL ....................................... 8 3.2. PROPIEDADES .............................................. 9 4. REPRESENTACIÓN DE UN VECTOR COINTEGRADO .................... 11 5. TEOREMA DE REPRSENTACIÓN DE GRANGER .................15 5.1. TEOREMA ..................................................15 5.2. EJEMPLO BANARJEE ET AL ....................................16 6. PRUEBA CON ECUACIÓN ÚNICA ............................23 6.1. PRUEBAS DE COINTEGRACIÓN .................................23 6.2. CO-INTEGRATION REGRESSION DURBIN-WATSON (CRDW ..........24 Cointegración - Pág. 2 1. INTRODUCCIÓN 1.1. SERIES NO ESTACIONARIAS - Para series ESTACIONARIAS los métodos derivados de la ECONOMETRÍA TRADICIONAL son bien conocidos. - Dos tipos de series NO ESTACIONARIAS: * series con tendencia creciente; ej.: PBI, M. * series “deambulatorias” alrededor del valor medio (tienden a permanecer largos períodos por debajo o encima del valor central de la serie); ej.: tasas de interés, inflación (variación de los precios). - Las series NO ESTACIONARIAS pueden ser modelizadas en forma univariante. La pregunta es cómo construir modelos “estructurales” con series no estacionarias. - Las opciones de modelización que se planteaban a principios de los 70s con series no estacionarias eran: o Especificar y estimar modelos con las series en NIVELES pero con las series en DIFERENCIAS o Ídem (suponiendo que las series en niveles son I(1)). Cointegración - Pág. 3 1.2. RELACIÓN DE EQUILIBRIO A LARGO PLAZO - Si bien las series individuales pueden presentar un comportamiento de tendencia o deambulatorio, se ha observado recurrentemente que entre algunas series existe una relación de equilibrio a largo plazo que “ata” la evolución de las variables individuales. - El ejemplo clásico es la relación entre el ingreso y el consumo privado agregado. Ambas variables son no estacionarias. Un trabajo de 1978 sobre datos de EEUU observó que, si bien las series son I(1), tienen una raíz unitaria, en el largo plazo el consumo tiende a comportarse como una proporción constante del ingreso, de manera que las diferencias entre el logaritmo del consumo y el logaritmo del ingreso parece ser una variable estacionaria. - Otro ejemplo donde recurrentemente se ha encontrado una relación de equilibrio en el largo plazo corresponde a la teoría de la paridad de poderes de compra. - En el otro extremo, también se ha observado recurrentemente la modelización de series que no presentan una relación de equilibrio, pero que debido a que las series poseen una o más raíces unitarias, se 2 observan “buenos” ajustes (medidos por el R o similar) cuando se estima un modelo de regresión EN NIVELES. Este fenómeno, bien conocido actualmente, se denomina REGRESIÓN ESPURIA. - Se observa, por ejemplo, cuando se realizan regresiones entre variables a precios corrientes, en contextos de inflación moderada o alta. Ejemplo: Regresión entre el PBI a precios corrientes y el monto del primer premio de la Lotería Nacional. Cointegración - Pág. 4 1.3. EJEMPLO HAMILTON (Cáp. 19) [1] [2] donde u1t y u2t x1t = γ x 2t + u1t x 2t = x 2t −1 + u 2t son ruidos blancos incorrelacionados. La x2t es una caminata al azar, como surge de la ecuación [2], mientras que diferenciando [1] se observa: representación univariante de ∆ x1t = γ ∆x 2t + ∆u1t = = γ u 2t + u1t − u1t −1 ∆x1t, al ser la combinación de dos ruidos blancos incorrelacionados, puede expresarse en general como un proceso MA invertible: ∆ x1t = vt + θvt −1 Por lo tanto, tanto x1t como con θ ≠ 1 x2t son procesos I(1) aunque x - γ x existe una combinación lineal de ambos ( 1t 2t ) que es estacionaria. Obsérvese que las conclusiones hubieran sido las mismas si el modelo hubiera sido: x1t = µ1 + γ x 2t + u1t x 2t = µ 2 + x 2t −1 + u 2t Es decir, si las series correspondieran a una caminata al azar con deriva y, por lo tanto, tendencia en el tiempo. Cointegración - Pág. 5 2. PROPIEDADES PROCESOS INTEGRADOS 2.1. DEFINICIONES Algunas simples reglas relativas a variables integradas: a) si xt ~ I(0) ⇒ a + b xt ~ I(0) si xt ~ I(1) ⇒ a + b xt ~ I(1) En general: si xt ~ I(d) ⇒ a + b xt ~ I(d ) b) si xt , yt son ambas I(0) ⇒ a xt + b yt ~ I(0) c) si x t ~ I(0) , y t I(1) ⇒ a x t + b y t ~ I(1) Es decir, la conducta dominante es la correspondiente a I(1). En general: si xt ~ I(d) , yt I(d ′) ⇒ a xt + b yt ~ I(d) si d > d ′ Cointegración - Pág. 6 d) Es generalmente cierto que si xt ~ I(1) , yt ~ I(1) a xt + b yt ~ I(1) • Existen casos en que la regla (d) no se cumple, y que dan lugar a la siguiente definición: Si xt y yt son I(1) y existe una combinación lineal zt que es I(0) y tiene media nula, entonces se dice que xt y yt están cointegradas. Si xt y yt son I (1), y existe z t = m + a x t + b y t es I( 0 ) ⇒ xt y yt están cointegradas Cointegración - Pág. 7 2.2. EJEMPLO BANARJEE ET AL (1) x1t + βx 2t = u t ( 2) x1t + αx 2t = et (3) u t − u t −1 = ε1t [2.1] ( 4) e t − ρet −1 = ε 2t ε 1t ~ N (ϑ , Ω) ε 1t Es claro que et es estacionario, I(0), mientras que una caminata al azar, I(1). El modelo en la forma reducida, suponiendo xit = x2 t = −α β ut + et β −α β −α α ≠ β, ut es es: [2.2] 1 −1 ut + et β −α β −α Dado que x1t y x2t se derivan de una CL de una serie I(0) y una serie I(1), ambas son I(1). Pero existe una CL que da como resultado una serie I(0), la segunda ecuación del modelo. Por lo tanto están cointegradas. El vector [1 α] se denomina vector de cointegración y +α x2t plazo. x1t corresponde a la relación de equilibrio a largo Cointegración - Pág. 8 3. COINTEGRACIÓN 3.1. DEFINICIÓN GENERAL Sea xt un vector de ellas I(d). n variables xit, cada una de xt = ( x1t x2t ... xnt )' xit ~ I (d ) ⇒ xt ~ I (d ) Si el vector xt no tiene componentes determinísticos y, por simplicidad, se supone de media nula, puede plantearse como: (1 − L) d xt = C ( L)ε t donde ε t ~ iid (ϑ , Ω) Las variables xit, y por extensión el vector dice que están cointegradas de orden d,b si: xt , ∃α ≠ ϑ / α xt ~ I (d − b) con d ≥ b > 0 Ello se nota como: xt ~ CI (d , b) El vector α se denomina vector de cointegración. se Cointegración - Pág. 9 3.2. PROPIEDADES Si el vector xt está cointegrado, es claro que existen infinitos vectores de cointegración. Dado cointegración, cointegración. λα (λ≠0) es también α un vector de un vector de De ahí que es práctica común el normalizar el vector de α1=1). cointegración (por ejemplo, determinando Si estamos considerando sólo 2 variables, ambas I(1), si están cointegradas, en ese caso el vector de cointegración (una vez normalizado) es único. PRUEBA: Volviendo al ejemplo de Banarjee et al: β −α ut + et β −α β −α −1 1 = ut + et β −α β −α xit = x 2t Si ut fuera necesariamente también I(0), y α x1t y x2t serían I(0). ≠ β, entonces Si xt tiene n > 2, puede existir más de un vector de cointegración que forman un conjunto Linealmente Independiente (LI). Generalizando la primera propiedad observada, una CL de vectores de cointegración LI es también un vector de cointegración. Para un vector xt con n componentes, cointegrado, al número máximo de vectores de cointegración LI se denomina RANGO DE COINTEGRACIÓN, y se nota como r. Cointegración - Pág. 10 Se demuestra que r ≤ n-1 Es posible definir una matriz α de n x r cuyas columnas son vectores de cointegración que forman un conjunto LI. El rango de la matriz es r. Dado un vector xt con n componentes que es I(d), el problema puede plantearse como: a) b) Determinar si xt está cointegrado En caso afirmativo, determinar r y los vectores de cointegración. Cointegración - Pág. 11 4. REPRESENTACIÓN DE UN VECTOR COINTEGRADO Sea xt un vector I(1) de n simplificación, supondremos que determinista. variables no posee xit. Como tendencia Admitiendo que el sistema puede ser escrito como un VAR: xt = µ + φ1 xt −1 + φ2 xt − 2 + ... + φ p xt − p + ... + d(L)εt (I n -φ1L − φ2 L2 − ... − φ p Lp − ...) xt = µ + d(L)ε t π ( L) xt = µ + d(L)εt donde φι son polinomial. matrices de nxn, π(L) es una matriz En el caso de que el VAR sea de orden finito, d(L) será un polinomio escalar. Sin pérdida de generalidad, el modelo puede plantearse como: xt = µ + φ1 xt −1 + φ2 xt − 2 + ... + φ p xt − p + εt π ( L ) xt = µ + ε t [4.1] con π ( L) ≡ I n − φ1L − φ2 L2 − ... − φ p Lp Cointegración - Pág. 12 Se demuestra que (en forma similar que para los polinomios escalares): p −1 [4.2] π ( L) ≡ (1 − L) I n − (1 − L) ∑ Γ j L j − π Lp j =1 donde: Γj = 1,2,...,p-1 y - In + φ 1 + φ 2 + … + φ j j = π = - π(1) = - I + φ1 + φ2 + … + φp De esta manera, la expresión [4.2] puede rescribirse como: p −1 j p π ( L) xt = (1 − L) I n − (1 − L) ∑ Γ j L − πL xt = j =1 p −1 j p = (1 − L) I n − ∑ Γ j L (1 − L) − πL xt = j =1 p −1 = (1 − L) xt − ∑ Γ j L j (1 − L)xt − πLp xt ⇒ j =1 p −1 π ( L ) x t = ∆x t − ∑ Γ j ∆ x t − j − π x t − p j =1 Cointegración - Pág. 13 Combinando el resultado anterior con la expresión [4.1] se tiene: p −1 ∆xt − ∑ Γ j ∆xt − j − πxt − p = µ + ε t ⇒ j =1 p −1 ∆xt = µ + ∑ Γ j ∆xt − j + π xt − p + ε t j =1 SUPUESTOS: a) El polinomio característico o mayores que 1. π(z) tiene raíces iguales p −1 π ( z ) ≡ (1 − z ) I n − (1 − z ) ∑ Γ j z j − π z p j =1 Es decir, si b) La matriz z π / π(z)= 0 => |z|>1 tiene rango o z=1 r / 0 < r < n. Este supuesto (2) es condición necesaria y suficiente para que el vector xt esté cointegrado. Es decir, xt ∼ CI(1,1) c) Dado el rango de π, puede ser expresada como el producto de dos matrices de n x r, cada una de rango r. Es decir: ∃ αnxr, βnxr / π = β α’ Cointegración - Pág. 15 5. TEOREMA DE REPRESENTACIÓN DE GRANGER 5.1. TEOREMA El Teorema de Representación de Granger establece que dado un vector decir, µ=ϑ, xt, xt ∼ I(1), con E(xt)=ϑ (es supuesto que se adopta por simplicidad), si xt es CI(1,1) entonces: 1. xt admite móviles: la representación de Wold de medias (1 − L) xt = ∆xt = C ( L)( µ + ε t ) La matriz polinomial C(L) cumple que C(1) es de rango n-r. Esta es también una condición necesaria y suficiente para que 2. xt ∼ CI(1,1). Existe una representación a partir del Mecanismo de Corrección de Errores (ECM) con: zt = α’xt donde zt es un rx1 vector I(0), de la forma: π * ( L)(1 − L) xt = − β z t −1 + ε t π∗(0)=In , π∗(1) es de π∗(z)= 0 tiene sus raíces fuera donde Debe observarse que las matrices α rango completo, y del círculo unidad. y β no son únicas. Cointegración - Pág. 16 3. Combinando 1 y 2, las matrices α y C(1) cumplen: α’C(1) = ϑ 5.2. EJEMPLO BANARJEE ET AL Retomando el modelo presentado en [2.1], que se reproduce a continuación: (1) x1t + βx 2t = u t ( 2) x1t + αx 2t = et (3) u t − u t −1 = ε 1t ( 4) e t − ρet −1 = ε 2t ε 1t ~ N (ϑ , Ω) ε 1t Como se demostró en 2.2., [x1t, x2t]’= xt∼CI(1,1). Los supuestos sobre los parámetros son: α≠β y ρ<1 Cointegración - Pág. 17 • El modelo admite una representación VAR: π(L)xt = εt donde π(L)= In - φ1L Ello se obtiene haciendo (1’)=(1)–L(1) y (2’)=(2)-ρL(2) Es decir, se pasa al modelo: (1' ) x1t − x1,t −1 + βx2t − βx2 ,t −1 = ε1t ( 2' ) x1t − ρx1,t −1 + αx2t − αρx2 ,t −1 = ε 2t ( 1 − L)x1t + (β − βL)x2t = ε1t ( 1 − ρL) x1t + (α − αρL)x2t = ε2t β − βL 1-L 1 − ρL α − αρL x1t ε 1t x = ε 2t 2t En la expresión anterior se obtiene un VAR que no está normalizado. Es decir, no se cumple π(L)= In - φ1L Para ello, se define (1’’)=1/(α−β)*[α(1’)–β(2’)] y (2’’)=1/(α-β)*[(2’)–(1’)]. Cointegración - Pág. 18 De esta forma, se obtiene: βρ − α αβρ − αβ x1,t −1 + x 2 ,t −1 = ε 3t (1' ' ) x1t + α−β α−β β − αρ 1− ρ x1,t −1 + x 2 ,t −1 = ε 4 t ( 2' ' ) x 2 t + α−β α−β con ε3t=1/(α−β)*[α ε1t–β ε2t] y ε4t=1/(α-β)*[ ε2t– ε1t]. De esta forma, π(L)xt = εt donde π(L)= In - φ1L αβρ − αβ βρ − α L 1 + α − β L α−β π ( L) = β − αρ 1− ρ 1+ L L α − β α − β α − βρ α−β φ1 = ρ −1 α − β αβ − αβρ α−β αρ − β α − β La matriz polinomial (0<r<2). π(L)cumple r(π(1))=1 Cointegración - Pág. 19 βρ − α αβρ − αβ 1 + α − β α−β π (1) = = β − αρ 1− ρ 1+ α − β α − β βρ − β αβρ − αβ α−β α − β 1 − ρ − β = = α − αρ α − β 1 1− ρ α − β α − β Es claro que y que − αβ α π(1)=kte*[(-β)α-1(-αβ)]=0 r(π(1))=1>0 π = -π(1) Para el ejemplo que se está desarrollando, n=2 y p=1. Por tanto, la expresión [4.2] es, en este caso: π ( L) ≡ (1 − L) I 2 − π L Cointegración - Pág. 20 En efecto: βρ − α αβρ − αβ 1 1 L L L − + + −β − α β α = π ( L) = 1− ρ β − αρ 1 − L + 1 + L L α−β α−β 0 1 − L 1 βρ − β αβρ − αβ = + L= 1 − L α − β 1 − ρ α − αρ 0 0 1 − ρ − β − αβ 1 − L = L= + 1 − L α − β 1 α 0 = (1 − L ) I 2 + π (1) L = (1 − L ) I 2 − ( −π (1)) L = (1 − L ) I 2 − π L • El modelo admite una representación ECM: El modelo es: π(L)xt = εt A partir del último resultado: π(L)xt = [(1-L)I2-πL]xt = (1-L)xt-πLxt = = ∆xt-πxt-1 => ∆xt-πxt-1 = εt => ∆xt = πxt-1 + εt La matriz π, de 2x2, admite una representación como Recordemos que la representación no es única. βα’ Cointegración - Pág. 21 El vector de cointegración elegido es el correspondiente a la ecuación (2) del modelo: x1t + αx2t = zt (=et) ∼ I(0) => α’ = [1 α] Se indica con negrita la matriz (vector) para evitar confusiones. − β − αβ 1 − ρ = − 1 α α−β (1 − ρ ) β α−β con β = 1− ρ − α − β 1− ρ π =− α−β − β 1 [1 α ] Es decir, el modelo formado por las ecuaciones (1) y (2) (o sus transformaciones (1’) y (2’)) puede ser reescrito como: (1 − ρ ) β ( x1,t −1 + αx2 ,t −1 ) + ε3t ∆x1t = α−β 1− ρ ( x1,t −1 + αx2 ,t −1 ) + ε4t ∆x 2 t = − α−β Cointegración - Pág. 22 • El modelo admite una representación como MA: A partir de la expresión [2.2] del modelo (forma reducida): β −α ut + e β −α β −α t 1 −1 x2t = ut + e β −α β −α t xit = Aplicando diferencias a ambas ecuaciones: −α β ∆ut + ∆e β −α β −α t 1 −1 ∆x2t = ∆ut + ∆e β −α β −α t ∆xit = Sustituyendo et por (1-ρL)ε2t y ∆ut por ε1t se tiene: −α β ε1t + (1 − L)(1 − ρL)ε 2t β −α β −α −1 1 ∆x 2 t = ε1t + (1 − L)(1 − ρL)ε 2t β −α β −α ∆xit = De donde: −α β −α ∆xt = C ( L)ε t = 1 β − α β (1 − L)(1 − ρL) ε1t β −α − (1 − L)(1 − ρL) ε 2t β −α C(L) cumple que r(C(1)) = 1 y α’C(1) = ϑ Cointegración - Pág. 23 6. PRUEBA CON ECUACION UNICA - Consideremos xt = (x1t , x2t)’. En el caso de que xt es I(1) y xt ~ CI(1,1), entonces existe un vector (que en este caso es único) que cumple: α α ′ . x t = x1t + β . x 2t = z t ~ I(0) donde α ′ = [ 1 β ] - Generalizando, consideremos xt = (x1t , x2t, ...,xnt)’. En el caso de que xt es I(1) y xt ~ CI(1,1), entonces existe al menos un vector que cumple: α α ′ . x t = z t ~ I(0) - En la presente sección analizaremos el caso en que el vector es único. α 6.1. PRUEBAS DE COINTEGRACION - Dado el vector xt, una vez que se ha comprobado que xt es I(1), la prueba de cointegración depende de si el vector es o no conocido. - Si el vector fuera conocido, la prueba de cointegración correspondería simplemente a la prueba de raíz unitaria de zt. Si no se rechaza que zt es I(0), se concluye que xt ~ CI(1,1). - no fuera conocido, en forma sintética la prueba Si el vector de cointegración corresponde a una prueba de existencia de raíz unitaria en los residuos estimados o derivados. Esto es una prueba de que u^ es I(0) donde u^ es: α α α u t^ = α ^ ′ . x t Cointegración - Pág. 24 - Siguiendo a BDGH, pueden plantearse distintas pruebas para el punto anterior: * Co-integration Regression Durbin-Watson (CRDW) * Prueba de Dickey-Fuller (DF) * Prueba de Dickey-Fuller Aumentada (ADF) 6.2. CO-INTEGRATION REGRESSION DURBIN-WATSON (CRDW) - El estadístico es calculado de la misma forma que el test usual de DW: T CRDW = ∑ ( u t^ - u t^-1 )2 t= 2 T ∑ ( u t^2 ) t =1 - La hipótesis nula, utilizando el CRDW, es de la existencia de una raíz unitaria (ésto es, que u^ sigue una caminata al azar), versus un modelo estacionario auto-regresivo de 1er. orden. Observar la diferencia con el test usual de DW, donde la hipótesis nula es la ausencia de auto-correlación. - Tal como plantean BDGH, el uso de esta estadística es problemátivo. Plantean distintas limitaciones, pero interesa remarcar una de ellas. Para la prueba, al igual que en el test usual de DW, sólo se dispone de los límites de la región crítica (no es posible formular la distribución del estadístico). - Como plantean BDGH, la única esperanza para una inferencia sin complicaciones depende de disponer de un conjunto de valores críticos robustos. Esto es, que los valores críticos de la prueba no sean sensibles, ante cambios en el Proceso Generador de Datos. En el caso del CRDW, los valores críticos dependen de la cantidad de regresores y del esquema (Auto-Regresivo) que se suponga para zt. - Los tests de DF y ADF presentan este problema relativizado; son más robustos que el CRDW.