ECONOMETRIA II AUTOCORRELACION La autocorrelación es la relación que se da entre las variables perturbadoras( ), contraviniendo uno de los supuestos para estimar el modelo a partir de la independencia que debería existir entre estas variables. Este problema se presenta fundamentalmente cuando se realizan estudios econométricos de series históricas. En este caso, en cada periodo, las variables independientes deberían ser las únicas que expliquen el modelo, y no lo que halla sucedido periodos anteriores. Es decir, ni los fenómenos ocurridos anteriormente, o la tendencia o ciclo de la variable debería afectar, en dicho periodo el comportamiento de la variable dependiente. El modelo y el no cumplimiento de los supuestos quedarían planteados de la siguiente manera: Y=x + E( ) = 0 E( ´) = 2 Donde es la matriz de la autocorrelación. 2 1 . . 2 E ( ´) . . . . . n 1 . . diferente a la matriz identidad y que presenta el fenómeno . n 1 . . . . . . . 1 X 2 Donde en forma individual : E( 2 t 2 t 2 ) Las varianzas de “ ”, con la expresión anterior serían 2 1 constantes 2 E( t t s) s s 1 2 2 ^ ^ t t t Mag. Renán Quispe Llanos 1 ECONOMETRIA II ^ ^ t ut t t FIGURA. A-1 1. CAUSAS DE LA PROCEDENCIA DE AUTOCORRELACION 1. La inercia de los procesos económicos, quiere decir, la variable debe crecer en el tiempo. 2. El sesgo de especificación, se da cuando se excluye a una variable importante o la forma funcional del modelo no es la correcta. En el primer caso: Y = 1 + 2x2 + 3x3 + , es difícil especializar el fenómeno. 3. Rezagos en los modelos: Ct = 0 + 1y + 2Ct-1 + t Ct-1 = 0 + 1y + 2Ct-2 + t-1 Cuando se habla de rezagos puede haber autocorrelación. 4. Existencia de ciclos y tendencias, si la autocorrelación es positiva, un valor alto de ut genera un valor de yt por encima de su promedio, y en consecuencia una elevada probabilidad de ir seguido de un valor alto de u t+1, y de un valor de yt+1 por encima de su promedio, lo mismo ocurriría para valores de y t por debajo de su promedio. 5. La autocorrelaciòn positiva está asociada a la existencia de rachas de valores altos y bajos de yt. (Fig. A -2 ) 6. El conjunto de variables explicativas del modelo no explican adecuadamente dicho comportamiento, entonces el término de error incorporará dicha tendencia, y esto conduce a la existencia de autocorrelaciòn positiva . Una primera racha de residuos negativos seguida por otra racha de residuos positivos.(Fig A -3) y Modelo verdadero Modelo estimado 2 Mag. Renán Quispe Llanos Modelo Estimado ECONOMETRIA II t FIGURA. A-2. Autocorrelación producida por un ciclo FIGURA. A-3. Autocorrelación producida por una tendencia 7. Manipulación de Datos. En especial cuando se realiza la interpolación y extrapolación de la información. 2. CONSECUENCIAS DE LA AUTOCORRELACION Los estimadores de MCO tendrán las siguientes propiedades: 1. Son insesgados en muestras repetidas sus valores medios son iguales a las verdaderos valores reales. 2. Son consistentes a medida que el tamaño de la muestra se aproxime a los verdaderos valores. 3. Como en el caso de heterocedasticidad ya no son eficientes (mínima varianza) ni para muestras pequeñas ni grandes. a. Aunque se tenga en cuenta la correlación serial en los estimadores mínimos cuadrados ordinarios (MCO) y se utilice la fórmula de varianza con autocorrelación los estimadores serán menos eficientes. En consecuencia los intervalos de confianza son más anchos de lo necesario y la prueba de significancia pierden fuerza. Fórmula de varianza en presencia de autocorrelación 1 2 V( )MCG = Si se ignora el problema de autocorrelación y se aplica la fórmula clásica de MCO (bajo el supuesto de ausencia de correlación) las consecuencias son todavía más serias y la varianza residual tiende a subestimar la varianza verdadera. b. Incluso si la varianza residual estuviera subestimada las varianzas y los errores estándar de los estimadores MCO tienden a subestimar las verdaderas varianzas de los parámetros estimados. c. En consecuencia las pruebas de significancia pierden validez y si se aplica tienden a dar conclusiones erróneas. Yt = 1 + 2xt Mag. Renán Quispe Llanos + t 3 ECONOMETRIA II t = t-1 + (autocorrelación de primer orden) t E( t)=0, E( t2)= donde: t 2 , E( t t+s)=0 La Autocorrelación, será de segundo orden cuando el subíndice sea t-2, y así sucesivamente. Entonces: E( 2 t 2 t 2 ) 2 1 2 E( t t s s) s 2 2 1 Para el modelo general: Y=x + E( ) = 0 E( ´) = 2 2 E( ´) . . . . . . . . . . . . . . 2 1 , entonces: E ( n 2 ´) . n 1 . n 1 . . . . . . . . . . . . . . . 1 3. DETECCION DE AUTOCORRELACION El supuesto de no autocorrelación del modelo clásico se relaciona con las perturbaciones poblacionales t, las cuales no pueden ser observadas directamente. En su lugar, se dispone de sus valores aproximados, los residuales ˆ t que pueden obtenerse a partir del procedimiento usual MCO. Aunque las ˆ t no son lo mismo que las t , con mucha frecuencia un examen visual de las ˆ nos da algunas claves sobre la posible presencia de autocorrelación en las . PRUEBA DE DURBIN WATTSON Se construye la dócima de hipótesis: H0: H1: = 0 (no existe autocorrelación) 0 (existe autocorrelación) Mag. Renán Quispe Llanos 4 ECONOMETRIA II Se utiliza el estadístico de Durbin Wattson: n (e t et 1 )2 t 2 d n e t2 t 2 Desagregando la fórmula: n n (e t e t 1 ) 2 (e t2 2et e t t 2 1 e t2 1 ) e t2 2 etet 1 e t2 1 t 2 Suponiendo que e t-1 = et y reemplazando: d et2 2( et et 1 ) e entonces: ˆ et et 2 t d 2 2 2 1 et et et2 1 2(1 ˆ ) , donde: 1 2 t e Cuando: = -1 =1 =0 d=4 Autocorrelación negativa d=0 Autocorrelación positiva d=2 No existe autocorrelación. DETECCION DE AUTOCORRELACION CUANDO EL MODELO TIENE UNA VARIABLE ENDOGENA REZAGADA Cuando en el modelo se tiene una variable explicativa que esté rezagada, generalmente se refiere a la variable dependiente que esta considerado además como rezagada. En este otro caso, para detectar autocorrelación, el estadístico propuesto por Durbin Watson, es el estadístico h, y se calcula como: Mag. Renán Quispe Llanos 5 ECONOMETRIA II h ˆ n 1 nˆ 2 1 donde: = estimador de la variable endógena rezagada (del primer retardo). Es decir es el coeficiente de Yt 1 en la regresión mínimo-cuadrática (MCO): 1 Yt a1 1t a2 2t Yt 1 1 y ˆ 2 , la estimación de la varianza muestral de 2 Yt 1 2 ..... u t . 1 Es utilizable sólo para n ˆ 2 1 1 , siendo el coeficiente estimado de autocorrelación de primer orden de los residuos ( ), calculable a partir del valor de 1 d : ˆ 1- d 2 El contraste de h se realiza a partir de su consideración de variable distribuida normalmente con parámetros (0,1). Así, con un nivel de significación del 5 por 100, si h 1,645 debe rechazarse la hipótesis de autocorrelación nula (ver figura). Ejemplo: Sea d = 1.75, n = 25, ˆ 0.15 . Hallar h 1 ˆ 1 1 d 2 1 1 (1.75) 2 Mag. Renán Quispe Llanos 0.125 6 ECONOMETRIA II Entonces: h 0.125 25 1 25(0.0225) 0.945 Luego, para un nivel de significancia del 5%, tenemos: Como h = 0,945 y no se cumple la desigualdad, h 1,645 , no tenemos evidencias para rechazar la hipótesis nula de ausencia de autocorrelación. Una extensión inmediata del contraste de DW ha sido realizada por Wallis (1972) para el caso de un proceso autorregresivo de cuarto orden, pero con un único parámetro no nulo en μt-4: t 4 t 4 t La justificación del contraste de Wallis está en la utilización de datos trimestrales en la estimación del modelo, en cuyo caso puede resultar más probable una correlación serial entre trimestres iguales de años sucesivos, por ejemplo por la omisión de variables con efectos estacionales relevantes. CONTRASTE DE AUTOCORRELACION EN BASE AL MULTIPLICADOR DE LAGRANGE (LM) El procedimiento del multiplicador de Lagrange es usado para la detección de autocorrelación entre los residuos de una ecuación. El contraste es adecuado para los casos de indeterminación al usar el estadístico “d” de Durbin-Watson, o de imposibilidad de obtención para el h de Durbin1. Sin embargo, es importante señalar que su uso no debe limitarse a dichos casos. El contraste LM para trabajar se debiera aplicar como complemento a los demás, y se aplica con una variable aleatoria (LM) que se debe trabajar como X2. LM X 21 1 grado de Libertad ó 1 Sin embargo, es importante que el lector no interprete que su uso se limita a dichos casos. El contraste LM se puede (y debe quizás aplicar como complemento a los demás. Mag. Renán Quispe Llanos 7 ECONOMETRIA II X2 LM grados de Libertad El procedimiento consta de las siguientes etapas, para el caso de autocorrelación de primer orden: 1o Regresión de la ecuación original por MCO: Yt 1X1t 0 2X2 t ...... k Xkt t Estimación del término de perturbación a partir del cálculo de los residuos ( e t ). et t ˆt 2 o Regresión de los residuos de la ecuación en función de las variables explicativas y de los residuales con un período de rezago: et 1X1t ...... k X kt 1e t 1 vt 2 3º Obtención del R de la regresión y cálculo del estadístico de prueba para la autocorrelación de primer orden: LM = n R 2 Donde n es el tamaño muestral. El estadístico LM sigue aproximadamente una distribución normal con 1 grado de libertad (en casos de contraste de autocorrelación de primer orden). LM X 21 Sin embargo, su uso no se limita a dichos casos. El contraste LM se debiera aplicar como complemento a los demás. La regla de decisión es: Si LM > X 2 crítico – Existe autocorrelación significativa de primer orden. Si LM < X 2 crítico – No existe autocorrelación significativa de primer orden. El contraste en base al multilplicador de Lagrange puede usarse igualmente para la detección de autocorrelación de orden p en los residuos de una ecuación. Para tales efectos, luego de estimar los residuos de la ecuación, se debe aplicar la siguiente fórmula: et Mag. Renán Quispe Llanos 1X1t ...... k X kt 1e t 1 ...... 1e t p wt 8 ECONOMETRIA II para obtener el coeficiente de determinación ( R 2 ). El estadístico de prueba es: n R 2 donde LM X2p regla de decisión es: Si LM > X 2 crítico – Existe autocorrelación significativa de orden p. Si LM < X 2 crítico – No existe autocorrelación significativa de orden p. “Contraste en base al Multiplicador de Lagrange” JJ THOMAS, utiliza un esquema incorporado de hipótesis. Harvey (1981) demostró que en muestras pequeñas, el contraste de LM pierde confiabilidad, maximizando la probabilidad de ocurrencia de errores tipo y propone la siguiente modificación: LM n k R2 p 1 R2 F(p,n-k) El estadístico LM puede utilizarse igualmente para el contraste de la autocorrelación para p mayor de grado. EL CONTRASTE DE BOX- PIERCE Sea s el coeficiente de autocorrelación de e t y et 1 , siendo s = 1, 2, 3,....., . Sera Q el estadistístico de prueba de autocorrelación de Box-Pierce, cuya expresión es: p Qp 2 i n X 2 p (para todo i = 1, 2, 3,......,p) 1 Para contrastar autocorrelación de primer orden etet Q1 2 n ˆ1 , siendo 1 ˆ1 e2 t y Q1 X 21 Para contrastar autocorrelación de segundo orden Mag. Renán Quispe Llanos 9 ECONOMETRIA II etet Q2 n 2 1 2 2 2 siendo ˆ e2 t y Q2 X 22 para contrastar autocorrelación de orden p etet Qp n 2 1 2 2 .... 2 2 p siendo ˆ p e2 t Mag. Renán Quispe Llanos 10 ECONOMETRIA II EL CONTRASTE DE LJUNG Y BOX Cuando se trabaja con muestras pequeñas se han detectado algunas irregularidades. Para esos casos, Ljung y Box (1978) demostraron que la consideración de los grados de libertad producen un contraste adecuado, resultando el siguiente estadístico: 1 Q nn 2 ˆ 2s n s 1 En ambos casos , la hipótesis de autocorrelación significativa de orden m es aceptada si el valor calculado del estadístico supera al valor crítico de la tabla con m grados de libertad. Q* X 2 1 p Qp n 1 ˆ i2 nn 2 X 2p 1 Para todo i = 1, 2, 3, ....,p. Entonces Q1 Q nn 2 nn 2 2 2 1 X 21 n 1 2 1 2 2 n 1 n 2 X 22 Autocorrelación de orden p Q donde 1, 2 ,..... p p nn 2 2 1 2 n 1 n 2 2 2 ..... p n p X 2p son los coeficientes de autocorrelación de orden 1,2 y p, cuyas expresiones son conocidas. Un aspecto importante, es que los estadísticos de contraste Box-Pierce y Box-Ljung detectan el grado de autocorrelación de orden p, de manera discontinua. Esto permite afirmar que si por ejemplo 4 es significativamente elevado eso no implica que ˆ 1 , ˆ 2 y ˆ 3 también lo sean, a no ser que de manera complementaria se demuestre lo contrario. Mag. Renán Quispe Llanos 11 ECONOMETRIA II MODELO AUTORREGRESIVO DE HETEROSCEDASTICIDAD CONDICIONAL (ARCH) Se ha determinado que el problema de autocorrelación es una característica de la información de series de tiempo y la heteroscedasticidad una característica de la información de corte transversal. No obstante, se ha observado que para predecir variables financieras varía considerablemente de un periodo de tiempo a otro. Para algunos períodos de tiempo, los errores de proyección son relativamente pequeños, durante otros, ellos pueden ser relativamente grandes. Esta variabilidad podría deberse a la volatilidad en los mercados financieros, esto sugeriría que la varianza de los errores de predicción no es constante sino que varía de un periodo a otro. En consecuencia, se puede afirmar que los errores de predicción dependen del comportamiento de las perturbaciones t. Puede presentarse una situación de autocorrelación en la varianza t. Para captar esta correlación, Engle desarrolló el modelo autorregresivo de heterocesdasticidad condicional (ARCH). La idea central el ARCH es que la varianza de en el tiempo t (= 2t), depende del tamaño del término del error al cuadrado en el tiempo (t-1), es decir, de 2 t-1. Tenemos el modelo de regresión con k variables : Yt x 1 2 2t 3 x3t ...... x k kt ...... ( 1 ) t supóngase que condicional a la información disponible en el tiempo (t-1), el termino de perturbación se distribuye así: t ~ N [0,( 0 + 1 2 t-1) ] ........ ( 2) Lo nuevo aquí es la varianza de en el tiempo t depende de la perturbación al cuadrado en el tiempo (t-1), dando así la apariencia de correlación serial. El proceso se denomina ARCH(1). Pero éste se puede generalizar fácilmente. Es así como el proceso ARCH(p) puede escribirse como: Var( t) = 2 t = 0 + 1 2 t-1 + 2 2 t-2 + ....+ 2 p t-p ........(3) A fin de verificar la no existencia de correlación entre las varianzas de los términos de perturbación, se realiza la siguiente dócima: Si Ho : error. 1 = 2 = .....= p = 0, en cuyo caso Var( t) = 0 varianza homoscedástica del Se puede realizar una prueba sobre la hipótesis nula anterior efectuando la siguiente regresión: ^ Mag. Renán Quispe Llanos ^ ^ ^ ^ ^ ^ ^ 12 ECONOMETRIA II 2 t donde t, = 0 + 1 2 t-1 + 2 2 t-2 + ....+ p 2 t-p ......... (4) denota los residuales MCO estimados del modelo de regresión original (1). Calculando el nR2, donde R2 es el coeficiente de determinación obtenido en la regresion auxiliar (4) puede demostrarse que: nR2 ~ X2p ..........(5) donde p es el número de grados de libertad y equivale al grado de autocorrelación. Si el estadístico contenido nR2 es mayor que el X2p se aceptaría que existe correlación entre las varianzas del término de perturbación. EJEMPLO ILUSTRATIVO Sobre salarios y productividad. Utilizando los residuales obtenidos de esta regresión, se estiman los modelos ARCH(1), ARCH(2), ARCH(3), ARCH(4), ARCH(5). Pero solamente el modelo ARCH(1) resultó ser significativo. Los resultados de este modelo resultó ser el siguiente: 2 t = 2.0746 + 0.6946 t = (1.0583) 2 t-1 (5.03649) R2 = 0.4665 d = 1.67 aplicando (5) se observa que nR2 = (31)(0.4665) = 14.46 que es aproximadamente X2 con 1 g.l. (el valor p es alrededor de 0.000143) esto sugiere que en el ejemplo, la varianza del error está correlacionada serialmente. REVISADO Mag. Renán Quispe Llanos 13 ECONOMETRIA II Mag. Renán Quispe Llanos 14