COMPARACIÓN Y COMBINACIÓN DE PREDICCIONES: APLICACIÓN A LAS SERIES TEMPORALES Blanca Moreno Cuartas - morenob@econo.uniovi.es Ana Jesús López Menéndez - anaj@aulanet.uniovi.es Manuel Landajo Álvarez - landajo@econo.uniovi.es Universidad de Oviedo Reservados todos los derechos. Este documento ha sido extraído del CD Rom “Anales de Economía Aplicada. XIV Reunión ASEPELT-España. Oviedo, 22 y 23 de Junio de 2000”. ISBN: 84-699-2357-9 1 Comparación y combinación de predicciones: Aplicación a las series temporales Moreno Cuartas, B. morenob@econo.uniovi.es ; López Menéndez, A.J anaj@aulanet.uniovi.es; Landajo Alvarez, M. landajo@econo.uniovi.es Dpto. Economía Aplicada, Universidad de Oviedo INTRODUCCIÓN La predicción es una actividad esencial cuya importancia ha crecido en las últimas décadas, convirtiéndose en imprescindible en la gran mayoría de los procesos de toma de decisiones. Planificadores y decisores disponen de una gran variedad de técnicas para realizar sus predicciones, que van desde las más subjetivas e intuitivas hasta los métodos cuantitativos más complejos. Entre ambos extremos hay innumerables posibilidades que difieren en su filosofía, su coste, su complejidad y su precisión. Teniendo en cuenta además que las predicciones relativas a una magnitud económica pueden ser realizadas por diferentes agentes y a partir de distintos métodos, es posible combinar varias predicciones que mejoren la precisión de las predicciones individuales. En este trabajo analizamos predicciones asociadas a distintos métodos univariantes (alisados, ARIMA, modelos neuronales) y sus combinaciones, comparando su comportamiento. En concreto, se estudian varias series de la economía asturiana y se realizan algunas clasificaciones de los métodos mediante indicadores de precisión y complejidad, analizando las posibles causas que originan las diferencias en la precisión de las técnicas empleadas. EVALUACIÓN DE PREDICCIONES La evaluación de las diferentes técnicas de predicción puede efectuarse desde muy diversas perspectivas, fundamentalmente su coste, su complejidad y su precisión. Dado que las dos primeras implican una cierta subjetividad y las diferencias entre los distintos métodos son a veces imprecisas, en los modelos de series temporales se emplean habitualmente indicadores basados en la precisión de las predicciones que tienen como objetivo la medición de la desutilidad o el coste asociado a los pares de predicciones y realizaciones. Consideremos una magnitud Y para la cual realizamos predicciones en cierto horizonte temporal h (h=1,...,T). Si denotamos dichas predicciones por ŷ t +h,t , la desutilidad o 2 coste asociado a dicho par vendrá dada por una función L(y t + h , ŷ t + h ,t ) que, si bien puede adoptar formas estadísticas sofisticadas, se define habitualmente a partir del error de predicción e t + h,t = y t + h − ŷ t + h,t . Las distintas especificaciones de L(y t + h , ŷ t +h , t ) = L (e t + h , t ) dan lugar a las medidas más directas de la bondad de las predicciones1 entre las que se encuentran las tradicionales: Raíz del error cuadrático medio (ECM): ECM = T 1 T ∑ e 2t +h,t = h =1 1 T ∑ (y t+ h − ŷ t+ h,t )2 T h =1 Error absoluto medio (EAM): 1 T 1 T EAM = ∑ e t + h , t = ∑ y t + h − ŷ t+ h , t T h =1 T h =1 Error absoluto porcentual medio (EAPM): EAPM = T y t+ h − ŷ t + h , t h =1 y t +h T ∑ 100 Estas medidas presentan varias limitaciones: las dos primeras dependen de las unidades de medida de la variable investigada, y además ninguna de ellas se encuentra acotada ni tiene en cuenta la dificultad inherente a cada predicción. Con el objetivo de disponer de un indicador invariante con respecto a las unidades usadas y que además tenga en cuenta los problemas que rodean a la predicción, H. Theil (1966) propone una medida de desigualdad dada por la expresión: U= ∑ (P h =1 − A t+h ) 2 t + h, t ∑A h =1 2 t +h donde Pt+h,t y At+h representan respectivamente las tasas de variación interanual pronosticadas y efectivas: Pt + h , t = ŷ t+ h , t − y t+ h −1 y t + h −1 , A t +h = y t+ h − y t + h−1 . y t + h−1 1 En López y Moreno (1999) se proponen algunas medidas basadas en la teoría de la información, y se realiza un análisis comparativo con las medidas tradicionales. 3 y donde el numerador puede ser considerado como un indicador de la manera en la que los errores de predicción se dispersan en torno a cero, mientras el denominador es un indicador de la dificultad de la predicción2 . El índice de Theil es utilizado con generalidad como medida de la bondad de las predicciones debido a su sencillez de cálculo e interpretación. Así, el índice U adoptará valores nulos únicamente en el caso de coincidencia entre tasas pronosticadas y reales, mientras el resultado U=1 se corresponde con las predicciones ingenuas: ŷ t +1,t = y t ⇒ Pt = 0 ∀t . Este valor representa un umbral que, si se superase, implicaría que el modelo considerado predice peor que el modelo ingenuo 3 . Si tomamos la precisión como criterio para comparar varios métodos, podemos estar interesados en contrastar si todos ellos tendrán la misma precisión esperada. Es decir, si denotamos por j los métodos de predicción utilizados (j=1,...,N) y hemos seleccionado un indicador de precisión como criterio de comparación, podemos contrastar la hipótesis de igualdad entre las desutilidades esperadas de la predicción: ] [ [ j E L(y t + h , ŷ it + h,t ) = E L(y t + h , ŷ t + h,t ) ] Stekler (1987) propone un test basado en el ranking que ocupan el conjunto de h predicciones (h=1,...,T) obtenidas por N métodos, contrastando que cada conjunto de predicciones tienen igual desutilidad esperada en cada método. Así, a cada predicción en cada momento h se le asigna un rango de acuerdo con su precisión (la mejor recibe el rango N, la segunda mejor N-1, y así sucesivamente). Agregando período a período los rangos para cada método utilizado obtendremos entonces: T (( H j = ∑ Rank L yt +h , ŷ tj+h,t h =1 ) j=1,...,N y el estadístico del test de bondad se basa en la expresión: 2 En su origen este índice asume que las predicciones son realizadas año a año, por lo cual los mayores errores pueden esperarse cuando las diferencias entre los valores reales de años sucesivos son mayores. 3 Obsérvese que el índice considerado puede sin embargo adoptar valores superiores a la unidad al no encontrarse acotado superiormente. En trabajos previos, Theil (1958) había propuesto la expresión 1 (Pt + h, t − At + h )2 T − 1 h =1 ∑ U= 1 T−1 ∑A h t+ h 2 + 1 T −1 que sí se encuentra acotada entre 0 y 1, pero en cambio presenta la ∑P t +h , t 2 h limitación de incluir las tasas previstas Pt como referencia para la comparación. 4 j NT N H − 2 H=∑ NT j =1 2 2 que, bajo la hipótesis nula, sigue una distribución χ 2N−1 . Si bien la función de desutilidad asociada a un par realización-predicción ha sido ( planteada para series temporales univariantes, la función L y t + h , ŷ t + h , t ) puede adoptar formas más complejas y ser además aplicada al análisis de series temporales multivariantes. Así, Theil elabora una medida capaz de tener en cuenta la dificultad del año de la predicción (h=1,...,T) y la dificultad de predecir yt+h en función de la dificultad para predecir las variables xi (i=1,...,k) que forman parte del modelo. Si además se tiene en cuenta que las predicciones para un período se renuevan de acuerdo con los diferentes estadios de la información disponibles (b=t+1,...t+h), es lógico pensar que el error cuadrático medio variará también de acuerdo con el estadio de la información en el que nos encontremos. Así, si xit+h es el valor real de la tasa de la variable i en el período t+h, el error de predicción será xibt -xit+h y es posible –siguiendo a Theil y Scholes (1967)- utilizar el siguiente patrón para determinar el error estándar de acuerdo con las fuentes de error en la predicción: L(y t + h (x it + h ), ŷ t + h , t (x̂ ibt + h )) = ∑ (x ibt − x it +h )2 = A i B b C t + h i,b , h donde aparecen tres componentes diferenciados de la calidad de la predicción: Ai con respecto a la variable i, Bb en los sucesivos estadios y Ct+h con el período de predicción. COMBINACIÓN DE PREDICCIONES Las predicciones sobre una misma variable económica pueden realizarse a partir de diversos métodos, y la literatura muestra que una combinación de las predicciones efectuadas por diferentes procedimientos mejora la precisión de las predicciones individuales4 . La idea de la combinación de predicciones asume implícitamente que no es posible identificar mediante un modelo el proceso subyacente en una serie, y que cada método de predicción es capaz de capturar diferentes aspectos de la información disponible para la predicción, de ahí que una combinación de las predicciones efectuadas según distintas técnicas sea la predicción más precisa. 4 La combinación de predicciones no sólo se efectúa para las realizadas según distintas técnicas sino, como ha puesto de manifiesto Pulido (1998), para predicciones que, siendo obtenidas bajo un mismo método, se han llevado a cabo por diferentes agentes. 5 En la combinación se aplican habitualmente dos tipos de reglas: la media aritmética de las predicciones obtenidas por diferentes métodos y la media ponderada, donde los pesos dependen de la relativa precisión de los métodos individuales. En la combinación ponderada, estos pesos pueden obtenerse en función de la varianza de error de predicción de cada método (y de las covarianzas entre ellos) o mediante técnicas de regresión con el objetivo de minimizar el error de la predicción combinada que se obtiene mediante MCO de las predicciones individuales. A continuación describimos la obtención de predicciones combinadas en relación a la regla aplicada. Si para predecir yt+h tenemos que efectuar una predicción combinada para cualquier ( 1 2 N horizonte h, llamando Ŷt +h, t = ŷ t +h,t , ŷ t +h ,t ,..., ŷ t +h ,t ) al vector de predicciones de y t+h según las N diferentes técnicas, la combinación a partir de la media aritmética nos proporciona: C t + h, t = Ŷ t + h ,t l donde l es un vector de unos. N Este procedimiento, que es el más sencillo, no toma en cuenta la información relativa a la precisión de cada método, por lo que parece razonable dar mayor énfasis a los métodos más precisos ponderándolos según la técnica de varianza-covarianza o de regresión. La idea de combinar predicciones ponderadas según la varianza de los errores de predicción de cada método fue propuesta por Bates y Granger (1969), autores que estudian la combinación de dos predicciones, planteando también la combinación de numerosas predicciones. Supongamos que tenemos dos métodos de predicción que proporcionan dos predicciones insesgadas5 de la magnitud Y para un horizonte h (yt+h ) recogidas en el ( ) 1 2 vector: Ŷt +h ,t = ŷ t + h, t , ŷ t +h ,t . Entonces la combinación lineal de las dos predicciones será: Ct + h .t = Ŷt + h ,t α , donde α T = ( α 1 , α 2 ) son los pesos dados a las predicciones individuales que cumplen lT α = 1 (por lo tanto α 2 = 1 − α 1 ). Si denotamos por σ12 y σ 22 las varianzas de los errores de las dos predicciones, la varianza de los errores de la predicción combinada será: ó 2c = á 12 ó 12 + (1− á 1 ) 2 ó 22 + 2ρá 1 (1− á 1 )σ1 ó 2 donde ρ es el coeficiente de correlación entre los errores de predicción de los dos métodos. 5 Dicks y Burrel (1994) ponen de manifiesto que cuando la combinación se realiza para predicciones dadas por diferentes agentes, la condición de predicciones insesgadas no suele darse debido a la aversión al riesgo de desviarse de la visión convencional y perder credibilidad. 6 La elección de α 1 debe ser realizada de tal manera que el error de la predicción combinada sea pequeño, requisito que (asumiendo ρ=0) conduce al resultado6 : á 1 = ó 22 , donde σ2c no 2 2 (ó 1 + ó 2 ) es mayor que la más pequeña de las dos varianzas individuales. Si bien queda así justificado el uso de una combinación de predicciones, en la práctica no es posible calcular σ 2c al desconocerse las varianzas de los errores de predicción. Dado que el valor óptimo de α 1 se desconoce al comienzo de la combinación, Bates y Granger (1969) utilizan la expresión primera de α1 para obtener estimaciones maximoverosímiles partiendo de las predicciones individuales de un conjunto de períodos previos a aquél para el cual se va a efectuar la combinación de predicciones. Los autores sugieren la elección de los pesos basados en dos criterios: el mayor peso se le ha de dar a aquella predicción cuyo modelo haya actuado mejor en el pasado y es necesario considerar la posibilidad de que la función de los pesos se adapte cuando se presenten relaciones no estacionarias en el tiempo entre los métodos de predicción individuales. Entre las opciones propuestas por estos autores7 la más empleada consiste en sustituir las varianzas de los errores de predicción por sus estimaciones de los t periodos previos n α1 = ∑ e 22, t t =1 n , donde e j, t = y t − ŷ t . j ∑ (e12, t + e 22, t ) t =1 La metodología de Bates y Granger es ampliada por Newbold y Granger (1974) para el caso de más de dos predicciones. Así, si disponemos de las predicciones realizadas con N ( ) 1 2 N procedimientos: Ŷt+ h , t = ŷ t+ h ,t , ŷ t +h , t ,..., ŷ t +h , t , entonces la combinación lineal de ellas T será: C t + h , t = Ŷt +h , t α con α = (α 1 , α 2 ,..., α N ) , siendo l T α = 1 y 0 ≤ α j ≤ 1 ∀j y donde la varianza del error de la predicción combinada8 es minimizada tomando: (∑ l) ' α= (l' ∑ l)) , con ∑ = E (e t + h, t e t + h ,t ) −1 −1 6 T y e t + h,t = y t +h l − Ŷt + h , t . Partiendo de la expresión anterior σ 2c el valor mínimo se obtendría diferenciando con respecto a α1 e igualando a cero : á 1 = ó 22 − ñó1ó 2 ó 12 + ó 22 − 2ñσ1ó 2 . Bates y Granger tuvieron también en cuenta la posibilidad de ir variando a lo largo del tiempo el valor de α, dejando abierta la posibilidad de que las predicciones individuales se comporten de forma diferente a lo largo del tiempo. 8 Al desconocerse las realizaciones de yt+h también será necesario sustituir las varianzas de los errores de predicción por sus estimaciones en períodos previos. 7 7 Como ya hemos mencionado, la combinación ponderada puede obtenerse mediante un método de regresión. Granger y Ramanathan (1984) mostraron que el vector óptimo de pesos basados en varianza-covarianza de los errores de predicción tiene una interpretación como vector de coeficientes de la proyección lineal de yt+h a partir de las predicciones de los N procedimientos: y t+ h = α 1 ŷ1t + h, t + ... + α N ŷ N t+ h , t + u t +h , t Al desconocer el verdadero valor de yt+h los pesos se obtienen a partir de los valores pasados 1 N de la serie; es decir: y t = α 1 ŷ t + ... + α N ŷ t + u t donde se puede imponer o no la ˆ = 1 . Así, si consideramos: restricción l T α Yt T = (y1 , y2 ,..., y n ) vector de valores pasados de la serie ( ) vector de predicciones del momento t realizada por el método j ( ) matriz (nxN) de n predicciones efectuadas por los N métodos ŶjT = ŷ j1 , ŷ 21 ,..., ŷ jn Ŷt = Ŷ1 , Ŷ2 ,..., ŶN α T = (α 1 , α 2 ,..., α N ) vector de pesos de los N métodos entonces nuestro objetivo será estimar α̂ para obtener Yt como proyección lineal de Ŷt . Comenzaremos sin considerar ninguna restricción para los pesos (método A) y después ˆ = 1 (método B), denominando CA a la incorporaremos restricciones de la forma l T α combinación obtenida por el método A: C A = Ŷ t αˆ , y CB a la combinación9 obtenida por el ˆ. método B: C B = Ŷt β En el método A, el error de predicción vendrá dado por el vector e A = Yt − Ŷt α , y utilizando (Y t Así mínimos cuadrados 9 se obtiene ( ) − Ŷt α (Yt − Ŷt α) , cuya solución conduce a: á̂ = Ŷt T Ŷt T pues, una vez estimados los pesos, ( ) Ŷ Y y la suma = (Y − Ŷ αˆ ) (Y − Ŷ αˆ ) = Y Y − Y Ŷ αˆ . C A = Ŷt α ˆ = Ŷt Ŷ tT Ŷt σ2A ordinarios −1 T t t t T t t t T t t T t se ) −1 la función a minimizar Ŷt T Yt . obtiene la regresión estimada cuadrática de los errores de predicción t Para mayor comodidad, designaremos por β a los coeficientes del método B, siendo β T = (β 1 , β 2 ,...β N ) lTβ = 1 . 8 Para el método B, el error de predicción será e B = Yt − Ŷt β y la función a minimizar (Yt −Ŷt β)T (Yt − Ŷ β) T s.a l β = 1 , llegándose10 a obtener α̂ mediante la expresión del T método A y el multiplicador a partir de la restricción l β = 1 , que proporciona: λβ = (l α − 1) (Ŷ Ŷ ) T l T −1 T t t . l ( σ2B = σ2A + λ2B l T Ŷt T Ŷt Ahora el error cuadrático de la predicción es ) −1 l , 2 2 observándose que σ B ≥ σ A y concluyendo por tanto que el método de la regresión proporciona mejores resultados mediante la proyección de los valores pasados de Y sobre las predicciones realizadas por distintos métodos sin imponer ninguna restricción. La combinación de predicciones basada en una media aritmética proporciona mejores resultados que otras reglas más complejas, tal y como muestran diversos estudios empíricos (Granger y Newbold (1975), Makridakis y Hibon (1979), Winkler y Makridakis (1983)). Así Granger y Newbold (1975) en un experimento sobre 80 series para las que realizan predicciones a un período de adelanto, concluyeron que las mejores predicciones iban asociadas a la media aritmética11 , resultado coincidente con el obtenido por Makridakis y Hibon (1979), efectuando predicciones sobre 1001 series con diversos métodos y estudiando posibles combinaciones. Winkler y Makridakis (1983) obtienen resultados muy buenos con la media aritmética en relación a las medias ponderadas, ya que si bien éstas proporcionan mejores predicciones, el incremento de precisión no parece compensar la mayor complicación del método. Por otra parte, Winkler (1984) comprobó en un estudio que entre el 52% y el 66% de las veces otra combinación fue mejor que la media aritmética, afirmando que las diferencias entre la combinación más simple y otras más complicadas eran también muy pequeñas en relación con las exigencias que conlleva emplear métodos más sofisticados. ( La función objetivo es entonces: min Yt − Ŷt â â Lagrange y la condición de primer orden es: 10 ( ) â̂ = (Ŷ Ŷ ) Ŷ ) (Y − Ŷ â ) + 2ë (l â − 1) donde λ Yt T Yt − Ŷt â − ë â l = 0 −1 T t t t T T T t ( Yt − ëâ Ŷt T Ŷt t â ) l = á̂ − ë (Ŷ Ŷ ) −1 −1 T b t t β es el multiplicador de l 11 Además de este resultado los autores también concluyen que la combinación es más beneficiosa cuanto más difiera la naturaleza de los procedimientos que se combinan, idea confirmada por estudios posteriores y que trataremos de comprobar en la aplicación. 9 Así pues, las distintas experiencias no conducen a resultados unánimes en el tema 12 , por lo que es necesario tener en cuenta con qué tipo de series y con qué conjunto de datos trabajamos. Por otra parte la media aritmética supone restringir las ponderaciones a una suma unitaria que, como ya hemos visto, ofrece mayores errores cuadráticos de predicción, con lo que los resultados deberían de ser generalizadamente peores. COMPARACIÓN DE TÉCNICAS DE PREDICCIÓN En este apartado efectuamos una comparación de algunas técnicas de predicción para series temporales univariantes, de acuerdo con el EAPM, realizando algunas clasificaciones de éstas según el tipo de series a las que se aplican y los horizontes de predicción. Teniendo en cuenta el grado de complejidad de los métodos considerados y los resultados obtenidos, elaboramos una frontera de eficiencia con el propósito de ilustrar el trade-off existente entre la complejidad y la precisión de las técnicas. Finalmente, proponemos modelos econométricos que explican la precisión en función de factores como la aleatoriedad, la estacionalidad, la tendencia, el rango de las series y el horizonte temporal. La aplicación ha sido realizada sobre 20 series temporales de la economía asturiana 13 de periodicidad mensual, recogidas en la tabla 1: SERIES Carne sacrificada Consumo de energía eléctrica para la industria Consumo de energía eléctrica usos industriales especiales Consumo de energía eléctrica, fuerza industrial Consumo total de energía eléctrica Indice de producción industrial Indice de producción de bienes de inversión Indice general de precios al consumo Matriculación de turismos Nº de camiones matriculados Nº de parados en agricultura en Asturias Producción de acero Producción de aluminio Producción de arrabio Producción de cemento Producción de cemento gris Producción de cinc Producción de clinker de cementos grises Producción de hulla Producción de laminados Tabla 1 En la modelización de las series descritas consideramos las siguientes técnicas: 12 Una recopilación de la bibliografía existente sobre las combinaciones de predicciones puede verse en Clemen, T. (1989). 13 Los datos han sido extraídos de la base de datos ASTURDAT del equipo de investigación de HISPALINKAsturias. 10 1. Métodos ingenuos (N1): La predicción es igual al valor en el mes anterior o al de 12 meses antes si existe estacionalidad. 2. Alisados exponenciales (SM): Se aplican las técnicas de alisado exponencial más adecuadas en cada caso según las componentes de la serie, teniendo en cuenta la presencia o no de estacionalidad y según la hipótesis de composición de la serie sea aditiva o multiplicativa. 3. Para series estacionales se han efectuado también predicciones sobre las series desestacionalizadas según las dos técnicas anteriores, procediendo posteriormente a su ajuste asumiendo que el patrón de estacionalidad se mantiene constante (N2 y SM2). 4. Metodología Box-Jenkins: Se estiman para las series modelos ARIMA14 incorporando tratamiento de outliers y análisis de intervención. 5. Redes neuronales artificiales: Con el propósito de incorporar a este estudio algunas de las técnicas más recientes de predicción, hemos modelizado cuatro de las series anteriores (producción de energía eléctrica, cinc, laminados y el IPI de Asturias) mediante redes neuronales artificiales (RNA), utilizando las estructuras de tipo recurrente15 propuestas por Landajo (1999). Una vez transformada la serie original hasta reducirla a estacionariedad, el modelo para la serie transformada consta de una estructura NAR (non-linear auto-regresive), a la que se añaden estructuras de tipo MA lineales y términos adicionales para modelizar las observaciones anómalas y los efectos de tipo intervención16 . 6. Combinaciones de predicciones: Se han considerado combinaciones de las diferentes técnicas estudiadas, con el propósito de contrastar si efectivamente la precisión es mayor que tomando cada predicción individualmente y analizar cuál de los métodos de combinación aporta mayor precisión. 14 Los modelos ARIMA considerados en esta aplicación son los utilizados en el programa de predicción PROYECTA que el equipo HISPALINK-Asturias emplea para la elaboración de predicciones de las series mensuales de la economía asturiana que intervienen en sus modelos MECASTUR. 15 Desde una perspectiva econométrica, las redes recurrentes son una clase de modelos dinámicos con variables latentes. Una de las estructuras más típicas es la red Elman, caracterizada por Kuan y White (1994) del modo siguiente: Yt =Ft (Xt ,θ)=βCt (ecuación de medida) Ct =G(Xt γ+Ct-1 δ) (ecuación de estado) donde β, γ y δ son vectores de parámetros, Ct es un vector de variables de estado (denominado “contexto” en la jerga neuronal) y G( ) es una función de transferencia (a menudo de tipo sigmoidal), Xt es la entrada del sistema e Yt la salida. Este tipo de redes presenta una clara conexión con los modelos lineales de espacio de estados. 16 La estimación de los parámetros se lleva a cabo mediante una implementación recursiva de los mínimos cuadrados no lineales conocida como el algoritmo BP modificado (V. Kuan y White (1994)). En Landajo (1999) se ha diseñado un software específico para esta clase de modelos, que puede ser ejecutado dentro del entorno Matlab. 11 Como muchos autores han puesto de manifiesto (Newbold y Granger (1974), Armstrong (1978), Makridakis y Wheelwright (1978) entre otros), los métodos de extrapolación de series temporales son mejores (o no peores) que los modelos econométricos para predicciones a corto plazo, aunque para el largo plazo los modelos econométricos pueden ser más adecuados. Basados en esta idea evaluamos los métodos para predicciones a corto plazo, y en concreto con horizontes temporales h=1,...,12 meses. Para evaluar las predicciones hemos considerado los pares predicción-realización L (y t +h , ŷ t + h ,t ) correspondientes a los 12 últimos valores de cada serie. Es decir, se estiman yt-12+h con h=1,...,12. Como ya hemos visto anteriormente, las medidas más comunes de evaluación de predicciones son el error cuadrático medio (ECM), el índice de desigualdad de Theil y el error absoluto porcentual medio (EAPM). En este análisis hemos optado por tomar como medida el EAPM debido a su carácter relativo y su sencillez en el cálculo y la interpretación. Así, para las 20 series hemos calculado el EAPM para cada horizonte temporal según los distintos métodos j: EAPMhs, j 1 h y t −12+ k − ŷ t −12 + k , j = ∑ 100 donde h=1,...,12; s=1,...,20; j=1,...,5 h k =1 y n −12 +k y para cada horizonte temporal hemos obtenido la media del EAPM de las 20 series según los h distintos métodos j: EAPMj = 1 20 EAPMhs,j . ∑ 20 s =1 h Una vez obtenidos los EAPM j de las 20 series en los distintos métodos y para horizontes temporales h=1,...,12 se han obtenido los resultados que resumimos a continuación17 : 1. Con el objetivo de estudiar si existen diferencias esperadas en la precisión según los métodos de predicción, aplicamos el test de Stekler para contrastar la hipótesis [ ] [ ] E L( y t −12+ h , ŷ it −12+ h ,t −12 ) = E L( y t −12+ h , ŷ tj−12+ h, t −12 ) , adoptando el EAPM como función de coste o desutilidad asociado a cada par realización-predicción. El estadístico obtenido es H = 34 ,97 , resultado que conduce al rechazo de la hipótesis nula, y avala la comparación entre los métodos de predicción al existir entre ellos diferencias esperadas en la precisión18 . 17 El escaso número de series analizadas no permite extraer conclusiones robustas respecto a la comparación entre métodos para cada tipo de series. 18 Si tenemos en cuenta el test de Stekler para las predicciones efectuadas con ARIMA, N2, SM2 y redes neuronales el estadístico obtenido es H = 129,083 , que conduce también al rechazo de la hipótesis. 12 2. La comparación de los EAPM del método ingenuo y del alisado exponencial realizados sobre las series originales (N1 y SM) con los EAPM de los mismos métodos aplicados sobre las series desestacionalizadas y posteriormente ajustadas con el componente estacional (N2 y SM2), muestra que los resultados mejoran en el 100% de los casos19 . En la tabla 2 se aprecian las ganancias relativas de precisión que N2 y SM2 aportan respecto a N1 y SM1 respectivamente, calculadas mediante la expresión: g ih, j EAPM ih − EAPM hj = − h EAPM j 100 que cuantifica la ganancia en precisión aportada por el método i en relación al método j. h g hN2,N1 g hSM2, SM 1 3 6 9 12 27,63 21,29 9,15 5,43 6,77 2,30 10,12 3,90 2,98 3,05 Tabla 2 En cuanto a cuál de los dos métodos de alisado sobre series desestacionalizadas funciona mejor, se aprecia que SM2 ofrece mayoritariamente EAPM menores que N2, aconsejando trabajar con los métodos de alisado sobre series desestacionalizadas. 3. Si comparamos la modelización ARIMA con los métodos de alisado que mejor se comportan (SM2 y N2), se observa que funciona mejor la metodología Box-Jenkins excepto para las predicciones de horizonte temporal h=1. h g hARIMA, N2 g hARIMA, SM2 1 3 6 9 12 -20,9 22,9 20,8 20,2 11,8 -11,8 14,2 14,9 13,8 5,4 Tabla 3 Si bien autores como Makridakis y Hibon (1979), Lewandowski (1984) y Newbold y Granger (1974) llegan a concluir en sus estudios que a pesar de la complejidad del método de Box-Jenkins, éste ofrece peores resultados que otros más sencillos, no existe unanimidad en el tema. De hecho, Newbold y Granger (1979) llegan a concluir lo contrario que en su trabajo de 1974, es decir que ARIMA es el método que mejor 19 Estos resultados son coincidentes con los obtenidos por Makridakis y Hibon (1979) en su estudio con 111 13 funciona. Así pues las discrepancias existentes20 nos hacen pensar que los resultados varían según el tipo de series y el conjunto de datos con los que se trabaja (Makridakis y Wheelwright (1978)). Si tenemos ahora en cuenta la modelización de redes neuronales (con la particularidad de que este estudio sólo se ha efectuado para cuatro series), se aprecia que, exceptuando el caso h=1 en el que los métodos de alisado funcionan mejor, los modelos neuronales son los que aportan las predicciones más precisas, seguidos por la modelización ARIMA21 , confirmándose la idea de que los modelos más flexibles son también los más precisos. 4. En cuanto a la combinación de predicciones, de acuerdo con las clasificaciones mencionadas con anterioridad, y teniendo en cuenta los ARIMA, N2 y SM2 es posible señalar los siguientes rasgos: a. Cuando se utiliza la Media aritmética, se aprecia en general que la precisión de las predicciones combinadas mejora respecto a la que aporta cada método individualmente. Además, la combinación de métodos heterogéneos funciona mejor que la combinación de métodos similares. Así por ejemplo h h EAPM ARIMA−SM 2 ≥ EAPM N 2−SM 2 se observa ∀h = 1,...,12 . Cuando realizamos el estudio teniendo en cuenta las redes neuronales (análisis que se limita a cuatro series), la supremacía de la combinación de métodos heterogéneos no está tan clara. Así por ejemplo para ARIMA-Redes y Redes-SM2 observamos el comportamiento resumido en el gráfico: series de la economía francesa. 20 Makridakis y Hibon (1979) citan algunos trabajos con conclusiones opuestas a la suya y otros en los que los métodos de alisado y ARIMA funcionan de forma similar. 21 Es importante observar la conexión de las redes recurrentes con la modelización ARIMA. Desde este punto de vista, las estructuras recurrentes pueden reescribirse como modelos ARMA no lineales (NARMA, o NARMAX si llevan también variables exógenas), en los que junto a valores retardados de Y aparecen procesos de MA. Una forma típica sería la siguiente: Y t = f(y t −1 , y t − 2 ,...y t − p , å t , å t −1 ,... å − qt ) = m p q j= 1 i =1 i =1 ∑ â jó ∑ á ij y t − i + ∑ ã ijå t − i + ε t donde σ( ) es una función de transferencia sigmoidal, y se imponen restricciones adicionales adecuadas sobre las propiedades estocásticas de los procesos {Yt } y {εt }. 14 Combinación aritmética EAPM 6.0 4.0 2.0 0.0 1 2 3 4 5 6 7 8 9 10 11 12 h Arima-Redes Redes-SM2 Figura 1 b. Por lo que se refiere a la utilización de la Media ponderada, comenzando por los Métodos de varianza-covarianza (Bates y Granger (1969), Newbold y Granger (1974), compararemos los resultados según tengamos o no en cuenta la correlación entre los errores de predicción. Contrastando si la combinación resulta más precisa cuando no se tiene en cuenta la correlación de los errores de predicción de cada método, obtenemos que para cualquier horizonte h la predicción combinada asumiendo ρ =0 mejora con respecto a aquélla que tiene en cuenta la correlación. Winkler y Makridakis (1983) confirman también que los mejores resultados se obtienen al ignorar los efectos de la correlación para calcular los pesos de la combinación. La comparación de las predicciones combinadas a través de media ponderada con las asociadas a la media aritmética no permite establecer una supremacía clara. Así en ARIMA-N2 la combinación de media aritmética aporta siempre EAPM menores que la combinación varianza-covarianza, mientras sucede lo contrario para la combinación de ARIMA -SM2. Por su parte, los Métodos de regresión (Granger y Ramanathan (1984)) proporcionan las ponderaciones de las combinaciones22 ARIMA-N2, ARIMA-SM2, N2-SM2 y ARIMA -N2-SM2 obteniendo los siguientes resultados: • Al estimar los pesos de N2-SM2 mediante la regresión 2 SM2 yt −12 = αN 2 ŷN t −12 + αSM2 ŷ t −12 el coeficiente de N2 para el 75% de las series no supera el valor 0,1 y además no resulta significativo, lo cual indica que N2 22 Tanto en la combinación varianza-covarianza como en la de regresión las ponderaciones han de obtenerse para cada una de las 20 series a partir de los datos de cada una. 15 no aporta información adicional o relevante23 sobre la que aporta SM2 para explicar la serie. Esto implica que (á N2 , á SM2 ) = (0,1) y la predicción combinada N2-SM2 coincide con la dada por SM2: 2 2 2 ŷ Nt −212−SM = αˆ N 2 ŷ Nt −212 + h + αˆ SM 2 ŷ SM ˆ SM 2 ŷ SM +h t −12 + h = α t − 12 + h Lo mismo ocurre al estimar los pesos de ARIMA-N2-SM2: se aprecia que N2 no aporta información relevante para la predicción en el método combinado. • Las combinaciones por este método han sido obtenidas sin la restricción de que los pesos han de sumar la unidad (método A), ya que –como demuestran Granger y Ramanathan (1984)- la varianza de los errores de predicción obtenidos mediante el método sin restricción es menor que la obtenida con el método de regresión restringido. En las combinaciones de media aritmética y varianza-covarianza las ponderaciones suman la unidad, por lo que la varianza del error de predicción debería de ser mayor que la obtenida por el método de la regresión. Ahora vamos a contrastar en qué medida éste supone diferencias en la precisión de las combinaciones. Para las dos combinaciones estudiadas ARIMA –N2 y ARIMA -SM2 los resultados son diferentes por lo que no podemos extraer conclusiones acerca de cómo afecta la restricción a los EAPM24 . Si bien hasta ahora sólo nos hemos fijado en la precisión de los métodos de predicción como criterio para clasificarlos y evaluarlos, no hay que olvidar que tanto la complejidad como el grado de dificultad para comprender los resultados son importantes a la hora de optar por una técnica u otra. Según Lewandowski (1984) el grado de complejidad es el tiempo, medido en horas, que se requiere para enseñar a una persona, sin conocimientos especiales en predicción o estadística, los principios de un método. El índice que propone este autor, que además tiene en 23 La idea de contrastar la aportación de información que cada método aporta a la predicción combinada fue dada por Nelson (1972) y Cooper y Nelson (1975) y formalizada y extendida por Chong y Hendry (1986). La formalización de este contraste se puede ver en Diebold y López (1995) 24 Así para ARIMA-SM2 se obtiene: h h h EAPMVAR − COV < EAPMREGRESION < EAPMMEDIA para h=1,...,12 y para ARIMA-N2: h h h EAPMMEDIA < EAPMREGRESION < EAPMVAR −COV para h=1,...,5 16 cuenta el grado de comprensión de los resultados obtenidos, coincide básicamente con el utilizado por Makridadkis (1983) que lo elabora en función de la complejidad percibida y por tanto introduce criterios subjetivos. Parece existir acuerdo entre varios autores respecto al hecho de que la metodología de Box-Jenkins es la que requiere el mayor tiempo, pues es necesario observar el gráfico de cada serie, las funciones de autocorrelación, identificar el modelo, estimar sus parámetros, chequear las autocorrelaciones de los residuos, etc. Los restantes procedimientos tienen una base prácticamente automática, si bien es necesario detenerse en detectar la estacionalidad, la existencia de tendencia etc. Por lo que se refiere a las redes neuronales, cuyo nivel de dificultad es considerable, han sido excluídas de este análisis por haberse aplicado a un número reducido de series. En nuestra aplicación, elaboramos un índice de complejidad para cada técnica de acuerdo con los criterios de los autores anteriores, excepto para las combinaciones, en las que (frente a la práctica habitual de promediar) proponemos agregar la complejidad de los métodos25 : Método de predicción Indice de complejidad Ingenuo 1 Alisado 5 ARIMA 10 Combinación Media aritmética 13 Combinación Media ponderada (regresión) 14 Combinación Media ponderada (varianza-covarianza) 15 Tabla 4 Teniendo en cuenta la clasificación de los diferentes métodos de acuerdo con su precisión y con su complejidad, es posible elaborar una frontera de eficiencia que ilustre el trade-off entre ambas características. La elección de métodos dependerá entonces de cada situación considerada y de las preferencias del agente predictor. h h h EAPMREGRESION < EAPMMEDIA < EAPMVAR −COV para h=6,...,12 En el caso de la media aritmética, al no distinguir entre ARIMA-N2 y ARIMA-SM2, promediamos las dificultades de N2 y SM2 y sumamos el resultado a la dificultad del ARIMA. Para el método de la regresión proponemos añadir 1, teniendo en cuenta que este trabajo se realiza automáticamente con cualquier aplicación informática. En cambio, en el método de la varianza-covarianza añadimos 2 al considerar que exige un mayor esfuerzo del investigador. 25 17 Una primera frontera (Makridakis, 1983) se obtiene teniendo en cuenta el número de veces que cada método fue el mejor o el segundo mejor y el índice de complejidad correspondiente. Los resultados obtenidos, representados en la figura 2, no cambiarían sustancialmente si elaboramos la misma frontera pero relacionando la complejidad con los EAPM Nº de veces que el método fue el mejor o el segundo mejor (Lewandowski (1984)). Frontera de eficiencia de los métodos de predicción 9 8 7 6 5 4 3 2 1 0 0 2 4 6 8 10 12 14 16 Indice de complejidad Figura 2 A partir de estas fronteras se pueden extraer algunas conclusiones para nuestras series: • Los mejores resultados se obtienen con la media aritmética, al igual que en diversos estudios empíricos (Granger y Newbold (1975), Makridakis y Hibon (1979), Winkler y Makridakis (1983)), si bien no existe unanimidad en el tema. Como menciona Otero (1993) sigue siendo una incógnita por qué la media aritmética se comporta mejor que métodos de ponderación más complicados. • En cuanto al trade-off entre precisión y complejidad, se puede perder relativamente poca precisión a cambio de reducir significativamente la complejidad de la técnica de predicción empleada. Una vez efectuadas las comparaciones entre métodos, debemos preguntarnos ahora por qué se producen diferencias en la precisión de las predicciones. Existen muchos factores que pueden ayudarnos a entender las diferencias en la actuación relativa de los métodos estudiados y, si asumimos que éstos pueden ser aislados y cuantificados, entonces podemos aproximar su influencia. 18 Consideramos aquí un conjunto de estos factores, explorando su capacidad para explicar la precisión de las predicciones siguiendo el análisis efectuado por Makridakis y Hibon (1979). Estos autores plantean regresiones considerando el EAPM como variable dependiente y dos combinaciones de factores como variables independientes26 . El método utilizado para cuantificar los factores se basa en la descomposición clásica de las series, que permite aproximar los componentes de tendencia-ciclo, estacionalidad y aleatoriedad. Los cambios absolutos porcentuales medios (CAPM) de cada uno de los componentes (C t ) se obtienen como: 1 C t − C t −1 CAPMc = 100 ∑ C t −1 n − 12 t y se incluyen como variables independientes en las regresiones planteadas. Puesto que el objetivo de nuestro estudio es la evaluación de los modelos en función de su capacidad predictiva, nos hemos centrado en el análisis de regresiones que tienen como variable dependiente al EAPM de las predicciones, considerando ecuaciones de la forma: EAPM = β1 + β 2 X 2 + β 3 X 3 + β 4 X 4 + β 5 X 5 + β 6 X 6 + u donde X2 , X3 y X4 representan los cambios absolutos porcentuales medios de los componentes de tendencia, aleatoriedad y estacionalidad respectivamente, X5 es el número de períodos que se predicen (h=1...12) y hemos incluido además la variable X6 que recoge el número de observaciones (t-12) empleadas para ajustar el modelo de predicción Hemos realizado el estudio para 7 de las 20 series iniciales27 sobre de las cuales ya se habían obtenido sus correspondientes EAPMh j y estimado distintas regresiones dependiendo de la técnica j a evaluar. Así, para evaluar una técnica se adoptó como variable dependiente el EAPM obtenido para las series en los diferentes horizontes temporales de predicción (un total de 84 observaciones) obteniéndose las estimaciones recogidas en la tabla 5 (entre paréntesis se indican los errores estándar): 26 Una de las regresiones propuestas explica el EAPM de los modelos de predicción a partir del cambio absoluto porcentual medio de la tendencia, la aleatoriedad, la estacionalidad y el número de datos utilizados para estimar los modelos de predicción. La segunda regresión ajusta el EAPM con el cambio absoluto porcentual medio de la tendencia, de la aleatoriedad, de la estacionalidad y con el horizonte temporal de la predicción. 27 Las series son: Consumo de energía eléctrica usos industriales especiales, Producción de cemento, Producción de cemento gris, Producción de cinc, Producción de hulla, Indice general de precios al consumo e Indice de produccióm industrial. 19 Variable dependiente Regresiones CAPM Tend β̂1 EAPM ARIMA EAPM N2 EAPM N1 EAPM SM2 EAPM SM 0,02 (0,01) 0,037 (0,015) 1,96 (1,34) -0,008 (0,007) -0,005 (0,007) β̂ 2 CAPM Aleat β̂ 3 0,93 (0,043) 0,96 (0,066) 62,41 (15,3) 1,089 (0,076) 1,1 (0,076) Factores CAPM Estac β̂ 4 h t-12 Bondad β̂ 5 β̂ 6 R2 0,001 (0,0005) -0,0002 (4,85E-05) -0,0002 (7,47E-05) 0,93 0,85 48,25 (27,33) 0,6 0,84 0,85 Tabla 5 Los parámetros de las ecuaciones aportan información relevante sobre la actuación relativa en la predicción de las diferentes metodologías. Así por ejemplo, se observa que la aleatoriedad es un factor que afecta a la precisión y a la actuación de los diferentes métodos de predicción. Cuando se produce un cambio en la aleatoriedad, la metodología ARIMA lleva asociada predicciones más precisas, al ser la que presenta un coeficiente β̂ 3 menor. Según nuestros resultados, el CAPM mayor corresponde a la aleatoriedad para el 70% de las series por lo que, dado que el método menos afectado en el EAPM es el ARIMA, resulta lógico que la metodología Box-Jenkins sea la más precisa. Por otra parte, el número de datos que empleamos en la modelización (t-12) afecta también positivamente a la precisión de los ARIMA. El intento de especificar y medir la relación entre la precisión de las predicciones y los factores que la afectan es válido para ilustrar la comparación entre métodos, si bien como indican Makridakis y Hibon (1979) aún son necesarias notables mejorías en esta metodología28 como la consideración de alguna medida cuadrática de precisión como variable dependiente, o la introducción de más variables independientes. Finalmente, tenemos que considerar la posibilidad de que el empleo de otra medida en lugar del EAPM pudiera cambiar las conclusiones extraídas en nuestro estudio. No obstante, algunos estudios sobre comparación de modelos con otras medidas llegan a similares conclusiones independientemente de la medida empleada. 28 Los grandes errores estándar que obtienen estos autores les llevan a interrogarse sobre la significatividad estadística de los coeficientes. En nuestro caso a modo de ilustración podemos ver la influencia que tiene un cambio en la estacionalidad en la precisión de N1, con lo que N2 sería mejor al no estar afectado por ésta. Esto puede explicar porqué SM2 y N2 son más precisos que N1 y SM1. 20 REFERENCIAS BIBLIOGRÁFICAS ARMSTRONG, J.S. (1978): “Forecasting with Econometric Methods: Folklore versus Fact”, Journal of Business, Vol. 51, nº 4, 549-564. BATES, J.M. y GRANGER, C.W.J. (1969): “The Combination of Forecast”, Operational Research Quarterly Vol. 20, nº 4, 451-468. BOX, G.E.P. y G.M. JENKINS (1976): Time Series Analysis: Forecasting and Control, (2ª ed.), Ed. Holden-Day, San Francisco. CHEN, X. y SHEN, X. (1998): “Sieve Extremum Estimates for Weakly Dependent Data”, Econometrica, Vol. 66, No. 2, March, 289-314. CLEMEN, T. (1989): “Combining forecasts: A review and annotated bibliography”, International Journal of Forecasting, Vol. 5, 559-583. DIEBOLD, X. y LÓPEZ, J.A. (1995): Forecast Evaluation and Combination, Working Paper, University of Pennsylvania. DICKS, G. y BURRELL, A. (1994): “Forecasting in practice”, Applied Economic Forecasting Techniques, Stephen Hall, London. GRANGER, C.W.J. (1981): “Some properties of time series data and their use in econometric model specification”, Journal of Econometrics, 16, 121-130. GRANGER, C.W.J. y NEWBOLD, P. (1975): “Economic Forecasting: The Atheist´s Viewpoint”, Modelling the Economy, Ed. G.A. Renton, London. 131-147. GRANGER, C.W.J y NEWBOLD, P. (1980): Forecasting Economic Time Series, Academic Press, New York. GRANGER, C.W.J y RAMANATHAN, C. (1984): Improved Methods of Combining Forecast, Journal of Forecasting, Vol. 3, 197-204. KUAN, C.M. y WHITE, H. (1994): “Artificial Neural Networks: An Econometric Approach”, Econometric Reviews, 13 (1), 1-91. LANDAJO, M. (2000): “Neural and Fuzzy Models for Economic Forecasting. An Econometric View and Some Practical Experience”, Fuzzy Economic Review (Aceptado para publicación) LANDAJO, M. (1999): Modelos neuroborrosos para la predicción económica. Tesis Doctoral, Universidad de Oviedo. LAPEDES, A. y FARBER, R. (1987): “Nonlinear signal processing using neural networks”, Technical Report LA-UR-87-2662, Los Alamos National Laboratory, Los Alamos, N.M. LEWANDOWSKI, R. (1982): “Sales Forecasting by FORSYS”, Journal of Forecasting, 1, 205-214. LEWANDOWSKI, R. (1984): “Lewandowski’s FORSYS Method”, The forecasting Accuracy of Major Time Series Methods, John Wiley & Sons, 245-253. LÓPEZ, A.J. y MORENO, B. (1999): Evaluación de predicciones basada en medidas de información. Nuevas Alternativas. Actas XIII Reunión Asepelt-España, Burgos. LÓPEZ, A.J.; MUÑOZ, N. y PÉREZ, R.(1993): Base de datos Asturdat. Documento de trabajo 2/93, Hispalink-Aturias. MAKRIDAKIS, S. (1984): “Forecasting: State of the Art”, The Forecasting Accuracy of Major Time Series Methods, John Wiley & Sons, 1-17. MAKRIDAKIS, S. y HIBON, M. (1979): “Accuracy of Forecasting: An Empirical Investigation (with Discussion)”, J. R. Statistical Society, Series A, 142, Part. 2, 97145. MAKRIDAKIS, S. y otros (1982): “The Accuracy of Extrapolation (Time Series) Methods: Results of a Forecasting Competition”, Journal of Forecasting, Vol. 1, 111-153. MAKRIDAKIS, S. y WHEELWRIGHT, S. (1978): Forecasting: Methods & Applications, John Wiley & Sons. 21 MORENO, B. (1999): “Técnicas de predicción en series temporales y medidas de evaluación”. Memoria de Proyecto de Investigación. Departamento de Economía Aplicada, Universidad de Oviedo. NEWBOLD, P. y GRANGER, C.W.J. (1974): “Experience with Forecasting Univariate Time Series and the Combination of Forecast”, Journal of the Royal Statistical Society, Serie A, 137. Part. 2, 131-165. NEWTON, H.J. y PARZEN, E. (1984): “Forecasting and Time Series Model Types of 111 Economic Time Series”, The Forecasting Accuracy of Major Time Series Methods, John Wiley & Sons, 267-287. OTERO, J.M. (1994): Modelos econométricos y predicción de series temporales, Ed. AC, Madrid. PULIDO, A (1998): Una apuesta por el futuro. Predicciones y profecías económicas. Ed. Pirámide, Madrid. PULIDO, A. y LÓPEZ, A.M. (1999): Predicción y Simulación aplicada a la economía y gestión de empresas, Ed. Pirámide, Madrid. QUANTITATIVE MICRO SOFTWARE (1998): EVIEWS User´s Guide, Command and Programming Reference. STECKLER, H.O. (1987): “Who forecasts better?”, Journal of Business and Economic Statistics, 5, 155-158. RASVIRTA, T.; TJOSTHEIM, D. y GRANGER, C.W. (1994): “Aspects of modelling nonlinear time series”, en (R.F. Engle & D.L. McFadden, eds.) Handbook of Econometrics, vol. IV, cap. 48, 2917-2957. Elsevier Science, New York. THEIL, H. (1955): “Who Forecast Best?”, International Economic Papers, Vol. 5, 194-199. THEIL, H. (1958): Economic Forecast and Policy, North Holland Publishing. THEIL, H. (1966): Applied Economic Forecasting, North Holland Publishing. THEIL, H. y SCHOLES, M. (1967): “Forecast Evaluation Based on a Multiplicative Descomposition of Mean Square Errors”, Econometrica, 35, 70-88. WHITE, H. (1994): Estimation, Inference and Specification Analysis. Cambridge University Press, New York. WINKLER, R.L. (1984): “Combinig Forecasts”, The Forecasting Accuracy of Major Time Series Methods, John Wiley & Sons, 289-295. WRINKLER, R.L. y MAKRIDAKIS, S. (1983): “The Combination of Forecast”, Journal of the Royal Statistical Society, Serie A, 146. Part. 2, 150-157. 22