NBER WORKING PAPER SERIES EL ESTADO DE LA MACRO Olivier J. Blanchard Papel de Trabajo Nro. 14259 http://www.nber.org/papers/w14259 NATIONAL BUREAU OF ECONOMIC RESEARCH 1050 Massachusetts Avenue Cambridge, MA 02138 Agosto 2008 Preparado para el "Annual Review of Economics". Gracias a Daron Acemoglu (uno de los editores), Ricardo Caballero, V.V. Chari, Laura Feiveson, Ben Friedman, Jordi Gali, Anil Kashyap, Jaewoo Lee, N.Greg Mankiw, Marianna Riggi, Julio Rotemberg, Robert Shimer, Andrei Shleifer, y Harald Uhlig por sus valiosos comentarios. Las opiniones aquí expresadas pertenecen al autor y no necesariamente reflejan las propias del National Bureau of Economic Research. © 2008 por Olivier J. Blanchard. Todos los derechos reservados. Pueden transcribirse sin permiso explícito secciones breves del texto, sin exceder los dos párrafos, siempre que sea citada la fuente. Traducción al castellano: Juan Carlos Hermida El Estado de la Macro Olivier J. Blanchard NBER Working Paper No. 14259 Agosto 2008 JEL No. E0, E2, E3, E4, E50, RESUMEN Luego de la explosión de la macroeconomía en los años 1970s, por largo periodo el terreno se asemejó a un campo de batalla. Sin embargo, con el transcurrir del tiempo, y en gran parte debido a que los hechos no han quedado en el olvido, ha emergido una visión compartida tanto en las fluctuaciones como en la metodología. No todo está bien. Como acontece en todas las revoluciones, ésta en particular se produjo a partir de la destrucción de cierto conocimiento, y ha padecido del extremismo que se ha congregado a su alrededor. De todos modos nadie ha quedado herido de muerte. El estado de la macro es saludable. La primera sección introduce el escenario con una breve revisión del pasado. La segunda argumenta que ha existido amplia convergencia y la tercera pasa revista a puntuales acontecimientos. La cuarta se centra en la convergencia de la metodología. La última considera los actuales desafíos. Olivier J. Blanchard MIT Sección de Economía E52-357 Cambridge, MA 02142-1347, y NBER blanchar@mit.edu 1 Los editores de esta nueva revista me solicitaron escribiera sobre “El Futuro de Macroeconomía". Nadie debiera aceptar semejante tarea. Uno puede prever el futuro próximo con cierta precisión sabiendo que la tecnología de Investigación es en gran parte de naturaleza austriaca, resultando el producto de la aplicación de recursos después de un tiempo. Uno puede observar diferentes equipos de trabajo y estar seguro que, más temprano o más tarde, ellos tendrán éxito. Pero es casi imposible prever de aquí en más si se tiene en cuenta lo que alguien habría previsto para el futuro de la macro en 1970, luego que Lucas, Sargent y Prescott entraron en escena. De todos modos, uno puede hacer un balance, mostrar evoluciones, señalar fortalezas y debilidades del estado actual del conocimiento, y exponer lo que puede esperarse sin señalarlo como algo digno de pronóstico. Esto es lo que haré en este ensayo. Permítame continuar con más advertencias. Me enfocaré sólo en una parte de la macro, a saber, las fluctuaciones. Dejaré de lado el tema del crecimiento, donde ha tenido lugar mucha acción y mucho progreso; éste no es un juicio de valor, sólo una reflexión de ventajas comparativas1. Tampoco realizaré esfuerzo alguno por ser enciclopédico, equilibrado, o imparcial. La bibliografía será en gran parte aleatoria. Para abreviar, éste no es un capítulo de manual, sino el desarrollo de un tema. El tema es que, luego de la explosión (en el sentido positivo y negativo de la palabra) en el campo en los años 1970s, ha habido un progreso enorme y la convergencia ha sido sustancial. Durante cierto tiempo —un tiempo bastante extenso— el terreno se pareció a un campo de batalla. Los investigadores se abrieron en diferentes direcciones, muchos ignorándose mutuamente, y el resto comprometiéndose en amargas luchas y controversias. Sin embargo, con el transcurrir tiempo y debido en gran parte a hechos que en cierto modo no tuvieron forma de alejarse, ha surgido una enfoque principalmente compartido tanto por las fluctuaciones como por la metodología. No todo está bien. Como en todas las revoluciones, dicho enfoque ha surgido de la destrucción de cierto conocimiento, y padece de cierto extremismo endurecido y de moda. Pero nada de esto es mortal. El estado de la macro es bueno2. El trabajo está organizado en cuatro secciones. El primero describe el escenario con un breve repaso del pasado. El segundo describe que ha habido una amplia convergencia en la visión, lo que considera el tercero con más detalle. El cuarto se centra en la convergencia de la metodología, y los actuales desafíos. Uno podría sostener que la convergencia en la metodología es más obvia que la convergencia en la visión, y por lo tanto debiera haberse tratado primero. Tal vez sea cierto, sin embargo lo que finalmente importa es cómo explicamos los hechos, y ésta es la razón de mi elección en la organización del trabajo. 1 Omitiré incluso un tema cercano a mi corazón, “el mediano plazo", las evoluciones de baja periodicidad reflejadas en los movimientos de las tasas capital/trabajo, la participación del trabajo y así sucesivamente. Una razón es que no mucho (no lo suficiente) ha sucedido en este frente. 2 Sé que otros colegas están en descuerdo con esta evaluación optimista (por ejemplo, Solow (2008)). Para verificar si yo era el totalmente iluso, organicé un debate en las reuniones de la AEA del 2008 sobre el tema "la Convergencia de la Macro". Robert Shimer, Michael Woodford, y V.V. Chari junto con Pat Kehoe y Ellen McGrattan, escribieron ensayos sobre la macro -qué serán publicados en la primera edición de la nueva revista AEJ: macro (American Economic Journal: Macroeconomics) de la Asociación Económica Americana- y que ya están disponibles en el sitio web de la revista. Leí los ensayos y en realidad sugieren una sustancial pero no una completa convergencia; los lectores pueden apreciarlo por sí mismos. 2 1. Un breve repaso del pasado Cuando difundieron “la revolución de las expectativas racionales", Lucas y Sargent (1978) no anduvieron con rodeos: Que las predicciones [de economía Keynesiana] eran extremamente incorrectas, y que la doctrina en la que ellos se basaban era radicalmente defectuosa, son de hecho ahora cuestiones simples y ya no admiten sutilezas en la teoría económica. La tarea que enfrentan los actuales estudiantes del ciclo económico es ordenar lo que resta y determinar que rasgos pueden salvarse de ese notable evento intelectual que llamaron Revolución Keynesiana, que puede ponerse a resguardo, y que otros deben desecharse. Ellos pronosticaron un largo proceso de reconstrucción: Si bien se está lejos de lo claro que será el resultado de este proceso, ya es evidente que involucrará necesariamente la reapertura de problemas básicos en economía monetaria que se han considerado como “cerrados" a partir de los treinta y la reevaluación de cada aspecto del marco institucional dentro del cual se formula la política monetaria y fiscal en los países avanzados. Este ensayo es un informe de avance sobre este proceso de reevaluación y reconstrucción. Ellos estaban en lo cierto. Durante los siguientes quince años aproximadamente, el campo explotó. Tres grupos dominaron la escena, los nuevos clásicos, los nuevos Keynesianos, y los nuevos teóricos del crecimiento (no se necesita señalar aquí el rol de “nuevo" a la PR), siguiendo cada uno una agenda muy diferente: Los nuevos clásicos se abocaron a lo que Lucas-Sargent denominaron reconstrucción. Pronto, sin embargo, los Mencheviques dieron paso a los Bolcheviques, y la agenda de investigación se volvió incluso más extrema. Bajo la dirección de Prescott, las rigideces nominales, la información imperfecta, el dinero, y la curva de Phillips, todos desaparecieron del modelo básico, y los investigadores se centraron en las propiedades estocásticas del modelo de Ramsey (equivalente al agente representativo de la economía Arrow-Debreu), rebautizado como modelo del Ciclo Económico Real, ó RBC (Real Bussines Cycle). Tres principios guiaron la investigación: los fundamentos micro explícitos, definidos como maximización de utilidad y beneficios; el equilibrio general; y la exploración de cuán compatibles pueden llegar a ser las escasas imperfecciones. Los nuevos Keynesianos se abocaron a la reforma, no a la revolución. Unidos en la creencia de que la visión anterior de la macroeconomía era básicamente correcta, ellos aceptaron la necesidad de mejorar los fundamentos para las diversas imperfecciones que subyacen en el enfoque. El programa de investigación comenzó por examinar en forma teórica y empírica, la naturaleza y realidad de diversas imperfecciones, desde las rigideces nominales a los salarios de eficiencia, a las restricciones del mercado de crédito. Los modelos eran de equilibrio parcial, o incluían un trivial cierre de equilibrio general: cada uno pareció incluir demasiado pronto una común estructura de equilibrio general. Los nuevos teóricos del crecimiento sencillamente abandonaron el campo (i.e. fluctuaciones). El comentario de Lucas según el cual cada vez que uno piensa en el crecimiento apenas puede pensar en algo más, a muchos convenció para centrarse en los determinantes del crecimiento, en lugar de las fluctuaciones y sus implicaciones aparentemente pequeñas en el bienestar. Irónicamente, a medida que el modelo de crecimiento de Ramsey se volvía el caballito de batalla 3 de los nuevos clásicos, gran parte del progreso en el frente del crecimiento se hizo examinando las implicaciones de diversas imperfecciones, desde la naturaleza del conocimiento de los bienes públicos y la naturaleza de la investigación y desarrollo (R&D) a las externalidades de la acumulación de capital. Las relaciones entre los tres grupos —o, más específicamente, los primeros dos, denominados por Halley “de agua dulce" y “de agua salada" respectivamente (por la situación geográfica de la mayoría de los nuevos clásicos y la mayoría de los nuevos Keynesianos)— estaba tensa, y a menudo era desagradable. Los primeros acusaron a los segundos de ser los economistas malos, aferrados a creencias obsoletas y teorías desacreditadas. Los segundos acusaron a los primeros de ignorar hechos básicos y, en su persecución de un hermoso modelo pero irrelevante, de continuar presos de una declinante "ilusión científica". (Ver el debate entre Prescott y Summers (1986)). Uno razonablemente podría desesperar sobre el futuro de la macro (y, de hecho, algunos de nosotros lo vivimos de cerca (Blanchard 1992)). Ésta es aún la opinión que muchos principiantes tienen del campo. Pero ya no se corresponde con la realidad. Los hechos eventualmente tienen un modo de forzar a la teoría como irrelevante (uno desea que suceda más rápido). Y la buena teoría también tiene una manera de forzar a la teoría mala. Las nuevas herramientas desarrolladas por los nuevos clásicos pasaron a dominar. Los hechos enfatizados por los nuevos Keynesianos volvieron a forzar las imperfecciones en el modelo de referencia. Ha surgido una visión en gran parte común, lo que constituye el tema de la próxima sección. 2. Convergencia en la visión 2.1 El rol de la demanda agregada y las rigideces nominales Es difícil ignorar los hechos. Un hecho fundamental en la macro es que los desplazamientos en la demanda agregada de bienes afecta sustancialmente el producto en una economía absolutamente competitiva más de lo que nosotros esperaríamos. Los consumidores más optimistas compran más bienes, y el aumento en la demanda lleva a más producto y más empleo. Los cambios en la tasa de los fondos federales tienen importantes efectos en los precios de los activos reales, los precios de los bonos y acciones y, a su vez, sobre el nivel de actividad. Estos hechos no son fáciles de explicar dentro de un modelo macro de precios flexibles perfectamente competitivo. Los consumidores más optimistas deben consumir más y trabajar menos, no consumir más y trabajar más. La política monetaria debe reflejarse principalmente en los precios de los bienes, no que Wall Street reaccione fuertemente a un inesperado cambio de 25 puntos básicos en la tasa de fondos federales. Los intentos por explicar estos efectos mediante preferencias exóticas o exóticos efectos de operaciones de mercado abierto sobre mercados segmentados, manteniendo el supuesto de mercados perfectamente competitivos y precios flexibles, ha demostrado ser a lo sumo poco convincente. Esto, incluso, ha llevado a los más obstinados nuevos clásicos a explorar la posibilidad de que las rigideces nominales importan. En presencia de rigideces nominales, los movimientos en el dinero nominal conducen a movimientos en el dinero real que, a su vez, llevan a movimientos en la tasa de interés y en las demandas de bienes y producto. Y con rigideces nominales, los movimientos en la demanda agregada no son automáticamente compensados por movimientos en la tasa de interés, y así poder traducirse en movimientos del producto. 4 El estudio de la situación de precios y salarios nominales es uno de los temas calientes de la investigación macro de hoy. Tiene todos los elementos necesarios para hacer la investigación apasionante: existen datos sobre precios de la micro permanentemente disponibles, o bases de datos del CPI (índice de precios al consumidor) o de los mismos mayoristas (ver el artículo de Mackowiak y Smets (2008)). La agregación enfrenta delicadas cuestiones: dependiendo del modo específico de cómo se fijan los precios, la pegajosidad (stickiness) individual puede acrecentarse en lugar de desaparecer cuando miramos índices de precios más agregados. El tipo de casos involucrado en esa admirable investigación ha convertido en irrelevante la cuestión de la vieja distinción entre agua dulce /salada: si bien la investigación en el tema comenzó con los nuevos Keynesianos, la reciente investigación ha sido en gran parte activada por un artículo de Golosov y Lucas (2007), se construye en base a un anterior trabajo sobre la agregación de reglas estadodependientes realizado por Caplin y por Caballero, entre otros. 2.2 Shocks tecnológicos versus generaciones tecnológicas Un principio central del enfoque de los nuevos clásicos fue que la fuente principal de las fluctuaciones son los shocks tecnológicos. Sin embargo, de cara a la razón sobrevuela la noción de que existen grandes shocks tecnológicos agregados cada trimestre. Excepto en épocas de dramática transición económica, tales como el cambio de la planificación central a economías de mercado en Europa Oriental a inicios de los 1990s, el progreso tecnológico se realiza en base a la difusión y aplicación de nuevas ideas y sobre el cambio institucional, y en ambos casos es probable sean movimientos de escasa periodicidad. Ninguna magnitud en la variación del residuo de Solow trimestral convencerá a los escépticos: las variaciones de elevada periodicidad en el agregado TFP se deben a un error de medición3. Sin embargo, esto no implica que el progreso tecnológico no juegue un papel importante en las fluctuaciones. Si bien el progreso tecnológico es uniforme, no es ciertamente constante. Hay claras generaciones tecnológicas. Piense en el elevado crecimiento del TFP en la era posterior a la segunda guerra mundial, el crecimiento del TFP de los años 1970s y 1980s, el elevado crecimiento del TFP desde mediados de los 1990s. Estas olas o generaciones determinan claramente movimientos en el producto de mediano y largo plazo. Pero, combinadas con el rol de anticipaciones en la demanda, y el rol de la demanda de producto, ellos también pueden determinar el comportamiento del producto en el corto plazo. Éste es mi próximo punto. 2.3 Hacia un cuadro general y tres amplias relaciones La buena combinación de creencias según las cuales el progreso tecnológico pasa por las generaciones, que las percepciones del futuro afectan la demanda actual de bienes, y que debido a las rigideces nominales, esta demanda de bienes puede afectar el producto de corto plazo, bien 3 (También) todavía se escriben muchos trabajos con shocks de productividad de alta periodicidad como la única fuente de fluctuaciones en el modelo. Sospecho que la mayoría de los autores utilizan estos shocks como una conveniente sustitución, en lugar de alejarse de la convicción acerca de su existencia real. Para algunos propósitos, el supuesto puede ser inofensivo; si, por ejemplo, el foco se pone en comprender la oferta de trabajo, la fuente de los desplazamientos en la demanda de trabajo –ya sean si son shocks tecnológicos o desplazamientos en la demanda agregada con precios pegajosos (sticky)- puede ser insignificante. Sin embargo, para otros propósitos -por ejemplo, los movimientos conjuntos en el empleo, el producto y los salarios reales- no lo es, y conduce a "enigmas" artificiales, que son enigmas sólo bajo los supuestos sostenidos incorrectamente. Para una valiosa discusión, ver por ejemplo Rotemberg (2008). 5 pueden dar lugar a un cuadro de fluctuaciones que creo muchos macroeconomistas aprobarían en la actualidad. Hace cincuenta años, Samuelson (1955) escribió: En años recientes, el 90 por ciento de los economistas americanos han dejado de ser "economistas Keynesianos" o "economistas Anti-keynesianos". En cambio, ellos han trabajado hacia una síntesis que es más valiosa en la vieja economía y en las modernas teorías de determinación del ingreso. El resultado podría llamarse economía neo clásica y es aceptada, en grandes líneas, por todos menos por el cinco por ciento aproximadamente de los escritores de extrema izquierda y extrema derecha. Supondría que aun no estamos actualmente en dicha etapa. Pero podemos estar llegando allí. A menudo, esta combinación de creencias se presenta en la forma de tres amplias relaciones (me concentraré sobre una en particular, la versión más herméticamente especificada que denomino, en adelante, nuevo modelo keynesiano): una relación de demanda agregada en la que el producto está determinado por la demanda, y la demanda a su vez depende de las anticipaciones tanto del producto futuro como de las tasas futuras de interés reales. Una relación como la curva de Phillips en la que la inflación depende tanto del producto como de las anticipaciones de inflación futura. Y una relación de la política monetaria que comprende la proposición según la cual la política monetaria puede usarse para afectar la tasa de interés real actual (una tasa que no estaría ausente de las rigideces nominales). En dicha economía, las anticipaciones juegan un papel preponderante. Tome las anticipaciones en la productividad futura. La creencia de que una ola tecnológica puede estar a punto de empezar, puede llevar a un aumento importante en la demanda y, a su vez, a un auge; piense en la segunda mitad de los años 1990s con la denominada “nueva economía" y la “revolución IT". Inversamente, el hecho de lo que parece ser el comienzo de una ola tecnológica termina siendo sólo una serie de buenos augurios, puede llevar a una gran reducción en la demanda y a una recesión (vea, por ejemplo, Beaudry y Portier (2006), Lorenzoni (2008), o (y no puedo resistirme), Blanchard, L'Huillier, y Lorenzoni (2008)). O tome las anticipaciones en la inflación: la creencia de que la inflación bien anclada limita los movimientos en la inflación real; inversamente, los temores en la inflación futura pueden llevar a una inflación más alta hoy. 2.4 Modelo de juguete; el nuevo modelo keynesiano Dentro de este amplio cuadro ha emergido un modelo específico, el denominado nuevo modelo keynesiano (ó NK), y se ha vuelto un caballito de batalla para el análisis de la política y del bienestar (dos referencias aquí son Clarida et al (1999) y, para la aplicación a la política monetaria, el libro de Woodford (2003)). El modelo parte del modelo RBC sin capital y, en su forma básica, agrega sólo dos imperfecciones. Introduce la competencia monopolística en el mercado de bienes. La razón es clara: si la economía va a tener fijadores de precios, ellos tienen cierto poder monopólico. Luego introduce el ajuste discreto del precio nominal y usa una formulación introducida por Calvo, que resulta ser analíticamente la más conveniente. Dentro de este marco, las tres ecuaciones antes descriptas toman una forma específica. • Primero, la ecuación de demanda agregada se deriva de las condiciones de primer orden de 6 los consumidores que consideran el consumo como una función de la tasa de interés real y del consumo futuro esperado. Como allí no hay otra fuente de demanda en el modelo básico, la demanda de consumo es la misma que la demanda agregada. Y dado el supuesto según el cual los fijadores de precios satisfacen la demanda a los precios existentes mientras el costo marginal sea menor al precio, la demanda agregada es igual al producto. Juntando estos tres supuestos, la primera relación nos da el producto como una función de la tasa de interés real y el producto futuro esperado. • Segundo, bajo la especificación de Calvo, la ecuación de la curva de Phillips hace la inflación como una función de la inflación futura esperada, y de la "brecha del producto", definido como la diferencia entre el producto real menos el producto que se daría de no existir rigideces nominales. • Tercero, la regla de la política monetaria se formaliza como una "regla de Taylor", una función de reacción que hace la tasa de interés real seleccionada por el banco central como una función de la inflación y la brecha del producto. (El dinero nominal no aparece en forma explícita en el modelo: el supuesto es que el banco central puede ajustar el stock de dinero nominal para alcanzar cualquier tasa de interés real que desee. Y, lo que importa para la actividad es la tasa de interés real, no el dinero nominal en sí mismo). El modelo es simple, analíticamente conveniente, y ha reemplazado en gran parte al modelo IS-LM como el modelo básico de fluctuaciones en los cursos de grado (aunque no todavía en los libros de texto para no graduados). Al igual que el modelo IS-LM, reduce una compleja realidad a unas ecuaciones simples. A diferencia del modelo IS-LM, se deriva formalmente, en lugar de informalmente, de la optimización por parte de empresas y consumidores. Esto tiene beneficios y costos. Los beneficios son la habilidad de no sólo estudiar la actividad sino también el bienestar y así, derivar (dentro del modelo) la política óptima basada en el correcto criterio del bienestar. Los costos son que, si bien es tratable, las dos primeras ecuaciones del modelo son claramente falsas (obviamente, tanto más para aquellos quienes más aproximadamente especificaron el modelo IS-LM)... La ecuación de la demanda agregada ignora la inversión en existencias, y confía en un efecto sustitución intertemporal en respuesta a la tasa de interés, que es difícil detectar en los datos de los consumidores. La ecuación de inflación implica un comportamiento puramente a futuro (forward looking) de la inflación, que de nuevo aparece fuertemente en desacuerdo con los datos. Aun así, el modelo produce lecciones importantes que no podrían derivarse del IS-LM, que es muy general. Permítame mencionar las tres lecciones que considero más importantes: • Las fluctuaciones en el producto no son necesariamente malas. Este era el mensaje principal del modelo básico RBC en el que, de hecho, todas las fluctuaciones eran óptimas. Del mismo modo se verifica en el modelo NK (nuevo Keynesiano). Puede ser mejor para la economía que responda a los cambios en la tecnología, o cambios en las preferencias, a través de algunas fluctuaciones en el producto y el empleo. Serían erróneos los intentos de suavizar esas fluctuaciones a través del uso de la política. Aun es incierto para mí cuan irrelevante es este argumento para las economías ricas y diversificadas, y sospecho que todavía es fuerte el argumento de preservar el producto en una trayectoria suave. Sin embargo, es seguramente relevante para las economías emergentes, afectadas por cambios bruscos en los términos del intercambio, si ellos son exportadores de materias primas, o cambios súbitos en los flujos de la capital. Tratar de alcanzar una trayectoria suave ante tales shocks, probablemente sea 7 contraproducente desde el punto de vista del bienestar. • Al reflexionar sobre la política, uno debe pensar en tres conceptos diferentes de actividad: Primero, el nivel de producto real. Segundo, el nivel de producto que prevalecería en ausencia de rigideces nominales, llamado a menudo nivel de producto natural (que se corresponde con la tasa natural de desempleo, introducida por Friedman y Phelps), pero que yo prefiero más llamar segundo mejor. Tercero, el nivel de producto que prevalecería en ausencia de rigideces nominales y otras imperfecciones (en el modelo básico NK, el poder monopólico de las empresas); llámelo nivel de eficiencia restringido del producto que, en el modelo básico NK, también es el nivel de producto primero-mejor (óptimo). En el modelo básico NK, la política monetaria que mantiene constante la tasa de inflación (donde el índice de precios utilizado para medir la inflación es el que corresponde al conjunto de precios ajustados por los fijadores de precios) mantendrá automáticamente el producto en su nivel segundo mejor, incluso en respuesta a los shocks en el lado de la oferta, como los shocks tecnológicos o los shocks en el precio del petróleo. ¿Es óptimo para hacer qué? Esto depende de cómo se muevan los niveles segundo mejor y primero mejor del producto en respuesta al shock. En el modelo básico NK, ellos se mueven al unísono, de modo que de hecho resulta ser óptimo mantener constante la inflación, y hacer el producto igual su nivel segundo mejor. • Esto lleva a una conclusión política fuerte: la inflación objetivo (targeting) estricta es buena, tanto para la inflación como para el producto (un resultado que Jordi Galí y yo hemos bautizado "la divina coincidencia"). Este resultado sirve como una referencia importante. Sin embargo, puede no cumplirse en presencia de prolongadas imperfecciones. Para tomar un ejemplo muy actual, suponga que las imperfecciones del mercado de trabajo conducen a una mayor rigidez en el salario real del que estaría implicado por un mercado de trabajo competitivo. Entonces, un aumento en el precio del petróleo —que requiere una disminución en el salario real— puede conducir a una gran disminución en el nivel de producto segundo mejor: el muy bajo producto, puede entonces dar lugar un gran aumento en el desempleo y hacer que los trabajadores acepten el recorte del salario real. El producto primero mejor que se define como aquel producto libre de rigideces en los salarios reales, puede moverse mucho menos. En este caso, puede ser mejor permitir un poco de inflación, y una desviación del producto por encima de su nivel segundo mejor durante algún tiempo, en lugar de seguir con una inflación constante4. 2.5 Construcción del modelo de juguete Las implicaciones del modelo NK para la política, en particular la política monetaria, ha demostrado ser sumamente rico5. El rol de las anticipaciones en el modelo nos ha permitido estudiar las implicaciones de consistencia temporal para la política óptima, examinar el uso de 4 Como el lector puede suponer por la prosa más cargada, estoy intentando presentar informalmente algunos resultados de mi propia investigación (Blanchard y Gali (2007))... Mi excusa es que veo estos resultados como un buen ejemplo de lo que puede aprenderse del modelo NK que no podrían aprenderse del modelo IS-LM o, su extensión en los libros de texto, el modelo AD-AS. 5 Debido a que el modelo está claramente bien diseñado para mirar la política monetaria, y también quizás porque los bancos centrales son instituciones ricas con grandes departamentos de investigación y convocan a conferencias monetarias, ha habido un trabajo sustancialmente mayor en política monetaria que en política fiscal. Una buena teoría normativa de política fiscal en presencia de rigideces nominales todavía está por hacerse en gran parte. 8 las reglas frente a la discreción, discutir el rol de anclar las expectativas, pensar en el rol de la comunicación. El trabajo de Woodford, y su libro mencionado antes, muestra el progreso enorme que se ha hecho, y este cuerpo de trabajo ha cambiado literalmente la manera en que los bancos centrales piensan sobre la política monetaria6. Aquí se ha dicho, es claro que el modelo NK extendido incluso para permitir, por ejemplo, la presencia de la inversión y la acumulación de capital, o la presencia de la fijación tanto del precio discreto como del salario nominal, es aun sólo un modelo de juguete, y que le faltan muchos de los detalles que podrían necesitarse para entender las fluctuaciones. La próxima sección repasa los desarrollos en estos frentes. 3. Extensiones y exploraciones Gran parte de la actual investigación sobre fluctuaciones en la macro puede considerarse como una exploración de las implicaciones de varias imperfecciones: más allá de las rigideces nominales, ¿son las imperfecciones las que más importan en la macro? ¿Cómo ellas afectan los efectos dinámicos de los shocks? ¿Cómo ellas introducen por lo menos la posibilidad de shocks adicionales? ¿Qué sabemos sobre estos efectos dinámicos, y cuán importantes son estos shocks? Esto es cómo organizaré esta sección yendo mercado por mercado (desde los mercados de trabajo, a los mercados de crédito y financiero, a los mercados de bienes), y luego plantear algunas cuestiones que trascienden los mercados y veo en gran parte sin resolver. 3.1 Los mercados de trabajo. Introduciendo el desempleo Una destacada (y desagradable) característica del modelo básico NK es que ¡no hay desempleo! Los movimientos tienen lugar a lo largo de una curva de oferta de trabajo, ya sea en el margen intensivo (con trabajadores que modifican las horas) o en el margen extensivo (con trabajadores que deciden si van o no participar). Sin embargo, uno tiene la sensación de que esto puede dar lugar a una descripción engañosa de las fluctuaciones, en términos positivos, e incluso más, en términos normativos: se piensa a menudo que el costo de las fluctuaciones en el bienestar puede caer en forma desproporcionada sobre el desempleado. La primera pregunta es entonces cómo pensar introducir el desempleo en un modelo macro. Afortunadamente aquí, podemos construir —y se está construyendo— en base a un esfuerzo semejante desarrollado durante los últimos veinte años, en particular por Peter Diamond, Chris Pissarides, y Cañada Mortensen (al que llamo entonces "modelo DMP". Para una presentación ver, por ejemplo, Pissarides (2000)). En este enfoque, el desempleo surge del hecho que el mercado de trabajo es un mercado descentralizado donde, en cierto periodo, algunos trabajadores están buscando trabajo, mientras algunos trabajos están buscando trabajadores. Esto tiene dos implicaciones. La primera es que, por necesidad, existe siempre cierto desempleo —y en forma simétrica, ciertas vacantes. La segunda es que, cuando a un trabajador le toma tiempo encontrar otro trabajo, y a una empresa encontrar otro trabajador, el trabajador y la empresa tienen cierto poder de negociación. Esto implica que el salario —y por implicación, el costo del trabajo, el empleo, y el desempleo—depende de la naturaleza de la negociación. Este enfoque ha demostrado ser sumamente productivo por sí sólo. En contraste con el enfoque 6 Otro comentario ligeramente cínico: la adopción de la inflación objetivo por parte de los bancos centrales no puede resultar totalmente de su comprensión profunda de la nueva teoría monetaria, sino también de la coincidencia de los resultados teóricos con su permanente deseo de preservar la inflación baja y constante. 9 del agente representativo, a uno le sugiere pensar el mercado de trabajo como un mercado caracterizado por grandes flujos, flujos de destrucción y creación de trabajo, flujos de trabajadores entre el empleo, el desempleo y la no participación. Le permite a uno pensar sobre los efectos de las instituciones del mercado de trabajo en la tasa natural de desempleo. Le permite a uno pensar sobre si y cómo las fluctuaciones afectan la reasignación, y si algunas de las fluctuaciones puede atribuirse a variaciones en la intensidad de la reasignación. El modelo es suficientemente realista en su descripción del mercado de trabajo y puede confrontarse con los datos, sean ellos datos micro referidos a los trabajadores, datos micro referidos a las empresas o, aun mejor y disponibles en forma creciente, datos de panel referidos a trabajadores y empresas en forma conjunta. Sin embargo, la cuestión central cuando exploramos las implicaciones de una imperfección específica en las fluctuaciones macro es doble: Primero, ¿cómo los efectos de los shocks afectan la dinámica de la actividad? Segundo, ¿conduce a la presencia de otros shocks que pueden en sí mismos ser una fuente importante de fluctuaciones en la actividad? En el contexto de los mercados de trabajo, estamos sólo empezando a explorar las respuestas. Es crucial que la respuesta contemple la reacción de los salarios reales a las condiciones del mercado de trabajo (ver por ejemplo, Shimer (2005), y Hall (2005)). La determinación del salario descentralizado implica la existencia de una banda salarial dentro de la cual, empresa y trabajador, están dispuestos a continuar su relación. La existencia de dicha banda implica que, mientras permanezca dentro de la banda, el salario real puede moverse menos que los límites de la banda. En términos menos formales, la presencia de una banda permite una mayor rigidez del salario real del que estaría implicado por un mercado de trabajo competitivo. Esta rigidez del salario real no tiene en sí misma implicaciones para los equilibrios existentes, que siguen siendo rentables mientras el salario permanezca dentro de la banda. Sin embargo, si (y claramente un supuesto grande adicional) el mismo salario real también se paga a los nuevos contratados, entonces la rigidez del salario real tiene implicaciones importantes en las fluctuaciones: combinada con las rigideces nominales, más rigidez del salario real implica menos presión de la actividad sobre la inflación; esto a su vez implica efectos más fuertes y más persistentes de los cambios en la demanda agregada, y efectos más fuertes y más persistentes de los shocks de oferta, tales como los aumentos en el precio del petróleo, sobre la actividad. La presencia de una banda salarial implica que los salarios reales pueden ser más rígidos que sus homólogos competitivos. Sin embargo, la pregunta es si los salarios reales y, en particular, los salarios reales de los nuevos contratados, que son los únicos que determinan las decisiones de contratación de las empresas, son de hecho más rígidos y, en ese caso por qué. Éste también es un tema candente en la investigación. El trabajo teórico, basado en la exploración de las restricciones entre los salarios de los trabajadores dentro de una empresa, y el trabajo empírico, basado en la evidencia micro de los salarios de los trabajadores existentes y nuevos contratados, está avanzando rápidamente. La próxima etapa parece ser una integración de las fricciones del mercado que caracterizan al modelo DMP, con modelos de salario de eficiencia que pueden explicar el salario fijado dentro de las empresas y, en particular, la relación entre salarios pagados a los trabajadores existentes y nuevos contratados. 10 3.2 Los mercados de crédito y financieros La actual crisis financiera deja en claro que el enfoque arbitraje en la determinación del término estructura de las tasas de interés y precios de los activos implícitos en el modelo NK resulta deficiente: las instituciones financieras importan, y los shocks de su capital o posición de liquidez parece tener efectos macroeconómicos potencialmente grandes. La principal imperfección alrededor de la cual se construye el pensamiento sobre los mercados del crédito es la información asimétrica. Los Propietarios / administradores de un proyecto de inversión (llámelos empresarios) tienen un mejor conocimiento de la distribución de los rendimientos del proyecto y de su propio esfuerzo, respecto de los inversores externos. Como resultado, los inversores externos sólo están dispuestos a participar bajo ciertas condiciones, especialmente que los empresarios pongan algunos de sus propios fondos en el proyecto, o pongan suficiente garantía que respalde el proyecto (garantía colateral). Esto tiene dos implicaciones directas para las fluctuaciones macro. Primero, es probable que estas restricciones amplifiquen los efectos de otros shocks sobre la actividad. En la medida que los shocks adversos reduzcan los beneficios y, de ese modo, reduzca los fondos disponibles de los empresarios así como el valor de la garantía colateral que ellos puedan poner, es probable que ellos provoquen una caída mas abrupta en la inversión respecto de lo que sucedería en mercados competitivos. Segundo, los desplazamientos de las restricciones pueden en sí mismas ser fuentes de shocks. Por ejemplo, los cambios en la incertidumbre percibida que lleva a los inversores externos a pedir más garantías, pueden llevar a los empresarios a reducir sus panes de inversión, conduciendo a una menor demanda de corto plazo y una menor oferta de mediano plazo (dos referencias habituales son Bernanke y Gertler (1989) quienes fueron los primeros en introducir este mecanismo en un modelo RBC, y Kiyotaki y Moore (1997) quienes mostraron el rol del precio de los activos y la garantía colateral). En la medida que los empresarios no sean financiados directamente por inversores finales sino por intermediarios financieros que a su vez se financian a través de los inversores finales, estos intermediarios pueden enfrentar los mismos problemas que los empresarios. Para asegurarse que los intermediarios tengan los incentivos apropiados, los inversores finales pueden desear que los mismos intermediarios contribuyan con parte de sus propios fondos. De ese modo, las reducciones en tales fondos obligará a los intermediarios a disminuir el financiamiento a los empresarios y provocará nuevas caídas en la inversión (una referencia normal aquí es Holmstrom y Tirole (1997)). Entonces, es probable que las restricciones de capital afecten a prestatarios y prestamistas. Además, en la medida que los proyectos de inversión tengan horizontes más largos que aquellos de los inversores finales, los intermediarios financieros pueden mantener activos de un vencimiento mayor que el de sus obligaciones. Debido a que los intermediarios financieros probablemente tengan habilidad específica sobre los préstamos que han hecho y los activos que mantienen, ellos pueden encontrar difícil o incluso imposible vender estos activos a terceras partes. Esto a su vez extiende el alcance de los problemas de liquidez: un deseo de los inversores finales de recibir los fondos antes que venzan los activos puede obligarles a los intermediarios a vender activos a precios deprimidos, recortar préstamos, o incluso quebrar —posibilidades todas que se han dado en la actual crisis financiera. (La referencia no macro usual aquí es Diamond y Dybvig (1983) que ha activado una gran literatura). Estos mecanismos pueden amplificar 11 nuevamente los efectos de los shocks adversos, y los cambios en la distribución de fondos, o en la impaciencia o percepciones de incertidumbre de los inversores finales, pueden tener efectos macroeconómicos mayores. Incluso en los mercados centralizados, los precios de los activos no siempre parecen estar determinados por su valuación fundamental. Muchos inversores se preocupan por el valor de reventa, en lugar del simple valor descontado de pagos futuros esperados del activo. La idea que, cuando éste sea el caso, los activos de vida infinitamente larga pueden estar sujetos a burbujas especulativas, es bien antigua, sostenida por muchos ejemplos claros en la historia. Un resultado teórico normal es que, en ausencia de otras imperfecciones, las burbujas especulativas racionales pueden existir sólo bajo ineficiencia dinámica, una condición que no aparece ser satisfecha en el mundo real. La reciente investigación ha explorado si, en presencia de otras imperfecciones del mercado de crédito, las burbujas racionales pueden existir incluso cuando la economía es dinámicamente eficiente (Ventura (2003), Caballero et al, (2006)). La conclusión es que ellas pueden existir. Un enfoque muy diferente al mismo conjunto de problemas, ha explorado las implicaciones de los límites al arbitraje (un argumento inicialmente formalizado por Shleifer y Vishny (1997)): si bien es fácil de aceptar la noción de que algunos participantes en los mercados financieros no pueden actuar racionalmente, la pregunta más difícil es por qué otros no pueden aprovechar las oportunidades de ganancia implícitas. La respuesta que se ha explorado en la literatura es que, nuevamente debido a la información asimétrica entre los inversores finales y los potenciales arbitrajistas, los arbitrajistas no pueden tener acceso a fondos suficientes para arbitrar y hacen que los precios retornen a sus valores fundamentales. No obstante, otro enfoque ha explorado el rol de la información pública y privada en la determinación del precio de los activos, y ha demostrado que los precios pueden responder bastante a la información pública y muy poco a la información privada, abriendo el campo para grandes variaciones en los precios en respuesta a las débiles señales públicas (por ejemplo, Morris y Espinilla (2002), Angeletos y Werning (2006)). La razón: en presencia de complementariedad, los inversores responderán a las señales públicas, no necesariamente porque ellos les crean considerablemente sino porque, en contraposición con las señales privadas, ellos saben que otros inversores también los observan y de ese modo pueden responderles a ellos. En la medida que puedan haber grandes desviaciones de precios respecto de los fundamentales, éstas pueden ser claramente fuentes de shocks en la actividad7. Y mientras es más probable que ellas emerjan en determinados ambientes económicos, por ejemplo, cuando las tasas de interés son bajas y los inversores son "buscadores de rendimiento", o cuando la economía pasa por una gran estampida y los inversores se vuelven constantemente demasiado optimistas, (dos creencias ampliamente sostenidas sobre la conducta de los inversores entre los participantes del mercado financiero), tales desviaciones afectarán la dinámica de otros shocks, por ejemplo amplificarán los auges y aumentarán las depresiones subsiguientes. Todas estas dimensiones de los mercados de crédito y financieros también son el foco de activa 7 Sin embargo, de un modo interesante la así llamada "gran moderación", es decir el descenso en la volatilidad del producto agregado desde inicios de los 1980s, no ha estado asociado con un declive en la volatilidad del precio agregado de las acciones. Hasta ahora, lo mismo es cierto en la actual crisis financiera. Mientras la volatilidad ha aumentado en los mercados financieros, no ha observado todavía a una volatilidad creciente en la actividad. 12 investigación. Dada la urgencia de entender la actual crisis financiera, uno puede estar seguro que el progreso acontecerá rápidamente. Sin embargo, lo mismo no es verdad en el próximo tema que trato. 3.3 Mercados de bienes y márgenes (markups) En el modelo básico NK, el margen (markup) deseado incluido en el precio por encima del costo marginal es constante. Esto surge del supuesto según el cual es constante la elasticidad de sustitución de la utilidad entre bienes diferenciados vendidos por empresas monopolísticamente competitivas. La realidad sugiere que este supuesto también está lejos de la evidencia. Primero, para una cantidad creciente de bienes, desde el software a las drogas, los costos fijos son el principal componente del costo en lugar de los costes marginales, lo que implica que el precio refleja en gran parte el markup en lugar del costo marginal. Segundo, los markups deseados parecen ser todo menos constantes. Dado que ningún costo marginal, ni el markup deseado es directamente observable, la evidencia aquí es más polémica. Para mi mente, la evidencia más convincente tal vez surge de la evidencia de los efectos (o la falta de) transferencia (pass-through) en los movimientos del tipo de cambio. Un reciente trabajo empírico en los Estados Unidos, usando precios desagregados, muestras que cuando los precios de importación se denominan en dólares en la aduana, los movimientos del tipo de cambio apenas tienen algún efecto en los precios para esas importaciones en los Estados Unidos, mientras que si ellos se denominan en divisas en la aduana, los movimientos del tipo de cambio llevan a efectos de casi el cien por cien en los precios de esas importaciones (Gopinath et al (2007)). También se demuestra que estas diferencias sobreviven mucho tiempo luego que los importadores han tenido oportunidad de actualizar el precio (reprice) de las mercancías y, entonces, no pueden atribuirse a las rigideces nominales. En otros términos, los movimientos del tipo de cambio tienen grandes y heterogéneos efectos en los markups cargados por los importadores. Cómo se mueven los markups, en respuesta a qué y por qué es, sin embargo, casi una incógnita en tierra de la macro8. Tenemos varias teorías. Una de las más creíbles parece ser que los mercados de consumo, desarrollados e introducidos en un modelo macro por Phelps (1994) en el que las empresas piensan en el stock de consumidores como un activo y elige los precios en concordancia. Tenemos otros, basados en juegos entre empresas imperfectamente competitivas. Algunas de estas teorías implican markups pro cíclicos, de modo que un aumento en el producto lleva a un aumento mayor en el precio deseado, y así a más presión sobre la inflación. Algunas implican, sin embargo, markups contra cíclicos, con la implicación opuesta. También tenemos cierta evidencia empírica (por ejemplo Bils y Chang (2000)). Pero aún nos queda mucho por recorrer para tener un cuadro claro o teorías convincentes, y ésta es claramente una área donde se necesita investigación en forma urgente. 3.4 Algunas cuestiones sin resolver. Shocks, anticipaciones Habiendo repasado el progreso mercado por mercado, permítame ahora fraccionar la 8 He hallado a I0 economistas renuentes para ayudarnos en este frente: Ellos parecen encontrar la noción de que uno podría medir confiablemente movimientos en los markups en el transcurso del tiempo, o la noción de que uno podría rastrear y explicar la evolución de un markup agregado, ambas ingenuas y fatales... 13 investigación de otra manera, y tratar dos problemas que veo como centrales y sin resolver. El primero es la naturaleza y cantidad de importantes shocks detrás de las fluctuaciones. El segundo es el papel real de las anticipaciones. Al pensar en las fluctuaciones, una cuestión importante es si ellas son el resultado de unas pocas fuentes principales de shocks, o de muchas fuentes diferentes, cada una de ellas con sus propios efectos dinámicos. La naturaleza de la política óptima, las implicaciones de las fluctuaciones sobre el bienestar, depende muchísimo de la respuesta. En la interpretación Keynesiana tradicional de las fluctuaciones jugaron un rol principal los shocks en la demanda agregada y los "espíritus animales" ("animal spirits"). En cambio, en la interpretación del modelo RBC, los shocks afectaban la oferta agregada, i.e. shocks tecnológicos. El rápido estudio precedente de las imperfecciones sugiere que puede haber muchos otros9. Uno puede aproximarse a la cuestión de dos maneras: La primera es usar un modelo estructural y obtener estimaciones de los shocks y de sus efectos dinámicos. Este es, por ejemplo, el enfoque seguido por Smets y Wouters (2007), utilizando el estado del arte de un modelo DSGE para la economía de Estados Unidos (más sobre modelos DSGE en la próxima sección). Sus resultados (examinados y discutidos en el artículo de Chari et al (2008) mencionado antes), es que muchos shocks contribuyen a las fluctuaciones, sin que un shock particular emerja como dominante. Sin embargo, el problema es que la respuesta depende muchísimo del modelo específico utilizado para examinar los datos —un comentario que siempre es cierto, pero que es particularmente relevante en este contexto. Para tomar un ejemplo conocido, si especificamos incorrectamente la pendiente de una curva de oferta, interpretaremos movimientos a lo largo de la verdadera curva de oferta como desviaciones de nuestra supuesta curva de oferta, y entonces como shocks de oferta. La ajustada parametrización de los modelos DSGE, junto con el uso de Bayesianos robustos anteriores, hace este riesgo particularmente alto. La segunda manera es usar un enfoque menos estructural, y utilizar un modelo de factores. Los modelos de factores permiten a uno explorar si pueden explicarse bien los movimientos de un número grande de variables como los efectos dinámicos de ciertos factores subyacentes. Entonces, podemos pensar en estos factores como combinaciones lineales de shocks estructurales mayores. El trabajo que utiliza un modelo de factores para interpretar las fluctuaciones macro, pienso es sólo para comenzar en serio, y la segunda etapa de ir de los factores a los shocks subyacentes (una etapa similar de ir de las VARs a las VARs estructurales) todavía es para ser aprovechado en gran parte. De todos modos, encuentro intrigantes algunos de los resultados que ya tenemos. Por ejemplo, el trabajo de Stock y Watson (2005) proporciona el siguiente cuadro: si bien sus tests formales encuentran que se necesitan siete factores para explicar la mayoría de los movimientos en las 130 series de tiempo macroeconómicas que ellos miran, tres factores (que son ortogonales por construcción) juegan un papel dominante. El primero explica la mayoría de los movimientos en cantidades, pero poco acerca de los movimientos en los precios o precios de los activos. El segundo explica algunos de los movimientos en los precios de los activos, pero poco sobre los movimientos en cantidades. El tercero explica algunos de los movimientos en los 9 El uso de los "shocks" está lleno de dificultades filosóficas pero también prácticas: los shocks tecnológicos, los espíritus animales, los cambios percibidos en la incertidumbre, y así sucesivamente, todos tienen causas más profundas que, en sí mismas, a su vez, tienen causas más profundas, y así sucesivamente. Una definición operativa es que los shocks son los residuos no explicados de ecuaciones de comportamiento y que, como resultado, diferentes patrones de tales residuos tienen efectos diferentes en las fluctuaciones. 14 precios, pero poco sobre los movimientos en cantidades o precios de los activos. Existe una tentadora interpretación pero ligeramente preocupante para estos resultados: que los shocks de demanda agregada, que de hecho mueven la mayoría de las cantidades en la misma dirección, tienen un pequeño efecto en los precios y, de este modo, en la inflación. Que los shocks en precios o salarios, y de ese modo en la inflación, explican la mayoría de los movimientos de la inflación, con una pequeña relación en o efecto en el producto. Y que el ajuste de precios en gran parte tiene vida por sí misma, con efectos limitados sobre la actividad. Ésta no es la única interpretación, ni es el trabajo de Stock y Watson la última palabra pero, en ese caso, deja a uno intranquilo sobre el control de la inflación por medio de la política monetaria implicada por el modelo básico, un supuesto que subyace en gran parte de la política monetaria moderna.10 El segundo problema es el rol de las anticipaciones. Las anticipaciones juegan un papel crucial en el modelo básico NK: siendo todas las otras cosas igual, las anticipaciones del consumo futuro afectan el consumo actual en la misma proporción. Las anticipaciones de la inflación futura afectan inflación actual también casi en la misma proporción. Bajo expectativas racionales, esto implica un rol muy importante para las anticipaciones de sucesos futuros, o de política futura. Que las anticipaciones importan mucho es evidentemente cierto. Que las personas y empresas miren al futuro directamente o confiando en las previsiones de otros formándose anticipaciones, también es evidentemente cierto. Si bien el modelo básico no sobreestima el rol de las anticipaciones, el rol de las honorables expectativas racionales está, sin embargo, abierto a discusión. Por cierto, las diversas restricciones del crédito limitan la habilidad de las personas y empresas de gastar en la anticipación de buenas noticias sobre el futuro. Con seguridad, hay mucho aprendizaje adaptable en las personas y empresas que miran la evidencia pasada para actualizar sus creencias (una ruta explorada por Sargent —por ejemplo Sargent (2001)— y usada por él para explicar la evolución de la curva de Phillips en el tiempo). Indudablemente, también la racionalidad limitada y las habilidades de procesamiento limitan la capacidad de las empresas y hogares para tener en cuenta lo que pasará en el futuro (por ejemplo ver el trabajo de Sims (2006) y, con una formalización ligeramente diferente, una exploración de las implicaciones macro realizada por Reis (2008)). Una razón para inquietarse es, por ejemplo, el rol clave dado por los bancos centrales al ancla de las expectativas inflacionarias de mediano plazo. El modelo básico NK implica que, si el banco central es capaz de anclar en forma creíble las expectativas de inflación de mediano plazo, entonces será más favorable la compensación (tradeoff) entre inflación y producto. El argumento formal confía muchísimo en una especificación de ajuste de precios como la de Calvo que implica que la inflación actual depende casi cien por cien de la inflación del próximo año que, a su vez, depende de la inflación futura más distante. Sin embargo, uno puede plantearse razonablemente si un fijador de precios, que elige precios para el próximo mes o el próximo trimestre, cambiará su decisión dependiendo cual sea su expectativa de inflación, digamos de cinco años. En otros términos, mientras deseamos creerlo muchísimo, no estoy seguro realmente que entendamos si 10 La razón de por qué no es ésta la única interpretación puede decirse en estos términos: encontrar en un mercado dado que la cantidad y precio no están correlacionados (y entonces cada uno poder ser explicado por un factor separado, siendo ambos factores ortogonales) es de hecho consistente con una curva de oferta totalmente elástica, una curva de la demanda inelástica, y shocks de oferta y demanda no correlacionados (interpretación que he dado aquí implícitamente). Pero también es consistente con curvas de oferta inclinadas hacia arriba y curvas de demanda inclinadas hacia abajo, y la correcta relación entre las pendientes y variaciones de los shocks de oferta y demanda subyacentes. 15 es tan importante anclar y cómo anclar las expectativas inflacionarias. 4. Convergencia en la metodología Que haya habido convergencia en la visión puede ser polémico. Que haya habido convergencia en la metodología no lo es: los artículos Macroeconómicos, ya sea que traten sobre teoría o hechos, parecen muy similares entre sí en estructura y muy diferentes en la forma que ellos lo hicieron hace treinta años. Los cambios pueden remontarse en parte a una reacción contra algunos de los errores del pasado, pero en gran parte al progreso tecnológico: hoy podemos resolver y estimar modelos que en ese entonces no podríamos resolver de un modo tan simple. Argumentaré que estas evoluciones han sido en buena medida, pero no por completo, para mejor. 4.1 De modelos pequeños a más grandes Los modelos pequeños son mecanismos esenciales de comunicación y exposición. Cuando son exitosos, ellos reducen un problema complejo a su esencia. Ellos bien pueden expresar la sabiduría de los modelos más grandes, de los más explícitos micro-fundados o bien pueden, en cambio, activar el desarrollo de tales modelos. El modelo de Dornbusch de la sobre reacción (overshooting) viene a la mente como un ejemplo de lo último. No obstante, es cierto que gran parte del trabajo en macro de los años 1960s y 1970s consistió en ignorar la incertidumbre, reduciendo los problemas a sistemas diferenciales 2x2, y luego dibujar un elegante diagrama de fases. No hubo alternativa apetecible —como la de alguien que se ha pasado el tiempo usando la regla de Cramer en sistemas 3x3 y lo conoce demasiado bien. La macro fue en gran medida un arte, y sólo unos pocos artistas lo hicieron bien. Hoy esa restricción tecnológica simplemente se ha ido. Con el desarrollo de los métodos estocásticos de la programación dinámica, y el advenimiento de software como el Dynare —un conjunto de programas que permiten a uno resolver y estimar modelos no lineales con expectativas racionales— uno puede especificar modelos dinámicos grandes y resolverlos casi al toque de un botón. Y en muchos casos los modelos más grandes, aun cuando ellos no pueden resolverse analíticamente, pueden tener el mismo rol que los tradicionales modelos 2x2, a saber comunicar un punto básico, o mostrar las implicaciones de un mecanismo básico. Ellos pueden tratar la incertidumbre sin depender de la equivalencia con la certeza y pueden permitirnos pensar en cuestiones tales como el ahorro preventivo o el comportamiento de la inversión bajo irreversibilidad. En gran medida, el progreso tecnológico ha reducido el componente artístico requerido en la investigación, y esto es para mejor. 4.2 De ecuación por ecuación a la estimación del sistema En los años 1960s y principios de los 1970s, el trabajo empírico en la macro avanzó a través de dos caminos. El primero fue la estimación ecuación por ecuación de las ecuaciones de comportamiento, fueran ellas la función consumo, la ecuación demanda de dinero o la curva de Phillips. El otro fue el desarrollo de grandes modelos econométricos, construidos reuniendo estas ecuaciones por separado. Mucho se aprendió de este enorme doble esfuerzo, pero a mediados de los 1970s, los problemas de estos modelos se estaban volviendo claros. Ellos fueron identificados mejor por Sims (1980): pocas razones habían acerca de por qué los modelos dinámicos agregados compuestos de ese modo reproducirían la dinámica real agregada. Poner ceros en una ecuación 16 podría ser una buena aproximación para la ecuación como a tal, pero no necesariamente para el sistema en su conjunto. Hoy, la macro econometría está interesada principalmente en la estimación del sistema. Nuevamente, esto se debe a la disponibilidad de nueva tecnología, a saber computadoras más poderosas. Los sistemas caracterizados por un conjunto de parámetros estructurales, se estiman habitualmente como un todo. Debido a que la función de verosimilitud a menudo se comporta mal (ver más abajo sobre ésta), el enfoque habitual es confiar en la estimación Bayesiana. En este contexto, la estimación Bayesiana puede verse como un compromiso entre calibración —que dominaron los primeros trabajos RBC— y máxima verosimilitud —que aparece en la mayoría de los casos por pedir demasiado de los datos. El vector de autorregresiones (VARs), o VARs estructural (SVAR) —esto es VARs con un conjunto mínimo de restricciones de identificación que le permiten a uno rastrear los efectos de por lo menos algunos de los shocks estructurales— se usan de varias formas: antes de la estimación se utilizan para obtener una interpretación de los datos. Luego de la estimación se utilizan para comparar las respuestas impulso de los shocks implicados por el modelo estructural con los obtenidos de la interpretación SVAR obtenida de los datos. Debido a la dificultad de encontrar buenos instrumentos cuando se estiman relaciones macro, la estimación ecuación por ecuación ha tomado el asiento de atrás —tal vez demasiado para un asiento en la parte de atrás (para la estimación y discusión de la curva de Phillips como relación, ver por ejemplo Gali et al (2005), y la discusión asociada correspondiente en la revista Economía Monetaria). Ha aparecido otra forma de estimación de información limitada: la estimación y ajuste de un subconjunto de funciones de impulso respuesta —por ejemplo las funciones de impulso respuesta de diversas variables macroeconómicas a un shock en el precio del petróleo— en lugar de la estimación y ajuste del conjunto completo de funciones de impulso respuesta implicadas por el modelo. La razón es que podemos confiar más en el impulso respuesta estimado de los shocks en el precio del petróleo que en otros aspectos de los datos, y así preferir usar sólo esta información para estimar los parámetros subyacentes del modelo. 4.3 DSGEs Los resultados más visibles de este nuevo enfoque son los modelos de equilibrio general dinámicos estocásticos (o DSGEs). Son modelos derivados de los fundamentos micro —esto es maximización de utilidad de consumidores-trabajadores, maximización de beneficios de las empresas, expectativas racionales, y una completa especificación de imperfecciones, desde las rigideces nominales a algunas de las imperfecciones discutidas antes— y habitualmente estimados por métodos Bayesianos. El resultado de la estimación es un conjunto de parámetros estructurales que caracterizan al modelo por completo. La cantidad de parámetros ha estado aumentando rápidamente con el poder de las computadoras: por ejemplo Smets y Wouters (2007) estiman 19 parámetros estructurales y 17 parámetros correspondientes a las varianzas y los coeficientes de autocorrelación de primer orden correspondientes a los procesos de shocks subyacentes. Los modelos DSGE se han vuelto muy extendidos. Las docenas de equipos de investigadores se han involucrado en su construcción. Casi cada banco central tiene uno, o quiere tener uno. Ellos son utilizados para evaluar las reglas de política, para hacer pronósticos condicionados, o incluso a veces para hacer pronósticos reales. Existen pocas dudas de que ellos representan un logro 17 impresionante. Pero ellos también tienen obvios defectos. Éste puede ser un caso en el que la tecnología ha corrido delante de nuestra habilidad de usarlos, o por lo menos de usarlos mejor: • Sólo los datos macroeconómicos pueden dar tanto. La transformación de los parámetros estructurales del modelo en coeficientes de la forma reducida es mayormente no lineal. La no identificación es casi frecuente, con conjuntos diferentes de parámetros que producen casi el mismo valor para la función de verosimilitud —razón por la cual la máxima verosimilitud pura casi nunca se usa (sobre la no identificación o la identificación débil, ver por ejemplo Canova y Sala 2006, o Iskrev (2008)). El uso de información adicional, como la incluida en los Bayesianos preliminares, es conceptual y claramente el enfoque correcto. Pero, en la práctica, el enfoque se ha vuelto una formulación más bien hipócrita. Los preliminares utilizados a menudo reflejan los preliminares de otros y, después que la recursividad hacia atrás ha rastreado sus orígenes, tienen escasa base en los hechos. En parte por la misma razón, los modelos también son más similares en su estructura de lo que parecería deseable: se usan aproximadamente los mismos modelos tanto en economías ricas como en economías emergentes, pese a que sus estructuras son muy diferentes y sus shocks muy distintos. • Sólo la teoría actual puede dar tanto. Uno de los principios subyacentes en los DSGEs es que, en contraste con la anterior generación de modelos, toda la dinámica debe derivarse de los principios preliminares11. La motivación principal es que sólo bajo estas condiciones, puede realizarse el análisis del bienestar. Sin embargo, una característica general de los datos, es que el ajuste de las cantidades a los shocks parece más lento que el implicado por nuestros modelos estándar de referencia. Reconciliar la teoría con los datos ha llevado dar marcha atrás a mucha ingeniería poco convincente. La formación de hábitos externos —esto es una especificación de la utilidad donde la utilidad no depende del consumo, sino del consumo en relación al consumo agregado retrasado— se ha introducido para explicar el ajuste lento del consumo. Los costos de inversión convexos cambiantes, en lugar de los costos convexos más normales y más creíbles de inversión, se han introducido para explicar la rica dinámica de la inversión. La indexación hacia atrás de los precios, un supuesto que hasta donde yo sé, está absoluta y objetivamente equivocado, se ha introducido para explicar la dinámica de la inflación. Y puesto que una vez introducidos, estos supuestos pueden luego culpar a otros, ellos se han vuelto a menudo normales, pasados de un modelo a otro casi sin discusión. Esta manera de proceder es claramente improcedente: Primero, sólo deben introducirse en un modelo tales supuestos adicionales si ellos tienen apoyo empírico independiente. El hecho que un supuesto adicional ayude al ajuste de la dinámica agregada de un modelo que, con seguridad, está erróneamente especificado en otra parte, no es convincente. Segundo, está claro que la heterogeneidad y la agregación pueden conducir a una dinámica agregada que tiene una evidente escasa relación con la dinámica individual (ver por ejemplo Chang et al (2008) sobre la relación de la oferta agregada de trabajo respecto de la oferta de trabajo individual, cuando se toman decisiones de oferta de trabajo individuales tanto en el margen intensivo como extensivo, y los trabajadores ven limitado su acceso al seguro). El progreso está haciéndose, teórica y empíricamente, al derivar del comportamiento individual las implicaciones de la dinámica agregada (para una reciente revisión y exploración, ver por 11 Esto no quiere decir dar nitidez a una situación difusa cuando a los shocks se les permite habitualmente tener su propia dinámica inexplicada, por ejemplo, seguir procesos AR(1). 18 ejemplo Caballero y Engel 2007). Sin embargo, hasta que lleguemos allí, puede tener más sentido reconocer nuestra ignorancia y permitir parte de la dinámica de nuestros modelos DSGE para tener los datos determinados. En verdad, esto haría imposible el análisis formal del bienestar. Pero el análisis del bienestar basado en la errónea interpretación de los datos es claramente peor. Por ejemplo, importa muchísimo para la evaluación de las fluctuaciones en los costos del bienestar, si el lento ajuste del consumo puede atribuirse a la formación de hábitos o, en cambio, a la agregación o al lento ajuste de las expectativas. Las funciones de bienestar apropiadas, en términos de desviaciones de la inflación y desviaciones del producto de cierta trayectoria suavizada puede ser lo mejor que podemos hacer dado lo que sabemos. 5. A modo de conclusión He argumentado que la macroeconomía está pasando por un periodo de gran progreso y entusiasmo, y que ha habido durante las últimas dos décadas convergencia en la visión y en la metodología. Sin embargo, existen cuestiones como la excesiva convergencia. Para imitar, pero sólo ligeramente: un artículo macroeconómico hoy sigue a menudo estrictas reglas: empieza con una estructure del equilibrio general en la que los individuos aumentan al máximo el valor presente esperado de su utilidad, las empresas aumentan al máximo sus beneficios, y los mercados se despejan. Luego introduce un giro inesperado, sea él una imperfección o el cierre de un sistema particular de mercados, y aparecen las implicaciones del equilibrio general. Luego realiza una simulación numérica, basada en la calibración, y demuestra que el modelo responde bien. Finaliza con una evaluación del bienestar. Tales artículos pueden ser grandes, y los mejores de hecho lo son. Pero, la mayoría de las veces, ellos padecen de algunas de fallas que apenas discutí en el contexto de los DSGEs: la Introducción de un ingrediente adicional en el modelo de referencia ya cargado con supuestos cuestionables. Y con poca o ninguna validación independiente para el ingrediente agregado. Entonces, deseo finalizar esta revisión con tres esperanzas/súplicas relacionadas12. La primera es para la rehabilitación de la modelización del equilibrio parcial en macroeconomía. Si bien puede ser sólo una primer paso, es importante entender las implicaciones de una particular imperfección en sí misma, i.e. tomando como dado una gran parte del ambiente macroeconómico. Forzar a examinar las mismas implicaciones de esta imperfección en el equilibrio general crea habitualmente intercambios (tradeoffs) poco atractivos. Por ejemplo, muchas imperfecciones llevan a la heterogeneidad del ingreso y la riqueza entre los agentes; un cierre del equilibrio general requiere la introducción de varios supuestos auxiliares, como supuestos poco realistas sobre la existencia de diversas formas de seguro, haciéndole difícil al modelo evaluar los roles relativos del supuesto central y los supuestos auxiliares. Lo mejor en este caso es proceder en dos etapas, la primera con el equilibrio parcial, y la segunda con el problema —admitido mucho más duro— del equilibrio general13. 12 Andrei Shleifer me ha señalado que mis tres súplicas son por una mayor "arquitectura abierta" del campo, tomando prestada una expresión del diseño de computadoras. 13 Por citar a Solow (2008): "Mi preferencia general es por los modelos pequeños, transparentes, adaptados a menudo al equilibrio parcial, normalmente señalados para entender alguna pequeña porción del mecanismo (macro)económico". 19 La segunda es que no debe introducirse ningún ingrediente adicional en un modelo de equilibrio general sin alguna validación independiente. Tenemos creciente acceso a los grandes conjuntos de datos micro que nos permiten aprender sobre aspectos de la conducta individual. Estamos derivando teorías de la agregación que nos permiten derivar sólidamente las implicaciones dinámicas agregadas de la conducta individual (para un ejemplo referido al caso de la inversión, ver Caballero et. al. (1995)). En la medida de lo posible, ese debiera ser nuestro modo de proceder. Presentar estas descripciones más realistas del comportamiento agregado en un modelo DSGE, debe ser una última etapa, no una primer etapa. La tercera se refiere a la relegalización de atajos y de modelos simples. Los modelos DSGE tienden a ser muy complejos. Aproximar relaciones complejas por medio de otras más simples auxilia la intuición y la comunicación. Los atajos del pasado pudieron haber sido potencialmente peligrosos, sólo para ser usados por los maestros del ramo. Pero el trabajo es ahora potencialmente mucho más fácil. Podemos comenzar con modelos totalmente articulados y ver si podemos capturar su esencia a través de relaciones más simples. Podemos comprobar sí y cuándo las implicaciones del atajo se ajustan a las características principales del modelo completamente desarrollado (un buen ejemplo en este contexto es Krusell y Smith (1998)). Debiéramos desear hacer más de esto de lo que hoy hacemos. 20 Literatura Citada Angeletos, M., Werning I, 2006, Crises and Prices: Information Aggregation, Multiplicity, and Volatility, American Economic Review, 96(5), 1720-1736. Bernanke, B., Gertler, M., 1989, Agency Costs, Net Worth, and Business Fluctuations, American Economic Review, 79(1), 14-31. Beaudry, P., Portier, F., 2006, Stock Prices, News, and Economic Fluctuations, American Economic Review, 96(4), September, 1293-1307. Bils, M., Chang, Y., 2000, Understanding How Price Responds to Costs and Production, CarnegieRochester Conference Series on Public Policy, 52(1), 33-77. Blanchard, O., 1992, For a Return to Pragmatism, Federal Reserve Bank of Saint Louis Conference on Business Cycles, Proceedings, 121-132. Blanchard, O., Gali, J., 2007, Real Rigidities and the New Keynesian Model, February 2007, Journal of Money, Credit and Banking, Proceedings of the Conference on “Quantitative Evidence on Price Determination, 35-66. Blanchard, O., L'Huillier, J.P, Lorenzoni, G., 2008, News, Noise, and Fluctuations, mimeo MIT, August. Caballero, R., Engel, E, Haltiwanger, J., 1995, Plant Level Adjustment and Aggregate Investment Dynamics, Brookings Papers on Economic Activity, (2), 1-54. Caballero, R., Farhi, E., Hammour, M., 2006, Speculative Growth: Hints from the US Economy, American Economic Review, 66(4), 1159-1192. Caballero, R., Engel, E, 2007, Price Stickiness in Ss models; New Interpretations of Old Results, Journal of Monetary Economics, 54. Canova, F., Sala L., 2006, Back to Square One: Identification Issues in DSGE Models, Working Paper 583, European Central Bank. Chang, Y.S., Sungbae, A., Sun-Bin, K., 2008, Can a Representative Agent Model Represent a Heterogeneous Agent Economy?, mimeo, March. Chari, V.V, Kehoe, P., McGrattan E. , 2008, New-Keynesian Models Are Not Yet Useful for Policy Analysis, mimeo, Minneapolis Fed, forthcoming AEJ-Macro. Christiano, L, Eichenbaum, M., Evans, C, 2005, Nominal Rigidities and the Dynamic Effects of a Shock to Monetary Policy, Journal of Political Economy, 113(1). Clarida, R., Gali, J, Gertler, M, 1999, The Science of Monetary Policy: A New-Keynesian Perspective, Journal of Economic Literature, December, 1661-1707. Diamond, D., Dybvig, P.H., 1983, Bank Runs, Deposit Insurance, and Liquidity, Journal of Political Economy, 91(3), 401-419. Dornbusch, R., 1976, Expectations and Exchange Rate Dynamics, Journal of Political Economy, 84, 1161-1176. Dynare, Simulation software, www.cepremap.cnrs.fr/dynare/ Gali, J., Gertler, M., López-Salido, 2005, Robustness of the Estimates of the Hybrid New Keynesian Phillips Curve, Journal of Monetary Economics, 52, 1107-1118. 21 Golosov, M., Lucas, R., 2007, Menu Costs and the Phillips Curve, Journal of Political Economy, 115(2), 171-199. Gopinath, G. , Rigobon, R., Itskhoki O., 2007, Currency Choice and Exchange Rate Passthrough, mimeo Harvard. Hall, R., 2005, Employment Fluctuations with Equilibrium Wage Stickiness, American Economic Review, 95(1), 50-64. Holmstrom, B., Tirole, J., 1997, Financial Intermediation, Loanable Funds, and the Real Sector, Quarterly Journal of Economics, 91(3), 401-419. Iskrev, N., 2008, How Much Do We Learn from the Estimation of DSGE Models? A Case Study of Identification Issues in a New Keynesian Business Cycle Model, mimeo, Michigan, May. Krusell, P. and A. Smith, 1998, Income and Wealth Heterogeneity in the Macro economy, Journal of Political Economy, 106(5), 867-896. Lorenzoni, G., 2008, A Theory of Demand Shocks, mimeo MIT, January, American Economic Review, forthcoming. Lucas, R., Sargent T, 1978, After Keynesian Economics, After the Phillips curve: Persistence of high inflation and high unemployment, Federal Reserve Bank of Boston Conference volume. Mackowiak, B., Smets, F., 2008, On the Implications of Micro Price Data for Macro Models, mimeo, ECB. Morris, S., Shin, H., 2002, Social Value of Public Information, American Economic Review, 52(5), 1521-1534. Pissarides, C., 2000, Equilibrium Unemployment Theory, Cambridge University Press. Phelps, E., 1994, Structural slumps, Harvard University Press, Cambridge, MA. Prescott, E. , 1986, Response to a Skeptic, Federal Reserve Bank of Minneapolis Quarterly Review, Fall. Reis, R., 2008, Optimal Monetary Policy Rules in an Estimated Sticky-Information Model, mimeo Princeton. Rotemberg, J., 2008, Cyclical Wages in a Search-and-Bargaining Model with Large Firms, International Seminar on Macroeconomics 2006, L. Reichlin and K. West (eds.), U. of Chicago Press, 65-114 Samuelson, P., 1955, Economics, 3rd ed, New York: McGraw-Hill. Sargent, T., 2001, The Conquest of American Inflation, Princeton: Princeton University Press. Shimer, R., 2005, The Cyclical Behavior of Equilibrium Unemployment and Vacancies, American Economic Review, 95(1), 25-49. Shimer, R., 2008, Convergence in Macroeconomics: The Labor Wedge, mimeo, Chicago, forthcoming AEJ-Macro. Shleifer, A., Vishny R, 1997, The Limits of Arbitrage, Journal of Finance, 52(1), 35-55. Sims, C., 1980, Macroeconomics and Reality, Econometrica, 48(1), 1-48. Sims, C., 2008, Rational Inattention: A Research Agenda, mimeo Princeton. 22 Smets, F., Wouters, R., 2007, Shocks and Frictions in US Business Cycles: A Bayesian DSGE Approach, American Economic Review, 97(3), 586-606. Solow, R., 2008, The State of Macroeconomics, Journal of Economic Perspectives, forthcoming. Summers, L., 1986, Some Skeptical Observations on Real Business Cycle Theory, Federal Reserve Bank of Minneapolis Quarterly Review, Fall. Ventura, J., 2003, Economic Growth with Bubbles, Universitat Pompeu Fabra, CREI Economics Working Paper 848. Woodford, M., 2003, Interest and Prices, Princeton University Press. Woodford, M., 2008, Convergence in Macroeconomics, mimeo, Columbia, forthcoming AEJ-Macro. 23