UNIVERSIDAD DE PANAMÁ FACULTAD DE ECONOMÍA Departamento de Teoría y Desarrollo Económico FUNDAMENTOS DE ECONOMÍA: TEORÍAS Y ESCUELAS Síntesis y Recopilación Profesor: Mgtr. Eduardo Valdebenito E. Panamá 2011 ÍNDICE Página I. FUNDAMENTOS DEL PENSAMIENTO CLÁSICO……………………….. 3 II. TEORÍA KEYNESIANA……………………………………………………… 6 III. TEORÍA DE LOS CICLOS ECONÓMICOS……………………………… 8 IV. TEORÍA MONETARISTA………………………………………………….. 9 V. LA NUEVA ECONOMÍA CLÁSICA………………………………………… 11 VI. TEORÍA DE LAS EXPECTATIVAS RACIONALES…………………….. 15 VII. EL CICLO DE EQUILIBRIO……………………………………………… 21 VIII. LA TEORÍA DEL CICLO REAL…………………………………………. 22 IX. LA NUEVA ECONOMÍA KEYNESIANA…………………………………... 26 X. EL NEOINSTITUCIONALISMO…………………………………………….. 28 XI EL PENSAMIENTO LATINOAMERICANO LA CEPAL…………………. 35 BIBLIOGRAFÍA…………………………………………………………………… 43 2 I. FUNDAMENTOS DEL PENSAMIENTO NEOCLÁSICO El periodo clásico se cierra en los primeros años de la década de 1870, cuando irrumpe en la escena una nueva escuela que, denominada más tarde neoclásica, dominará la ciencia económica hasta la década de 1930. La escuela neoclásica aporta una nueva teoría del valor (basada en la utilidad de los bienes y no en el trabajo que incorporan) y un modelo, el de equilibrio económico general, en el que todas las variables económicas consideradas relevantes (oferta, demanda y precios de los bienes y servicios productivos) aparecen interrelacionadas en un sistema de ecuaciones, cuya solución arroja unos valores que se denominan de equilibrio. El conjunto de economistas neoclásicos desarrollaron, en la segunda mitad del siglo XIX, el análisis marginal, complementando, profundizando y haciendo más general la teoría económica creada por los clásicos. El concepto de utilidad marginal significó para la ciencia económica una verdadera revolución que permitió comprender mucho mejor el proceso de intercambio, así como la forma en que realizan sus elecciones económicas los consumidores y productores y el modo en que se determinan los precios en el mercado. Los neoclásicos no fueron una escuela en sí, como otras que se centraron alrededor de una figura principal o se desarrollaron en una determinada universidad, sino un movimiento teórico que contó con variados aportes independientes -no siempre perfectamente compatibles- que realizaron personalidades y grupos de trabajo diferentes. Francis Ysidro Edgeworth (1845-1926), Irving Fisher (1867-1947) y Alfred Marshall (1842-1924), en Inglaterra, junto con los fundadores de la Escuela de Lausana y la Escuela Austriaca deben contarse entre sus figuras principales. Con los neoclásicos la economía adquirió la verdadera consistencia de una ciencia, pues se desarrollaron sistemáticamente los aportes anteriores y se les dio a los nuevos aportes teóricos una apropiada formalización matemática. Los primeros autores neoclásicos quisieron demostrar que el principio de la utilidad marginal bastaba para deducir las razones de cambio entre mercancías. Es decir, consideraron -en oposición a sus predecesores clásicos- que los valores de uso de las mercancías explicaban -y no eran meramente condición necesaria como para aquelloslos valores de cambio. Según Joseph Shumpeter (1883-1950) lo esencial de la nueva teoría era que "el análisis de la utilidad marginal creaba una herramienta analítica de aplicabilidad general a los problemas económicos" Además de ser fundamento del valor de cambio de los bienes de consumo -y servir de base, por lo tanto, a la teoría de la demanda- "El principio de la utilidad marginal se aplica al fenómeno del coste y a la lógica de la asignación de recursos", esto es al lado de la oferta del problema económico. Porque para los marginalistas el valor de cambio de los medios de producción -factores de producción- se explica por su utilidad indirecta, la que proporciona a través del producto final a los consumidores. La profundización del análisis por ese camino llevaría al concepto de productividad marginal de los factores, fundamento más moderno de la retribución de los servicios productivos. Por ese mismo camino establecieron la teoría del coste basada en el uso alternativo de los factores, llamada teoría del costo de oportunidad. Partiendo del principio de utilidad marginal, León 3 Walras (1834-1910) creó un sistema de análisis económico que denominó el Equilibrio Económico General (EEG). El EEG es un sistema económico estático -todas las variables toman sus valores en un mismo tiempo t- en el que ciertas variables económicas (precios y cantidades de bienes de consumo y de producción y de servicios productivos) aparecen interrelacionadas determinadas recíprocamente- en un sistema de ecuaciones simultáneas. Cuando ese sistema determina un conjunto de valores de las variables que no muestran tendencia a variar por la influencia de las propias relaciones incluidas en el sistema, decimos que el sistema está en equilibrio. LA LEY DE SAY La ley de Say1 era, básicamente, la respuesta de la economía clásica al argumento de la insuficiencia de demanda agregada utilizado por Jean Charles Leonard Simonde de Sismondi (1773-1842) y Thomas Robert Malthus (1766-1834) para explicar la posibilidad de que una situación de sobreproducción generalizada y desempleo de recursos productivos se extendiera indefinidamente en el tiempo. La ley de Say no dice que los productores puedan arriesgarse a ignorar las preferencias de los consumidores. La idea que trata de transmitir esta ley es que los recursos productivos no permanecerán indefinidamente ociosos por falta de demanda agregada. La ley de Say en relación con el carácter automático del pleno empleo de recursos productivos representa uno de los primeros intentos de aproximación al problema del equilibrio general en la economía (aunque desde una perspectiva agregada). Los planes de gasto de cada individuo coinciden siempre y en todo momento con sus expectativas de ingreso. Esto, automáticamente, implica la identidad entre la oferta y la demanda agregadas. Dicha identidad se conoce habitualmente como identidad de Say. La identidad de Say no excluye la posibilidad de excesos de oferta (o de demanda) de carácter local. Puede ocurrir que la gente deje de demandar un artículo y que quiera sustituirlo por otro. Como consecuencia de ello nos encontraríamos con un exceso de oferta en un mercado determinado y con un exceso de demanda en otro mercado. Pero estos desajustes acabarían corrigiéndose a través de cambios en los precios relativos. Los economistas clásicos se preocuparon de la formación de los precios, de la asignación de los recursos y del crecimiento económico pero nunca prestaron mucha atención al problema del pleno empleo de los recursos productivos. En general se pensaba que el mecanismo de la competencia era suficiente para el logro del pleno empleo y que la infrautilización de los recursos sólo podría ocurrir de modo transitorio. El único entre los clásicos que aceptó la tesis del subconsumo y que no aceptó del todo el automatismo del pleno empleo fue de Malthus. Pero Malthus no logró desarrollar un posición coherente. Por esta razón, sus ideas al respecto desaparecieron de la corriente principal del pensamiento económico, hasta que John Maynard Keynes (1883-1946) las rescató. 1 Jean Baptiste Say, economista francés que vivió entre los siglos XVIII y XIX, que presentó esta ley en su Traité d’èconomie politique.El principio de la Ley de Say se resume en la expresión la oferta crea su propia demanda. 4 En general, dentro de la corriente principal del pensamiento económico, existió hasta la época de Keynes la confianza en el carácter automático del pleno empleo. Y la base teórica de dicha creencia fue durante mucho tiempo la ley de Say, de la cual se pretende derivar una tendencia al pleno empleo de los factores de producción. Este resultado se presenta a menudo como algo evidente. Pero ciertamente, y sobre todo, visto desde la perspectiva de la teoría económica actual, no lo es. Al ceñirse a la identidad de Say es evidente que no se puede concluir nada acerca del nivel de empleo de los factores productivos a partir de un supuesto de comportamiento como el de la propensión marginal al gasto universalmente igual a uno. Tal supuesto sólo nos sirve para excluir, prácticamente por definición, la posibilidad de que haya un exceso generalizado de oferta o de demanda de bienes y servicios. Pero no dice nada acerca del nivel de empleo de los recursos disponibles. Los argumentos de John Stuart Mill (1806-1873) sobre la ley de Say no quedaron consolidados del todo hasta bastantes años después. Hacia los años treinta del siglo XIX, el pensamiento económico había logrado decantar las dos vías de conexión entre el sector real y el sector financiero con bastante precisión. La obra de Johan Gustaf Wicksell (1851-1926) permitió finalmente integrar ambos mecanismos y pudo demostrarse que la flexibilidad de precios y tipos de interés aseguraba el equilibrio automático en el mercado de bienes y servicios; al mismo tiempo que aseguraba la igualdad entre oferta y demanda de créditos y el equilibrio entre la oferta de saldos monetarios y la demanda correspondiente. Pero quedaba aún por demostrar que era posible un equilibrio simultáneo de los mercados de factores (pleno empleo de los recursos) y de los otros tres mercados básicos: bienes y servicios, crédito y dinero. Hasta la época de Keynes se admitió, prácticamente como un supuesto, que la competitividad de los mercados de factores bastaba para garantizar la utilización plena de los mismos. De este modo la producción de pleno empleo podía considerarse como un dato a medio plazo. Implícitamente se estaba suponiendo la separabilidad de los mercados de factores. Y más concretamente del único factor variable relevante en estos modelos agregados: el de trabajo. Esto implicaba que se podía determinar un nivel de empleo que junto con el stock de capital determinaba la oferta agregada de bienes y servicios. Por otra parte, si las variaciones de los precios de los bienes y servicios y las variaciones del tipo de interés garantizaban el equilibrio entre oferta y demanda agregadas, el resultado final era claro: el nivel de producción de pleno empleo podía considerarse como un dato determinado por la tecnología, el stock de capital y las condiciones del mercado de trabajo. La demanda agregada podía considerarse como una variable que se adapta pasivamente a la oferta. Esto significa que tanto la demanda como la oferta de trabajo dependen únicamente del salario real y no se ven afectados por los tipos de interés ni por el valor de los activos Es decir, dado el nivel de empleo determinado en el mercado de trabajo (nivel de pleno empleo), la oferta agregada (producción de pleno empleo) se determina a través de la función de producción. En torno a la ley de Say, se puede concluir que no explica el pleno empleo de los recursos en ninguna de sus dos versiones. En su versión más primitiva (identidad de Say) introduce restricciones innecesarias en el comportamiento de los agentes económicos y no logra explicar el pleno empleo de los recursos. Y en su versión moderna (igualdad de Say) sólo nos dice que el mercado de bienes y servicios tiende a equilibrarse juntamente con los mercados de crédito y de 5 dinero. En realidad la ley de Say no predice ninguna regularidad observable. Tan solo puede decirse que la ley de Say expresa la confianza en que un sistema de precios libres va a ser siempre capaz de coordinar todos los mercados y lograr el equilibrio simultáneo de todos ellos. Y si todos los mercados están en equilibrio, eso quiere decir que el mercado de trabajo también lo está: todo el que quiere trabajar (a los precios vigentes) está empleado y no hay desempleo. A pesar de todo, la polémica que tuvo lugar a lo largo del siglo XIX en torno a ley de Say ha desempeñado un papel importante en la historia del pensamiento económico. De hecho podemos considerar que fue uno de los primeros intentos de aproximación al problema del equilibrio general de la economía, aunque a un nivel muy intuitivo y desde una perspectiva excesivamente agregada. II. TEORÍA KEYNESIANA Con la publicación de la Teoría General del empleo, del interés y del dinero de Keynes en 1936 se consolida la macroeconomía como disciplina con identidad propia, si bien su origen hay que situarlo más alejado en el tiempo. El amplio eco que tuvieron las ideas de Keynes se debió, en buena medida, a su oportunidad histórica. Con anterioridad a esta fecha, la visión dominante de lo que hoy denominamos macroeconomía, era la aproximación clásica de que en la economía, ante cualquier perturbación, el mecanismo de mercado operaba de modo rápido y eficiente para restaurar el equilibrio de pleno empleo. Frente a este enfoque clásico, Keynes ofreció una nueva visión de la economía a través de su intento de explicar la realidad imperante en la época, que se caracterizaba por un nivel de desempleo generalizado para el cual la teoría clásica no tenía explicación. El enorme éxito de las ideas de Keynes estuvo muy influenciado por el contexto económico de la época. Así, en esta década se producen fenómenos económicos de gran importancia, como las hiperinflaciones y las fuertes oscilaciones del ciclo económico, que en muchos países europeos tuvieron consecuencias políticas y sociales dramáticas. Estas circunstancias estimularon el interés de los economistas por el estudio de los ciclos económicos. Por otra parte, y quizás el fenómeno más importante, fue la Gran Depresión que siguió al crash de 1929 y que fue contagiándose con rapidez entre las diferentes economías. El volumen de desempleo y su persistencia en las economías desarrolladas no podía ser explicado a través de los postulados clásicos, ya que no parecía existir una tendencia natural de los mercados hacia el equilibrio. La Teoría General ofrecía una interpretación de estos hechos y un marco teórico sólido con un claro argumento a favor de la intervención del Estado en la economía. Keynes (1936) desarrolló un nuevo y revolucionario paradigma teórico que produjo una gran transformación en el pensamiento económico dominante hasta ese momento, que consistía en una extensión al conjunto de la economía de los principios macroeconómicos clásicos. Los postulados de Keynes constituyeron, frente a la ortodoxia dominante, una revolución que atacaba el pilar fundamental del paradigma clásico: la tendencia automática hacia el pleno empleo. El eje central de esta teoría era explicar y, por tanto, proponer una solución, al entonces importante y permanente desempleo. 6 El aspecto principal del análisis keynesiano se fundamentaba en que la economía de mercado era inherentemente inestable, provocando situaciones en las cuales el nivel de actividad se situaba por debajo de su nivel óptimo, sin que el mercado por sí solo se recuperase. El nivel de desempleo resultante tenía un carácter involuntario, y era el reflejo de una insuficiencia en el nivel de demanda. Dado que el mercado no garantizaba la vuelta al equilibrio, las principales implicaciones de este análisis eran que las políticas monetaria y fiscal pueden corregir esta inestabilidad agregada que exhiben las economías y, por tanto, ayudar a estabilizar la economía hacia su nivel de pleno empleo. En términos generales, los principales elementos que definen la revolución keynesiana son: 1. La no aceptación de la tendencia automática hacia el pleno empleo, al negar la Ley de Say. 2. La dependencia del nivel de actividad y del nivel de empleo respecto a la demanda efectiva. 3. El papel crucial que las expectativas juegan en un mundo con incertidumbres. 4. La concepción de los mercados como mecanismos rígidos e imperfectos, por lo que no se produce el vaciado continuo de los mismos. 5. El papel esencial asignado a la política económica, destinada a influir sobre la demanda efectiva de la economía. Uno de los aspectos principales de las aportaciones de Keynes son los supuestos sobre la información y el comportamiento de los agentes en los mercados. Keynes suponía que los agentes no tenían información completa, existiendo un elevado grado de incertidumbre en la economía, lo que provocaba problemas de coordinación en los mercados. La existencia de estas incertidumbres llevó a Keynes a la conclusión de que las expectativas sobre el futuro estaban sujetas a cambios repentinos, destacando la importancia de los instintos animales (animal spirits). La incertidumbre también afectaba al mercado de dinero. Keynes observó que los individuos mantienen como dinero una cantidad mayor de la que correspondería a la realización de transacciones (demanda de dinero por motivo transacción), ya que la incertidumbre provoca que los individuos mantengan dinero para prevenir gastos en el futuro, lo que constituye una demanda de dinero por motivo precaución. Por otra parte, el énfasis keynesiano en el desequilibrio sirvió de base para numerosas contribuciones posteriores en torno a la rigidez de precios y la competencia imperfecta, que van a tener una importante repercusión en la macroeconomía actual. Keynes abordó el estudio de los comportamientos agregados desde una perspectiva alejada de la microeconomía. Desde su punto de vista, el comportamiento agregado no podía ser explicado por el comportamiento de los agentes económicos a nivel individual, dado que la suma de las partes no es igual al todo. De este modo, rompió con la microfundamentación que condujo directamente al equilibrio general walrasiano, planteando la posibilidad de enfoques puros macroeconómicos liberados de un excesivo e innecesario rigor microeconómico. Podemos decir 7 que Keynes fue el origen de la dicotomía microeconomía-macroeconomía, dicotomía que ha ido desapareciendo en los desarrollos más recientes de la macroeconomía. Sin embargo, y a pesar del éxito de los postulados keynesianos, la teoría distaba de ser completa. No describía la determinación de variables estratégicas como el salario nominal, que se suponen exógenas, al tiempo que la incertidumbre también era considerada como exógena. El modelo formulado por Keynes se refería a una economía cerrada. La apertura del modelo se debe a Meade (1951), que lo extendió al caso de una economía abierta a través de la consideración del comercio exterior. Meade introduce el análisis de la balanza de pagos en una estructura macroeconómica explícita, siendo un precursor del enfoque Mundell-Fleming, distinguiendo, por primera vez, el potencial conflicto entre el objetivo de equilibrio interno (pleno empleo) y externo (estabilidad de la balanza de pagos). III. TEORÍA DE LOS CICLOS ECONÓMICOS Una de las teorías más importantes en Economía, tiene que ver con los ciclos económicos, sin embargo esta teoría fue olvidada e incluso refutada debido al gran avance de la economía norteamericana de la década de los noventa. Se llaman ciclos económicos a las fluctuaciones de la actividad global, caracterizada por la expansión o la contracción simultánea de la producción en la mayoría de los sectores. Una definición más actual del ciclo económico es aquélla que dice que hay ciclos económicos cuando el producto nacional observado aumenta en relación al producto potencial -que es la producción que alcanzaría un país si todos los recursos estuvieran empleados plenamente- (una expansión) o disminuye en relación a él (contracción o recesión). El comportamiento cíclico de la actividad económica se puede medir con muchas magnitudes no sólo con la producción nacional, sino también con la tasa de inflación, la tasa de desempleo, el número de quiebras, la creación de negocios, la medida del déficit público, etc. Los ciclos económicos no son idénticos, tanto en lo que se refiere a su duración como a la intensidad; pero estos movimientos, que en principio parecen erráticos, se pueden descomponer en movimientos que constituyen una sucesión de fases ascendentes y descendentes. Fases de los Ciclos Económicos: Depresión crisis: Es el punto más bajo del ciclo: Se caracteriza por un alto nivel de desempleo y una baja demanda de los consumidores en relación con la capacidad productiva de bienes de consumo. Los precios bajan o permanecen estables. Los beneficios empresariales descienden e incluso muchas empresas incurren en pérdidas. En las últimas décadas se ha dado el fenómeno de inflación con estancamiento -estanflación, que se produce cuando coexisten la inflación y una situación de recesión de la actividad económica. Recuperación o expansión: Es la fase ascendente del ciclo: Se produce una renovación del capital que tiene efectos multiplicadores sobre la actividad económica generando una fase de crecimiento económico y por tanto de superación de la crisis. 8 Auge: Es el punto álgido de la fase de recuperación: Determina el momento en el que bien por la existencia de rigideces o bien por haber alcanzado el pleno empleo en la fase anterior se interrumpe el crecimiento de la economía. Recesión: Es la fase descendente del ciclo: Es la fase en el que se produce una caída importante de la inversión, la producción y el empleo. La recesión puede producirse de forma suave o abrupta. En este último caso hablamos de crisis. El proceso se complica cuando un elevado número de empresas entra en quiebra y arrastra a los proveedores pudiendo llegar en algunos casos a lo que normalmente denominamos crisis. Los ciclos económicos son una forma de fluctuación que se encuentra en la actividad económica agregada de las naciones que organizan su trabajo principalmente en empresas; un ciclo consiste en expansiones que ocurren al mismo tiempo en múltiples actividades económicas, seguidas de recesiones del mismo modo generales. Las variables de los ciclos económicos se pueden clasificar en: a) Pro cíclicas: Son las variables que tienden a subir durante las expansiones económicas y a caer en las contracciones económicas, b) Contra cíclicas: Tienden a crecer durante las caídas y a caer durante las expansiones, y c) Acíclicas: Que son las variables que no se mueven según el ciclo económico. Otra clasificación que se puede hacer de los ciclos depende de su duración: Ciclos Largos: Varias Décadas Ciclos de mediana intensidad: Cinco años Ciclos cortos: Meses a pocos años Existen muchas explicaciones del porque se dan los ciclos económicos, lo único cierto es que la economía se mueve mucho por las expectativas y las variables monetarias pueden influir en gran medida sobre las economías, por lo tanto es difícil siempre determinar causas de auges o de recesiones. No hagamos caso a quienes explican los fenómenos únicamente por una sola variable. La realidad siempre será más compleja. IV. TEORÍA MONETARISTA En los años 40 y 50, la ortodoxia keynesiana entonces prevaleciente enfatizaba que las perturbaciones reales de demanda eran la principal causa de las fluctuaciones en el dinero y, en la renta nominal, fundamentalmente a través de cambios en la renta real. El ataque a la síntesis va a provenir principalmente de los monetaristas, que si bien compartían la mayoría de los supuestos básicos del modelo, sus recomendaciones de política económica eran totalmente diferentes. El término monetarismo fue introducido por Brunner (1968) para definir esta corriente de pensamiento opuesta a los keynesianos en los años 50 y 60. Entre las aportaciones de la corriente monetarista destacan, en primer lugar, los estudios de Milton Friedman y Schwartz (1963) y Laidler (1976), sobre los efectos de la política monetaria, 9 y en particular, la relación entre oferta monetaria e inflación. Una de las características principales es que los monetaristas asignan mucha más trascendencia a la política monetaria que a la política fiscal. Como consecuencia, previenen contra la utilización discrecional de dichas políticas dado que pueden provocar efectos contrarios a los esperados, recomendando el uso de una política de reglas estables. Friedman y Schwartz (1963) analizando las mayores recesiones sufridas por la economía norteamericana durante el periodo 1867-1960, interpretan que los cambios en la cantidad de dinero han sido los causantes de la mayoría de las recesiones. Friedman presentó su famosa restauración de la teoría cuantitativa del dinero como una teoría de la demanda de dinero en vez de una teoría del nivel general de precios. Argumenta que la demanda de dinero es una función estable, lo que se va a convertir en uno de los pilares fundamentales de la moderna teoría cuantitativa. Si la demanda de dinero es una función estable, también lo es la velocidad de circulación, por lo que pueden predecirse sus cambios si se altera alguna de las pocas variables que determinan su función de demanda. En segundo lugar, es necesario hacer referencia a los importantes trabajos llevados a cabo por Friedman (1968) y Phelps (1968) sobre la curva de Phillips, curva que modifican a través de la introducción de expectativas sobre la inflación futura, dando lugar a la denominada curva de Phillips aumentada, que se utiliza para explicar el fenómeno de la estanflación, y que se va a traducir en la denominada hipótesis aceleracionista. Una política económica expansiva de efectos inflacionistas que es anticipada por los agentes económicos, provoca un reajuste en sus expectativas, por lo que el costo en términos de inflación de reducir el desempleo crece en el tiempo. Friedman niega la existencia de un cambio a largo plazo entre desempleo e inflación al tiempo que introduce la hipótesis de la tasa natural de desempleo. La base de esta hipótesis es la reafirmación del punto de vista clásico de que en el largo plazo las variables nominales no pueden afectar a las variables reales, tales como el nivel de producción y el empleo. Friedman argumenta que la demanda y la oferta de trabajo deben ser especificadas en términos reales y no en términos nominales, siguiendo el análisis microeconómico neoclásico, por lo que la curva de Phillips se aumenta con la introducción de la tasa esperada de inflación, como una variable adicional que determina el cambio en el salario nominal. Las implicaciones de la curva de Phillips aumentada van a ser muy importantes. Así, las autoridades pueden reducir la tasa de paro por debajo de su nivel natural únicamente en el corto plazo y sólo en el caso de que la inflación no sea anticipada perfectamente por lo agentes, por lo que cualquier intento de mantener el desempleo por debajo de su nivel natural de forma permanente únicamente provocará una aceleración en la tasa de inflación. Esto elimina la posibilidad de utilizar políticas de demanda expansivas, por lo que las únicas políticas que pueden reducir el nivel de desempleo son aquellas que provocan mejoras en la estructura y funcionamiento del mercado de trabajo y de la industria. De este modo, la tasa de paro natural es compatible con cualquier tasa de inflación, que viene determinada por la tasa de crecimiento de la cantidad de dinero. 10 V. LA NUEVA ECONOMÍA CLÁSICA Durante la década de los 70, la Nueva Economía Clásica se convierte en el principal enfoque macroeconómico, sustituyendo de este modo al monetarismo como el principal rival de la visión keynesiana. Como ya hemos comentado, la síntesis neoclásica fue puesta en tela de juicio desde diversos ángulos, y los defectos teóricos y las limitaciones de las hipótesis en las que se fundamenta se hacen cada vez más patentes. La importancia de este nuevo enfoque radica en que propone una nueva forma de hacer economía, que podemos considerarla como una revolución con respecto a la macroeconomía que se venía haciendo hasta este momento y, que está basada en criterios de coherencia, fundamentación estricta y formalización. En términos generales, intentaron trasladar la coherencia de la que gozaba la microeconomía a la macroeconomía, en la que ésta estaba ausente. Para alcanzar dicha coherencia se partía de la hipótesis de racionalidad de los agentes económicos, utilizando la metodología de la optimización condicionada dinámica y estocástica. Los diferentes trabajos recogidos en el libro editado por Phelps (1970) marcaron un hito en la reformulación de los microfundamentos de la macroeconomía, tendiendo un sólido puente para la vuelta de los principios macroeconómicos clásicos. Esta nueva forma de hacer macroeconomía se caracterizaba por los siguientes elementos: 1. En primer lugar, los modelos macroeconómicos se construían a partir de la conducta de agentes racionales, que optimizan sus decisiones en un entorno estocástico y dinámico. 2. En segundo lugar, los modelos de la nueva economía clásica son walrasianos en el sentido de que los mercados están en equilibrio en cada momento del tiempo, dado que todas las posibles ganancias del comercio han sido explotadas y que la utilidad ha sido maximizada. 3. En tercer lugar, estos modelos incorporan una oferta agregada basada en dos supuestos microeconómicos ortodoxos: las decisiones racionales tomadas por los trabajadores y las empresas en términos de su comportamiento optimizador y, en segundo lugar, que la oferta de trabajo y el nivel de producción de las empresas dependen de los precios relativos (Lucas, 1972, 1973). 4. La econometría también debía revisarse, para incorporar la condición de coherencia. De este modo, las expectativas no pueden definirse de modo arbitrario, en términos de los valores pasados de las variables relevantes, sino que deben presentarse como verdaderas expectativas racionales sobre el futuro. Sin embargo, estas expectativas se basan en las reglas de política de los gobiernos, de modo que un cambio de estas reglas modifica el comportamiento de los agentes y, por tanto, también de los parámetros del modelo, por lo que éstos no pueden usarse para analizar los efectos de las políticas económicas (crítica de Lucas). El resultado de este planteamiento es en buena parte el contenido de la macroeconomía actual, si bien su importancia radica en el cambio que supuso en el modo de hacer macroeconomía y que 11 ha tenido importantes consecuencias en el nacimiento y desarrollo de otras escuelas de pensamiento económico. En cuanto a los supuestos básicos de esta corriente de pensamiento podemos agruparlos en relación a la conducta de los agentes, a los mercados y los supuestos metodológicos. Con respecto a la conducta de los agentes económicos, que mantienen los supuestos neoclásicos tradicionales. En primer lugar, los agentes económicos son decisores racionales, lo que equivale a la maximización de una función de pagos dinámica (función de utilidad en el caso de los consumidores o de beneficios, beneficios esperados o valor de mercado, en el caso de las empresas), sujeta a determinadas restricciones, que vienen dadas por los precios de bienes y factores, las dotaciones de recursos, las tecnologías de producción, la información y las restricciones presupuestarias intertemporales. En la mayoría de los casos se utiliza el supuesto del agente representativo, lo que elimina problemas de distribución. En segundo lugar, los agentes no se dejan llevar por la ilusión monetaria, es decir, toman sus decisiones de acuerdo con variables reales (pasadas, presentes o futuras). Esto implica que los cambios en precios nominales no afectan a las decisiones de los agentes (Plosser, 1989). Estas incluyen, además de variables reales, sólo las sorpresas o cambios no esperados de variables nominales, lo que constituye la base de la curva de oferta a la Lucas, (Lucas, 1973). En tercer lugar, las expectativas se forman racionalmente, es decir, utilizando toda la información disponible y no cometiendo errores sistemáticos. En cuarto lugar, la información no siempre es completa, ya que conseguirla puede resultar costoso. En todo caso se utiliza óptimamente y no es asimétrica, lo que elimina los problemas de selección adversa o riesgo moral. En cuanto a los mercados, se supone que se vacían continuamente, dada la flexibilidad de precios, al tiempo que se supone la existencia de competencia perfecta en todos los mercados. Esto implica que, en horizonte infinito, un equilibrio intertemporal con expectativas racionales sea una asignación eficiente en el sentido de Pareto. Por último, en cuanto a los supuestos metodológicos, los modelos deben tener siempre una fundamentación microeconómica estricta, es decir, deben basarse en la conducta optimizadora de los agentes racionales. De este modo, los parámetros de las ecuaciones reducidas se podrán expresar siempre en términos de lo que no cambia, lo que evita la crítica de Lucas. Asimismo, las expectativas deben ser introducidas de forma coherente en el modelo, lo que se cumple si son racionales, al tiempo que los modelos deben ser dinámicos, ya que, dadas las funciones a maximizar y las restricciones intertemporales a que se someten, las decisiones de los agentes se verán influidas por variables en distintos momentos del tiempo. Por último, los modelos deben ser de equilibrio general, ya que las reglas de decisión de un agente serán las restricciones de otro, es decir, se han de tener en cuenta las interrelaciones entre los agentes económicos. 12 Principales contribuciones teóricas Las principales contribuciones teóricas que se van a realizar dentro de esta corriente de pensamiento incluyen la incorporación sistemática de las expectativas racionales en los modelos macroeconómicos, la formulación de ofertas agregadas con fuertes microfundamentos, la crítica de Lucas para evaluar las consecuencias de medidas de política económica alternativas, el principio de inefectividad de las políticas anticipadas, la inconsistencia temporal de las políticas y los modelos de ciclo de equilibrio y del ciclo real. Combinando la hipótesis de la tasa natural de desempleo de Friedman y Phelps con el supuesto de equilibrio continuo de los mercados y la hipótesis de expectativas racionales, Lucas demostró de forma rigurosa que la curva de Phillips a corto plazo podía mantenerse si la inflación era no anticipada debido a la existencia de información incompleta. El modelo básico de oferta agregada de la nueva escuela clásica fue introducido por Lucas y Rapping (1969). Se trataba de un modelo en el que los trabajadores deciden la asignación de su tiempo entre trabajo y ocio, de manera que las expectativas acerca del salario real futuro generan sustituciones intertemporales. Así, por ejemplo, si los trabajadores esperan un salario mayor en el futuro, esto les supone un incentivo a trabajar menos en el momento actual a cambio de trabajar más en el futuro, cuando es más rentable. Por tanto, la oferta de trabajo y, a su vez, la oferta agregada dependen de las expectativas acerca del salario real futuro. Otra característica de la oferta agregada de los nuevos clásicos es la forma en que las empresas procesan las señales del mercado. Bajo incertidumbre, las empresas no pueden distinguir con certeza si los cambios observados en su propio precio reflejan cambios en el índice general o cambios en el precio relativo, por ejemplo, derivados de cambios en la demanda del bien. La respuesta óptima de la empresa es diferente según sea el caso: en el primero no debería modificar su nivel de producción, mientras que en el segundo si lo debería hacer. Por tanto, incrementos en el índice general de precios que no son anticipados generan respuestas positivas en la producción de carácter transitorio. Sólo las sorpresas en los precios provocan cambios en la oferta agregada. De ahí que se la denomine como la función de oferta sorpresa de Lucas (Lucas, 1972, 1973). La combinación de las hipótesis de expectativas racionales, equilibrio continuado de los mercados y la oferta agregada a la Lucas tiene importantes consecuencias sobre los efectos de la política económica. En primer lugar, la proposición de la inefectividad de las políticas. Este principio señala que una política perfectamente anticipada es incapaz de afectar al nivel de actividad económica, incluso en el corto plazo. Los primeros en ilustrar este principio fueron Sargent y Wallace (1975, 1976), quienes indicaron que si los agentes incorporan en sus expectativas los efectos futuros de un anuncio de política económica, no hay posibilidad de sorprenderlos y, por tanto, no habrá variaciones transitorias ni en el salario real ni en la producción si se llevan a cabo políticas económicas sistemáticas. Por el contrario, si las autoridades sorprenden a los agentes con medidas no anunciadas, empresas y trabajadores interpretarán el aumento en los precios como un aumento de la demanda de sus servicios, por lo que aumentará transitoriamente la oferta de trabajo y de bienes. Un agente económico que sea racional tendrá en cuenta cualquier regla 13 monetaria conocida en la formación de sus expectativas, por lo que estos modelos predicen que las autoridades serán incapaces de afectar al nivel de producción y al empleo, incluso en el corto plazo, si llevan a cabo una política monetaria sistemática. Cualquier intento de afectar al nivel de producción y al empleo a través de políticas monetarias no sistemáticas, sólo conseguirá aumentar la variabilidad del nivel de producción y del empleo alrededor de su nivel de equilibrio. La conclusión a la que llegan es que las reglas fijas de política monetaria son perfectamente anticipadas por los agentes y no tienen efectos reales, mientras que las políticas discrecionales que sorprenden a los agentes tienen efectos transitorios y sólo consiguen incrementar la volatilidad de la producción en torno a su nivel de equilibrio. Si la única política que puede ser efectiva es la que sorprende a los agentes, su diseño deja de ser un problema de control óptimo, tal y como había sido formulado por Tinbergen (1952), para pasar a ser un juego estratégico entre las autoridades y el resto de agentes que integran la economía. Como consecuencia, los nuevos clásicos plantean el análisis de la política económica a través del esquema de análisis que proporciona la teoría de juegos. Si se plantea la política como un juego repetido entre autoridades y agentes económicos, la reputación, la credibilidad y la consistencia temporal de estas políticas son requisitos para su eficacia. En segundo lugar, el tema de la credibilidad de las políticas económicas. Contrariamente a los postulados de los monetaristas y keynesianos, el enfoque nuevo clásico apunta a que en el momento en que se anuncia una contracción monetaria creíble, los agentes económicos racionales revisarán inmediatamente a la baja sus expectativas de inflación, permitiendo a las autoridades reducir la inflación a un menor coste. Sólo en el caso en que dicho anuncio no tenga credibilidad, se producirá un coste en términos de nivel de producción y empleo. Por otra parte, en el caso en el que las autoridades tengan un poder discrecional con respecto a las políticas económicas y, en consecuencia puedan existir incentivos a incumplir sus anuncios, las políticas anunciadas pueden perder credibilidad. En tercer lugar, otro de los desarrollos es el referente a la inconsistencia temporal dinámica de la política monetaria, que está relacionada con la credibilidad de la misma, concepto que fue introducido por Kydland y Prescott (1977) en apoyo de la concepción de que la política monetaria debería ser instrumentada a través de reglas en contra de la implementación de una política discrecional. Kydland y Prescott (1977) sostienen que la política económica es un juego dinámico entre el gobierno y el sector privado. Si las autoridades económicas anuncian una determinada política, que en el momento del anuncio consideran como óptima y ésta es creíble, el sector privado ajusta consecuentemente su conducta. Sin embargo, llegado el momento de instrumentar dicha política, las autoridades pueden renunciar a sus planes, por la existencia de un nuevo contexto económico. A esta diferencia entre el criterio de optimalidad ex-ante y ex-post se le denomina inconsistencia temporal. Los agentes racionales, por tanto, deberán considerar la credibilidad de las medidas de política, para no verse luego sorprendidos por un cambio en la decisión. Al igual que Friedman y Lucas, Kydland y Prescott sugieren que las mejores políticas son las de reglas fijas, por ser las que mayor credibilidad pueden ofrecer. Otro de los desarrollos importantes, asociado al trabajo de Barro (1974, 1989a, 1989b), es el que da lugar al debate del teorema de la Equivalencia Ricardiana, que supone la inefectividad de cambios en los impuestos como instrumento de estabilización. De acuerdo con este teorema, una 14 disminución de impuestos hoy no provoca cambios en el nivel de consumo, ya que los agentes anticipan un aumento de los impuestos en el futuro con el objeto de pagar los intereses y el principal de la deuda. Por tanto, el hecho de que el gobierno financie un déficit público a través de la emisión de deuda pública o vía incremento de impuestos (no distorsionadores), no afecta a las decisiones de los agentes. De ahí que también se le denomine el teorema de la irrelevancia de la forma de financiación del déficit público. Este modelo ha sido extendido al caso de una economía abierta por Stockman (1980), Lucas (1982) y Frenkel y Razin (1987). Por último, es necesario hacer una breve referencia a los desarrollos relacionados con qué tipo de política deben llevar a cabo las autoridades para incrementar el nivel de producción y reducir el desempleo de forma permanente. Como los cambios en la producción y el empleo se supone reflejan las decisiones de equilibrio en términos de la oferta que realizan las empresas y los trabajadores dada su percepción sobre los precios relativos, de este enfoque se deriva que las medidas de política más apropiadas para aumentar el nivel de producción y el empleo son aquellas que aumentan los incentivos de las empresas a ofrecer una mayor producción y a los trabajadores a ofrecer una mayor cantidad de trabajo. VI. TEORÍA DE LAS EXPECTATIVAS RACIONALES Los años 70 fueron la década de la revolución de las expectativas racionales, que va a tener importantes consecuencias en el desarrollo de la macroeconomía. El concepto de expectativas racionales fue planteado inicialmente por Muth (1961) sobre el que tuvieron una gran influencia los trabajos anteriores de Hahn (1952) y Simon (1955, 1956). Hahn (1952) desarrolló la noción de expectativas semiracionales, introduciendo unas predicciones que estaban a medio camino entre las expectativas adaptativas y las racionales. Por su parte Simon (1955, 1956), desarrolló la teoría de la racionalidad limitada, que enfatiza la limitada capacidad de cálculo de los agentes económicos en la toma de sus decisiones, resultado conocido como de equivalencia cierta. Muth, en un contexto microeconómico, sugiere que al ser las expectativas predicciones informadas de sucesos futuros, deben coincidir con las predicciones de la teoría económica. En otras palabras, los agentes económicos formarán expectativas subjetivas en relación a las variables económicas futuras, las cuales son equivalentes a la expectativa matemática condicional verdadera de dichas variables. Por tanto, contrariamente a otros mecanismos de formación de expectativas (adaptativas, etc.), las expectativas son racionales sólo si utilizan toda la información disponible por el individuo, incluido el modelo más adecuado para la explicación de la variable. Por tanto, los valores futuros de las variables se pueden descomponer en dos partes: el componente anticipado y el no anticipado o error de predicción. Si las expectativas son racionales, este error de predicción tiene unas determinadas características estadísticas (media cero, independencia de toda información pasada), que pueden ser utilizadas para calibrar la eficiencia de los mercados. En un modelo con variables endógenas y exógenas, se puede formular el concepto de expectativas racionales como las estimaciones no sesgadas de las variables endógenas en las que toda la información relativa a los valores de las variables exógenas es conocida, y se utiliza para realizar la predicción. Contrariamente a las expectativas adaptativas, que presentan la posibilidad 15 de errores de predicción sistemáticos, la hipótesis de expectativas racionales asimila el error de predicción al componente aleatorio del proceso generador de la variable. Como dicho componente no presenta una regla de comportamiento determinada, tampoco la presentará el error de predicción. La idea fundamental sobre la que descansa la hipótesis de las expectativas racionales es que los individuos obtienen un conjunto de información que usan en la formación de sus expectativas. Su conducta sobre la adquisición y utilización de la información se rige por el principio de la maximización de la utilidad, de modo que adquieren nueva información o utilizan la disponible de una manera más eficiente si es rentable. Por tanto, las expectativas sobre el futuro están basadas en información tanto pasada como actual. Sin embargo, la simple observación no es suficiente. Los agentes económicos necesitan disponer de algún modelo formal, que usan para transformar su observación y el conjunto de información disponible en predicciones sobre el futuro. Bajo el supuesto de que los agentes conocen el verdadero modelo que gobierna la economía, lo que es equivalente a suponer que el proceso de aprendizaje de sus experiencias pasadas es completo, las expectativas que obtengan únicamente divergirán de la realidad por perturbaciones totalmente aleatorias, que no han podido ser incorporadas al conjunto de información disponible en el momento de realizar la predicción. Esto supone que el error de predicción no presenta correlación con el conjunto de información disponible. Si existiese alguna correlación, el agente racional debería incluirla en la formación de sus expectativas. En este razonamiento está implícito el hecho de que el agente económico no cometerá errores sistemáticos. Estos errores sistemáticos pueden ocurrir en el proceso de aprendizaje, pero esto es debido a que aún no se ha aprendido el verdadero modelo que gobierna la economía. El error de predicción que se cometa va a depender fundamentalmente de la varianza del componente aleatorio. En el caso en que la varianza se aproxime a infinito, la variable objetivo será impredecible. Sin embargo, con expectativas racionales la varianza será menor que con cualquier otro modelo de predicción, por lo que es el método más eficiente en la formación de expectativas. Existen dos versiones de expectativas racionales. La débil, que considera las expectativas racionales como las expectativas condicionales, que es la versión más usada en la defensa de las expectativas racionales, y que sugiere que los agentes utilizan en la formación de sus expectativas toda la información disponible que estiman merece la pena analizar, y la versión fuerte que las considera como las distribuciones de probabilidad condicional. En la mayoría de modelos, en los que se supone que los agentes son neutrales al riesgo, el único criterio relevante para sus decisiones es el valor medio de la distribución subjetiva de resultados, por lo que la versión de expectativas racionales adecuada es la débil. Por el contrario, en los modelos de mercados financieros, la varianza de la distribución juega un papel fundamental en la toma de decisiones, por lo que la versión adecuada en este caso es la fuerte. La hipótesis débil de expectativas racionales es esencialmente un concepto de equilibrio: depende del comportamiento individual y del equilibrio del mercado. Supone que los agentes hacen predicciones informadas de los precios futuros, es decir, predicciones basadas sobre un modelo correcto de la economía. Un equilibrio con expectativas racionales es esencialmente el 16 único concepto de equilibrio consistente en el sentido de que las expectativas de los agentes se autosatisfacen (self-fulfilling forecast). Aunque en principio, la hipótesis de las expectativas racionales se desarrolló en un contexto microeconómico, existían determinados elementos que iban a permitir una fructífera integración en el campo del análisis macroeconómico, con importantes consecuencias sobre su desarrollo futuro. Así, la macroeconomía de principios de los años 70 se enfrentaba al fenómeno de la estanflación y al aparente aumento de la inestabilidad de la curva de Phillips. Por otra parte, la hipótesis de las expectativas adaptativas, asociada fundamentalmente al trabajo de Cagan (1956), que había posibilitado una adecuada modelización de las expectativas en el contexto de estabilidad de precios de las décadas de los 50 y 60, ya no era válida en un contexto de aceleración de la inflación, tal y como ocurría en los 70. Estos factores, entre otros, llevaron a que la hipótesis de las expectativas racionales se convirtiera en uno de los ejes fundamentales del desarrollo de la macroeconomía, principalmente en lo que respecta a la corriente de pensamiento que se denominó Nueva Economía Clásica. El concepto de expectativas racionales tiene una implicación transcendental para la modelización macroeconómica. La mayor parte de las decisiones de consumo y producción tienen una naturaleza intertemporal y, por tanto, los eventos presentes y futuros son determinantes de las mismas. Cuando aparece nueva información relevante, los agentes modifican sus decisiones. Sin embargo, sólo la parte no anticipada de esa nueva información genera cambios en la conducta de los individuos, de forma que un fenómeno perfectamente anticipado no tiene efectos en el momento en que ocurre, al haber sido ya tenido en cuenta en las decisiones tomadas anteriormente por los individuos. Por tanto, en un modelo con expectativas racionales se hace necesario cualificar la naturaleza de las perturbaciones a las que está sometida la economía, distinguiéndose entre perturbaciones anticipadas y no anticipadas, transitorias y permanentes y nominales y reales. Si bien la hipótesis de las expectativas racionales fue desarrollada por Muth a principios de los años 60, tuvo que transcurrir una década antes de que adquirieran protagonismo en la macroeconomía, cuando la Nueva Economía Clásica atacó a la macroeconomía tradicional. De hecho, el principal argumento de este ataque se basó en que la economía keynesiana había olvidado las implicaciones de la influencia de las expectativas sobre el comportamiento de los agentes económicos, en contra del pensamiento del propio Keynes, que otorgaba un papel fundamental a las mismas. Por el contrario, sostenían que lo correcto era suponer que los agentes formaban sus expectativas de la forma más racional posible, basándose en toda la información disponible. Este razonamiento va a tener tres implicaciones fundamentales. En primer lugar, la hipótesis de expectativas racionales va a llevar a una de las principales críticas de la Nueva Economía Clásica sobre el modelo de la síntesis, la denominada crítica de Lucas. Lucas (1976) critica el uso de grandes modelos macroeconométricos para predecir las consecuencias de medidas alternativas de política económica, ya que estos ejercicios de simulación están basados en el supuesto de que los parámetros del modelo son invariantes a los cambios de política, si bien esta idea ya fue avanzada por Keynes. De esta forma, Lucas argumenta que los modelos de corte keynesiano, al no incorporar explícitamente las expectativas, 17 son formas reducidas de los modelos estructurales que sí las toman en consideración. Por tanto, los parámetros de estos modelos cambian al mismo tiempo que los agentes económicos ajustan sus expectativas y comportamiento al nuevo escenario de política económica. En segundo lugar, cuando se introducían las expectativas racionales en los modelos keynesianos se llegaba a la conclusión de que las desviaciones en la producción y el empleo respecto a su tasa natural eran mucho más breves de lo que se suponía (el ajuste lento de los precios y salarios a través de la curva de Phillips). Según Lucas (1973), este ajuste dependía del hecho erróneo de que los encargados de fijar los salarios formaban sus expectativas de inflación mirando al pasado, cuando lo que influía en la producción eran las alteraciones no anticipadas en la cantidad de dinero. Por último, si los agentes forman sus expectativas de forma racional, no se puede concebir a la política económica como el control de un sistema complejo pero pasivo. Por tanto, había que concebirla como un juego entre las autoridades económicas y el resto de agentes que conforman la economía, por lo que sus efectos van a depender de la reacción de estos últimos ante la misma. Como veremos a continuación, las expectativas racionales no sólo constituyeron uno de los supuestos fundamentales sobre los que se asentaron los desarrollos de la Nueva Economía Clásica, sino que también fueron incorporadas en los desarrollos de la Nueva Economía Keynesiana. Los desarrollos que introdujeron la hipótesis de las expectativas racionales fueron muy numerosos. Por ejemplo, en el lado de la demanda agregada, Hall (1978) y Flavin (1981) la introducen en la teoría de la renta permanente del consumo, mientras que Abel (1982) y Hayashi (1982) la introducen en la función de inversión. Por otra parte, Barro (1974) la incorpora en el análisis del efecto de la financiación del déficit público, obteniendo el teorema de la equivalencia ricardiana. Por ejemplo, Hall (1978) considerando las expectativas racionales obtiene que la única variable explicativa para el consumo de un periodo es el consumo en el periodo anterior, sin que el resto de variables tenga poder explicativo. Las desviaciones que se producen respecto a dichas previsiones están ocasionadas por la llegada de nueva información sobre la renta, lo que da lugar a que el consumo siga un paseo aleatorio. Asimismo, la hipótesis de las expectativas racionales no sólo va a generar grandes cambios en los modelos de economías cerradas, sino que también va a tener importantes consecuencias en la macroeconomía internacional, en concreto, en la modelización del tipo de cambio. Dornbusch (1976), en su modelo de desbordamiento del tipo de cambio, demostró que las grandes variaciones del tipo de cambio ante pequeños cambios en sus fundamentos (sobrerreacción), que antes se consideraban ocasionadas por la especulación de inversores irracionales, en realidad eran totalmente consistentes con la racionalidad. Por otra parte, los keynesianos incorporaron también las expectativas racionales pero intentaron demostrar que la existencia de expectativas racionales por sí sola no garantizaba el equilibrio automático de los mercados. Fischer (1977) y Taylor (1979) demostraron que a pesar de que existiesen expectativas racionales dentro del mercado de trabajo, las decisiones no sincronizadas y escalonadas sobre los salarios y los precios podían originar ajustes lentos de los precios y de los salarios en respuesta a variaciones en el empleo. La existencia de contratos a largo plazo 18 sobre precios y salarios impiden el ajuste instantáneo de los mismos ante una perturbación, aún en el caso en que sean perfectamente anticipadas por los agentes racionales. Sólo al término de la vigencia de estos contratos, los precios y salarios podrían ajustarse ante la perturbación, por lo que en dicho periodo de tiempo la política económica podía afectar al nivel de producción y empleo. La potencialidad de las expectativas racionales como instrumento teórico radica en el uso eficiente de la información y en la ausencia de errores sistemáticos en la formación de dichas expectativas. No obstante, y a pesar de haber constituido una de las revoluciones de la teoría económica ha sufrido fuertes críticas. En primer lugar, se argumenta que las expectativas racionales exigen supuestos no realistas, al considerarse que los agentes económicos no son tan previsores como la teoría supone, como pone de manifiesto la existencia de conductas automáticas o basadas en reglas predeterminadas. No obstante, se puede contra argumentar que una conducta regida por la costumbre no tiene por qué ir en contra de criterios de formación de las expectativas de modo racional, mientras no aparezcan novedades en el conjunto de información. Además, no es necesario que todos los agentes actúen de ese modo; basta que unos cuantos se aprovechen de los errores sistemáticos de los demás y obtengan beneficios extraordinarios en sus estimaciones para que se difunda la información necesaria y las conductas del agregado se aproximen a las que suponen las expectativas racionales (darwinismo económico). Del mismo modo, la existencia de agentes no racionales en la formación de sus expectativas no es una crítica definitiva, si éstos no pueden imponer sus predicciones (ya que los agentes racionales aprovecharían las oportunidades de beneficios extraordinarios que aquellos les ofrecerían). A la hora de discutir la formación de expectativas, estamos enfrentando tres niveles de razonamiento: a) En el más general, exigimos que los supuestos del modelo sean compatibles con el modelo mismo; esta es la base de la crítica de Lucas y de su concepto de expectativas racionales. b) En segundo lugar, suponemos que los agentes utilizan racionalmente toda la información disponible y no cometen errores sistemáticos; se trata pues, de un supuesto extraeconómico, de naturaleza antropológica, cuya falsación debe llevarse a cabo en ese nivel, no en el de la evidencia empírica. c) Finalmente, cuando introducimos las expectativas racionales en un modelo concreto, la exigencia de coherencia implica que sometamos las expectativas a las mismas reglas del modelo, lo que equivale a suponer que los agentes actúan como si resolviesen el modelo; pero esta no es una exigencia de las expectativas, sino de la coherencia de la construcción teórica. Al argumentar de esta manera estamos resolviendo, en cierta medida, también otras críticas dirigidas a la formación de expectativas según el criterio de racionalidad, como las que sostienen que la capacidad de cálculo del agente medio es mucho menor que la que se necesita para resolver el modelo del economista, o la que hace notar que los economistas no conocen el modelo de la economía, ni pueden afirmar que este modelo exista, ni que sea único, por lo que 19 difícilmente se podrá pretender que los agentes económicos actúen como si resolviesen un modelo que los expertos no conocen, ni saben resolver, y que incluso es probable que no exista. En todo caso, sigue siendo necesario que el economista, al elaborar su modelo, sea consciente de que debe imponer restricciones a sus parámetros y a los caracteres estocásticos de sus variables, para que sean consistentes con las expectativas racionales. Como ha señalado Lucas (1987), las expectativas racionales se refieren a la consistencia de un modelo, es decir, son específicas a dicho modelo, y cambian cuando se cambia el modelo, porque hacen referencia a la coherencia del modelo (coherencia entre los supuestos del modelo y los de las expectativas formadas dentro del mismo). Si los agentes forman sus expectativas racionalmente, y toman en consideración la estructura del modelo en cuestión, endogenizan la formación de expectativas, si bien tal y como ha demostrado Bénassy (1992) el esquema de expectativas racionales no lleva siempre a la maximización de la utilidad. En segundo lugar, se argumenta que los agentes no tienen incentivos para buscar la información necesaria. Grossman (1976, 1978) y Grossman y Stiglitz (1980) argumentan que si la disponibilidad de nueva información se refleja inmediatamente en los precios, como supone la ciencia económica, no tiene interés dedicar recursos escasos a obtener información adicional que, una vez incorporada a los precios, pasará a ser de dominio público. Por lo tanto, desaparece el incentivo a recoger información, salvo en el caso en que ésta no tenga ningún coste, supuesto que no podemos aceptar como válido. Esto no invalida la teoría de formación de expectativas racionales, aunque desde luego, obliga a ser más precisos en el tratamiento de los incentivos y costes de información. Si el coste de recoger información es muy alto, la calidad de las previsiones será muy baja (el error de estimación será alto). Sin embargo, este hecho no constituye una crítica a las expectativas racionales. El hecho de que la información esté distribuida muy desigualmente entre los distintos agentes tampoco contradice la hipótesis de las expectativas racionales, pero obliga a elaborar modelos con supuestos más complejos y realistas sobre la información disponible para cada uno (modelos de agente no representativo). En tercer lugar, se critica que la hipótesis de expectativas racionales no es verificable independientemente. En efecto, los modelos tradicionales intentan verificar conjuntamente la teoría incorporada al modelo y el supuesto de formación de dichas expectativas. Aunque se han intentado verificar versiones estrictas de la hipótesis de las expectativas racionales que llevan, en un determinado modelo, a predicciones distintas a las que resultarían con otro criterio de formación de expectativas, no se trata, en ningún caso, de una verificación independiente de la hipótesis de las expectativas racionales de forma separada del modelo. Además, existen modelos con expectativas racionales que tienen la misma estructura que otros sin ellas: se trata del problema denominado la equivalencia observacional (Sargent, 1976). Con todo, el problema que aquí estamos considerando es común a todas las teorías sobre la formación de expectativas. En cuarto lugar, las expectativas racionales sólo se pueden aplicar a variables aleatorias recurrentes. Es por ello que un cambio de régimen en la formación de una variable exige un cambio en la ecuación de formación de expectativas. Esta crítica indica que no se pueden aplicar expectativas racionales ante disyuntivas excluyentes acerca de cuya probabilidad no hay información previa. En estos casos se pueden utilizar probabilidades subjetivas o bayesianas, pero entonces ya no son coherentes con el modelo: no serán, pues, expectativas racionales, ni 20 tienen porqué coincidir entre diversos agentes, ni sus diferencias tienen porqué compensarse en la agregación. Esta crítica señala una limitación importante de la teoría que estamos considerando, que no es aplicable a situaciones en las que no existe una distribución objetiva de probabilidades a la que referirse. Este conjunto de críticas aconseja prudencia a la hora de utilizar modelos con expectativas racionales. Este supuesto sobre la formación de expectativas es muy útil si se toma como un requisito metodológico acerca de la coherencia en la construcción de un modelo, pero plantea otros problemas metodológicos relativos a la información, tema que trataremos con posterioridad. Por tanto, si bien las expectativas racionales han tenido una amplia aceptación en la macroeconomía actual, principalmente porque son un supuesto poco arbitrario acerca de la formación de expectativas, los modelos con expectativas racionales han planteado problemas relativos al aprendizaje de las expectativas. El objetivo de los modelos con aprendizaje es analizar bajo qué condiciones la modificación de la regla de expectativas constituye un proceso dinámico que converge hacia un equilibrio con expectativas racionales. VII. EL CICLO DE EQUILIBRIO Durante la década de los 70 se produjo un renacimiento del interés por el estudio de las fluctuaciones cíclicas, que se inició con la realización de diversas investigaciones sobre las propiedades estadísticas de las series temporales macroeconómicas. Uno de los principales problemas al que debía hacer frente el análisis de las fluctuaciones cíclicas era el de separar la tendencia (largo plazo) del ciclo (corto plazo). El enfoque imperante hasta este momento en el estudio de las fluctuaciones cíclicas consistía en suponer que la economía seguía un camino que reflejaba una tasa de crecimiento tendencial como la descrita en el modelo neoclásico de crecimiento de Solow (1956). Este enfoque suponía que el componente tendencial de largo plazo del nivel de producción era suavizado por fluctuaciones a corto plazo alrededor de la tendencia, fluctuaciones que venían determinadas por perturbaciones en la demanda. Este punto de vista era compartido tanto por keynesiamos como por monetaristas y nuevos clásicos hasta principios de los 80. Estos modelos de perturbaciones de demanda contemplaban las desviaciones del nivel de producción respecto a la tendencia como desviaciones temporales. No obstante, las implicaciones de política eran diferentes según las escuelas. Así, mientras que los keynesianos apuntaban a que dichas desviaciones podían ser importantes y prolongadas en el tiempo y, por tanto, justificar la necesidad del uso de políticas de estabilización, tanto los monetaristas como los nuevos clásicos rechazaban la necesidad de usar dichas políticas de estabilización, dado que confiaban en el poder equilibrador de los mercados. El ciclo era considerado como un fenómeno de desequilibrio que generaba niveles de producción inferiores al de pleno empleo. La Nueva Economía Clásica vendría a cambiar esta concepción tradicional, dando lugar a la teoría del ciclo de equilibrio. 21 Los primeros modelos del ciclo de equilibrio suponían que eran perturbaciones monetarias las causantes de las fluctuaciones cíclicas. Según este enfoque, las perturbaciones monetarias, al no ser suficientemente anticipadas por los agentes privados, generan conductas que no son óptimas con la información disponible, pero que provocaban fases de auge y recesión en equilibrio. Los principales trabajos de este enfoque fueron debidos a Lucas (1972, 1973, 1975) y Barro (1976). El modelo de ciclo de equilibrio de Lucas, conocido como el modelo de las islas, supone que los agentes operan en mercados separados (islas), en cada uno de los cuales se toman las decisiones de oferta y demanda del bien que se produce. En cada mercado, productores y consumidores sólo observan el precio de dicho mercado, a partir del cual deben inferir el nivel general de precios. Dado que los agentes económicos tienen información incompleta, las fluctuaciones se derivaban de errores en las expectativas inflacionistas, los cuales se debían, a su vez, a las variaciones imprevistas en la tasa de crecimiento del dinero. La principal aportación que se deriva de este enfoque es la relacionada con el problema de extracción de señales, derivado de la confusión entre información local y agregada. Los agentes reciben información sobre los precios locales, pero no sobre los precios agregados, por lo que no pueden identificar los cambios en los precios relativos que se deben a causas agregadas y los que se deben a factores locales. Por tanto, los desajustes no se deben al mal uso de la información, ya que se supone que utilizan expectativas racionales, sino que se enfrentan a la existencia de información insuficiente. Sin embargo, el modelo de las islas y sus variantes (denominados modelos de ciclo de equilibrio con información incompleta) tuvieron una corta vigencia debido a las importantes críticas que recibieron. Así, no parece que la confusión acerca de la evolución de la cantidad de dinero sea tan importante como para generar fluctuaciones cíclicas. Podemos pensar que es posible que los agentes conozcan mejor los precios de su mercado (isla) que los demás precios, pero tienen a su disposición información sobre el nivel general de precios y sobre las variables que lo determinan con muy poco retardo (King, 1982), de modo que difícilmente podrán cometer grandes errores o muy dilatados en el tiempo. Por otra parte, se necesita un mecanismo de propagación y persistencia que convierta perturbaciones aleatorias no correlacionadas en respuestas serialmente correlacionadas, ya que en estos modelos no se genera por sí sola correlación serial en las variables agregadas. Por último, en equilibrio general y en ausencia de rigideces, la falta de información completa generaría incentivos para la creación de un mercado de información. Todas estas críticas llevaron al abandono del modelo de ciclo de equilibrio con información incompleta, sustituyéndolo por los modelos del ciclo real. VIII. LA TEORÍA DEL CICLO REAL El muy influyente trabajo realizado por Nelson y Plosser (1982) cambiaría esta concepción tradicional de las fluctuaciones cíclicas. Nelson y Plosser realizan una investigación empírica sobre un conjunto de series macroeconómicas de la economía norteamericana. El principal resultado que obtienen es que no pueden rechazar la hipótesis de que el nivel de producción sigue un paseo aleatorio, por lo que no es posible separar el componente cíclico del componente tendencial. 22 Los resultados obtenidos por Nelson y Plosser tuvieron importantes implicaciones para la teoría de las fluctuaciones cíclicas. Si se producen perturbaciones en la tasa de crecimiento de la productividad debido a cambios tecnológicos frecuentes y aleatorios, entonces la senda del nivel de producción que sigue un paseo aleatorio mostrará un comportamiento cíclico. Sin embargo, en este caso las fluctuaciones observadas en el nivel de producción son fluctuaciones en su tasa de crecimiento natural (tendencia) y no desviaciones del nivel de producción con respecto a una tendencia determinística. Los primeros desarrollos teóricos del ciclo real, que estuvieron motivados por los resultados obtenidos por Nelson y Plosser, fueron realizados por Kydland y Prescott (1982), Long y Plosser (1983), King y Plosser (1984) y Hansen (1985). Estos autores rechazan que perturbaciones monetarias no anticipadas puedan generar fluctuaciones en el nivel de producción y empleo. En su lugar, la teoría del ciclo real supone que las fluctuaciones cíclicas están fundamentalmente causadas por perturbaciones reales (de oferta) persistentes, en lugar de estar generadas por perturbaciones monetarias (por el lado de la demanda), por lo que se producen fluctuaciones cíclicas incluso en el caso en que la cantidad de dinero crezca a una tasa constante. Por tanto, el punto de partida de estos modelos es el supuesto de que la economía está sujeta a perturbaciones aleatorias que proceden del lado de la oferta, principalmente grandes fluctuaciones aleatorias en la tasa de progreso tecnológico. Estas perturbaciones en la función de producción provocan fluctuaciones en los precios relativos a las cuales responden los agentes racionales a través de sus elecciones intertemporales. De acuerdo con este enfoque, las fluctuaciones que se observan en el nivel de producción y empleo son fenómenos de equilibrio que se derivan del comportamiento racional de los agentes económicos ante cambios en el entorno económico. La principal implicación de política que se deriva de este enfoque es que la existencia de fluctuaciones en el nivel de producción no implica que los mercados no estén en equilibrio, por lo que el gobierno no debería intentar reducir estas fluctuaciones a través de políticas de estabilización. Otro tipo de perturbación que ha recibido atención han sido los desplazamientos intersectoriales. Lilien (1982) y Black (1987) introducen costes de ajuste en el desplazamiento intersectorial del factor trabajo. De acuerdo con esta teoría, las perturbaciones reales afectan de manera desigual a los diferentes sectores productivos, alterando la estructura de los precios relativos, lo que conlleva reasignaciones intersectoriales del trabajo y el consumo. Sin embargo, no parece que los desplazamientos de mano de obra entre sectores sean un factor relevante a la hora de explicar los ciclos. Además, esta teoría sugiere que, en periodo de desempleo creciente, las tasas de empleo variarán considerablemente entre sectores, y que coincidirán con aumentos en las vacantes de puestos de trabajo, lo que contradice la evidencia empírica. Uno de los supuestos controvertidos de los primeros modelos del ciclo real es la irrelevancia del dinero, por lo que se han desarrollado modelos con objeto de introducirlo. Para ello, se consideran dos alternativas: mediante el supuesto de cash-in-advance, o bien introduciéndolo directamente en la función de utilidad o de producción. King y Plosser (1984) incorporan el dinero en un modelo de ciclo real, pero con la finalidad de explicar sus comovimientos con otras variables. Estos comovimientos se atribuyen a la denominada causalidad inversa (el aumento de la cantidad de dinero que se observa en las fases de expansión es el efecto y no la causa de dicha 23 expansión) y al dinero interno creado por el sistema económico frente al dinero externo creado por el gobierno. En el primer caso, una perturbación de productividad lleva a una mayor producción, que a su vez, provoca una mayor demanda de dinero. En el caso en que las autoridades monetarias persigan un determinado objetivo en términos de tipos de interés o tipos de cambio, la mayor demanda de dinero se traducirá en una mayor oferta de dinero. En el segundo caso, el dinero interno creado por el sistema financiero es una deuda interna de unos ciudadanos frente a otros (Pesek y Saving, 1967). Una perturbación de productividad positiva va a dar lugar a un mayor nivel de actividad, por lo que también se produce un aumento de la demanda de servicios de transacción, lo que da lugar a un aumento de la cantidad de dinero interno. Lucas (1987) admite la existencia de fluctuaciones cíclicas causadas por factores reales, pero reconociendo el papel que juega el dinero, debido a que las fluctuaciones observadas son demasiado grandes como para que puedan ser provocadas sólo por perturbaciones de productividad. Propone un modelo que combina el ciclo real con mercados con información incompleta en los que se originan problemas de extracción de señales y en los que las perturbaciones monetarias pueden generar respuestas similares a las postuladas por los teóricos del ciclo real. Los modelos del ciclo real han sido ampliados a contextos de competencia imperfecta (por ejemplo, Hairault y Portier, 1995) y a economías abiertas (Dellas, 1987; Cantor y Mark, 1988; Mendoza, 1991, 1995 y Correia et al., 1995, entre otros). Dellas (1987) analiza en qué medida las perturbaciones de carácter real pueden explicar el grado de covariación entre los niveles de output de diferentes países, en cuyo caso más que pensar en ciclos de carácter nacional se tiene que pensar en ciclos de carácter internacional. Para ello desarrolla un modelo de dos países cada uno de los cuales está especializado en la producción de un bien. Ante una perturbación real, originada en cualquiera de los dos países, que aumente la disponibilidad de uno de los bienes, se origina un aumento del nivel de actividad en ambos países, siendo el mecanismo de transmisión el intercambio de bienes a través del comercio internacional. Por su parte, Cantor y Mark (1988) proponen un modelo similar pero en el cual el mecanismo de transmisión es a través de los mercados de capitales. Una perturbación tecnológica positiva de uno de los países, aumenta tanto el nivel de producción de este país, como el del otro, ya que el mecanismo de distribución de riesgos eleva la demanda de acciones denominadas en la moneda nacional. En el caso de un mercado de capitales perfecto, la perturbación tecnológica positiva se distribuiría entre los dos países, por lo que habría una correlación entre las tasas de crecimiento a nivel internacional. Mendoza (1991, 1995) y Correia et al. (1995) desarrollan modelos de equilibrio general dinámicos y estocásticos con expectativas racionales. Suponen que existe un único activo que se comercia con el resto del mundo, produciendo un tipo de rendimiento que se considera exógeno por los agentes de la economía. El estado estacionario de la economía es consistente con un saldo de bonos extranjeros. Para niveles elevados de los mismos, la economía puede afrontar déficit comerciales elevados que permitirán disfrutar de altos niveles de consumo. La introducción de perturbaciones específicas en el modelo resulta ser consistente con algunos hechos estilizados de las economías abiertas, tales como el carácter contracíclico de la balanza comercial y la alta correlación entre el ahorro y la inversión. Obviamente, dado este razonamiento, de que las fluctuaciones cíclicas están provocadas por el comportamiento óptimo de los agentes, dichas 24 fluctuaciones no deberían reducirse a través de la política económica, ya que provocarían una disminución en el bienestar. Por otra parte, Farmer y Guo (1994) han desarrollado un modelo en el cual la producción es estocástica, por lo que es posible explicar las fluctuaciones cíclicas a partir de movimientos aleatorios en la oferta. Para ello, introducen un término de error en el rendimiento esperado por los consumidores de los activos. Estas creencias, de naturaleza estocástica, afectan a la renta esperada y, a través de la optimización intertemporal, a la demanda actual, dando lugar a fluctuaciones cíclicas y estableciendo nuevos resultados acerca de los equilibrios de manchas solares (sunspots) y profecías autocumplidas (self-fulfilling prophecies), que van a abrir nuevas líneas de investigación. Finalmente, indicar que uno de los aspectos más relevantes de este enfoque es el desarrollo de los métodos de calibración, siguiendo la línea iniciada por Kydland y Prescott (1982). En lugar de desarrollar modelos que puedan ser contrastados empíricamente a través de métodos econométricos tradicionales, los teóricos del ciclo real han desarrollado métodos de calibración a través de los cuales obtienen resultados simulados cuando se produce una perturbación, en términos de las principales variables macroeconómicas, que son comparados con el comportamiento que muestra la economía. Esto es debido a que en la mayoría de los casos, estos modelos poseen una complejidad matemática muy elevada, lo que hace imposible la obtención de soluciones analíticas concretas, por lo que la forma habitual de contrastar estos modelos es mediante la calibración. Por otra parte, las perturbaciones que supuestamente mueven la economía no son directamente observables, por lo que no es posible la estimación de estos modelos mediante el análisis econométrico clásico, al carecer de mediciones de un grupo importante de variables exógenas: las perturbaciones reales. En términos generales el procedimiento es el siguiente. En primer lugar, se construye un modelo intertemporal de equilibrio general, donde se especifican funciones de producción, funciones de utilidad, estructura del mercado y perturbaciones exógenas. A continuación a partir de las condiciones de optimalidad se derivan las soluciones de equilibrio para las variables endógenas. Finalmente, se procede a calibrar el modelo proponiendo valores numéricos para los diferentes parámetros. Estos valores numéricos pueden obtenerse a partir de estimaciones directas, o en el caso de no estar disponibles, restringiendo sus valores dentro de rangos paramétricos consistentes con la teoría. A continuación se simula el modelo sometiéndolo a diversos tipos de perturbaciones aleatorias. Con ello se consiguen series temporales artificiales cuyas propiedades estadísticas se comparan con las de las variables observadas. Sin embargo, hemos de indicar que estos modelos tienen importantes limitaciones, ya que no consiguen explicar de modo satisfactorio la existencia de desempleo involuntario. De hecho, son estas limitaciones, principalmente en relación al tratamiento de la información y de cómo ésta influye en la toma de decisiones en los mercados, las que van a constituir la base en la que se fundamentan los desarrollos de la Nueva Economía Keynesiana. Así, los modelos del ciclo real sólo pueden explicar fluctuaciones aleatorias en la producción, mientras que las fluctuaciones cíclicas no son aleatorias. Para explicarlas hay que introducir retardos en el modelo. Tal y como 25 apunta Mankiw (1989) para que las perturbaciones tecnológicas generen la volatilidad observada en la producción, deben ser importantes y frecuentes, contrariamente al pensamiento generalizado de que el progreso tecnológico es un fenómeno gradual. Por otra parte, para que las perturbaciones tecnológicas generen fluctuaciones cíclicas es necesario que exista una elevada autocorrelación de las mismas, lo que tampoco parece estar de acuerdo con la evidencia empírica disponible. Además estas teorías únicamente pueden justificar la existencia de recesiones cuando se produce una perturbación tecnológica de signo negativo, algo que difícilmente ocurre en la práctica. Por otra parte, también ha recibido críticas el método de contrastación de estos modelos, a través de la calibración, en lugar de realizar contrastaciones econométricas. IX. LA NUEVA ECONOMÍA KEYNESIANA Junto con los desarrollos de la Nueva Economía Clásica, el otro enfoque principal sobre el que se fundamentan los actuales desarrollos de la macroeconomía es lo que se ha denominado la Nueva Economía Keynesiana, que surgió a mediados de la década de los 80 en contraposición a la Nueva Economía Clásica y a la teoría del ciclo real. El antecedente inmediato de esta corriente lo podemos encontrar en la macroeconomía del desequilibrio. Una de las principales características de esta nueva corriente es que adopta el modo de hacer macroeconomía de la corriente opuesta: la Nueva Economía Clásica. Se trata de modelos macroeconómicos con una microfundamentación coherente con el objetivo principal de explicar por qué los precios y los salarios se ajustan lentamente al mismo tiempo que reestablecen la efectividad de la política económica y justifican el uso de estas políticas, tanto de demanda como de oferta, para la estabilización de la economía. Este nuevo análisis incorpora las hipótesis de las expectativas racionales y de la tasa natural de desempleo, al igual que en el enfoque de los nuevos clásicos, mientras que la diferencia radica en que no creen en el supuesto de equilibrio continuo de los mercados. El elemento fundamental sobre el que se asienta este enfoque es el mantener el principio básico de agentes racionales pero incorporando fallos en los mercados. Así, el principal objetivo de este enfoque es el de explorar un amplio conjunto de razones que expliquen las rigideces en precios y salarios que hacen que los mercados no estén continuamente en equilibrio, pero adoptando el método de elaboración de modelos iniciado por los economistas de la Nueva Economía Clásica. El reto que se trazan es el de endogeneizar las rigideces de precios y salarios en un contexto donde los agentes maximizan la utilidad o el beneficio, pero permitiendo que existan desviaciones del equilibrio walrasiano como la existencia de desempleo involuntario superior a la tasa natural. De hecho, podemos afirmar que esta nueva corriente de pensamiento surgió para intentar explicar las fluctuaciones cíclicas, a las que la Nueva Escuela Clásica y más concretamente, la teoría del ciclo real, no ofrecía una explicación adecuada. Con respecto a los ciclos, los keynesianos criticaban las teorías del ciclo de equilibrio y las primeras versiones de la teoría del ciclo real. Entre las deficiencias más importantes destacan, en primer lugar, que no consideran la existencia de mercados de competencia imperfecta, las 26 asimetrías de información y los fallos de coordinación. En segundo lugar, las perturbaciones tecnológicas concretas, que generan una recesión o una expansión, tienen un poder explicativo reducido ya que son difíciles de identificar, tienen que ser persistentes, y bajo determinados supuestos, como la existencia de trabajo encubierto, pierden importancia. Por otra parte, los resultados empíricos obtenidos por Nelson y Plosser (1982) sobre el componente estacionario de las series económicas han sido cuestionados en análisis empíricos posteriores, utilizando los mismos datos. Así, Perron (1989) y Zivot y Andrews (1992) obtienen que las series no presentan un componente estacionario debido a perturbaciones de oferta. Realizando un análisis similar, pero incluyendo esta perturbación de oferta, obtienen que la mayoría de las series presentan de nuevo el componente estacionario, por lo que la división tradicional entre tendencia y ciclo adquiere de nuevo validez. Principales contribuciones teóricas Del análisis nuevo keynesiano se derivan tres importantes implicaciones de política. En primer lugar, en estos modelos el dinero no es neutral en el corto plazo y, por tanto, se vuelve a la efectividad de la política económica. Por ejemplo, Fischer (1977) y Phelps y Taylor (1977) demuestran que perturbaciones nominales de demanda son capaces de generar efectos reales en modelos que incorporan expectativas racionales, una vez que el supuesto de vaciado continuo de los mercados es abandonado. Por tanto, de estos modelos se obtiene como resultado que la política monetaria puede usarse para estabilizar la economía. En segundo lugar, el ajuste gradual de precios y salarios implica que una política monetaria antiinflacionista, incluso si es creíble y anticipada por los agentes racionales, provocará una importante reducción en el nivel de producción y en el empleo. En circunstancias en las cuales el nivel de desempleo permanece por encima de su nivel natural durante un largo periodo de tiempo, el propio nivel de desempleo natural tenderá a aumentar, debido al denominado efecto histéresis. Sin embargo, este es un ejemplo más de que la evidencia obtenida a través de análisis empíricos no puede ser usada, en la mayoría de los casos, para validar una teoría, puesto que no ofrecen resultados definitivos. Esto es debido a que no sólo los que están desempleados sufren una disminución en su capital humano aumentando el problema del desempleo estructural, sino que también aumenta el número de desempleados de larga duración. Por último, y contrario al enfoque de la Nueva Economía Clásica, se demuestra la racionalidad de la existencia de desempleo involuntario como un fenómeno de equilibrio. Básicamente, el enfoque de la Nueva Economía Keynesiana consistió en una readaptación de la teoría microeconómica para que fuese consistente con las proposiciones keynesianas de desempleo involuntario, neutralidad del dinero y rigideces en precios y salarios, si bien muchos de los postulados y de las implicaciones de política económica del keynesianismo han quedado descartados. De ahí que Mankiw (1992) afirme que a esta nueva corriente de pensamiento no se le debería llamar keynesiana. La Nueva Economía Keynesiana explica las rigideces de precios y salarios bajo dos supuestos diferentes: por una parte, debido a la existencia de competencia imperfecta en los mercados que desvía los precios y salarios de su nivel óptimo, y por otra parte, por la existencia de información 27 asimétrica que produce rigideces en la fijación de los precios debido a que no se dispone de toda la información. Los tres resultados básicos a los que llega recurrentemente la literatura de los nuevos keynesianos son los siguientes. En primer lugar, las fluctuaciones cíclicas no son las respuestas pareto-óptimas de la economía frente a cambios en los gustos o en la tecnología, sino una manifestación a gran escala de los fallos del mercado. El fallo de mercado al que apelan principalmente es la incapacidad de los precios y salarios de ajustarse instantáneamente para equilibrar oferta y demanda. En la micro-fundamentación de las rigideces nominales y reales, juega un papel esencial la presencia de imperfecciones en los mercados de bienes, trabajo y crédito, como por ejemplo, estructuras de mercado no competitivas, información asimétrica, fallos de coordinación, costes de ajuste, selección adversa y riesgo moral. En segundo lugar, la fijación de precios y salarios nominales, incluso por periodos de tiempo relativamente reducidos, no tienen consecuencias importantes para los agentes que los realizan, pero si tienen importantes consecuencias para la economía en su conjunto. Por último, la combinación de rigideces reales y nominales puede provocar que cambios en la demanda tengan efectos muy persistentes sobre el empleo. X. EL NEOINSTITUCIONALISMO En los últimos años el estudio sobre el papel que juegan las instituciones en el desempeño económico ha cobrado importancia, impulsado y desarrollado por la corriente del pensamiento económico conocida como neoinstitucionalismo. (Ayala Espino (1999); Roemer (1994); North (1990), Furubotn y Richter (1991) y Williamson y Scott (comp.) (1995: 612-642). Es cierto que el neoinstitucionalismo tiene sus bases en los economistas clásicos encabezados por Adam Smith, fue hasta el siglo pasado cuando se inició el análisis del papel de las instituciones en el intercambio y la conducta económicas. Los primeros teóricos de esta escuela advertían sobre la necesidad de incluir las instituciones al análisis económico, ya que la generación de riqueza está relacionada con los hábitos, costumbres, organizaciones, desarrollo tecnológico, información, entre otros, que conforman la vida social y que se encuentran regidas por las instituciones. A pesar de sus contribuciones, los institucionalistas de principios de este siglo no recibieron suficiente atención y aceptación por parte de escuelas dominantes como la marginalista. Dos de las principales críticas recibidas fueron: 1) haber encaminado todos sus esfuerzos a la descripción de las instituciones y no al análisis de las implicaciones de las mismas y 2) fundir en un mismo concepto de institución los aspectos organizativos y las reglas que gobiernan las instituciones. El nuevo institucionalismo económico surge como respuesta a estas críticas, sin ser una escuela homogénea, en donde cohabitan autores que apoyan supuestos cercanos a los establecidos por la 28 teoría neoclásica, y aquellos que la rechazan abruptamente. Entre los principales autores podemos encontrar a Ronald H. Coase, Oliver E. Williamson y Douglass C. North. En términos generales, se puede afirmar que el enfoque neoinstitucional es sensible a cuestiones organizacionales, y busca extender el alcance de la aplicación de la teoría neoclásica al considerar la forma en que la estructura de los derechos de propiedad, los costos de transacción y la información que los individuos poseen sobre el mercado, entre otros factores, afectan los incentivos y el comportamiento económico. Este enfoque no surge de un intento deliberado por construir una nueva doctrina económica, nace del reconocimiento de que el análisis neoclásico típico es demasiado abstracto e incapaz para ocuparse efectivamente de un buen número de problemas actuales, los cuales guardan interés para los teóricos y los formuladores de políticas públicas. Es decir, los neoinstitucionalistas admiten que es posible utilizar las herramientas neoclásicas, pero es necesario también incorporar temas referentes a la transmisión y definición de los derechos de propiedad, los costos de transacción y la información incompleta o asimétrica, entre otros temas. A continuación se presenta el recuento que Ayala Espino hace sobre las diferentes teorías y escuelas involucradas en el neoinstitucionalismo. Samuels señala que dejando a un lado el marxismo, que posee además un carácter de movimiento social, la economía institucional ha sido la principal escuela de pensamiento económico heterodoxo. Distingue dos corrientes, la primera surgida de los trabajos de Thorstein Veblen (1857-1929) y continuada por Clarence Ayres (1891-1972) y la segunda iniciada por John R. Commons (1862-1945). La tradición Veblen–Ayres se enfoca en el papel progresivo de la tecnología y el papel inhibitorio de las instituciones, mientras que Commons, quien está menos interesado en la tecnología, centra su enfoque en las instituciones como formas de acción colectiva, más neutrales. Ambas corrientes aceptan que el desempeño de la economía es una función, interalia, tanto de la tecnología como de las instituciones. De acuerdo a Roemer, el enfoque neoinstitucional moderno tuvo un origen a fines de la década de 1950 con el trabajo de Armen A. Alchian sobre derechos de propiedad, pero fue gracias a los artículos seminales de Ronald H. Coase y George J. Stigler sobre costos de transacción y de la información, que esta línea de investigación atrajo a otros autores por lo que a mediados de la década de 1970 ya había generado un cuerpo considerablemente creciente de investigación teórica y empírica. North define los derechos de propiedad como los derechos que los individuos ejercen sobre su propio trabajo y sobre los bienes y servicios que poseen. La apropiación es una función de normas legales, organizacionales, de cumplimiento obligatorio y de normas de conducta, es decir, del marco institucional. Introduce explícitamente el papel de las restricciones contenidas en las reglas y contratos que gobiernan al intercambio. 29 - Introduce el papel del intercambio de los derechos de propiedad y los contratos que aseguran las transacciones. - Considera las consecuencias de los costos de transacción y postula que el intercambio no es libre de costos. - Reconoce la existencia de información incompleta y asimétrica. Aborda cuestiones como: selección adversa, riesgo moral, agencia-principal, decisiones bajo incertidumbre, el de credibilidad en el intercambio, las transacciones y la información. - Admite la importancia de los problemas organizacionales y de comportamiento en la teoría de la empresa y de la organización industrial. - Reconoce la importancia del marco jurídico. - Acentúa la importancia de las estructuras de poder y las organizaciones políticas. - Acepta el papel de las acciones colectivas, la organización de los grupos sociales y las coaliciones sociales. - Asume que el Estado es una institución relevante en el intercambio porque genera incentivos o desincentivos a la inversión, el trabajo y el ahorro. - El Estado es el gobernador más importante de instituciones. Neoinstitucionalismo: características básicas 1. 2. 3. 4. 5. 6. 7. 8. 9. Teoría de la regulación económica Escuela de los derechos de propiedad Economía de los costos de transacción Economía de la información Teoría de la organización industrial Derecho y economía Teoría de la elección pública Teoría de la acción colectiva Teorías económicas del estado La naturaleza de las instituciones Las instituciones de acuerdo a North se definen como: las reglas del juego en una sociedad o, más formalmente, son las limitaciones ideadas por el hombre que dan forma a la interacción humana; definen y limitan el conjunto de elecciones de los individuos; son limitaciones formales (reglas políticas, judiciales, económicas y contratos, por ejemplo) y limitaciones informales (códigos de conducta, normas de comportamiento y convencionalismos); su función principal consiste en reducir la incertidumbre (proveniente de la información incompleta con respecto a 30 los otros individuos), estas reglas o limitaciones provocan las relaciones humanas, conformando una estructura estable, pero no necesariamente eficiente de la interacción humana. Es decir las instituciones permiten que el intercambio se realice con base a reglas formales o informales, permitiendo: 1) dar certidumbre sobre los derechos de propiedad, 2) proporcionar los incentivos necesarios para que por medio de la transacción se transfieran los derechos de propiedad y 3) lograr que ciertas actividades económicas fructifiquen. Instituciones y crecimiento económico El hecho de que las instituciones promuevan una estructura estable de convivencia no implica per se interacciones eficientes desde el punto de vista económico. North sostiene que un conjunto de instituciones eficientes puede generar crecimiento económico, ya que permiten que las partes involucradas en el intercambio puedan obtener mayores beneficios del comercio. Esto se fundamenta en la percepción de que las instituciones eficientes disminuyen los costos de transacción. Es decir, las instituciones eficientes son aquellas que premian el comercio, dan certidumbre sobre los derechos de propiedad y hacen cumplir los acuerdos, disminuyendo así los costos de transacción. No siempre se han encontrado economías eficientes a lo largo de la historia, ello debido a la forma en que las instituciones han otorgado los incentivos necesarios para reducir los costos de transacción, y proporcionar mayores ventajas en el aprovechamiento de las ganancias derivadas del comercio. Las características de las instituciones, tanto las limitaciones formales como las informales, producen un medio favorable (económico y político) que premia la actividad productiva de las organizaciones, definen la eficiencia de las economías y permiten su crecimiento. Para North las organizaciones promueven el cambio institucional a través de la modificación en los precios relativos que alteran los incentivos de los individuos u organizaciones. Los cambios en los precios relativos pueden ser exógenos (una sequía, por ejemplo) o endógenos (un cambio tecnológico). Dado que el marco institucional contiene los incentivos en cuanto a la rentabilidad de las actividades de que se trata, las organizaciones intentan alterar en cierto margen el marco institucional, cuando sus percepciones les indican que podrían obtener mayores beneficios con esta acción. North define a las organizaciones como: a) entidades ideadas por sus creadores (individuos que comparten intereses comunes) con el propósito de maximizar la riqueza, el ingreso, u otros objetivos definidos por las oportunidades que brinda la estructura institucional de la sociedad, b) incluyen grupos políticos (partidos políticos), grupos económicos (empresas), grupos sociales (iglesias) y grupos educativos (universidades), c) son creadas para aprovechar las oportunidades que determinan las instituciones y conforme evolucionan las organizaciones, alteran a las instituciones. 31 Los costos de transacción Como se ha mencionado, uno de los elementos más importantes desarrollados por los neointitucionalistas es el concepto de los costos de transacción, los cuales surgen de la transferencia de los derechos de propiedad y se refieren a todos aquellos costos no ligados directamente al proceso de producción de los bienes, por ejemplo los costos de información, de negociación, contractuales, etc. Los costos asociados a las transacciones pueden identificarse en: 1) la búsqueda de la información sobre precios, características de los bienes (como su calidad, disponibilidad, etc.), características de los mercados (las preferencias de los individuos, tamaño de la demanda, mercados potenciales, entre otros); 2) la negociación entre los individuos para establecer el precio al que se realizará el intercambio de una mercancía, y 3) la traslación y protección de los derechos de propiedad de los bienes por medio del establecimiento del contrato, el cual define el derecho de propiedad y las condiciones bajo las cuales se realiza el intercambio. Transmisión de los derechos de propiedad Costos de transacción Defensa de los derechos de propiedad Negociación Contratación Hacer cumplir los acuerdos Adquisición de información De esta forma se puede afirmar que los costos de transacción se componen de: a) costos de información, consistentes en medir los atributos valiosos de los bienes en intercambio, lo que a su vez otorga los elementos para realizar la negociación y b) costos de definir, proteger y de hacer cumplir los acuerdos o contratos para darle certidumbre a la definición de los derechos de propiedad. La obtención y el procesamiento de información tienen un costo. La población no cuenta con elementos suficientes para conocer la solución exacta a su problema de maximización de beneficios, lo que le provoca incertidumbre. Desconocen, por ejemplo, todas las características de un bien y no poseen información conveniente respecto al comportamiento de los agentes que participan en el mercado. En otras palabras, los individuos eligen y realizan transacciones bajo restricciones de información e incertidumbre. Estos elementos repercuten de manera directa en el intercambio, por lo tanto y de igual forma, en la eficiencia de los mercados. No olvidemos que si los costos son demasiado altos la cancelación del intercambio puede ser definitiva. 32 Información asimétrica De acuerdo a los neointitucionalistas la información se distribuye de manera desigual entre los agentes, estos poseen diferentes niveles de acceso a esta, por ejemplo: las empresas grandes tienen mejores condiciones para soportar los costos para la adquisición y procesamiento de información relevante; en cambio, para las pequeñas empresas puede resultar económicamente inviable su adquisición. Así, la información se considera asimétrica cuando algunos agentes, participantes en el mercado, cuentan con condiciones que les permiten acceder fácilmente y a menor costo a la información; por lo cual, este grupo de individuos tendrá mayor poder de negociación en la transacción al encontrarse mejor informado que su contraparte. Es un hecho que las mercancías, los servicios y el desempeño de los agentes contienen muchos atributos difíciles de medir de manera exacta. Existen asimetrías de información entre los participantes, como es el caso de los autos usados. Es muy probable que bajo el supuesto de maximización de riqueza, una de las partes del intercambio engañará, robará o mentirá si el resultado de esa actividad es mayor que el valor de las oportunidades alternativas que se le ofrezcan. Los agentes al reconocer que cuentan con información asimétrica sobre el comportamiento de los precios, las características de los bienes y la calidad moral de su interlocutor, buscarán disminuir los costos de transacción que esto le provoca por medio de un contrato. Contratos North argumenta que los contratos surgen porque a los participantes les interesa disminuir los costos de transacción del intercambio. En intercambios complejos, los individuos erogan importantes recursos para realizar sus transacciones con base en contratos, ya que permiten disminuir la complejidad y la incertidumbre que rodea al intercambio. Gracias a este elemento los agentes conocen la calidad, y cuentan con la seguridad jurídica de los bienes. La eficiencia de un contrato radica en su diseño, calidad y vigilancia, así como el costo que esta misma representa, es decir, los agentes acordarán realizar un intercambio por medio de un contrato; si con ello se obtienen mayores beneficios, que realizar el intercambio sin contrato, asumiendo posibles costos por engaños, incumplimientos, etc. El desconocimiento de los atributos del bien o servicio lleva a la necesidad no sólo de dedicar recursos para medir los atributos y conocer ampliamente sus características, sino para vigilar los acuerdos y hacerlos cumplir, es por ello que se requiere de un tercer agente neutral. North cita dos razones por las que el cumplimiento obligatorio es imperfecto. La primera se debe a los costos de medir las características complejas de los bienes, en tanto que la segunda se apoya en el hecho de que el cumplimiento obligatorio corre a cargo de agentes cuyas propias funciones de utilidad influyen en los resultados. 33 El cumplimiento obligatorio por una tercera parte significa el desarrollo del Estado como una fuerza coercitiva, capaz de monitorear derechos de propiedad y hacer cumplir contratos. Sin embargo, North reconoce que nadie sabe cómo crear tal entidad. Bajo el supuesto conductual que maximiza estrictamente la riqueza, resulta evidente que quienes manejen al Estado usarán su fuerza coercitiva en su propio interés a expensas del resto de la sociedad. Algunos autores sugieren que las formas constitucionales correctas restringirán el ejercicio tiránico del poder político. En el caso del mercado inmobiliario es claro cómo el Estado cede la medición de los tributos físicos al perito valuador, y los legales, al notario público y al Registro Público de la Propiedad; reservándose el poder coercitivo para hacer cumplir y respetar los términos que se hayan establecido en el contrato o título de propiedad. Costos de búsqueda La información es un bien de suma importancia, no sólo porque los individuos están dispuestos a pagar por ella, sino porque gracias a ésta, los agentes definen sus elecciones económicas. Es por ello que se han creado importantes mercados de información en donde existen organizaciones dedicadas a su recopilación, producción, análisis, interpretación y difusión. Los neointitucionalistas reconocen que, en un momento dado, los agentes desconocen toda la información relevante de los mercados. El conocimiento imperfecto de los mercados da origen a fallas, debido a que los productores ofrecen bienes en exceso, los consumidores dejan de consumir ciertos bienes y los mercados no se desarrollan satisfactoriamente. La información es incompleta porque ésta es difícil o inclusive imposible de adquirir, o en su caso es demasiado cara, esto surge generalmente en donde existen circunstancias técnicas que dificultan su obtención, captura y análisis; por ejemplo, en mercados dispersos, descentralizados y poco institucionalizados o mercados monopólicos dispuestos a no difundir su información. En aquellas actividades en donde los costos de adquirir información son exorbitantes, los costos marginales son superiores a los beneficios marginales recibidos por obtenerla. Debido a ello, los agentes no tienen incentivos para adquirir más información, ocasionando que al llegar a cierto punto, los compradores potenciales no continúan buscándola, ya que ésta representa mayores costos en tiempo y dinero. La información que se tiene sobre un mercado a bajo precio no siempre es suficiente como para tomar una decisión económicamente eficiente. Los neoinstitucionalistas reconocen que los precios no trasmiten necesariamente todos los datos relacionados a un determinado bien, y la presencia de información incompleta tiene graves consecuencias sobre la posibilidad de concretar operaciones en el mercado, es decir, los agentes influidos por la incertidumbre, el riesgo, y la carencia de incentivos para producir información, tenderán a generar un ambiente económico poco eficiente. En consecuencia sólo el Estado puede atenuar el problema de información incompleta a través de la generación directa de información, la regulación económica y en general, con el establecimiento de reglas. 34 XI. El Pensamiento Latinoamericano: La CEPAL, el Estructuralismo Establecida el 28 de febrero de 1948 por resolución de la ONU en su Consejo Económico y Social (ECOSOC) como Comisión Económica para América Latina (CEPAL). Su actual denominación data de 1985. Para entender el pensamiento de la CEPAL, es necesario reconocer de que se trata de un cuerpo especifico aplicable a condiciones históricas propias de la periferia latinoamericana y que se combina con una teoría estructuralista del subdesarrollo periférico latinoamericano. Su principio normativo es la necesidad de que el Estado contribuya al ordenamiento del desarrollo económico. Las ideas de la CEPAL han sido entregadas por gente responsable de formular la política para América Latina, como Raúl Prebish, (1901-1986, economista argentino, defensor de las aspiraciones de los países del Tercer Mundo frente a los países más industrializados y fundador de la CEPAL) La difícil tarea de recopilar todas las ideas cepalinas, la realizo por primera vez Aníbal Pinto en 1968, y luego a pedido del propio Prebish, Rodríguez en 1981,realizo el mismo trabajo, pero mucho mas minucioso y completo. En el pensamiento de la CEPAL hay que destacar tres dimensiones en la evolución de sus ideas: Sus conexiones con la historia real. La lógica interna de su evolución en el tiempo. Su dialogo con la producción intelectual del resto del mundo. Una de sus características es que el enfoque metodológico que usa la CEPAL es el mismo, independiente del numero de etapas en que pueda subdividirse, lo que se va modificando es la historia real y el contexto ideológico en que una etapa se genera. Otra característica, es que la sistematización se ve facilitada por el hecho de que las ideas son históricamente determinadas, casi hasta en sus detalles. Pueden identificarse 5 etapas en la obra de la CEPAL, que por coincidencia duran aproximadamente un decenio cada una: 1. Orígenes y años ’50: industrialización. 2. Años ‘60: "reformas para desobstruir la industrialización" 3. Años ’70: reorientación de los estilos de desarrollo hacia la homogeneización social y hacia la diversificación pro-exportadora. 4. Años ’80: superación del problema del endeudamiento externo mediante el ajuste con crecimiento. 5. Años ’90: transformación productiva con equidad. Las dos primeras etapas se enmarcan por completo en el ciclo expansivo mundial de la posguerra y las dos ultimas en el periodo irregular comprendido entre el fin de ese ciclo, en 1973-1974, y la actualidad, en el que predominan el bajo crecimiento mundial y las grandes incertidumbres, solo en los ‟70, la correspondencia no es perfecta, debido a la crisis mundial de mediados de la década. 35 La condición periférica: Método histórico-estructuralista Prebisch, defendió la teoría del crecimiento económico, que afirma que existe un centro (países más industrializados) y una periferia (países menos desarrollados, como los de América Latina) y que subraya la importancia de la brecha del desarrollo y la desfavorable relación real de intercambio de los países menos industrializados. Este enfoque trata la transición desde un modelo de crecimiento primario-exportador, hacia fuera, (países de la periferia), al modelo urbano industrial, hacia adentro, (países centrales), que se suponía radicaba en la condición de que el proceso productivo se movía en el marco de una estructura económica e institucional subdesarrollada, heredada del periodo exportador. Según este enfoque, los países periféricos, son productores de bienes y servicios con una demanda internacional poco dinámica, importadora de bienes y servicios con una demanda interna en rápida expansión y asimiladora de patrones de consumo y tecnologías adecuadas para el centro pero con frecuencia inadecuadas para la disponibilidad de recursos y el nivel de ingreso de la periferia, por lo tanto, los procesos de crecimiento, empleo y distribución del ingreso en la periferia son distintos de lo que ocurre en los países centrales, esto por el hecho de que las economías periféricas poseen una estructura poco diversificada y tecnológicamente heterogéneo, que contrasta con el cuadro observado en los países centrales, en los cuales el aparato productivo es diversificado, tiene una productividad homogénea durante toda su extensión y mecanismos de creación y difusión tecnológica y de transmisión social de sus frutos que son inexistentes en la periferia. Años ‘50: Legitimando y orientado a la industrialización. En los años posteriores a la Segunda guerra mundial, las economías latinoamericanas se encontraban en pleno proceso de industrialización y urbanización; con un rápido crecimiento, promovido por una relajación de la restricción externa que permitió la expansión de las importaciones. Por otra parte se difundía la idea de que las exportaciones tradicionales tendían a recuperar terreno, por la vuelta a la normalidad de la posguerra, lo que estimulaba la restauración de la ideología liberal dominante hasta los años treinta, fundamentada en la teoría de la división internacional del trabajo basada en las ventajas comparativas estáticas (ricardianas). Pero existía una cierta discordancia entre la historia económica y social y la construcción de su contrapartida en el plano ideológico y analítico. Es aquí donde la CEPAL entraría a ordenar este problema, con una versión regional de la teoría del desarrollo, con gran creatividad y ganas de innovar; y donde grandes cultivadores del conocimiento latinoamericano participarían, como Celso Furtado, José Medina Echavarria, Regino Botti, Juan Noyola Ahumada, Aníbal Pinto, Osvaldo Sunkel y por supuesto Raúl Prebish, por nombrar algunos. Prebish iniciaría su aporte a la CEPAL con su obra de El desarrollo de la América Latina y algunos de sus principales problemas (1949), y luego en 1950, Problemas teóricos y prácticos del crecimiento económico, documento que contenía todos los elementos que figurarían como referencia para los desarrollistas latinoamericanos. 36 Con respecto a la inserción internacional, América Latina se veía vulnerable, en el sentido de que la estructura subdesarrollada de producción y empleo impedía que la periferia retuviera los frutos de su progreso técnico, a diferencia de lo que ocurría en el centro, ya que en este ultimo los sindicatos organizados y una estructura productiva concentrada lograban impedir la caída nominal de precios de los bienes industriales durante la baja cíclica compensando así con creces las ganancias que la periferia obtenía, en el auge cíclico, con los bienes primarios. Otra razón de la vulnerabilidad latinoamericana era la tendencia al deterioro, debida al exceso de mano de obra en la agricultura subdesarrollada de la periferia, cuyo empleo en actividades exportadoras llevaría a la expansión de la oferta, lo que traería una baja en los precios internacionales, resultando en un menor valor a pesar del mayor volumen producido, por eso aunque la eficiencia de la producción industrial fuera menor en la periferia, era superior a la eficiencia de aplicar los recursos productivos en la agricultura, por lo tanto el proceso de industrialización no atenuaría la vulnerabilidad externa, porque la periferia se mantendría como exportadora de productos primarios, de demanda inelástica en los países céntricos, y como importadora de productos industriales de alta elasticidad de la demanda en la periferia. Debido a la estructura de las economías periféricas, se darán tres rasgos importantes que desempeñaran un papel básico en el desequilibrio: 1. Un desequilibrio estructural en la balanza de pagos, motivo de una presión de expandir las importaciones mas allá de lo permitido por el crecimiento de las exportaciones(con una baja elasticidad de la demanda). 2. Tendencia a la inflación, producto del punto anterior, y por su baja diversificación. 3. Un desempleo, debido a la incapacidad de la actividad exportadora para absorber el excedente de mano de obra en un mercado moderno. Para resolver estos desequilibrios estructurales, y con el objetivo de tener una mayor planificación, la CEPAL tuvo un papel intelectual en dos iniciativas que ayudarían al progreso latinoamericano: * Asociación Latinoamericana de Libre Comercio (ALALC), Organización supranacional del ámbito latinoamericano. Sus primeros integrantes fueron Argentina, Brasil, Chile, México, Paraguay, Perú y Uruguay. Posteriormente, pasarían a formar parte de la organización Colombia y Ecuador (1961), Venezuela (1966) y Bolivia (1967). Su objetivo fundacional era crear una zona de libre comercio entre los países miembros para, sucesivamente, proceder a la desaparición de los aranceles y establecer un mercado común en Latinoamérica. La crisis económica de 1973 y el nacimiento de iniciativas similares, como el Grupo Andino (actual Comunidad Andina), determinaron la sustitución de la ALALC por la Asociación Latinoamericana de Integración (ALADI) en 1980. 37 * Conferencia de Naciones Unidas para el Comercio y el Desarrollo (en inglés, United Nations Conference on Trade and Development, UNCTAD), organismo permanente de la Asamblea General de la Organización de las Naciones Unidas (ONU), fundado en diciembre de 1964. Nace como resultado de una reunión en la que participaron 120 naciones para discutir problemas relacionados con el mercado internacional de mercancías y con el comercio como instrumento fundamental para el desarrollo económico. Entre las responsabilidades de la UNCTAD se encuentran: Promover el comercio internacional entre los países en diversas etapas del desarrollo y con sistemas socioeconómicos diferentes, iniciar acciones encaminadas a la negociación y adopción de acuerdos comerciales multilaterales y proporcionar un centro para armonizar las políticas relativas al comercio y al desarrollo de los gobiernos o agrupaciones económicas como la Asociación Latinoamericana de Integración (ALADI). Años ‘60: Redistribuir para crecer La segunda mitad de los años ‟50 tuvo tres elementos que incidieron en el pensamiento cepalino de la década de los ‟60, estos son: Primero, el crecimiento de la mayoría de los países, se daba en medio de una creciente inestabilidad macroeconómica, motivada en buena medida por problemas de restricciones a las importaciones, varios países enfrentaban acentuadas presiones inflacionarias. Segundo. el proceso de industrialización seguía imponiéndose; la urbanización consiguiente se traducía en un empobrecimiento creciente de la población , existían síntomas de la incapacidad de absorción de la fuerza trabajadora proveniente de la zona rural por las actividades productivas modernas; la democracia se consolidaba y una insatisfacción creciente se traducía en presiones sociales ejercidas mediante la vida política y sindical cotidiana. Tercero, la revolución cubana de 1959 tendría una profunda repercusión sobre la actitud norteamericana frente a tales presiones y frente al movimiento político que se propagaba en América Latina. La CEPAL reconoce la existencia de un consenso inédito en la región en cuanto a la necesidad de planificar el desarrollo, profundizar la industrialización, redistribuir el ingreso y realizar la reforma agraria (José Medina Echavarría). A partir de mediados de los ‟60, se empezó a manifestar una división política e ideológica, que en algunos países llegó al extremo del enfrentamiento entre las dictaduras de derecha y las organizaciones de la izquierda revolucionaria, la CEPAL mantendría un diálogo con las posiciones políticas moderadas, y promovería un debate acerca de puntos y reflexiones propios de la época como: Que la industrialización había seguido un curso que no lograba incorporar en la mayoría de la población los frutos de la modernidad y del progreso técnico y no había eliminado la vulnerabilidad externa y la dependencia y de algún modo obstruía el desarrollo. 38 Reformas para dinamizar la economía: Prebish insiste en la necesidad de alterar la estructura social y redistribuir el ingreso, especialmente a través de la reforma agraria. En el campo, los latifundistas rentistas entorpecerían el progreso técnico, de modo que el acceso del campesino a la tierra, siempre que fuera apoyado debidamente por el Estado, abriría el camino para elevar la productividad agrícola y mejorar el uso del excedente. Además, ayudaría a radicar al hombre en el campo evitando la marginalización urbana, sostenía que sin eso no sería posible sortear la "insuficiencia dinámica" de las economías de la región. Teoría de la dependencia y tesis de la heterogeneidad estructural: En los años sesenta los dos vectores analíticos más representativos de la producción intelectual de esa institución son las tesis sobre la "dependencia" y la tesis de la "heterogeneidad estructural". La teoría de la dependencia tiene dos vertientes, una de análisis predominantemente político en la que Fernando Cardoso y Enzo Faletto redactaron su Dependencia y desarrollo en América Latina (1969),como reacción teórica a la tesis corriente en esa época de que se estaba gestando en la región una burguesía nacionalista potencialmente comprometida con un patrón de desarrollo que justificaba una alianza con la clase trabajadora y que podía conquistar la hegemonía política, el trabajo vincula los procesos de crecimiento de los distintos países con el comportamiento de las clases sociales y las estructuras de poder. Su gran innovación es metodológica, y reside en la exigencia de que esa vinculación se haga considerando las relaciones entre esas estructuras internas y el poder económico y político en el resto del mundo. Y la otra de análisis eminentemente económico: La industrialización que ocurría en América Latina correspondía tan sólo a una nueva modalidad de explotación secular que el imperialismo imponía a los trabajadores de la región subdesarrollada en alianza con la elite local y sólo enriquecía a los países desarrollados y a la pequeña elite dominante local que los representaba. (André Gunder Frank). Por otro lado-y con muchas coincidencias analíticas con las interpretaciones dependentistasAníbal Pinto formulaba su tesis de la "heterogeneidad estructural" en la región. Partió de la constatación de que los frutos del progreso técnico tendían a concentrarse tanto respecto a la distribución del ingreso entre las clases como a la distribución entre sectores (estratos) y entre regiones dentro de un mismo país (1965),o sea, así como para los dependentistas la industrialización no había eliminado la dependencia, sólo la había alterado, para Aníbal Pinto la industrialización no eliminaba la heterogeneidad estructural, sólo modificaba su formato. En una y otra interpretación el subdesarrollo era un proceso que daba muestras de perpetuarse a pesar del crecimiento económico. Los diagnósticos cepalinos concluían en que el estilo de desarrollo económico tendría que modificarse mediante una mejor distribución del ingreso y de profundas reformas, a saber, agraria, patrimonial, financiera, tributaria, educacional y tecnológica. Y entendían que para 39 alcanzar todo eso se precisaba una profunda transformación política que incluyera en su centro la recuperación de la democracia en los países en que se habían instalado dictaduras militares. Los años 70: Por un estilo de crecimiento con homogeneidad social y con intensificación de las exportaciones industriales. 1. El contexto Histórico: Desde mediados de los ‟60 y hasta los años „73-‟74 América Latina disfrutó de un crecimiento acelerado y un gran desempeño exportador, a su vez tenía abundante liquidez internacional que le permitió con apoyo del proceso de industrialización expandir sus importaciones. La reacción de América Latina a la recesión mundial fue endeudarse para mantener el crecimiento o estabilizar la economía. En el plano de la producción y difusión de las ideas, la institución entraba a partir de los años „73-‟74 en una nueva etapa rodeada por circunstancias históricas que le restaban parte de su capacidad previa de influir en el pensamiento económico. Siguiendo la estela de la declinación del Keynesianismo, se observaba una gradual decadencia en todo el mundo de la teoría del desarrollo y la rápida aparición de una nueva ortodoxia en cuanto al análisis de las economías en desarrollo. 2. La interpretación de los estilos de crecimiento y la industrialización proexportadora: Se concretó en los años ‟70 la idea de estilos o modalidades de crecimiento, estimulado por cuatro influencias: ( i ) Reconocimiento de que la reforma agraria y la redistribución del ingreso constituirán la base de un crecimiento homogeneo y justo. ( ii ) Las Naciones Unidas promovían un debate en torno a esos mismos temas. ( iii ) Los intelectuales hacían críticas metodológicas acerca del debate. ( iv ) La crisis de los años „73-‟74 y el aumento de la deuda reforzaron el énfasis en reorientar la modalidad o estilo de industrialización. a. Estilos: La referencia principal de los ‟70 sobre los estilos es el texto de Aníbal Pinto Notas sobre los estilos de desarrollo de América Latina, en la cual dice que "los estilos son la modalidad concreta y dinámica adoptada por un sistema en un ámbito definido y en un momento histórico determinado". b. La nueva modalidad de industrialización, combinado el mercado externo y la exportación: En la segunda mitad de los años ‟70, el diagnóstico sobre las tendencias y las proposiciones de política de la CEPAL refuerzan la industrialización y las exportaciones para enfrentar la inserción internacional. Se sostenía que no había antagonismo del mercado interno y la apertura exportadora, sino que serían procesos complementarios en una estrategia de industrialización. 40 Los Años ’80: Por un ajuste con crecimiento. 1. Contexto Histórico: En los primeros tres años de los años ‟80 los casos de crisis cambiaria se fueron sucediendo en América Latina. En el clima ideológico se desencadenaba un poderoso ataque contra el Estado, el empresariado y los sindicatos, aduciendo que estaban con una actitud rentista. 2. Ajuste expansivo y ensayos para la fase post-ajuste: La crisis de las años ‟80 desplazaría finalmente a un segundo plano la producción desarrollista. Se privilegiaban las cuestiones inmediatas ligadas a la deuda, el ajuste y la estabilización. En relación con las políticas de ajuste, la solución sería que el desequilibrio externo se resolviera en un contexto de crecimiento económico, propicio a la inversión en sectores de bienes transables. El ajuste tendría que incluir un uso más flexible y pragmático de los instrumentos de política económica. Los años ’90 y la agenda de la transformación productiva con equidad. 1. Contexto Histórico: En el ámbito del desempeño y la política económica hubo una moderada recuperación económica y una estabilización importante en los precios. La estabilización se acompañó del control del déficit fiscal y de la cautela en el manejo del crédito, pero también del déficit en la cuenta corriente de la balanza de pagos. Cabe agregar que la vulnerabilidad externa de la crisis asiática de los años '97-'98 reforzó el déficit en la cuenta corriente. Por otro lado se viene dando un rápido proceso de reformas, que incluye la apertura comercial y financiera, la privatización y la flexibilización laboral. 2. El progreso técnico con mejorías distributivas: Se asienta la estrategia cepalina en la conquista de mayor competitividad internacional, basada en la incorporación del progreso técnico al proceso productivo. Se destaca el carácter sistemático de la competitividad, la formación de recursos humanos, y las políticas tecnológicas activas. La industria permanece como eje de la transformación productiva. Se propone una mayor apertura a la economía gradual y selectiva, como medio de introducir el progreso técnico y el aumento de la productividad, también como herramienta para expandir las importaciones y las exportaciones, lo que implica disponibilidad de divisas y armonización de la política cambiaria con la política de protección arancelaria y la promoción de exportaciones. Los cepalinos de los años ‟50 estudiaban las transformaciones económicas y sociales que ocurrían durante las primeras etapas de cambio del modelo primario exportador al urbano industrial. Derivaban un programa de políticas, incluso por la vía de la intervención del Estado, para corregir los problemas estructurales que el mercado no tendría como hacer en forma espontánea. 41 En los años ‟90 los cepalinos se centran en las transformaciones que se dan por la reorientación de los marcos reguladores, mediante la liberalización de los mercados y la reforma del Estado, especialmente mediante las privatizaciones. Síntesis de los elementos analíticos que componen el pensamiento de la CEPAL Elementos permanentes Períodos y temas Inserción internacional (centroperiferia y vulnerabilidad externa Deterioro de los términos del inter1948-1960 cambio; desequilibrio (industrialización) estructural de la balanza de pagos; integración regional Análisis histórico-estructuralista Condiciones estructurales internas (económicas y sociales) del Acción estatal crecimiento/progreso técnico, y del empleo/distribución del ingreso Proceso de industrialización sustitutiva; tendencias perversas causadas por la especialización y la heterogeneidad estructural y desempleo Conducir deliberadamente la industrialización 1960 (reformas) Dependencia; política internacional de reducción de la vulnerabilidad en la periferia Reforma agraria y distribución del ingreso como requisito Reformar para para redinamizar la economía; viabilizar el heterogeneidad estructural; desarrollo dependencia 1970 (estilos de crecimiento) Dependencia, endeudamiento peligroso. Insuficiencia exportadora Estilos de crecimiento, estructura productiva y distributiva y estructuras de poder; industrialización que combina el mercado interno y el esfuerzo exportador Viabilizar el estilo que lleve a la homogeneidad social; fortalecer las exportaciones industriales 1980 (deuda) Asfixia financiera Ajuste con crecimiento; oposición a los choques del ajuste, necesidad de políticas de ingreso y eventual conveniencia de choques estabilizadores; costo social del ajuste Renegociar la deuda para ajustar el crecimiento 1990-1998 (transformación productiva con equidad Especialización exportadora ineficaz Dificultades para una y vulnerabilidad a los transformación productiva movimientos de social eficaz capitales Ejecutar políticas para fortalecer la transformación productiva con equidad 42 BIBLIOGRAFÍA DORNBUSCH, RUDIGER ; FISCHER, STANLEY “Macroeconomía”. Ed. Mc Graw-Hill. DOUGLAS C. NORTH. “Instituciones, cambio institucional y desempeño económico” . Fondo de Cultura Económica. México 1993. JIMENEZ, FÉLIX. “Macroeconomía Keynesiana de la Determinación de los Niveles de Producción y Empleo”. Pontificia Universidad Católica de Perú. Mayo 1999. PINO, JORGE; LAVANDEROS, HERNÁN; CERDA, JORGE. Socioeconomico. Universidad del Bio-Bio Chile 2000. Historia del Pensamiento QUILIS, ENRIQUE M. “Apuntes de Teoría de los Ciclos”. Instituto de Estudios Fiscales. Documento N° 1/98. Universidad Autónoma de Madrid. Enero 1998. SUNKEL, OSVALDO; PAZ, PEDRO. “El Subdesarrollo Latinoamericano y La Teoría del Desarrollo”. Editorial. Siglo XXI. México 1970. TORRES, JOSÉ LUIS. “Introducción a la Macroeconomía.: Cuestiones Básicas y Estado Actual de la Macroeconomía”. Universidad de Málaga. España. s/f. BIBLIOGRAFIA VIRTUAL www.mercado.com.ar/grandesdebates www.eumed.net/cursecon/economistas www.cepal.cl 43