Fecha límite: 25/06 Textos: 1. Screpanti, Ernesto y Zamagni, Stefano (1993): “Panorama de Historia del Pensamiento Económico”, Oxford Univesity Press. Introducción. pag 13 a 25. Diego 2. DEANE, Phyllis (1993): "El Estado y el sistema económico. Introducción a la historia de la economía política", Editorial Crítica, Barcelona, Capítulo 3: La búsqueda de principios científicos, pp. 45-61 y Capítulo 4: Los creadores del sistema, pp. 62-83 Deborah cap 3 OK Rosario cap 4 3. Roncaglia, A. (2006). La riqueza de las ideas. Cap. 4. pp. 124-130. Valentina 4. Roncaglia, Alessandro (2006): “La riqueza de las ideas : una historia del pensamiento económico”. Traducción de Jordi Pascual Escutia. Zaragoza : Prensas Universitarias de Zaragoza. Cap 5 Matias P 5. Roncaglia, Alessandro (2006): cap.7 pags. 245-267 (Ricardo); cap 6 217-225 (Malthus) Bruno Arezo y Rossina Primavera 6. Backhouse, Roger (2002). The Penguin History of Economics. Penguin Books. p. 156 a 164. Sofi E 7. Paul Sweezy (1973[1942]). Teoría del Desarrollo Capitalista. Fondo de Cultura Económica: México. p.33-84. Juan Cruz y Mag 8. Blaug, Mark (1985). La metodología de la Economía. Madrid: Alianza Editorial, pp. 19 a 29. Joaquin 9. Screpanti, Ernesto y Zamagni, Stefano (1993): “Panorama de Historia del Pensamiento Económico”, Oxford Univesity Press. Cap 5 – 6. Joaquina 10. Enciclopedia Británica: a) https://www.britannica.com/topic/logical-positivism b) https://www.britannica.com/topic/Vienna-Circle. Valentina DC 11. Perdices de Blas, Luis (2003): “Historia del Pensamiento Económico”. Luis Perdices de Blas editor. Editorial Síntesis. Cap. 11. Nico y Arihana 12. Landreth y Colander (2002): Historia del Pensamiento Económico. Cap 16. El desarrollo de la econometría y los métodos empíricos en economía. Flo.A 13. Barber, William (1967): “Historia del Pensamiento Económico”. Alianza Editorial. Cap 8. Aldana 14. Screpanti, Ernesto y Zamagni, Stefano (1993): “Panorama de Historia del Pensamiento Económico”, Oxford Univesity Press. Cap 9. Romina 15. Friedman, M. (1956). La metodología de la economía positiva. En: Revista de Economía Política, IX (23), p. 355-396. Montse 16. Blaug, Mark (1985). La metodología de la Economía. Madrid: Alianza Editorial, pp. 115-134. Violeta 17. Mankiw, Gregory (2006). “El macroeconomista como científico y como ingeniero”. Originalmente publicado como "The macroeconomist as Scientist and Engineer", Journal of Economic Perspectives, vol. 20, num. 4, Fall 2006. Matias 18. Snowdon, Brian; Vane, Howard(2005): “Modern Macroeconomics. Its Origins, Development and Current State” cap 1. Pags 1-35 y cap 12 pags 695-707. Alfonso K 19. Rutherford, M. (2001). “La economía institucional: antes y ahora” Publicado originalmente en: Journal of Economic Perspectives, Vol. 15, No. 3, 2001. Versión en Español de Analisis Economico, XVIII segundo cuatrimestre, 13-39. Thiago 20. Blaug, Mark (1985). La metodología de la Economía. Madrid: Alianza Editorial, pp. 48 a 75. Lu G 21. Davis J. (2011). “Individuals and identity in Economics”. Cambridge University Press. Introducción y páginas 95 a 118. Dèborah y Magela 22. Azar P. (2021). Diferencias de género en el comportamiento económico En Espino A., Amarante V., Azar P., Machado A., Salvador S. y Tenenbaum V. “Las desigualdades de género y la ciencia económica. La perspectiva de la economía feminista. Udelar, Montevideo. Disponible en: https://www.cse.udelar.edu.uy/wp-content/uploads/2021/07/DesigualdadesFinal.pdf. Mickaela 23. Backhouse, R. E, y Cherrier, B. (2017). The age of the applied economist: the transformation of economics since the 1970s. History of Political Economy, 49(Supplement), 1-33. Victor Texto 1: Screpanti, Ernesto y Zamagni, Stefano (1993): “Panorama de Historia del Pensamiento Económico”, Oxford Univesity Press. Introducción. ÉPOCAS DE TEORÍA ECONÓMICA:El autor sostiene que la evolución de las ideas económicas ocurre en ciclos de revolución y consolidación. Estos ciclos se caracterizan por épocas de innovación y ruptura con la tradición, seguidas de debates y confusión de lenguas. Después de estas fases caóticas, surge la necesidad de una nueva síntesis que finalmente se alcanza y da lugar a una situación clásica. Durante esta etapa, la economía política se convierte en una profesión estable y se centra en la elegancia, la generalidad y la resolución de problemas. Se producen manuales, mejoras, generalizaciones y diversas aplicaciones. El primer ciclo se sitúa entre 1750 y 1780, marcado por la obra "La Riqueza de las naciones" de Adam Smith, que representa una ruptura con el mercantilismo y establece el credo del laissez faire. Después de un periodo de estancamiento, surge el segundo ciclo entre 1815 y 1845, que fue una época de crisis y diversidad teórica con corrientes como la ricardiana, la socialista y la reacción anti-ricardiana. A pesar de las diferencias, esta época generó semillas que influirían en épocas posteriores. El tercer ciclo, de 1870 a 1890, es la época de la revolución marginalista, encabezada por Menger, Jevons y Walras, y concluida por Fisher y Marshall. Esta etapa estuvo marcada por la lucha entre diferentes corrientes teóricas, el renacimiento del pensamiento socialista y el surgimiento de la escuela histórica alemana. El cuarto ciclo se desarrolla en las décadas de 1920 y 1930, conocido como la era de la alta teoría, que produjo varias innovaciones teóricas fundamentales y modificó la orientación de la ciencia económica. Las teorías del ciclo, del desarrollo, del equilibrio general, de la empresa, del dinero, entre otras, surgieron en esta época. El autor menciona que en las décadas de 1950 y 1960 se alcanzó una nueva situación clásica con la síntesis neoclásica, que combinó elementos keynesianos con la teoría marginalista. Esta síntesis se convirtió en una ortodoxia dominante que orientó la investigación y la política económica. Sin embargo, en las décadas de 1970 y 1980 surgió un nuevo ciclo de confusión de lenguas con una variedad de nuevas teorías y enfoques, como la nueva macroeconomía clásica, las teorías post-keynesianas, el neo-institucionalismo, entre otros. Estas dos décadas representan una época de competencia y búsqueda de síntesis teóricas alternativas. En resumen, a lo largo de más de doscientos años de historia del pensamiento económico, se han producido cuatro ciclos de revolución y consolidación de ideas económicas. Actualmente, nos encontramos inmersos en un quinto ciclo caracterizado por una diversidad de teorías en competencia. PLURALIDAD DE INTERPRETACIONES La naturaleza subjetiva de los criterios para determinar qué es innovador u ortodoxo en el pensamiento económico es inevitable. La periodificación basada en estos criterios es cualitativa. La autoridad de Schumpeter no es suficiente para resolver este problema. Se plantea la pregunta de cómo explicar el fenómeno de la evolución no progresiva sino a través de saltos en el pensamiento económico. Una posición inicial es el enfoque incrementalista, que compara el progreso de las ciencias con una bola de nieve que crece al rodar por una montaña. Este enfoque supone la separación de los fundamentos metafísicos de la ciencia económica y su análisis se limita a las teorías. Desde esta perspectiva, la historia del pensamiento económico es vista como un aumento continuo del conocimiento. Algunos economistas neoclásicos defienden esta visión. Sin embargo, esta visión no permite la idea de que la historia del pensamiento económico avance a través de saltos y revoluciones. Las crisis y estancamientos son considerados como efectos negativos de los fundamentos metafísicos y las limitaciones psicológicas de las teorías. En este enfoque, la historia del pensamiento económico se ve como una historia de errores. Por otro lado, se encuentra el enfoque catastrofista o discontinuista, que se basa en las tesis de Kuhn sobre la estructura de las revoluciones científicas. Sin embargo, aplicar estas ideas a la historia del pensamiento económico ha sido problemático debido a la imprecisión de la definición de paradigma de Kuhn y su origen en las ciencias naturales. Aunque se ha reconocido la revolución keynesiana como un ejemplo de este enfoque, su aplicación a otros cambios importantes en el pensamiento económico ha sido más controvertida. Recientemente, se han intentado aplicar los programas de investigación científica de Lakatos a la historia del pensamiento económico. Según este enfoque, un programa de investigación es exitoso si es teóricamente progresivo y empíricamente confirmado. Se abandona cuando se vuelve degenerativo y hay un programa "mejor" con más contenido empírico. Sin embargo, este enfoque no ha tenido resultados significativos en la historia del pensamiento económico. Un enfoque crítico hacia los enfoques incrementalista y catastrofista se basa en considerar la historia de las ideas económicas en relación con los contextos socioeconómicos en los que surgieron. Este enfoque, denominado relativista o mesológico, sostiene que la estructura económica y los cambios en esta son los determinantes últimos del pensamiento económico. Estudiosos institucionalistas, historicistas y marxistas han adoptado este enfoque, argumentando que la teoría económica refleja la realidad socioeconómica en la que se desarrolla. En resumen, existen diferentes enfoques para estudiar la historia del pensamiento económico, desde el incrementalista y el catastrofista hasta el mesológico. Cada enfoque tiene sus propias premisas y limitaciones. El enfoque mesológico, que considera la relación entre teoría económica y contexto socioeconómico, ha sido adoptado por muchos estudiosos, pero su fundamentación epistemológica. NUESTRO PUNTO DE VISTA Este panorama de la historia del pensamiento económico no busca ser una historia de personajes ilustres ni una historia sistemática de los errores que han llevado al avance del conocimiento científico. El enfoque es que la economía no es una disciplina darwiniana, donde el último desarrollo contiene todos los desarrollos anteriores y no pueden ser olvidados o superados. Aunque se reconoce la evolución en el proceso histórico del cambio de ideas económicas, se niega que sea un desarrollo unidireccional, homogéneo o único, y se niega que las teorías populares sean necesariamente la clave para entender el proceso. Se evita caer en ingenuidades y simplificaciones "mesológicas" al producir historias del pensamiento económico basadas en retratos o al tratar la evolución de las ideas económicas como apéndice de los hechos económicos. Se reconoce que la realidad estudiada por los economistas no es inmutable como en las ciencias naturales, ya que los hechos económicos cambian en el tiempo y el espacio, lo que hace que los problemas cruciales en un período puedan ser irrelevantes en otro. Se enfatiza que las sociedades en su conjunto determinan el clima cultural que limita las opciones de los científicos y deciden la importancia de los problemas, las direcciones de búsqueda de soluciones y qué teorías son correctas. Se señala que la sociedad no es un sujeto homogéneo en las ciencias sociales, ya que existen diferencias de clase, cultura y nacionalidad, y las relaciones entre los sujetos pueden ser conflictivas. Las sociedades no siempre son imparciales ni tienen claridad en lo que quieren, lo que lleva a diferentes teorías económicas basadas en diferentes actitudes hacia los problemas, como el desempleo. Además, los criterios con los que la sociedad determina qué teorías son correctas son efímeros y parciales, lo que implica que la pluralidad de visiones y soluciones generadas por la sociedad a menudo se suprimen en favor de una sola teoría. Se destaca la importancia de las tradiciones en la formación del pensamiento económico, ya sea en el contexto nacional, en escuelas de pensamiento académicas o en influencias políticas. Estas tradiciones influyen en la actividad científica y contribuyen a la evolución del pensamiento económico junto con las orientaciones de base. En ciertos períodos históricos, las orientaciones de base sobre cuestiones teóricas fundamentales y las tradiciones se combinan para formar sistemas teóricos que intentan ofrecer respuestas coherentes y completas a los problemas de investigación en un campo específico. Se menciona el ejemplo del sistema neoclásico, que se formó a mediados del siglo XIX y alcanzó su organización sistemática a finales del siglo XIX y mediados del siglo XX. Este sistema se basó en orientaciones de base como la teoría subjetivista del valor, la teoría microeconómica de la distribución y la teoría armonista del equilibrio, todas organizadas en torno al principio de maximización bajo ciertos objetivos para los agentes económicos individuales. Texto 2: Deane, Phyllis (1993): “El Estado y el sistema económico, Introducción a la historia de la economía política” Editorial Crítica, Barcelon Capítulo 3: La búsqueda de principios científicos, pp. 45-61 Frecuentemente, en la historia de las ideas, el siglo XVIII es presentado como el Siglo de las Luces. El legado más significativo de la Revolución científica no fue el contenido teórico o factual de la nueva visión de mundo, el nuevo paradigma que ésta estableció para la ciencia natural, sino los horizontes sin límites que abrió para el entendimiento humano en general. Así la comunidad intelectual europea heredó una confianza sin precedentes en la habilidad del hombre moderno para descubrir los secretos del proyecto de Dios para el universo, simplemente ampliando sus poderes de observación y razonamiento a un estudio objetivo del mundo que le rodea, tanto el mundo social como el mundo natural. Fue Isaac Newton, el científico mayormente responsable de la confianza intelectual de los pensadores del Siglo XVIII. ● No era difícil creer que un orden similar divinamente regulado debía (o debería) prevalecer en las relaciones humanas como en los cielos y que adoptando el método de investigación newtoniano, experimental e inductivo -llegando incluso a identificar analogías metafísicas con el poderoso concepto físico de la gravedad-, proporcionaría a los filósofos sociales la llave del plan de Dios para el mundo moral y político. ● La mayoría de los pensadores del siglo XVII -o principios del XVIII- que intentaron analizar las cuestiones sociales y políticas con un espíritu deliberadamente científico destacaron su imparcialidad u objetividad, su buena disposición a someter sus hallazgos a una crítica informada y su profundo respeto por la evidencia factual positiva. Estos eran los elementos distintivos reconocidos de los científicos de la Royal Society. ○ Contrastaban con la actitud cartesiana continental, que suponía que el Arquitecto Divino ya había programado la mente humana de las ideas innatas y los poderes infalibles de razonamiento que guiarían al pensador racional hasta la auténtica verdad. ○ La tesis newtoniana de investigación científica tenía implicaciones ideológicas que encajaban bien con la tradición pragmática epistemológica inglesa. La identificación de una analogía entre un sistema solar autorregulado y una economía autorregulada hubo de esperar a que los filósofos concibieran teorías o predecir un comportamiento humano en el mercado aprendido para separar el concepto de un sistema económico -una economía en el sentido moderno de la palabra- de la comunidad política en que surgieron los problemas económicos contemporáneos. Mientras tanto, el incremento de la escala de la complejidad del comercio y de la industria y el aumento asociado de sus dimensiones nacionales e internacionales estimularon una corriente cada vez mayor sobre cuestiones de política económica. La mayoría de ellos fueron escritos con la intención de prescribir a favor o en contra de formas específicas de intervención legislativa en los mercados de dinero, de bienes o de trabajo. Buscaban cada vez más la justificación de sus preceptos sobre bases científicas en términos de “leyes naturales”, evidentes en sí mismas, que presuntamente el Divino Legislador había impuesto para mantener el orden civil en la sociedad y que eran análogas a las leyes físicas, que en aquel entonces eran objeto de consenso entre aquellos científicos que investigaban el mundo material. Efectivamente, lo que buscaban eran las leyes y regularidades económicas que, evidentemente, coordinaban las actividades de una multitud de individuos que operaban en los mercados en parte coincidentes de dinero, bienes y trabajo. - Muchos escritores que trataban cuestiones económicas habían empezado ya a razonar sobre el tema en términos de fuerzas impersonales que tendían a estimular y posteriormente estabilizar el cambio económico, y que ellos asociaban con los problemas políticos de reconciliar con los conflictos económicos entre el interés propio personal y el interés público. - El supuesto de un mecanismo naturalmente autoequilibrador, inherente en todos los mercados libres, concordaba con las actitudes políticas antiautoritarias comunes en la Inglaterra posterior a la Revolución, y los conceptos de contrapeso y equilibrio y de flujos autorreversibles en los canales de circulación se hicieron cada vez más familiares en las discusiones sobre comercio internacional y pagos sobre la formación de los precios y la circulación de dinero. - El desempleo era considerado como el primer problema político, puesto que era relevante tanto para el mantenimiento de actividad económica nacional como para un orden social estable, que, evidentemente, corría peligro cuando la distribución de las rentas entre ricos y pobres se movía en direcciones inaceptables. Los observadores del siglo XVII (Locke, por ejemplo) ya habían articulado una relación entre la cantidad de dinero en circulación, por una parte, y los niveles de precios de las mercancías y de los tipos de interés o el volumen de negocio y de empleo, por otra. Lo que Locke no había conseguido explicar era el mecanismo de interacción entre dichas variables. Comunidad Intelectual ● Una de las características más interesantes de la comunidad intelectual que puso los cimientos de una disciplina distinta de economía política era su calidad cosmopolita. ● Más importante todavía en la elaboración de sus preceptos económicos de alguno de ellos fue el hecho de que asesoraban a políticos económicos que operaban en sistemas mucho más dirigistas y autoritarios en ideología y estructura política que el sistema surgido de la Revolución inglesa de 16881. 1 Básicamente se acotaron los poderes del monarca. ● John Law, Richard Cantillon y sir James Steuart son tres casos opuestos a contrastar. La principal contribución de Law2 al desarrollo del pensamiento económico procedía no tanto de su análisis publicado como de las consecuencias de su extraordinario éxito en persuadir al regente francés para que adoptara lo que los contemporáneos denominaron su sistema. La esencia de Law -los principales argumentos desarrollados en Money Considered, escritos cuando asesoraba al gobierno escocés- consistía en reemplazar el dinero metálico convencional por un papel moneda controlado (emitido por un banco central y garantizado por el gobierno central). La finalidad del sistema que expuso al gobierno francés era la de ampliar la oferta del dinero en la medida suficiente para estimular una explosión económica en Francia, impulsada por los recursos naturales disponibles en su enorme colonia norteamericana de Luisiana. Había dos cosas que Law comprendía con mayor claridad que sus contemporáneos: 1) En una economía con recursos de trabajo desempleados, una expansión en la oferta de dinero podría dar lugar a un virtuoso círculo de prosperidad al aumentar la demanda del consumidor y adelantar a los productores los fondos de inversión que necesitaban para incrementar la producción con mayor rapidez que el consumo doméstico o los precios, generando, así, exportaciones adicionales y garantizando una balanza comercial favorable (o evitando, en cualquier caso, una balanza desfavorable). 2) El valor del dinero depende enormemente de la confianza de aquellos que lo utilizaban para cambiarlo por mercancías y que un papel moneda pudiera, en principio, ser expandido o contraído en estricta relación con la demanda del mismo era menos susceptible de provocar fluctuaciones perturbadoras de los precios y del empleo que una moneda puramente metálica, cuya oferta dependía de la balanza comercial o de la producción minera. - Sin embargo, la confianza es una variable más volátil de lo que la simple lógica económica pueda justificar y flaquea fácilmente tanto por la ineptitud (real o imaginada) de aquellos que ejecutan la política económica como por los acontecimientos económicos inesperados. El error fundamental del sistema de Law fue que estaba basado en una teoría que simplificaba en exceso el papel del dinero, tratándolo como nada más que una ficha de intercambio. El dinero -afirmó- no es el valor por el cual son intercambiadas las mercancías, sino el valor mediante el cual son intercambiadas, y en su determinación de proporcionar compradores y vendedores una moneda que nunca tuvieran la intención de atesorar, ignoró la función3 de depósito de valor qué tan efectivamente cumplía la moneda de oro o plata. John Law fue un economista escocés inventor del papel moneda en Europa. Su idea económica central era que el dinero es un medio de intercambio y no constituye una riqueza en sí mismo, y que la riqueza nacional depende del comercio. Wikipedia 2 Nacimiento: 16 de abril de 1671, Edimburgo, Reino Unido Fallecimiento: 21 de marzo de 1729, Venecia, Italia 3 Las funciones del dinero El dinero cumple tres funciones básicas: ● Medio de cambio, porque es intercambiable por otros bienes y servicios. Esta función es la principal y anula el trueque. ● Unidad de cuenta, porque determina el precio de cualquier bien en función de una cantidad de dinero. ● Depósito de valor, debido a que podemos ahorrar dinero para conservar riqueza. Richard Cantillon4 y sir James Steuart5 compartían su preocupación por hacer el uso más 4 Richard Cantillon fue un economista franco-irlandés, autor del "Essai sur la Nature du Commerce en Général". Fue considerado por William Stanley Jevons como "la cuna de la Economía política". Nacimiento: 1680, Ballyheigue, Irlanda Fallecimiento: 1734, Londres, Reino Unido Sir James Steuart, 3.º Baronete de Goodtrees e posteriormente 7.º Baronete de Coltness; mais tarde Sir James Steuart Denham, também chamado de Sir James Denham Steuart ( /ˈstuːərt,_ˈstjuːʔ/; 21 de outubro de 1713, Edimburgo – 26 de novembro de 1780, Coltness, Lanarkshire) foi um famoso jacobita e autor do "provável primeiro tratado sistemático escrito em 5 [1] inglês sobre economia" e o primeiro livro em inglês com 'política economica' no título. —----------------------------------------------------------------------------------------------------------------------------------------------------------------------------- Cap 5 : El individuo en la teoría de juegos: desde puntos fijos a Experimentos 5.1 El comodín de la teoría de juegos En el capítulo 5.1, se explora la incorporación de la interacción estratégica en la teoría de juegos y cómo afecta la concepción del individuo en la economía. En la teoría de juegos no cooperativos, los individuos interactúan directamente y sus decisiones dependen de las acciones de los demás. Esto contrasta con la visión estándar en la que la interacción es indirecta y las elecciones son independientes. Hay dos enfoques polarizados en la teoría de juegos contemporánea: uno enfatiza los juegos no cooperativos de un solo juego y el otro se centra en los juegos de repetición indefinida. El primer enfoque argumenta que la interacción no marca una gran diferencia en la concepción individual estándar, mientras que el segundo sostiene que la interacción puede ser significativa. Se plantea que agregar la interacción en la explicación de los individuos es como un "comodín" que cambia nuestra forma de pensar sobre ellos. El capítulo también señala que la teoría de juegos ha influido en la economía desde la década de 1980 y ha desafiado la concepción tradicional del Homo economicus. Los juegos no cooperativos de un solo juego se utilizaron ampliamente para examinar cuestiones fundamentales en economía, pero surgieron limitaciones en el marco de la teoría de juegos clásica de Nash, lo que condujo al desarrollo de conceptos de solución más fuertes. Por otro lado, los juegos de repetición indefinida presentan desafíos adicionales debido a su propensión a comportamientos cooperativos y han llevado a la realización de experimentos para determinar los resultados de equilibrio. En la sección 5.2 se discute la concepción del individuo en el programa de refinamiento Nash-Harsanyi-Aumann, que busca establecer equilibrios en juegos de información incompleta. Se compara esta visión con la concepción estándar de preferencias subjetivas del individuo y se argumenta que están relacionadas. En la sección 5.3 se evalúa la concepción de individuo en juegos de información incompleta y se concluye que está en línea con la concepción estándar, limitando la contribución de la interacción estratégica para repensar al individuo. La sección 5.4 se centra en los juegos de repetición indefinida y los experimentos realizados en la Universidad de Michigan, y se plantea la cuestión sobre el papel del experimentador en la construcción de los individuos y la validez externa de los experimentos. Se destaca que la exploración de los juegos de repetición indefinida ha tenido implicaciones importantes para la economía y el marco de juegos no cooperativos de un solo juego. En la sección 5.5 se discute qué concepción del individuo surge en un marco de interacción experimentalista y se concluye que, aunque muchos investigadores siguen aferrados al Homo economicus, no descartan otras visiones alternativas. El capítulo concluye en la sección 5.6 señalando las limitaciones de enfatizar únicamente la interacción como una forma de explicar a los individuos y planteando la posibilidad de un cambio de paradigma en la economía estándar hacia un enfoque más interaccionista sobre la naturaleza de los individuos. 5.2 El programa Nash-Harsanyi-Aumann: identidad de punto fijo En el programa Nash-Harsanyi-Aumann, se aborda la concepción del individuo en el contexto de los juegos estratégicos. La demostración de Nash sobre la existencia de equilibrios en estos juegos proporcionan una base formal para explicar la existencia de los individuos que participan en ellos. El programa se basa en el teorema del punto fijo de Brouwer-Kakutani, que establece que una transformación que mapea cada punto de un conjunto a otro punto dentro del mismo conjunto tiene un punto fijo, es decir, un punto que se mapea en sí mismo. Este teorema demuestra la existencia de relaciones consistentes al anclar el sistema en una relación auto-idéntica. Si aplicamos esta comprensión a los individuos en los juegos, podemos considerarlos como sistemas consistentes de relaciones. Cada individuo, compuesto por múltiples puntos que lo representan, se transformaría en sí mismo a través de la relación auto-idéntica. Esto implica que la existencia de cada individuo depende de esta relación auto-idéntica, similar a cómo se explica la identidad personal en filosofía. Para caracterizar formalmente a un individuo en términos económicos, se requiere que un punto fijo se transforme en sí mismo, lo cual implica que debe ser reflexivo. Los individuos son reflexivos en el sentido de que, en todas las transformaciones posibles, se reproduce constantemente una relación auto-idéntica si el individuo existe como un sistema de relaciones único. En la teoría de la utilidad estándar, los individuos son reflexivos en este sentido, ya que sus preferencias auto-idénticas se reproducen en todas las transformaciones. Sin embargo, surge un problema debido a la naturaleza privada y subjetiva de las preferencias. Al ser subjetivas, se basan en las "propias" preferencias del individuo y presuponen su existencia en lugar de proporcionar una explicación para ella. Esto plantea una diferencia importante entre la teoría estándar de la utilidad y la teoría de juegos del programa Nash-Harsanyi-Aumann. En la teoría de juegos, especialmente en juegos de información completa, todas las preferencias de los individuos son conocidas por todos los jugadores, lo que fundamenta su subjetividad en la interacción del juego en lugar de ser exclusivamente "propias". Esto permite tratar las preferencias auto-idénticas de los individuos como la fuente de una relación auto-idéntica en la que el individuo se reproduce constantemente. En resumen, el programa Nash-Harsanyi-Aumann aborda la concepción del individuo en términos de relaciones auto-idénticas y reflexividad. A través del teorema del punto fijo y la interpretación de las preferencias en el contexto de juegos de información completa, se proporciona una base formal para explicar la existencia de los individuos y su participación en los juegos. 5.2.1 Juegos con información completa El programa de refinamiento Nash-Harsanyi-Aumann aborda la concepción del individuo en el contexto de la teoría de juegos, utilizando el teorema del punto fijo de Brouwer-Kakutani como base para explicar la existencia de individuos en los juegos. En los juegos de información completa, los jugadores necesitan conocer las reglas del juego, las ganancias de utilidad de los demás jugadores y jugar de manera racional. La conciencia mutua y el conocimiento común son requisitos fundamentales para el equilibrio de Nash. A diferencia del modelo estándar de utilidad, que enfatiza las preferencias privadas e independientes, en la teoría de juegos se considera el conocimiento mutuo y el conocimiento común, lo que organiza las preferencias individuales en una estructura transparente y reflexiva. Las preferencias individuales siguen siendo subjetivas, pero se enmarcan en un contexto intersubjetivo de interacción en los juegos. En este marco, los individuos se consideran sistemas de relaciones organizados en torno a una relación auto-identificada que se reproduce constantemente. Por lo tanto, la identidad y la existencia del individuo se determinan en términos de estas preferencias auto-idénticas, pero en el contexto interactivo de los juegos, adquieren un significado diferente, incorporando la individualidad en la sociedad. 5.2.2 Juegos con información incompleta Los argumentos de Harsanyi abordan dos problemas relacionados con los juegos de información incompleta. En primer lugar, el marco de equilibrio de Nash requiere información completa, pero la mayoría de los juegos son juegos de información incompleta. En segundo lugar, las estrategias mixtas (combinación de diferentes estrategias puras con probabilidades) son necesarias para justificar los equilibrios de Nash en muchos juegos, pero las estrategias mixtas carecen de plausibilidad en la toma de decisiones del mundo real. Harsanyi propone una solución al utilizar estrategias puras que se presentan como estrategias mixtas a través de las conjeturas o suposiciones de otros jugadores sobre las estrategias puras que están siendo jugadas. Esto permite analizar los juegos de información incompleta como si se estuvieran jugando estrategias mixtas. Aumann extiende la doctrina de Harsanyi al argumentar que, si los individuos comparten creencias iniciales y actualizan sus creencias de manera bayesiana cuando se enfrentan a diferencias de información, las diferencias de información se eliminan y las probabilidades posteriores se vuelven iguales. Esto se debe a que el conocimiento común prevalece sobre la información asimétrica, lo que implica que los jugadores no pueden estar de acuerdo en estar en desacuerdo. Harsanyi propone que los juegos de información incompleta se formulan considerando los tipos de jugadores en lugar de los jugadores individuales. Los jugadores se representan como tipos que poseen ciertas características, y las evaluaciones de probabilidad se basan en las características conocidas por todos los jugadores. Cada jugador estima las probabilidades de que otros jugadores sean de ciertos tipos y actúa asumiendo que los demás harán lo mismo. La evaluación de los tipos de los jugadores se realiza condicionada al conocimiento de su propio tipo. La ganancia esperada de cada jugador depende de las estrategias de todos los oponentes potenciales, lo que implica que los tipos de jugadores son los "verdaderos jugadores" y sus funciones de ganancia son las "verdaderas funciones de ganancia". De esta manera, se puede definir fácilmente el equilibrio de Nash en el juego construido. En resumen, los argumentos de Harsanyi resuelven los problemas de información incompleta y justificación de estrategias mixtas al considerar los juegos como si fueran juegos de información completa y utilizar tipos de jugadores como los "verdaderos jugadores" en el análisis del equilibrio de Nash. 5.3 Conocer tu propia identidad El argumento planteado es que los juegos de información completa sustituyen la concepción subjetiva de las preferencias individuales por una concepción objetiva del juego, lo que representa un avance en la forma de pensar sobre el individuo. Sin embargo, en los juegos de información incompleta, el marco de Harsanyi-Aumann reintroduce el concepto problemático de preferencias privadas de la teoría de utilidad estándar. En estos juegos, los jugadores conocen sus propios tipos con certeza, pero solo tienen información probabilística sobre los tipos de los demás jugadores. Esto implica que los jugadores tienen un acceso especial a sus propias preferencias, lo que contradice la estructura intersubjetiva del juego. En consecuencia, se vuelve al enfoque de utilidad subjetiva estándar, que resulta circular y vacío, y no proporciona una concepción adecuada del individuo en un contexto de información incompleta. Aunque el marco de Harsanyi-Aumann se ha utilizado ampliamente en la economía para analizar juegos de información incompleta, el concepto de preferencias individuales no desempeña un papel funcional en dicho análisis. El enfoque se centra en la naturaleza de la interacción entre los jugadores, asumiendo que los tipos de los jugadores son dados y descartando la posibilidad de que la interacción estratégica cambie la naturaleza de los jugadores. Sin embargo, es razonable considerar que los individuos pueden cambiar sus tipos y otras características como resultado de la interacción estratégica. La teoría evolutiva de juegos aborda explícitamente esta cuestión al investigar cómo la interacción endogeneizar a los jugadores a lo largo de las trayectorias de pagos. En resumen, el análisis de los juegos de información incompleta de Harsanyi-Aumann restablece el concepto de preferencias privadas, lo cual es problemático en términos de una concepción adecuada del individuo en el contexto de la teoría de juegos. Sin embargo, la investigación experimental de juegos repetidos y la teoría evolutiva de juegos ofrecen oportunidades para desarrollar una concepción más dinámica del individuo en la interacción estratégica. 5.4 Principio del formulario Juegos repetidos y experimentos Los juegos finitamente repetidos se asemejan a los juegos de una sola jugada en el sentido de que los jugadores pueden utilizar la inducción hacia atrás para jugar en la primera ronda de un juego de múltiples rondas lo que jugarían en la ronda final. En contraste, en los juegos de juego repetido indefinidamente, en los que los jugadores no prevén un final del juego, este razonamiento se desmorona y existen un número infinito de estrategias de equilibrio. Esta diferencia plantea la cuestión de la naturaleza del individuo en la interacción estratégica. La investigación experimental en juegos de juego repetidos indefinidamente ha desafiado la concepción del Homo economicus, mostrando que los individuos a menudo cooperan en lugar de solo buscar sus propios pagos. Esto plantea la pregunta de si este tipo de comportamiento también se aplica a los juegos de una sola jugada y de repetición finita en el mundo real. Sin embargo, muchos teóricos de juegos todavía buscan "refinar" nuestra comprensión de los juegos de una sola jugada y de repetición finita, asumiendo que la concepción estándar del individuo es esencialmente correcta y ampliando los principios consistentes con el equilibrio de Nash. La investigación experimental en teoría de juegos ha desempeñado un papel importante en el desarrollo del pensamiento sobre los juegos de juego repetidos indefinidamente. La variedad de soluciones y enfoques experimentales disponibles crea diferentes formas de entender la relación entre la interacción y la naturaleza de los individuos. Además, el diseño del experimento influye en la interacción entre los participantes y puede endogenizar la concepción del individuo. En resumen, la investigación experimental en teoría de juegos ha cuestionado la concepción del Homo economicus al demostrar comportamientos de cooperación en juegos de juego repetido indefinidamente. El diseño del experimento puede influir en la forma en que se endogeniza la concepción del individuo en la interacción. Esto plantea la pregunta de cómo la interacción determina la naturaleza de los individuos en el contexto de los juegos. 5.4.1 Juegos repetidos indefinidamente Los juegos de juego repetido indefinido han sido objeto de debate en la teoría de juegos. Algunos consideran que son menos importantes en comparación con los juegos de una sola jugada, mientras que otros argumentan que podrían ser un modelo para todo comportamiento estratégico. La cuestión del ajuste entre la teoría de juegos y el mundo real ha sido fundamental en la investigación de los juegos de juego repetidos. Los experimentos iniciales de Robert Axelrod, conocidos como el Torneo de Dilema del Prisionero Computarizado, fueron influyentes en este campo. Axelrod invitó a expertos en teoría de juegos a diseñar programas de computadora que compitieron en una secuencia de juegos del dilema del prisionero. El programa victorioso en ambos torneos fue TIT FOR TAT, que adopta una estrategia de cooperación inicial seguida de la acción del oponente en cada ronda. Estos experimentos destacaron la importancia de la cooperación y la reciprocidad en la interacción estratégica. El enfoque en el diseño experimental también surgió en este contexto, ya que se reconoció que los resultados podrían depender de cómo se construyeran los experimentos. Además, se observó una variedad de resultados experimentales que desafiaban la teoría estándar y reforzaban la idea de que el comportamiento individual depende del diseño de la interacción. En general, el experimentalismo en la teoría de juegos ha llevado a cuestionar la concepción fija del individuo y a reconocer que lo que las personas son se ve influenciado por cómo se diseñan las interacciones. 5.4.2 Experimentalismo y Diseño de Mecanismos En resumen, el texto discute los problemas relacionados con el diseño experimental en juegos y la validez externa de los resultados obtenidos en laboratorios. Se plantea que los juegos pueden ser vistos como interacciones continuas en lugar de intercambios aislados, lo que puede llevar a que los sujetos experimentales se comporten de acuerdo a lo que creen que se espera de ellos, incluso si entienden la interacción de manera diferente. El texto también destaca que el entorno del laboratorio es artificial y puede presentar dificultades para representar el mundo real. Se argumenta que la validez externa se ve afectada por la falta de contextos reales y la eliminación de señales contextuales en los experimentos controlados. Además, se menciona que los sujetos experimentales son conscientes de que participan en un experimento, lo que puede influir en su comportamiento. Se plantea la cuestión de si los sujetos experimentales se preocupan por la utilidad del experimentador y si los protocolos del experimento funcionan como señales contextuales que indican cómo se debe jugar el juego. Se sugiere que la identificación social y las señales contextuales pueden influir en el comportamiento de los sujetos experimentales. El texto concluye que la validez externa de los experimentos es problemática debido al metajuego en el que el investigador está incluido. Se argumenta que no hay un punto de referencia externo para evaluar la validez externa y que la idea misma de validez externa pierde su significado. Se menciona el enfoque de la teoría del diseño de mecanismos, que utiliza los resultados eficientes de Nash como base para las políticas o los protocolos de experimentación. También se menciona el enfoque de los paternalistas libertarios, quienes reconocen que las personas no siempre se comportan como el Homo economicus y que las reformas institucionales pueden no producir siempre dicho comportamiento. En general, el texto sugiere que los individuos pueden ser influenciados por el entorno experimental, pero que su comportamiento puede variar y no siempre seguirá las predicciones de la teoría de juegos estándar. 5.5 Ambigüedad y construcción En resumen, el autor sugiere que los juegos de repetición indefinida inicialmente eran menos propicios para el análisis formal en la teoría de juegos en comparación con los juegos de una sola jugada y los juegos de repetición finita. Sin embargo, la investigación empírica de los juegos de repetición indefinida ha impulsado la teoría de juegos experimental, desplazando en gran medida a la teoría de juegos clásica. Esta investigación ha llevado a una reevaluación de la concepción del individuo en la teoría de juegos. En primer lugar, la investigación experimental ha generado una consideración activa de los individuos en interacción. La variedad de soluciones y enfoques experimentales en los juegos de repetición indefinida ha ampliado la comprensión de la interacción y su impacto en los individuos. La visión convencional del individuo como caso general ha dado paso a una visión en la que el comportamiento no convencional se considera más común. Aunque la visión convencional todavía se defiende en economía, ahora necesita ser respaldada con evidencia empírica. En segundo lugar, la interacción estratégica plantea preguntas sobre los límites de la concepción del individuo. La teoría de juegos no ha abordado de manera exhaustiva los límites y la reconfiguración de lo que implica ser un individuo en interacción. La concepción del individuo en la teoría de juegos es ambigua, ya que existen múltiples posibilidades y poca orientación sobre cómo abordar esta cuestión. Además, se plantea la idea de que los investigadores experimentales pueden construir o influir en la identidad de los sujetos experimentales. Los sujetos experimentales ejercen una capacidad reflexiva para adoptar o rechazar la identidad deseada por el investigador. Esta capacidad de construcción de identidad amplía la descripción del experimento e implica una relación entre el investigador y los sujetos experimentales. En conclusión, la teoría de juegos ha influido en el pensamiento económico sobre la concepción del individuo. La investigación experimental ha llevado a una consideración activa de los individuos en interacción, pero los límites y la reconfiguración de la concepción del individuo aún no se han abordado completamente. Además, la capacidad de construir identidades en los entornos experimentales destaca la naturaleza relacional de la identidad del individuo. 5.6 Problemas y límites En resumen, este capítulo analiza dos áreas principales en la teoría de juegos: el programa de refinamiento del equilibrio de Nash-Harsanyi-Aumann y los juegos indefinidamente repetidos desde una perspectiva experimental. Se argumenta que el programa de Nash-Harsanyi-Aumann no logra escapar de las limitaciones subjetivas del enfoque estándar y ofrece una descripción de los individuos como paquetes de estrategias arbitrariamente determinados. Por otro lado, la investigación experimental de los juegos indefinidamente repetidos plantea preguntas sobre la naturaleza de los individuos, aunque aún no se ha llegado a conclusiones definitivas. El siguiente capítulo se centrará en explicaciones racionales de los individuos en dos dominios diferentes: los equipos y la neuroeconomía. Se destaca la importancia de abordar los límites sub personales y supra-personales de la individualidad para una comprensión más completa de los individuos en la economía —----------------------------------------------------------------------------------------------------------------------------Texto 22: Azar P. (2021). Diferencias de género en el comportamiento económico En la teoría económica neoclásica, la racionalidad es uno de los supuestos principales, en donde comportamientos basados en altruismo, arte y belleza, solidaridad, etc. quedan excluidos de la motivación de la acción humana en el aspecto económico. La economía feminista ha realizado esfuerzos por revisar los modelos neoclásicos para incorporar incentivos y comportamientos que no se ajustan a la racionalidad económica que dichos modelos suponen. Existen diferencias en el vínculo tradicional de hombres y mujeres con el mercado y éstas los llevan a tener preferencias y realizar elecciones distintas, incluso ante idénticas situaciones. En base a experimentos realizados a un grupo de estudiantes teniendo en cuenta el “competir” o “cooperar” se arrojaron los siguientes resultados: Los análisis parten del supuesto de que hombres y mujeres reaccionarán diferente frente a la competencia: por lo tanto, se espera que su comportamiento diverge cuando se introducen cambios en el entorno. Efectivamente, en Gneezy, Niederle y Rustichini (2003), el cambio de un desafío personal a uno en competencia implicó una mejora del desempeño de los hombres que se atribuye únicamente a la postura favorable a la competencia que presentan los varones, a diferencia de las mujeres. Aún más, de acuerdo a Niederle y Vesterlund (2007), varones y mujeres difieren en su evaluación acerca del desempeño que tienen en el grupo, y por lo tanto estiman diferente sus oportunidades de éxito, más allá de los resultados reales que obtienen. Ello puede incidir en su actitud frente a la competencia. En el mismo sentido, el trabajo de Niederle y Yestrumskas (2008) enfatiza la disímil percepción de hombres y mujeres de sus capacidades para desempeñarse. Vinculan el resultado a que las mujeres no solo muestran más incertidumbre acerca de sus capacidades, sino que se inclinan menos a explorar y probarlas. En cambio, los hombres presentan una sobreconfianza y más atracción hacia los desafíos, lo que podría explicar la mayor inclinación masculina a la competencia encontrada en el experimento. Las autoras señalan que estas diferencias en la actitud de unas y otros podrían explicar, en parte, la subrepresentación de mujeres en actividades de alto perfil, aunque no existan diferencias de género en la capacidad para realizarlas. ¿Son las mujeres más aversas al riesgo? En la literatura económica, una mayor aversión al riesgo se interpreta directamente como un defecto. Se asocia con una menor habilidad para tomar decisiones “racionales” en juegos de probabilidad, con falta de ambición o con escasa capacidad para avanzar en la pirámide ocupacional o en las jerarquías empresariales. Si las mujeres fueran más adversas al riesgo que sus pares varones, se esperaría que dejaran pasar con más frecuencia oportunidades de lucro, solo por evitar la incertidumbre. El hallazgo más habitual en estos estudios es que, en promedio, las mujeres muestran una mayor aversión al riesgo que los varones. Para ellos, las situaciones de riesgo son un desafío que los convoca a participar. Para ellas, son amenazas que es preferible evitar. Más allá de los experimentos reseñados, también es cierto que cuando se trabaja con muestras de población con calificaciones específicas, por ejemplo gerentes y profesionales activos, las diferencias de género en las preferencias por el riesgo se reducen o desaparecen. Tal es el caso del estudio de Atkinson, Baird y Frye (2003) sobre el comportamiento inversor de hombres y mujeres gerentes de fondos mutuales de inversión. Las diferencias en el desempeño se atribuyen a conocimiento de la materia y a restricciones en el nivel de riqueza que se maneja en los portafolios, pero no al género. ¿Las mujeres se preocupan más que los hombres por el bienestar del resto? Ortmann y Tichy (1999) diseñan un juego basado en el dilema del prisionero usando las recompensas percibidas por cada elección para analizar diferencias de género en la manera de tomar decisiones estratégicas a través de diferentes rondas. Encuentran que en las primeras rondas, las mujeres optan por cooperar con más frecuencia que los hombres (41 % vs. 30 %). Sin embargo, en las rondas siguientes, el nivel de cooperación baja y la diferencia entre hombres y mujeres se reduce. Es decir, la cooperación o el engaño a través de las rondas lleva a un aprendizaje sobre el comportamiento esperado que es similar para varones y mujeres. Por lo tanto, aunque en las primeras rondas las mujeres se aproximen al juego de manera más cooperativa que los hombres, con la experiencia alinean sus comportamientos. A priori, parecería encontrarse una predisposición diferente a la negociación en los varones y mujeres que participan de los experimentos. Ellas parecerían sentirse menos cómodas con la negociación o mejorar su desempeño solo cuando negocian por los demás, es decir cuando son responsables de velar por los intereses de otras personas. Además, parecerían tender a adoptar comportamientos que las conducen a reducir las probabilidades de obtener mejores condiciones laborales o mayores reconocimientos (como en el caso de la académica). Sin embargo, las diferencias psicológicas por género que parecen detectarse también parecen diluirse con la experiencia. ¿Cuánto explica la biología y cuánto la cultura las diferencias de comportamiento entre hombres y mujeres? Los seres humanos somos producto de la evolución, por lo cual es posible que ésta tenga un rol importante para configurar las preferencias de hombres y mujeres en función de qué actitud les ha sido más efectiva para preservarse en el entorno desde tiempos remotos. Desde esta perspectiva, la mayor predisposición hacia la competencia de los varones respecto a las mujeres podría tener su origen en la necesidad de asegurarse el éxito reproductivo. Dado que los hombres pueden tener más hijos que las mujeres, tienen más que ganar de la competencia frente a otros hombres, desde el punto de vista reproductivo. Por otra parte, es cierto que existen diferencias biológicas entre hombres y mujeres, con implicancias directas para el desempeño económico de cada uno (por ejemplo, la fuerza física habilita a ocupar ciertos puestos de trabajo o las tareas asociadas al nacimiento pueden afectar la inserción laboral de las madres). A su vez, desde el punto de vista de la cultura o la socialización de género; los roles de género no son innatos, sino aprendizajes de nociones socialmente construidas. En este sentido, el comportamiento de hombres y mujeres bien podría derivarse de normas construidas socialmente. Comportarse de acuerdo a estas expectativas puede reflejar la voluntad de actuar según lo que se espera de la pertenencia a una determinada categoría social. Se espera que hombres y mujeres tengan diferentes roles en las sociedades y así son entrenados desde la niñez. Varios experimentos demuestran que para el caso de la mujeres, el haber tenido profesores de su mismo sexo mejoraría su desempeño educativo posterior; no así en el caso de los hombres para los cuales es indiferente. Entonces ¿cuál es la explicación? Más que elegir una u otra línea de argumentos, es probable que ambas se complementen. —---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- Texto 23. Backhouse, R. E, y Cherrier, B. (2017). The age of the applied economist: the transformation of economics since the 1970s. History of Political Economy, 49(Supplement), 1-33. El texto empieza con una frase de Angus Deaton (2007) que dice: “Si la tesis típica de los ochenta era una elaborada pieza de teoría de precios estimada por máximos no lineales basada un número muy reducido de observaciones, la tesis típica de hoy utiliza poca o ninguna teoría, una econometría mucho más simple y cientos de miles de observaciones”. Dicha afirmación demuestra el cambio a lo largo del tiempo que tuvo el tratamiento de los problemas económicos dado por los economistas, que al inicio se basaba prácticamente en teoría y muy pocas observaciones, para ahora, un uso reducido de teoría y una extrema importancia aplicada a las observaciones. Una crítica común del pasado era que los economistas, en lugar de comprometerse con el mundo real, formulaban supuestos que les permitían sacar sus conclusiones preferidas. La transformación de la economía en las últimas décadas del siglo XX se ha denominado cada vez más un "giro empírico". El autor menciona que desde los años 80 se produjo un gran crecimiento de la investigación empírica y al mismo tiempo un declinio de la investigación teórica. Sobre esta base, se anuncian conclusiones como "la muerte de la teoría" o al menos un "cambio de paradigma". Muestra que se ha producido un cambio dirigido al trabajo empírico en tres de las principales revistas, que los trabajos empíricos han adquirido más prestigio. El autor menciona que existen varias razones de por qué se fue dando este cambio. Una de ellas es la ya mencionada arriba, el prestigio del trabajo económico empírico. Otras son el surgimiento de nuevas técnicas, como la contabilidad nacional, los índices del coste de vida, el análisis input-output, el análisis coste-beneficio y la evolución de las finanzas supusieron el desarrollo de nuevos conceptos y herramientas, así como grandes proyectos para recopilar, registrar y dar sentido a los datos. De la tabla presente en la página 3 del texto que muestra la metodología usada en la publicación del “American Economic Review” desde 1963 hasta 2011 se pueden sacar 3 conclusiones fundamentales: En primer lugar, el período en el que la teoría, tal y como se entiende ahora el término, dominó el trabajo empírico, que duró unos treinta años, fue interludio excepcional. En segundo lugar, se ha producido un cambio en la relación entre el trabajo teórico y empírico, pero el trabajo empírico no se ha desconectado completamente de la teoría. En tercer lugar, el descenso más significativo es el de los artículos exclusivamente teóricos. Como afirmó Dani Rodrik (2015): "Hoy en día, es prácticamente imposible publicar en las mejores revistas …de desarrollo y economía internacional sin incluir algún análisis empírico serio. ... Las normas de la profesión exigen ahora mucha más atención a la calidad de los datos, a la inferencia causal a partir de pruebas y a una serie de trampas estadísticas. En general, este giro empírico ha sido bueno para la profesión.” La importancia concedida a la "teoría aplicada" y al análisis político es un claro indicio de que lo que ha ocurrido recientemente no sólo se refiere al trabajo empírico, sino que abarca la relevancia de la teoría y la política. Esto sugiere que la economía no ha pasado realmente "de la teoría a los datos", sino que ha experimentado una profunda redefinición de la relación entre el trabajo teórico y el empírico. El autor afirma que el término “aplicada” de economía aplicada tiene un efecto ambiguo pero, en realidad lo hace mejor y no peor para lo que pretende explicar. Dice que se necesita un término que englobe un conjunto grande de identidades y prácticas que aquellos que se acompasan dentro del término “empírico”. Como sostiene Erickson, la "aplicación" se refiere a menudo a la capacidad de una teoría para producir padrones innovadores de colaboración, no sólo su capacidad para predecir o describir resultados. En resumen, este volumen trata de cómo el periodo en el que ser teoricista era la actividad más prestigiosa para un economista evolucionó hasta la situación actual en que los economistas se enorgullecen de ser aplicados, ya sean teóricos aplicados o economistas empíricos que abordan problemas de política. El texto también aborda detalladamente la relación entre estudiantes de economía, los profesores y la importancia que se daba a diversos temas a lo largo de los años 40/50 hasta el 2000. Y comó se fueron observando esos diversos cambios. Se puede ver un ejemplo cuando menciona que la creciente complejidad de la relación entre teoría y aplicación quedó ilustrada por los premios de los años 60 y principios de los 70, cada uno de los cuales implicaba una relación diferente entre teoría y aplicación. También menciona algunas ramificaciones políticas, por ejemplo: a principios de la década de 1970 se sucedieron varios ataques en discursos presidenciales contra la economía por ser demasiado teórica y alejada de la realidad. Una primera explicación del giro aplicado en economía es el surgimiento de nuevas y diversas técnicas para confrontar los modelos con los datos. Otra técnica cada vez más utilizada era la economía experimental. El período en que la economía experimental se afianzó firmemente coincide con el desarrollo de un conjunto de diversas técnicas. Otras técnicas difuminaron la demarcación entre teoría y trabajo aplicado, construyendo objetos económicos en el mundo real en vez de solamente estudiarlos. Una segunda explicación del reciente giro aplicado es la "revolución de los datos". Aunque la reciente explosión de bases de datos digitales multivariables a gran escala y en tiempo real es alucinante y tiene el atractivo de una revolución, la disponibilidad de datos económicos también ha evolucionado constantemente desde la Segunda Guerra Mundial. Más que una revolución en los años ochenta o en cualquier otra década, la historia de la economía parece ser una de constante adaptación a nuevos tipos de datos. En 1970, por ejemplo, Jorgenson explicó que "la base de datos para la investigación econométrica se está expandiendo mucho más rápidamente que la propia investigación econométrica". La espectacular mejora en la recopilación y el almacenamiento de datos ha sido posible gracias a la mejora de la tecnología informática. Normalmente considerado como el factor más importante detrás del giro aplicado, el ordenador ha influido en mucho más que solamente los datos económicos. No era inevitable que los ordenadores irían favorecer trabajo empírico sobre la teoría: de hecho, uno de los principales usos de los ordenadores era la simulación, una técnica (o quizá una familia de técnicas) que difuminaba la distinción entre teoría y trabajo aplicado. Uno de los puntos que afirman Blackhouse y Cherrier es que las simulaciones desdibujan la distinción entre teoría y aplicación. A lo largo de la posguerra, los economistas han afirmado repetidamente que la disponibilidad de nuevos conjuntos de datos y la potencia informática para analizarlos han transformado diversos campos. Sin embargo, en todas las historias mencionadas en este texto, la diversidad de las prácticas de economía aplicada es el resultado no sólo de combinaciones idiosincrásicas de técnicas de modelización, conjuntos de datos, de técnicas de modelización, software y hardware; también fue consecuencia de una variedad de sitios, antiguos y nuevos, en los que se practicaba la economía aplicada, y de las cambiantes demandas que patrones y clientes imponían a los economistas. Esto, por supuesto, está relacionado con la orientación política del giro aplicado. Un ejemplo del texto: los economistas se enfrentaron con exigencias diversas, a veces contradictorias, que crearon nuevas formas de hacer un trabajo "aplicado" y capas adicionales de complejidad en las relaciones de estas prácticas con el trabajo teórico. (Esto es importante para la conceptualización de lo que le ocurrió a la economía en aquel "plan macroeconómico" se dejó de pensar en metas y objetivos para pasar a comprender métodos y técnicas que se concibieron independientemente.) Todo esto sugiere que el giro hacia la economía aplicada, que implicó cambios tanto en las prácticas de los economistas como en la percepción de su identidad, fue cambiado, en cierta medida, por las exigencias políticas y las instituciones que las mediaron. Conclusión: Las décadas de 1950 y 1960 podrían describirse como la era del economista teorista. La teoría ocupaba un lugar destacado en las principales revistas y fue estructurando cada vez más la forma en que los economistas pensaban sobre problemas económicos. Como hemos mostrado, la situación cambió gradualmente, a medida que nuevas técnicas y nuevas fuentes de datos permitieron obtener resultados que los economistas consideraban más sólidos. Se consideraba que el trabajo aplicado necesitaba una base teórica, y la econometría se utilizaba para probar hipótesis teóricas formalmente especificadas. Pero al mismo tiempo, el giro hacia la teoría de juegos y el desarrollo de teorías de información imperfecta y asimétrica ampliaban enormemente las herramientas teóricas a disposición de los economistas, proporcionando teorías formales de fenómenos sobre los que antes los economistas sólo podían hablar de manera informal. A medida completo posible de los recursos nacionales como primer objetivo de la política económica. También vivieron y escribieron en un contexto continental europeo donde las monarquías absolutas constituían la norma y donde la intervención del gobierno en los asuntos económicos era más típicamente aceptable de lo que era habitual en la Gran Bretaña del siglo XVIII. - Sin embargo, diferían de Law en que sus escritos estaban basados más en un interés esencialmente científico por comprender cómo funcionaba la economía de mercado que en un deseo de promover propuestas de política económica altamente específicas. - Contribuyeron más directamente al nacimiento de una particular tradición analítica, una nueva disciplina, que la multitud de polemistas y persuasores que hacían aportaciones a la corriente de folletos económicos de la primera mitad del siglo XVIII. El concepto de economía como un sistema separado del sistema político y, por consiguiente, el desarrollo de una disciplina de la economía política tomó forma bastante gradualmente en el discurso argumentativo del siglo XVIII. Había TRES ASPECTOS de la teorización económica a considerar antes de que ésta pudiera generar un nuevo programa de investigación científica. 1. El primero era el aspecto dinámico, la idea de que una cosa conduce a otra y de que las vinculaciones regularmente observadas entre las variables o los acontecimientos comportan implicaciones causales capaces de justificar predicciones. 2. El segundo era el aspecto de la interdependencia, la idea de que en un sistema todo depende de todo lo demás y de que hacer un seguimiento de los efectos de acontecimientos o políticas económicas concretos requería asesoramiento sobre la naturaleza y grados de dependencia entre las variables relacionadas. 3. Y el tercero era la idea del cambio estructural, de que los efectos del cambio social y político o económico sobre el comportamiento del mercado dependen no sólo de las direcciones de causalidad y de las estructuras de dependencia, sino también de cómo se redistribuyen las rentas y los gastos entre los agentes económicos, grupos sociales, sectores industriales o nacionales. El aspecto dinámico se introdujo progresivamente en el análisis económico a principios del siglo XVIII: apareció como ejemplo en los argumentos de Law. Los aspectos de la interdependencia y del cambio estructural eran más complejos y más difíciles de manejar con las simples técnicas de explicación o justificación de la demanda y de la oferta que, para entonces, eran herramientas familiares utilizadas en las discusiones sistemáticas de política económica. Dichos aspectos precisaban de herramientas técnicas análiticas más poderosas y desafíaban a los teóricos a desarrollar niveles más altos de abstracción. que esto sucedía, el papel de la teoría cambió. Ya no era posible poner fe en una única teoría general que lo abarcara todo: en su lugar, lo mejor que podían esperar los economistas era una serie de teorías, cada una de las cuales podía utilizarse en diferentes circunstancias. Este es el antecedente del creciente uso del término teoría aplicada. Los crecientes y complejos vínculos con los responsables políticos y una variedad de clientes también hicieron más difícil aplicar la teoría de forma estandarizada. Las demandas públicas y privadas empujaron a los economistas a adaptar las teorías y herramientas a usos específicos, modificándolas profundamente en el proceso. Pero ésta fue sólo una dimensión de la importancia de la economía aplicada. A medida que los gobiernos se volcaron a soluciones del mercado para problemas económicos, aumentó el alcance del trabajo aplicado. Se había vuelto la era del economista aplicado. Cantillon en su Essai sur la nature du commerce en gènèral, sembró las semillas de una visión de una economía como un sistema cíclico autorregulado. ● Lo que diferenciaba a Essai era su postura metodológica. ● Al centrar Essai en la “Naturaleza del comercio en general”, estaba intentando echar los cimientos de una teoría general del proceso de mercado y derivar de ella las leyes naturales que rigen el comportamiento y los valores económicos. ● Empezó con un informe histórico generalizado de la evolución de la estructura de la clase socioeconómica, identificó las clases económicas cuyos singulares patrones de comportamiento les atribuían un papel especial en el flujo circular de productos y gastos (por ej, terratenientes, granjeros, comerciantes y artesanos u hombres de negocios -es decir, empresarios- y asalariados), y procedió a desarrollar una teoría de lo que economistas posteriores denominarían “El Valor Natural” (distinto del valor de mercado), una teoría que dependía de la proposición de que “El precio y el valor intrínseco de una cosa en general es la medida de la tierra y del trabajo que intervienen en su producción”. ○ Dicha proposición era ya una característica habitual de los escritos económicos (publicados o que circulaban en privado) disponibles para los estudiosos de la economía de la primera mitad del siglo XVIII. El legado intelectual más obvio y directo de Cantillon lo recibieron los FISIÓCRATAS FRANCESES, cuyo análisis sistemático del proceso económico constituyó la base lógica de la primera escuela del pensamiento económico. ● Por ejemplo, las frecuentes referencia de Cantillon a la circulación de dinero y de las mercancías, se convirtió en manos de Francois Quesnay, el médico, en una analogía directa con la circulación de la sangre en el cuerpo humano ● y el análisis de la interdependencia de las rentas, gastos y producciones de las clases económicas fundamentales del primero precisaba meramente un salto imaginativo para sugerir el famoso Tableau Économique del segundo. ● También, había un vínculo obvio entre la doctrina fisiocrática y el énfasis de Cantillon en la importancia del excedente agrario en la determinaciòn del nivel global de actividad económica o en la importancia de la tierra como clave de los valores intrínsecos de las mercancías, puesto que estos eran los supuestos que constituían el centro del modelo descrito por Tableau Economique y que dieron una base lógica a las prescripciones políticas características de los fisiócratas. ● Aunque las ideas de Cantillon hayan inspirado a los fisiócratas, no quiere decir que se mantuvieron todas las ideas. Hubo alguna distorsión. Así, a mediados del siglo XVIII el estudio de la economía política había empezado a desarrollar una literatura deliberadamente objetiva, cuyos autores se consideraban a sí mismos comprometidos con la búsqueda de una verdad consensual, comprometidos con un programa de investigación científica. El informe de sir James Steuart sobre los Principles of Political Economy, por ejemplo, se abstraía deliberadamente de las cuestiones de moral individual al anunciar que el interés propio era el principio regente de su materia. La idea de que los problemas morales estaban fuera del alcance del teórico económico estaba siendo generalmente aceptada. ● Según Steuart, el Estado tiene un papel indispensable en una economía de mercado ● cambiante. Para él, la comunidad política y la económica eran un todo indivisible, el buen estadista era el guardián del interés público en una sociedad económica. En resumen, Steuart concebía una autoridad central protectora comprometida con la intervención continua y planificada en la economía de libre mercado con arreglo a normas generalmente aceptadas y objetivos que reflejan el interés público. ○ Dichas normas implicaban el reconocimiento del derecho natural por parte de los agentes económicos individuales para conseguir su propio interés personal en todo momento, sujeto únicamente a las necesidades del interés público. ○ Los objetivos de la economía incluían empleo para todos, un crecimiento económico estable y una distribución socialmente aceptable de las rentas. ○ “Un gobierno debe estar continuamente en acción”. Sin embargo, Steuart había pagado por su activa participación en la rebelión jacobita de 1745, estando obligado a mantener un bajo perfil en la comunidad intelectual hasta que fue formalmente perdonado en 1771. El espíritu de la época estaba preparado para abrazar la visión de Adam Smith de la economía como un sistema naturalmente armonioso y autorregulado en el cual la intervención directa del gobierno era más susceptible a reducir el nivel nacional de actividad económica que de aumentarlo. Capítulo 4. Los creadores del sistema Un sistema es una máquina imaginaria inventada para conectar en la fantasía aquellos movimientos y efectos diferentes que se dan en la realidad. Adam Smith Los filósofos morales que analizaban el orden social a principios del siglo XVIII adoptaron métodos de investigación de los filósofos naturales de la Revolución científica. Es el caso de Francis Hutcheson que intentó basar una nueva ciencia de la ética en regularidades observadas en la naturaleza humana. O David Hume, que buscó introducir el razonamiento en lo moral, y aceptó la introspección y la experiencia humana como fuente de experimentos mentales de los cuales deducir las leyes del comportamiento humano, comparables en su simplicidad y estabilidad a las leyes del movimiento de Newton. Los fisiócratas franceses también siguieron los pasos de los filósofos naturales, pero con mayor tradición cartesiana (de Descartes) que newtoniana. Fueron los primeros estudiosos del comportamiento humano que vieron la economía como un proceso integrado de transacciones de mercado causalmente relacionadas y medibles que podía ser explicado en términos de una teoría general lógica y coherente. Quesnay por ejemplo intentó representar gráficamente el sistema de leyes naturales que presumía debían gobernar el orden económico natural. Los economistas de hoy reconocen dos leyes económicas: las normativas “reglas de juego”, el cómo deberían comportarse los sujetos; y las regularidades positivas del comportamiento económico, el predecir o el cómo podría esperarse que se comporten producciones, ingresos, precios y gastos frente a decisiones institucionales o políticas. Los fisiócratas usaban el “droit natural” para referirse a ello, pero además agregaban un tercer concepto: las reglas establecidas por la divina providencia (de Descartes). Los fisiócratas verían el “orden natural” de lo económico como una situación óptima, donde sus reglas daban criterios útiles para guiar el accionar de los individuos para maximizar sus intereses. La mayoría de las escuelas del pensamiento económico parten del supuesto inicial de que la riqueza de la nación viene de sus recursos naturales: la tierra, fuente de todo (Cantillon). Hacían una simplificación de la estructura de Cantillon, identificando tres clases principales en la sociedad económica: 1) Los granjeros, extraían el producto del suelo. 2) los dueños de la tierra, flujo circular de las rentas. 3)El resto de los agentes del mercado, fabricantes y comerciantes, son improductivos en el proceso económico. Los fisiócratas ponen al sistema de producción al frente del análisis dando nuevas perspectivas a los procesos del crecimiento económico. Y de la distribución de las rentas. Quesnay, por ejemplo, notó claramente la trascendencia de la inversión del capital en el aumento de la productividad de la agricultura. Argumentó también que en un libre mercado los productos agrícolas disminuirían de precio gracias a la competencia, lo cual sería beneficioso para la comunidad en su conjunto. La principal conclusión política de los fisiócratas fue que, como la prosperidad nacional dependía del excedente económico era importante liberar al sector productivo de la economía (agricultores) de toda presión sobre sus operaciones de comercialización y de toda disuasión de las inversiones destinadas a incrementar su productividad. Defendieron bajar barreras al comercio internacional y también las medidas de redistribución de la renta a los más pobres y a los sin hogar, todo con el fin de ampliar su mercado e incrementar la demanda de productos primarios franceses. Los fisiócratas no escribieron ningún tratado defendiendo su doctrina económica. Su principal exponente Quesnay sólo publicó artículos. Pero sorprendieron con su Tableau Économique, y sus versiones, donde Quesnay con su colaborador Mirabeau explicaban de un modo matemático, el flujo circular de rentas y gastos que vinculaba las tres clases básicas de la sociedad económica (terratenientes, agricultores y agentes “improductivos”). Fue un instrumento analítico que permitía visualizar con valores numéricos (aunque no reales) “toda la maquinaria de la circulación” y ver cuales podían ser las consecuencias de cambios adversos en la distribución de las rentas entre clases. Mirabeau decía que con el Tableau era fácil ver los posibles desequilibrios que podría provocar una política pública, si se desviaban recursos del sector agrícola, provocando una caída del excedente económico. Por su coherencia lógica y complejidad analítica, economistas del siglo XX han comparado el Tabeau Économique con una moderna tabla de input-output (instrumento econométrico). Allí se describe la economía de mercado como un sistema coordinado de transacciones medibles interconectadas. La metodología matemática aplicada en el Tableau daba credibilidad de que los fisiócratas habían encontrado el camino hacia un conocimiento económico totalmente válido, para los cartesianos. Pero hubo un alejamiento de ése racionalismo con influencia de filósofos de la Ilustración como Voltaire. En Inglaterra una idea basada en que la agricultura era el único sector productivo no hubiera tenido seguidores como sí sucedió en Francia, pues los fisiócratas pudieron conceptualizar un sistema económico y describirlo en un marco analítico preciso donde la política económica era explicada y justificada. Ello inspiró a Adam Smith a desarrollar un modelo distinto de sistema económico más acorde a los políticos liberales de fines del siglo XVIII y principios del XIX. Adam Smith (1723-1790) fue un académico más que hombre de negocios o activista político. Entró a la Universidad de Glasgow con 14 años y se licenció con 17. En 1746 vuelve a Escocia. En 1748-1749 fue invitado a dar clases de retórica y literatura en la Universidad de Edimburgo donde sus clases tuvieron éxito y le dieron una reputación académica, y gracias a ello fue nombrado profesor de lógica en la Universidad de Glasgow en 1751 y de filosofía en 1752. Dió clases de teología, ética y jurisprudencia, y a finales de 1763 aceptó ser tutor del joven duque de Buccleuch. Esto lo llevó a Francia, a acercarse a los fisiócratas y a continuar con sus propias investigaciones económicas que culminaron con la publicación de su “Investigación sobre la naturaleza y causa de la riqueza de las naciones”(1776). Habiendo publicado anteriormente el tratado de ética “The Theory of Moral Sentiments”(1759). Sus clases sobre cuestiones económicas y su amplio informe sobre la naturaleza y las causas de la riqueza nacional eran tan solo una parte de un programa de investigación mucho más amplio que no pudo completar. Se publicaron varias ediciones de sus dos principales obras, pero en 1790 aún revisaba el “The Theory of Moral Sentiments”, año en que falleció. Aunque para él, las contribuciones al progreso económico no fueron tan importantes, es reconocido por los historiadores del pensamiento económico por haber establecido los cimientos de la disciplina de la economía política. Y aún más, por haber establecido un paradigma para el análisis económico moderno que aún perdura. Fue muy influyente en su época en la élite instruida, pero hoy día se sigue un programa de investigación que él lanzó, y justificó un paquete de prescripciones políticas que hoy están siendo justificadas. Smith dejó claro que estaba comprometido con un programa de investigación en una rama del conocimiento, buscando dar consejo útil a los políticos y reconstruir radicalmente el marco analítico económico sobre el cual argumentaban los escritores de la época. Se refería a la política económica con dos objetivos: permitir que la gente procure subsistencia, y proporcionar al Estado ingresos suficientes para los gastos públicos. Busco explicar el “ sistema del comercio” o “ sistema mercantil, lo que fuera más adelante el mercantilismo, dedicándole cuarta parte de “La riqueza de las naciones”, y “el sistema de la agricultura”, que atribuía a los fisiócratas, al que dedicó un solo capítulo. Siempre desde la crítica intentaba transmitir que había un orden subyacente a la economía capitalista de mercado que tenía una tendencia natural a enriquecer a la gente. Los gobiernos preocupados por la riqueza nacional deberían trabajar dentro de ese orden en lugar de fuera de él, de modo que le permitiera ejercer toda su beneficiosa fuerza. Creía en un sistema económico autorregulado. Pero no se explica allí su éxito frente a los intelectuales, ya que no planteaba novedades analíticas ni conceptuales, ni nuevas ideas filosóficas ni nuevas observaciones empíricas; pero supo aplicar a la ciencia del hombre una metodología científica, a lo que se suma su habilidad para justificar el comportamiento de los individuos en el mercado o la experiencia del crecimiento comparativo de las naciones basándose en unas pocas leyes generales o axiomas. Ideas plasmadas con “orden y conexión correctas” (Steward, su discípulo). Ilustraba sus teorías con datos comparativos o históricos bien documentados o comprobables. Se centraba en la política económica y en los conflictos de interés, con optimismo acerca del potencial de una economía comercial para conseguir mejoras en la calidad y contenido material de los niveles de vida humanos. Pero, para los políticos, la característica más atractiva de “La riqueza de las naciones” de Adam Smith era que daba credenciales científicas al liberalismo económico. Hasta qué punto Smith realmente aplicó un método científico newtoniano a su investigación sobre la naturaleza y las causas de la riqueza de las naciones puede ser debatido. Aceptó una visión newtoniana del mundo e intentó usar un método científico newtoniano para estudiar el sistema económico. Partía de dos axiomas o artículos de fé sobre el mundo real: 1) se basaba en uniformidades y constancias lo suficientemente regulares como para tener la fuerza de leyes de la naturaleza; y 2) que había sido diseñado y guiado por un creador inteligente. Ambas implican una armonía sistemática otorgada por un Dios en el funcionamiento del universo. Y que el científico social debía establecer aquellos principios constantes de la naturaleza humana que eran lo suficientemente poderosos en sus efectos sobre el comportamiento individual como para constituir un punto de partida efectivo para un razonamiento deductivo en cadena. El estudioso de la sociedad podía tomar prestadas las analogías mecánicas desarrolladas por los científicos físicos para hallar una intencional coherencia en el rompecabezas de pautas del comportamiento y de los acontecimientos. Como dijo Adam Smith en su “Theory of Moral Sentiments”: “ La sociedad humana, bajo cierta luz abstracta y filosófica, se nos aparece como una máquina grande e inmensa cuyos movimientos regulares y armoniosos producen mil efectos agradables”. Además de la ventaja que el científico social tenía sobre el natural, la no necesidad de telescopios o laboratorio para confirmar sus teorías de causa y efecto. Las experiencias personales e históricas están al alcance del estudioso. El principio fundamental de la naturaleza humana en que Smith basó su modelo del sistema económico era el principio del interés propio. El objetivo principal es maximizar las sus propias ganancias de comercio, lo cual generó nuevas ideas para el liberalismo económico. Los gobiernos intervienen con frecuencia en los procesos productivos, comerciales perjudicando la libertad económica. SMITH insistía en que el empresario capitalista que estaba naturalmente motivado a maximizar sus beneficios tenía un incentivo permanente a aumentar la producción. El individuo busca su propio beneficio y no el de la sociedad, haciendo que todo individuo trabaje para darle a la sociedad un ingreso anual tan grande como se pueda. Esto se asemeja al ejemplo de la mano invisible donde se favorece un final que no formaba parte de su intención. Al buscar promover el desarrollo económico nacional se aumentaba el nivel de la renta nacional per cápita de la población. Definiendo con esto el foco central del análisis económico. Smith clasificaba las variables económicas por factor de producción -tierra, trabajo y capital- cuyos componentes individuales eran actores pertenecientes a la economía de mercado capitalista y cuyas rentas se suman al valor del producto nacional. Considero necesario elaborar una teoría que no solo explicará el mecanismo por el cual las mercancías adquirían su precio de mercado, sino también la justicia teológica de los resultados. Para investigar cuáles eran los principios que regulan el valor intercambiable de las mercancías, primero tomó como punto de partida la medida real del valor de las mercancías. En segundo lugar, cuáles son las partes que lo componen y por último cuáles son las diferentes circunstancias que hace que su precio se eleve o disminuya. La respuesta al primer interrogante fue que el precio real es el que la mercancía adopta de manera natural, cuando el mercado está en un equilibrio competitivo a largo plazo, dado que los productores suministren la misma cantidad que los consumidores están dispuestos a comprar. A la segunda contestó diciendo que ni más ni menos que lo suficiente iba a ser el coste. Y para contestar a la última interrogante explico cambios accidentales en las condiciones de la oferta y la demanda. Como por ejemplo regulaciones políticas, monopolio, entre otras. Haciendo que el precio de mercado se mantenga por encima de lo regular. La característica fundamental de la teoría del valor de Smith era que asociaba un mercado libremente competitivo con los beneficios de minimizar los precios para los consumidores y maximizar las ganancias para los productores. Permitiendo que la mano invisible produjera sus efectos sin ser obstaculizada por la intervención del gobierno o los monopolios. Smith fue capaz de integrar una teoría del valor con una teoría del crecimiento y utilizar ambas para apoyar su defensa del liberalismo económico. Las perspectivas para continuar las mejoras de la producción dependían según Smith de diferentes interacciones. En primer lugar, la especialización daba lugar a un aumento de la productividad del trabajo, al incrementar la destreza del trabajador y ahorrar tiempo entre operaciones, conduciendo a crecientes beneficios, dando más oportunidades de empleo y un mayor alcance de la división del trabajo. Smith afirmaba que para lograr esto el producto per cápita creciera con mayor rapidez que el consumo per cápita. Y a su vez acepta la existencia de límites del crecimiento debido a la escasez de recursos naturales. Smith logró justificar una visión general de la economía nacional como un sistema autorregulado y la asoció a una doctrina relativa al papel del estado en dicho sistema. Aseguraba que había un orden natural en el sistema social. Y eso era lo que quería darles a entender a los políticos, con el fin de poder asesorar a los futuros gobiernos. Texto 3. Roncaglia, A. (2006). La riqueza de las ideas. Cap. 4. pp. 124-130. Las motivaciones y consecuencias de las acciones humanas Los principales científicos sociales del mundo han emprendido el análisis del comportamiento humano y del funcionamiento de la sociedad a partir de dos preguntas clave: 1- Sobre los impulsos que dirigen las acciones humanas 2- Consecuencias de las motivaciones que no van dirigidas al buen funcionamiento de la sociedad o al bienestar colectivo. La importancia de la primera pregunta recae en que el análisis pasa de ‘lo que debe ser’ a ‘lo que es’. Hasta la Edad Media, la idea predominante era que el comportamiento humano se guiaba por fines divinos y que toda acción contraria debía erradicarse. Con esto, ‘lo que es’ significaba legitimar comportamientos que no se ajustan a la ética religiosa. Maquiavelo abandonó la postura medieval, mientras que la Reforma Protestante eligió una posición intermedia que Weber consideró fundamental para el nacimiento del capitalismo. El punto fuerte de la visión protestante reside en el hecho de que evitaba la oposición entre los intereses individuales y colectivos, conciliando el reconocimiento del papel de los intereses individuales como fuerza para la acción constructiva y la conservación de un principio de juicio moral. Ésta era una solución semejante a la que Smith iba a proponer con su defensa simultánea del mercado y de la «moral de simpatía». Los motivos de la acción humana se resumen en dos términos, pasiones e intereses. La distinción apunta a la presencia simultánea, en el comportamiento humano, de elementos instintivos o de costumbre y de elementos que implican elecciones razonadas, pero que ciertamente no pueden reducirse a una simple cuestión de maximizar la riqueza o la renta. Con respecto a la segunda pregunta, relativa a las consecuencias de un comportamiento individual motivado por las pasiones e intereses individuales. Estas, bajo ciertas condiciones, pueden conllevar a consecuencias sociales positivas. Además, las conexiones sociales que se desarrollan entre quienes participan en la economía de mercado desempeñan un papel civilizador, con cierto control moral sobre las pasiones e intereses propios. La idea de un papel civilizador del comercio (doux commerce) estaba relacionada a la idea de un orden social perfectible. Montesquieu, Condorcet, Paine, Hume y Smith, entre otros, comparten la idea de que en una sociedad en que el mercado tiene una posición central, no sólo producirá riqueza neta a causa de la división del trabajo y el progreso técnico, sino que generará un humano “refinado”: honesto, de confianza, ordenado y disciplinado, etc. Al mismo tiempo, una persona así facilitará el funcionamiento del mercado. En el siglo XVIII una interpretación similar predominó con una sociedad basada en la división del trabajo y el mercado. Esa visión optimista era parte de la cultura de la Ilustración y su fe en el triunfo de la razón. Sin embargo, la idea de una sociedad progresiva no procede de la esperanza en la difusión del comportamiento individual guiado por la razón y no por las pasiones. Más bien, el vínculo operaba de forma opuesta, desde el progreso económico y social, adquirido por una sociedad dirigida por el espíritu del comercio, y por tanto, por motivaciones individuales, hacia una creciente civilización cultural en que el interés personal no estaba tan superado, dirigido hacia el progreso colectivo. Bernard de Mandeville (1670-1733) Educado en un entorno cultural que se encontraba entre los más progresistas de la época, en su obra el doctor holandés abordó algunos temas característicos del pensamiento libertino de los siglos XVII y XVIII, tratando lo que era visto como un conflicto irreconciliable entre el criterio rigorista y el criterio utilitarista en las elecciones que conciernen al comportamiento humano. La polémica de Mandeville estaba dirigida contra Shaftesbury, autor que también es criticado por Smith en su “Teoría de los sentimientos morales”. Shaftesbury defendía la idea de una armonía universal en la que coincidían el Bien y la Belleza. En opinión de Mandeville, el hombre se guía por lo general por pasiones e intereses que están centrados en sí mismo y no se orientan al bien de la sociedad. Sin embargo, el resultado final de una sociedad en la que predomina el comportamiento egoísta puede ser el bien colectivo: los «vicios privados» pueden convertirse en «virtudes públicas». El comportamiento egoísta podría llevar, decía Mandeville, pero no llevaría necesariamente al bien colectivo. Todo dependía de la capacidad de quienes estaban en el poder para explotar la presencia simultánea de las diferentes pasiones que se hallan en la raíz de la acción humana. Él sostenía que debemos reconocer la existencia del vicio como una cuestión de hecho, porque sólo de este modo podremos obtener resultados positivos. “...el hombre sólo se compromete cuando es estimulado por sus deseos.” Es en la gran sociedad mercantil donde el comportamiento de los hombres está dirigido por motivaciones individualistas, que favorecen el progreso de la riqueza y con él, su crecimiento cívico. . Junto con las leyes, eran importantes la educación y estar acostumbrado a la vida en sociedad, puesto que por medio de ellas pueden dirigirse las diferentes pasiones hacia el bien colectivo. La interacción entre las pasiones equilibradas constituía una “mano invisible” que garantizaba el progreso de la sociedad. Esta mano invisible no era, sin embargo, un resultado necesario de las acciones individuales: era en sí misma una construcción consciente, a través de la cual se manifestaban las capacidades de los responsables del gobierno de la sociedad. Texto 5: Roncaglia, Alessandro (2006): cap.7 pags. 245-267 (Ricardo); cap 6 217-225 (Malthus) -Capítulo 6: Malthus 6.1. La perfectibilidad de las sociedades humanas, entre utopías y reformas. La "Revolución Gloriosa" inglesa de 1688 fue un cambio político importante que no causó una ruptura drástica en las instituciones existentes y se llevó a cabo sin mucha violencia. Por otro lado, la Revolución francesa de 1789 y su radicalización posterior plantean dos cuestiones fundamentales para los científicos sociales. En primer lugar, ¿puede un cambio en las instituciones conducir a una sociedad mejor, especialmente en términos de calidad de vida y funcionamiento económico? En segundo lugar, si el cambio implica violencia y derramamiento de sangre, como fue el caso de la Revolución francesa, ¿justifican estas consecuencias los beneficios que se pueden obtener? En el siglo XVIII, la corriente de pensamiento de la Ilustración dio una respuesta relativamente positiva a la primera pregunta, argumentando que la intervención de gobernantes benevolentes guiados por la razón podía promover el progreso social. Sin embargo, la segunda pregunta no fue un tema relevante para los defensores de la Ilustración, quienes generalmente aceptaban el poder absoluto de las monarquías nacionales y se limitaban a proponer intervenciones económicas y políticas sociales. No obstante, en la época de la Revolución francesa, surgieron corrientes de pensamiento que ofrecían respuestas diferentes sobre la organización de la sociedad. Por un lado, estaban los conservadores, quienes sostenían que los esfuerzos para promover el progreso social eran inútiles. Por otro lado, estaban los revolucionarios, que afirmaban que un cambio radical era necesario, incluso en las instituciones políticas. Los revolucionarios a menudo se inspiraban en modelos utópicos de sociedades ideales, que abarcaban no solo el control de los medios de producción, sino también las costumbres de la vida cotidiana. Esta visión fue fomentada por el clima cultural de la Ilustración, que impulsaba a los intelectuales a creer en la capacidad de la inteligencia humana para diseñar sistemas institucionales superiores a los existentes. Algunos incluso afirmaban el derecho y la obligación de imponer estos sistemas, incluso contra la resistencia de los gobernantes o las masas ignorantes. La tradición de la Ilustración escocesa también respaldó los cambios institucionales, como la lucha de Adam Smith contra los vestigios del feudalismo. Sin embargo, no se trataba de diseñar instituciones ideales de antemano, sino de indicar posibles mejoras en las existentes. La confianza en la razón estaba matizada por la idea liberal de que cada individuo es el mejor juez de sus propios intereses, así como por una visión realista pero optimista de la naturaleza humana, que generaba cierto escepticismo sobre las capacidades y motivaciones de los gobernantes. Esto implicaba desconfianza, e incluso hostilidad, hacia los proyectos de cambio revolucionario basados en modelos teóricos de sociedades ideales. En Francia, se produjo un enfrentamiento entre las corrientes reformistas y conservadoras en la época prerrevolucionaria. Por un lado, Turgot, ministro de Hacienda, respaldó reformas que buscaban abolir las restricciones feudales y mejorar las condiciones sociales de los pobres. Por otro lado, Necker, su sucesor y último ministro de Hacienda antes de la Revolución, describía la pobreza como un hecho natural y veía el crecimiento de la población como un problema que se resolvería mediante el sufrimiento y la mortalidad cuando los recursos escasearan. Condorcet, filósofo y matemático, argumentaba que los problemas sociales no eran producto de las fuerzas naturales, sino de las instituciones humanas. Sostenía que las reformas institucionales podían influir en el progreso económico y social, respaldando la educación universal y planes de seguro colectivo. Sin embargo, figuras como Condorcet fueron víctimas del Terror durante la Revolución francesa, ya que el extremismo utópico consideraba al reformismo moderado como un enemigo. La radicalización de la Revolución francesa también generó una radicalización en la oposición al cambio. La filosofía social de Adam Smith, que inicialmente había sido bien recibida, se enfrentó a hostilidad hacia fines del siglo XVIII. Un ejemplo famoso fue el opúsculo de Malthus sobre la población, que adoptó y desarrolló las opiniones de Necker. Las corrientes reformistas, atrapadas entre el extremismo utópico y la reacción conservadora, perdieron terreno y solo sobrevivieron enfocándose en aspectos puramente económicos. 6.2 Malthus y el principio de población En los años siguientes a la Revolución francesa, hubo una reacción conservadora contra el Terror, pero algunos intelectuales británicos, como Thomas Paine y William Godwin, mantuvieron una postura favorable hacia la Revolución. Godwin, conocido como partidario del anarquismo, abogaba por la descentralización social y una redistribución de la riqueza a favor de los más necesitados. Su influencia fue importante en movimientos como el cooperativismo. Por otro lado, Thomas Robert Malthus adoptó una visión diferente. Fue un ministro de la Iglesia anglicana y profesor de historia y economía política. Su obra más famosa fue "Ensayo sobre el principio de población", publicado en 1798, donde argumentaba que el crecimiento de la población está limitado por la disponibilidad de recursos. Sostenía que el crecimiento poblacional excesivo conduciría a una disminución de los salarios y a un empeoramiento de las condiciones de vida de los trabajadores. Malthus también mencionaba la castidad, la continencia y la anticoncepción como posibles formas de controlar la población. Las ideas de Malthus tuvieron un impacto significativo y fueron utilizadas por otros economistas, como David Ricardo, para respaldar la teoría de los salarios y la ley de bronce de los salarios, que establece que el salario tiende a mantenerse alrededor del nivel de subsistencia. Sin embargo, se argumentó que estas ideas no tenían en cuenta el progreso tecnológico y que una proporción decreciente de la población podía producir suficientes alimentos para una población en crecimiento. Malthus sostenía que los intentos de mejorar la situación de los trabajadores eran inútiles y que solo los "frenos preventivos" al crecimiento de la población, como el temor a la pobreza, podrían tener un efecto positivo. Sus ideas entraron en conflicto con la tradición reformista que defendía la esperanza de mejorar las condiciones de vida como incentivo para el trabajo. A pesar de las críticas, las ideas de Malthus dominaron la economía política clásica y contribuyeron a una visión pesimista sobre el progreso y las condiciones de vida de las clases trabajadoras. La economía política se ganó la reputación de ser una "ciencia lúgubre" debido a su enfoque en teorías abstractas que sugerían la imposibilidad de un progreso duradero. 6.3 La «ley de Say» La "ley de Say" es una teoría económica enunciada por el economista francés Jean-Baptiste Say en 1803. Según esta ley, la oferta crea su propia demanda, lo que significa que la producción de bienes y servicios genera automáticamente la demanda necesaria para absorber esa producción. Say formuló esta ley como crítica a ciertos aspectos de la doctrina fisiocrática que se oponían al papel del ahorro y la acumulación en el crecimiento económico. Los fisiócratas atribuían a los terratenientes y a la nobleza un papel activo en el proceso de circulación económica. Sin embargo, si estos sectores decidían no gastar parte de su renta, podría haber una situación de sobreproducción o falta de salidas en el mercado. Por lo tanto, el gasto de los terratenientes y la nobleza regulaba la tasa de intercambios y la producción. Say estableció su ley en su obra "Traité d'économie politique" en 1803, donde también presentó una teoría del valor basada en la utilidad y el equilibrio entre oferta y demanda. Esta ley fue aceptada por muchos economistas de la escuela clásica, como James Mill, Torrens, McCulloch, Ricardo y John Stuart Mill. La versión más fuerte de la ley, que establecía una identidad ex ante entre la demanda y la oferta agregadas, se asoció comúnmente con la "escuela ricardiana". En su versión original, la ley de Say tenía como objetivo reafirmar dos tesis presentes en la obra de Adam Smith. La primera tesis afirmaba que el progreso técnico podía llevar a un desarrollo de la producción a largo plazo y mejorar el nivel de vida de la población, generando así un crecimiento paralelo de la demanda. La segunda tesis sostenía que el crecimiento era favorecido por el ahorro y la inversión, en lugar de un consumo improductivo. Say argumentaba que el dinero no era demandado en sí mismo, sino sólo como medio para adquirir bienes. Por lo tanto, sostenía que la oferta agregada siempre sería igual a la demanda agregada y que no podría haber una crisis general de sobreproducción. Sin embargo, autores como Sismondi, Malthus y Lauderdale criticaron las versiones más radicales de la ley de Say, argumentando la posibilidad de crisis generales de sobreproducción. Esta crítica fue seguida por otros economistas ricardianos, como Robert Torrens y John Stuart Mill, quien argumentó en sus ensayos que existían desequilibrios a corto plazo entre la oferta y la demanda total de bienes. Estos planteamientos influyeron posteriormente en las teorías de Marx y Keynes, quienes se opusieron directamente a la ley de Say tal como se había interpretado en la tradición marginalista. -Capítulo 7: Ricardo 7.1. Vida y obras David Ricardo nació en Londres en 1772 en una familia judía sefardí. A pesar de las tradiciones familiares, David estudió en Ámsterdam durante su adolescencia y luego regresó a Londres para trabajar en la bolsa con su padre. Sin embargo, su matrimonio con una joven cuáquera en contra de la voluntad de su familia lo llevó a ser repudiado y a buscar su propio camino en los negocios. Su trabajo en la bolsa lo llevó a interesarse en las vicisitudes económicas del país. Durante sus vacaciones en Bath en 1799, leyó "La riqueza de las naciones" de Adam Smith, lo cual tuvo un impacto significativo en su desarrollo intelectual. Aunque no era un erudito, Ricardo poseía una mente lógica y una inteligencia aguda. Su interés analítico se centró en los eventos económicos de su época, los debates que surgieron a su alrededor y la obra de Smith. Ricardo escribió algunos ensayos económicos sobre controversias monetarias y realizó contribuciones significativas a la economía política después de retirarse de la bolsa en 1815. Gracias a sus especulaciones exitosas en la colocación de deuda pública, se convirtió en una persona rica. Se trasladó al campo y llevó una vida tranquila en Gatcomb, mientras participaba en política como miembro del Parlamento. A través de correspondencia y discursos parlamentarios, participó en los debates económicos de la época. Entre sus publicaciones más destacadas se encuentra su ensayo sobre la influencia de un bajo precio del grano en los beneficios del capital, publicado en 1815, que recibió una respuesta positiva. Sin embargo, su obra principal fue "Principios de economía política y tributación", publicada en 1817, que lo estableció como una figura importante en la élite político-cultural de su tiempo. Ricardo abordó temas monetarios, fiscales y de deuda pública en sus escritos y actividades parlamentarias. Propuso reformas en el sistema bancario y la introducción de impuestos sobre la riqueza para reembolsar la deuda acumulada durante las guerras napoleónicas. Su legado científico fue inicialmente disipado después de su muerte, pero su importancia fue redescubierta con la edición en diez volúmenes de sus obras y correspondencia realizada por Sraffa entre 1951 y 1955. Esta edición rigurosa de sus escritos permitió limpiar el campo de malas interpretaciones y revelar nuevas discusiones interpretativas que aún hoy son relevantes en el debate teórico sobre la teoría del valor y la distribución. Aunque en su época se cuestionó su relevancia, Ricardo fue reconocido como una figura clave en la economía política clásica y su legado continúa siendo objeto de estudio y debate en la actualidad. 7.2 La visión dinámica de Ricardo Ricardo considera una sociedad basada en la división del trabajo, con dos amplios sectores, la agricultura y las manufacturas, y tres clases sociales —trabajadores,capitalistas y terratenientes— con tres categorías de renta: salarios, beneficios y rentas. Según Ricardo, los salarios corresponden en general al consumo de subsistencia de los trabajadores empleados en el proceso productivo, y, por lo tanto, constituyen una parte de los gastos necesarios de la producción; las rentas y los beneficios corresponden al excedente, es decir, a aquella parte del producto de la que puede disponerse una vez que se hayan reconstituido las existencias iniciales de medios de producción y medios de subsistencia para los trabajadores empleados en la producción. Mientras que los terratenientes asignan sus rentas a consumos de lujo, los capitalistas se ven inducidos por la competencia a invertir prácticamente la totalidad de sus beneficios. Por lo tanto, el desarrollo económico procede de la acumulación, realizada por los capitalistas sobre la base de sus beneficios. Ricardo no parte de Adam Smith en las líneas amplias de su construcción analítica. Ricardo tiene una mente analítica, con una necesidad innata de rigor lógico y de precisión, que le llevan a construir un edificio analítico perfilado con meticulosidad, aun a costa de excluir del análisis algo que no considera directamente relevante para el problema sometido a consideración. Ricardo, por su parte, proyectó el foco principal sobre la distribución del excedente entre rentas y beneficios. Éste era ciertamente un tema central, dado que en la visión de Ricardo la parte de la renta que va a los beneficios constituye el factor decisivo en la determinación del ritmo de la acumulación de capital en la economía. Ante todo, necesitamos clarificar en qué sentido puede atribuirse a Ricardo el supuesto de unos niveles de producción dados. Este supuesto procede de su aceptación de la «ley de Say». Para Ricardo el nivel de producción está dado en cualquier momento del tiempo, siendo determinada la cantidad que puede producirse, dada la capacidad de producción disponible, por el proceso de acumulación de capital. En cuanto al supuesto de un tipo de salario dado, Ricardo siguió la teoría de la población de Malthus. Así, resulta que el excedente se divide entre rentas —utilizadas principalmente en consumos de lujo— y beneficios, que se destinan sobre todo a la inversión. El problema de la renta, por lo tanto, se resuelve con la teoría de la renta diferencial: una teoría que con frecuencia se atribuye a Ricardo pero no se debería. Según esta teoría, la renta de las tierras más fértiles corresponde a la reducción en los costes por unidad de producto, en comparación con los costes computados en las tierras menos fértiles. La renta de las tierras cultivadas menos fértiles es nula y, por lo tanto, no entra en el coste de producción. Así, los beneficios resultan ser una magnitud residual, es decir, aquella parte del excedente que no es absorbida por la renta. Hemos visto que el crecimiento económico procede de la acumulación, y, por lo tanto,de los beneficios; por consiguiente, todo lo que reduzca los beneficios constituye un obstáculo para la acumulación. Si suponemos dado el tamaño del excedente, entonces los beneficios disminuyen cuando aumenta la renta de la tierra. Según Ricardo, ceteris paribus, esto se produce automáticamente debido al propio desarrollo económico: el crecimiento de la economía viene acompañado por el crecimiento de la población, lo que significa un aumento del consumo de alimentos, y, por lo tanto, de la demanda de productos agrícolas. Esto provoca a su vez la expansión de los cultivos. Supongamos que las tierras que se ponen en cultivo son más fértiles que las que se dejan sin cultivar. A medida que se ponen tierras en cultivo, la menos fértil entre las cultivadas, es decir, la llamada «tierra marginal» por cuyo uso no se paga ninguna renta, resulta ser cada vez menos fértil. Por lo tanto, los beneficios obtenidos en la tierra marginal disminuyen, debido al aumento de los costes unitarios del producto. Las rentas aumentan en las tierras ya cultivadas, y en consecuencia disminuyen los beneficios de los granjeros. Esta disminución de los beneficios se transmite de la agricultura a las manufacturas, a través del aumento de precio de los productos agrícolas, y, por lo tanto, de los salarios. Todo ello frena la acumulación. Las importaciones de grano extranjero son la mejor manera de hacer frente al aumento de la demanda de alimentos debido al aumento de la población. En efecto, las importaciones hacen posible que se evite poner en cultivo nuevas tierras, menos fértiles, con el consiguiente aumento de la renta y disminución de los beneficios y del ritmo de la acumulación. Así, resulta oportuno eliminar todos los obstáculos —tales como derechos aduaneros— a la importación de productos agrícolas. Ricardo demostró que las ventajas del comercio internacional proceden de las mejoras en la tecnología productiva para el conjunto de los países implicados en el comercio que permite la división internacional del trabajo. La construcción analítica de Ricardo se orientaba principalmente a demostrar que la abolición de los derechos sobre el grano tenía efectos positivos sobre la tasa de acumulación y por ende sobre la «riqueza de las Naciones». El tipo de beneficio lo que está en el centro del edificio analítico de la economía política clásica construido por Ricardo. Primero, que en una sociedad capitalista guiada por la competencia, en la que los capitalistas son libres de trasladar sus capitales de una inversión a otra, el rendimiento de los fondos invertidos en los distintos sectores —el tipo de beneficio— debe ser más o menos igual. Por lo tanto, el tipo de beneficio regula el esfuerzo que dedica la sociedad a la producción de las diferentes mercancías, y es este mecanismo competitivo, basado en la tendencia a un tipo uniforme de beneficio, lo que asegura que las cantidades de las diferentes mercancías producidas corresponden más o menos a las cantidades vendidas en la economía. Segundo, el tipo de beneficio es también —con los supuestos adoptados por Ricardo— un indicador del ritmo potencial de crecimiento de la economía. De hecho, por definición es igual a la relación entre los beneficios y el capital adelantado; suponiendo que los beneficios se inviertan en su totalidad, tal relación es igual a la que existe entre la inversión y el capital adelantado, o en otras palabras, a la tasa de acumulación. Además, si prescindimos del cambio técnico (incluidos los rendimientos no constantes a escala) y suponemos que se utiliza completamente la capacidad productiva disponible, vemos que el tipo de beneficio es igual a la tasa de crecimiento de la renta nacional. A decir verdad, Ricardo no ilustró explícitamente estas relaciones, pero ellas expresan de forma analítica la esencia de su pensamiento (en particular, el «modelo ricardiano» de Pasinetti, 1960, seguido de una amplia literatura, se basaba en ellas). Además, está claro que para Ricardo explicar si, y por qué, el tipo de beneficio tiende a disminuir a lo largo del proceso de desarrollo, y localizar los factores que pueden contrarrestar esta tendencia, significa explicar el ritmo de desarrollo de la economía. Por estas dos razones —su papel en la regulación del funcionamiento competitivo de la economía capitalista y en el proceso de desarrollo económico—, la determinación del tipo de interés constituye un aspecto central del edificio analítico de Ricardo. Malthus había objetado a Ricardo que «en ningún caso de producción [por lo tanto, ni siquiera en el sector agrícola], es el producto exactamente de la misma naturaleza que el capital adelantado».En otras palabras, Ricardo no podía sortear tan alegremente el problema del valor determinando el tipo de beneficio como relación entre diferentes cantidades físicas de la misma mercancía, puesto que en cualquier proceso productivo los medios de producción que se utilizan son heterogéneos entre sí y con respecto al producto. Según la teoría del valor-trabajo incorporado para explicar los precios relativos, la relación de intercambio entre dos mercancías se corresponde con la relación entre las cantidades de trabajo directa e indirectamente requeridas para producir cada una de ellas. Ricardo extendió la aplicación de la teoría hasta incluir también a las economías capitalistas, suponiendo que para cada mercancía la suma de beneficios y rentas que había que añadir al coste del trabajo para llegar al precio es aproximadamente proporcional a la cantidad de trabajo empleada en el proceso productivo. Gracias a la teoría del valor-trabajo, Ricardo podía medir tanto el producto como los medios de producción y subsistencia en términos homogéneos, como las cantidades de trabajo empleadas en su producción. La relación entre los beneficios y el capital adelantado, expresados ambos como cantidades de trabajo, se define una vez más como una relación entre diferentes cantidades físicas de una magnitud (tiempo de trabajo). Valor absoluto y valor de cambio: El tema del valor aparece resuelto de una manera que Ricardo consideraba aceptable para sus fines, pero que descansaba en unas simplificaciones drásticas e irreales. Según Ricardo, los precios relativos determinados como la relación entre las cantidades de trabajo directa e indirectamente requeridas para producir las diferentes mercancías, violan la condición de un tipo uniforme de beneficio en los distintos sectores de la economía por tres razones: 1. la diferente duración de los procesos productivos; 2. la variación de la relación entre capital fijo y circulante; 3. y la diferente duración del capital fijo en los distintos sectores. Dicho de modo más preciso, si para cada mercancía elegimos como patrón de medida la cantidad de ella que requiere una hora de trabajo para su producción, a fin de asegurar la uniformidad del tipo de beneficio en los diferentes sectores, el beneficio por unidad de producto tendrá que ser superior en los sectores caracterizados por una mayor duración del proceso productivo, o por una mayor relación entre el capital fijo y circulante, o por una mayor duración del capital fijo. En el pensamiento de Ricardo, como ya en el de Smith , la interrelación entre oferta y demanda sólo se refiere al ajuste de los precios de mercado a los precios naturales, no a la determinación de estos últimos: La «teoría de la suma de los componentes»: El defecto de esta teoría radica en el supuesto de que el tipo de salario, la renta y el tipo de beneficio son independientes entre sí: sólo en este caso, de hecho, puede calcularse el precio sumando los tres componentes. Además, en tal caso un aumento en una de las tres variables distributivas se traduce automáticamente en un aumento correspondiente del precio natural del producto. Éste es precisamente el punto que Ricardo no aceptó, en línea con su tesis básica de la oposición entre rentas y beneficios. Una vez más fue Malthus quien criticó la excesiva simplicidad del supuesto de Ricardo. Éste último aceptó las críticas, aunque sosteniendo que no afectaba en lo sustancial a su posición. En la tercera edición de los Principios y especialmente en su último trabajo, «Valor absoluto y valor de cambio», Ricardo se refirió a una «mercancía promedio» . Si tomamos tal mercancía como nuestro patrón, las variaciones en los precios de las otras mercancías, aumentando algunos y disminuyendo otros, se compensan. Así tenemos la ventaja de que el producto nacional no varía de tamaño cuando cambia la distribución de la renta, lo cual introduce el hecho de que el aumento en una de las cuotas distributivas (por ejemplo, la de las rentas) tiene que ser compensado en otra (por ejemplo, la de los beneficios). Sin embargo, está claro que tal elección no elimina las «complicaciones» relacionadas con la teoría del valor: para verificar si los aumentos y disminuciones en los precios de las diferentes mercancías se compensan exactamente (un punto por el que no se preocupó Ricardo) necesitamos formular una teoría de las relaciones de cambio que sea adecuada, teniendo en cuenta la condición de uniformidad del tipo de beneficio en los diferentes sectores. Frente a estas dificultades, el camino que siguió Ricardo en su búsqueda de una «medida invariable del valor» parece un callejón sin salida. El problema del valor se resolvería entonces, adoptando este enfoque, si fuera posible encontrar una medida exacta de la dificultad de producción. No existe ninguna sociedad que esté desprovista de instituciones sociales, y la idea de un valor absoluto, basada exclusivamente en fundamentos naturales, es por lo tanto una quimera. Es en los valores de cambio donde hallan su expresión las relaciones entre los agentes económicos, en una sociedad basada en la división del trabajo. En efecto, en todas las sociedades humanas históricamente documentadas los elementos institucionales y sociales que gobiernan la red de intercambios determinan las reglas del juego; las relaciones de intercambio, como expresión de esas reglas, deben obviamente reflejar una variedad de elementos, tanto técnicos como institucionales. Texto 6. Backhouse, Roger (2002). The Penguin History of Economics. Penguin Books. p. 156 a 164 La economía política clásica (1790-1870) De la filosofía moral a la política económica La riqueza de las naciones de Smith resultaba inseparable de la filosofía moral cuando la Iglesia ya no pudo dar respuestas sobre cómo debía organizarse la sociedad. Por tanto, el punto de vista de Smith debe verse como respuesta a Mandeville, Hobbes, los fisiócratas y los mercantilistas. Luego de la muerte de Adam Smith y de la fuerte relevancia de “La riqueza de las naciones”, la economía política se separó de la filosofía moral. Adquirió un carácter más científico sin hacer referencia a una deidad. Para comprender esta transición resulta importante mencionar que la disciplina económica siempre estuvo fuertemente ligada a la política y que el contexto cambió drásticamente en este período: 1) Relación entre Gran Bretaña y las colonias americanas (políticas comerciales y fiscales) - Restricciones al comercio interno y externo provocadas por la creación de monopolios y la intervención en el mercado para evitar la hambruna. Aumento de la población, de la pobreza y de los “trabajadores pobres” Nunca se cuestionó la necesidad de apoyo público hacia ancianos, enfermos y niños. El "Sistema Speenhamland", introducido en la década de 1790, implicaba el pago de asignaciones vinculadas al precio del pan a personas que ganaban salarios bajos. Estos pagos se financiaron con los impuestos locales y suscitaron gran controversia. Algunas personas argumentaron que el sistema deprimía los salarios, exacerbando la posición de los pobres en lugar de aliviarla. 2) La revolución francesa (1789) y guerras posteriores Tuvieron un profundo efecto en el pensamiento económico. Dió pie al republicanismo, generando malestar en las clases altas de Gran Bretaña. Además generó diversos problemas económicos, entre ellos una crisis financiera en 1797 que llevó a la suspensión de la convertibilidad de la libra esterlina en oro. A raíz de esto, la suba de precios, entre ellos los cereales, llevando a una prosperidad para los agricultores y terratenientes. La combinación de malestar social causado por los altos precios de los alimentos y el revuelo social causado por el cambio industrial fue potente, especialmente cuando se combina con el miedo al republicanismo francés. Una figura clave en la transición desde la filosofía moral de Hume y Smith, a la economía política clásica fue Malthus. En la década de 1790 los radicales Godwin y el marqués de Condorcet argumentaron que la propiedad privada era la raíz de los males sociales y que los recursos debían repartirse de forma equitativa para conllevar a un nivel de vida digno para todos. Sin embargo, para Malthus en su libro “Ensayo sobre el principio de la población” la propiedad privada, lejos de ser una fuente de daño, resultaba esencial. De acuerdo a Malthus, dar dinero a los pobres no mejoraría su condición a menos que alguien más estuviera dispuesto a consumir menos, ya que no tendría ningún efecto sobre la cantidad de recursos disponibles. Además, cualquier medida de “alivio” a los pobres aumentaría la dependencia de los mismos del Estado. Malthus se ha asociado más ampliamente con el argumento de que existe una tendencia continua de la población a superar los recursos. La población estaba contenida por dos tipos de controles: los controles preventivos, que servían para bajar la natalidad, y los controles positivos, que elevaban la tasa de mortalidad. Sin embargo, aunque Malthus suavizó la línea dura adoptada en el Ensayo original, nunca compartió el optimismo de Godwin o Condorcet, porque no concordaba con la creencia en la bondad de la naturaleza humana. Malthus, por lo tanto, estaba operando dentro de la esfera de la filosofía moral del siglo XVIII. Aunque no estaba de acuerdo con las conclusiones de Godwin y Condorcet, compartía con ellos la creencia en la razón y se presentaba aplicando los principios newtonianos sobre la política. Durante su propia vida, el término 'malthusiano' llegó a usarse como un término de abuso, refiriéndose a la perspectiva materialista y espiritualmente empobrecida de lo que también se llamó 'economía política moderna'. El término "economista" pasó a denotar a alguien con un enfoque identificable de la política y un corazón duro. La Riqueza de las Naciones, con su optimismo sobre las perspectivas de crecimiento, ofreció poca orientación a los políticos que enfrentaban los problemas de tiempos de guerra. Malthus reorientó la economía política para responder a estos problemas y, al hacerlo, ayudó a sentar las bases de la economía política clásica. Sin embargo, continuó trabajando dentro de la tradición del siglo XVIII en la que la economía política estaba íntimamente ligada a la ciencia de la moral y la política. Otros economistas, aunque reconocían una deuda igualmente grande con la Riqueza de las Naciones, no compartían esta perspectiva y buscaban convertir la economía política en una ciencia secular. El utilitarismo y los radicales filosóficos Después de Adam Smith, la principal influencia sobre los economistas clásicos fue Jeremy Bentham (1748-1832). Su utilitarismo surgió de la tradición de la ley natural, aunque Bentham rechazó esta idea. Los códigos morales no reflejaban las leyes naturales, sino que surgieron para servir a las necesidades de la sociedad. Las leyes civiles, necesarias para proporcionar reglas por las que se rija la conducta, deben basarse en códigos morales, pero ambos pueden quedar obsoletos y deben modificarse. El estándar por el cual se deben juzgar las reglas morales y las leyes civiles era el "principio de utilidad": la maximización de la satisfacción de los individuos que componen una sociedad. La interpretación de Bentham del utilitarismo se basaba en algunos juicios de valor: - El interés de la sociedad es la suma de los intereses de los miembros de la sociedad - Todo hombre es el mejor juez de sus propios intereses. - La capacidad de cada hombre para ser feliz es tan grande como la de cualquier otro. Estos dieron como resultado una filosofía que era tanto igualitaria como individualista y sirvió como base para los elaborados esquemas de reforma legal y penal de Bentham. Sin embargo, el principio de utilidad no reducía la formulación de políticas a una simple regla. La utilidad tenía varias dimensiones (intensidad, duración, certeza y cercanía) y era necesario equilibrarlas entre sí. Bentham escribió sobre cuestiones económicas, reconociendo su deuda con Smith, pero su principal influencia fue indirecta, a través de sus seguidores, los Philosophic Radicals. Entre estos, los más eminentes fueron James Mill, David Ricardo y John Stuart Mill (hijo de James Mill). Los radicales filosóficos participaron activamente en la política, utilizando el utilitarismo como base para criticar las instituciones de la sociedad y defender políticas de reforma. Según los estándares de la época, eran auténticos radicales, aunque sus esquemas estaban muy alejados del socialismo de Godwin y Condorcet. Sin embargo, aunque James Mill y Ricardo estaban cerca de Malthus en muchos temas (Ricardo y Malthus eran amigos cercanos, debatían constantemente sobre temas económicos), no compartían su compromiso con la economía como ciencia moral. Para ellos la economía era economía política, pero buscaban hacer de ella una disciplina rigurosa que ofreciera conclusiones tan ciertas como las que ofrecía la geometría euclidiana. La Economía Ricardiana La economía ricardiana fue una respuesta a la situación en Gran Bretaña durante las guerras napoleónicas (1804-1815), cuando el precio del maíz (trigo) y las rentas agrícolas aumentaron drásticamente y se amplió el margen de cultivo. Ricardo trató de demostrar dos proposiciones: que, contrariamente a lo que había argumentado Smith, los intereses de los terratenientes se oponían a los intereses del resto de la sociedad, y que la única causa de una tasa de ganancia decreciente era la escasez de tierra cultivable. El sistema de Ricardo descansaba sobre tres pilares: una perspectiva smithiana sobre el vínculo entre la acumulación de capital y el crecimiento, la teoría malthusiana de la población y la teoría de la renta diferencial. La teoría se basaba en dos supuestos: que diferentes parcelas de tierra eran de diferente fertilidad, con el resultado de que aplicarles el mismo trabajo y capital produciría diferentes cantidades de maíz, y que la tierra agrícola no tendría uso alternativo. La competencia aseguraría que las parcelas de tierra cultivadas menos fértiles no ganaran renta: el maíz producido se vendería por ingresos suficientes para cubrir los costos de producción, con el resultado de que no quedaría nada para el propietario. Si hubiera un excedente, se podrían cultivar más tierras; si no se cubren los costos, la tierra no se cultivará. Las demás parcelas de tierra, debido a que por definición deben ser más fértiles, producirían un excedente. Siendo el dueño de la tierra, el propietario podría exigir este excedente como renta. El resultado fue que la renta surgió como el excedente ganado por la tierra que era más fértil que la tierra menos fértil bajo cultivo. La teoría de la renta diferencial explicaba la parte del ingreso nacional que recibían los terratenientes. Luego se utilizó la teoría de la población de Malthus para explicar la parte del ingreso que reciben los trabajadores. Si bien los salarios podrían subir por encima o caer por debajo de este nivel si la población crecía o disminuía, estaban vinculados, a largo plazo, a la tasa de salario de subsistencia. Las altas ganancias alentarían a los capitalistas a invertir, elevando el stock de capital. Esto aumentaría la demanda de mano de obra, manteniendo altos los salarios y provocando el crecimiento de la población. Sin embargo, a medida que crecía la población, también lo hacía el precio del maíz, por lo que el margen de cultivo se ampliaría: se cultivaría más tierra y las parcelas ya cultivadas se cultivarían más intensamente. Mientras esto sucedía, las rentas aumentarían, consumiendo las ganancias. Esta caída de los beneficios provocaría una caída de la tasa de acumulación de capital y, por tanto, de la tasa de crecimiento. A medida que se acumulaba el capital, las rentas subían pero las ganancias caían. Dado que el capital creaba empleo, esto también era malo para los trabajadores. Además, Ricardo había demostrado que la caída de la productividad en la agricultura, provocada por la necesidad de poner en cultivo tierras cada vez menos fértiles, era la causa de una tasa de ganancia decreciente. Sin embargo, la introducción de un sector manufacturero en el modelo de Ricardo planteó importantes problemas teóricos. El primero era que, si había dos bienes (alimentos y manufacturas), Ricardo necesitaba explicar su precio relativo: necesitaba una teoría del valor. Para ello, recurrió a la teoría del valor trabajo, la teoría de que los precios de las mercancías serán proporcionales al trabajo necesario para producirlas. El problema aquí, es que, bajo competencia, los precios serán proporcionales a los costos de producción y los mismos dependerán de la cantidad de capital utilizado, no solo de la cantidad de trabajo. De ello se deduce que la relación entre el precio y el costo de la mano de obra variará de acuerdo con la relación entre el capital y la mano de obra en una industria. La teoría del valor trabajo no se sostiene. La existencia de bienes manufacturados también creó problemas para la afirmación de Ricardo de que la disminución de la productividad agrícola era la única causa de la disminución de la tasa de ganancias. Si los trabajadores consumieran sólo maíz, esto sería cierto. La agricultura sería autónoma (el maíz sería el único producto y el único insumo) y la tasa de ganancia no dependería de las condiciones de la manufactura. La competencia aseguraría que la tasa de ganancia obtenida en la manufactura, y por lo tanto en toda la economía, sea igual a la obtenida en la agricultura. Por otro lado, si la subsistencia de los trabajadores incluyera, por ej, ropa además de comida, entonces el salario de subsistencia dependería del costo de producir ropa así como del costo de producir comida. La agricultura no sería autónoma. El resultado sería que la tasa de beneficio dependería tanto de las condiciones de la manufactura como de las de la agricultura. El teorema de Ricardo de que la productividad agrícola era el único determinante de la tasa de beneficio se vería indeterminado. Texto 7: Paul Sweezy (1942). Teoría del Desarrollo Capitalista. El papel de la demanda En este fragmento se aborda la crítica dirigida a Marx por supuestamente haber ignorado el papel de la demanda, es decir, las necesidades y deseos de los consumidores, en la determinación de las relaciones de valor cuantitativo. Se argumenta que esta crítica carece de importancia cuando se limita la discusión a una sociedad de producción simple de mercancías, como la de los cazadores mencionada por Adam Smith. En este tipo de sociedad, donde las proporciones de intercambio se determinan principalmente por el tiempo de trabajo requerido para producir cada mercancía, las necesidades del consumidor no desempeñan un papel relevante en la determinación de los valores de equilibrio. MARX Sin embargo, se reconoce que el problema del valor cuantitativo es más amplio que simplemente las proporciones de intercambio, y también incluye la asignación cuantitativa de la fuerza de trabajo en diferentes esferas de producción en una sociedad de productores de mercancías. En este sentido, se argumenta que las demandas del consumidor no pueden ser ignoradas. Como por ejemplo, si los castores se utilizan únicamente para hacer sombreros de pelo y los ciervos son la fuente principal de alimento de la comunidad, se requerirá más fuerza de trabajo para la caza de ciervos que para la caza de castores. Por lo tanto, al estudiar tanto las proporciones de intercambio como la distribución del trabajo, es necesario considerar dos tipos de información: el costo relativo en trabajo de los castores y los ciervos, y la intensidad relativa de la demanda de cada uno. Con estas dos clases de información, se puede determinar un equilibrio económico general en esa sociedad en particular. Se menciona que el equilibrio económico general se define como el estado de cosas que se establece si no hay cambios en las condiciones básicas. Este equilibrio no solo determina el valor relativo de las mercancías, como el castor y el ciervo, sino también las cantidades producidas de cada una y la distribución de la fuerza de trabajo de la sociedad. Cuando se piensa en la teoría del valor cuantitativo en este sentido amplio, no se puede excluir las necesidades del consumidor. Es exactamente aquí, sin embargo, donde no se puede sostener con éxito el cargo que se hace a Marx de ignorar la demanda. Ya que Marx reconocía claramente el papel que juega la demanda en la determinación del trabajo social, en el conjunto de su teoría sistemática, se ocupó de este factor breve y casualmente. Hay dos razones fundamentales que explican la visible indiferencia de Marx: En primer lugar, se argumenta que bajo el capitalismo, la demanda efectiva no es solo una cuestión de las necesidades de los consumidores. Lo más importante es la cuestión básica de la distribución del ingreso, que refleja las relaciones de producción y la estructura de clases de la sociedad. Marx sostenía que la "demanda social", que regula el principio de la demanda, está condicionada por las relaciones entre las diferentes clases económicas y sus posiciones relativas. Para comprender la oferta y la demanda, es necesario investigar previamente la base en la que se sustentan estas relaciones. En segundo lugar, se plantea que Marx se interesaba principalmente en el proceso de cambio social y en ” la ley económica del movimiento de la sociedad moderna”. Desde esta perspectiva, los elementos que son relativamente estables y sólo reaccionan a los cambios en otras entidades deben ocupar un lugar secundario en el análisis. Marx consideraba que las necesidades de los consumidores eran “elementos reactivos” de la vida social. Las necesidades, en la medida en que no surgieran de requerimientos biológicos y físicos básicos, eran un reflejo del desarrollo técnico y organizativo de la sociedad, y viceversa. Marx desestimó en cierta medida las necesidades de los consumidores en su enfoque del cambio económico, considerando que los factores subjetivos juegan un papel esencialmente pasivo en dicho proceso. Los economistas ortodoxos, aunque abordan el problema del valor a través de una teoría de la opción de los consumidores, también reconocen la primacía de la producción y la distribución del ingreso en la evolución económica. El autor menciona a Schumpeter como ejemplo de economista que reconoce la primacía de la producción y la distribución del ingreso. Schumpeter sostiene que los cambios en los gustos de los consumidores son incidentales a la acción de los productores y tienen poca relevancia a menos que ocasionen transferencias en el ingreso real. Otros analistas del ciclo económico siguen una línea similar, donde la demanda juega un papel importante, pero su análisis está dominado por la distribución del ingreso y las relaciones de producción existentes. "Ley del valor" vs. "Principio de planeación" Se menciona que la ley del valor resume las fuerzas que regulan las proporciones de intercambio, la cantidad producida y la asignación de la fuerza de trabajo en una sociedad de productores privados que satisfacen sus necesidades a través del intercambio. La ley del valor se basa en la productividad del trabajo en diferentes ramas de producción y en las necesidades sociales modificadas por la distribución del ingreso. También se menciona que las fuerzas equilibradoras de la oferta y la demanda en el mercado son parte de las fuerzas actuantes en la ley del valor. Se destaca que una de las funciones principales de la ley del valor es mostrar que, a pesar de que las decisiones no se toman de manera centralizada y coordinada, existe un orden en la asignación del esfuerzo productivo y en la cantidad producida de diferentes mercancías. Se plantea que en una sociedad en la que la asignación de la actividad productiva está sujeta a un control consciente, la ley del valor pierde relevancia y su lugar es ocupado por el principio de la planificación. Se menciona que en una sociedad socialista, la teoría de la planificación debería ocupar la misma posición básica que la teoría del valor en una sociedad capitalista. El valor y el precio de producción Se aclara que los precios de producción se derivan de los valores siguiendo ciertas reglas generales y que las desviaciones no son arbitrarias ni carentes de explicación. Se refuta la opinión predominante en la crítica angloamericana de Marx, liderada por Boehm-Bawerk, de que la teoría del precio de producción contradice la teoría del valor. Por el contrario, se afirma que la teoría del precio de producción no contradice la teoría del valor, sino que se basa directamente en ella y es parte integral del desarrollo de dicha teoría. Precio de monopolio La introducción de elementos de monopolio en la economía dificulta el funcionamiento de la ley del valor como reguladora de las relaciones cuantitativas de producción y cambio. Marx señala que el precio de monopolio se determina principalmente por el deseo de los compradores y su solvencia, y no está determinado por el precio de producción general y el valor del producto, como ocurre en un régimen de competencia. En el caso del monopolio, el control de la oferta le permite al monopolista aprovecharse de las condiciones de la demanda. Esto implica que tanto el precio como la cantidad producida y la distribución del trabajo son diferentes de lo que serían en un régimen de competencia. Se destaca que las discrepancias entre el precio de monopolio y el valor no están sujetas a reglas generales, a diferencia de las discrepancias entre el precio de producción y el valor. Sin embargo, este elemento arbitrario en la determinación del precio, bajo condiciones monopolistas, puede ser analizado e interpretado. Es importante subrayar que, las relaciones de valor cualitativo en un monopolio no se ven alteradas pero las de valor cuantitativo sí. Esto significa que la existencia del monopolio en sí misma no cambia las relaciones sociales básicas de la producción de mercancías, ni la base fundamental de la teoría del valor de Marx, que sostiene que el valor de una mercancía está determinado por la cantidad de trabajo abstracto requerido para producirla. Aunque las relaciones cuantitativas precisas implicadas en la ley del valor dejan de ser válidas bajo condiciones de monopolio, aún es posible medir y comparar mercancías en términos de unidades de tiempo de trabajo, lo cual es importante para el análisis y la interpretación de las implicaciones del monopolio en el funcionamiento del sistema en su conjunto. PLUSVALÍA Y CAPITALISMO Es importante tener en cuenta la distinción entre la producción de mercancías en general y el capitalismo. Mientras que todas o la mayoría de los productos toman la forma de mercancías bajo el capitalismo, lo contrario no es cierto: la producción de mercancías no implica necesariamente el capitalismo. Sin embargo, un alto grado de desarrollo de la producción de mercancías es un requisito previo para la aparición del capitalismo. Y para analizar el capitalismo desde una perspectiva de teoría del valor, es necesario examinar los rasgos especiales que distinguen esta forma de producción del concepto general de producción de mercancías. El capitalismo Bajo el sistema de producción simple de mercancías, cada productor posee y trabaja con sus propios medios de producción. Sin embargo, en el capitalismo, la propiedad de los medios de producción pertenece a un grupo de individuos, mientras que otros realizan el trabajo. Tanto los medios de producción como la fuerza de trabajo son mercancías, es decir, son objetos de intercambio y portadores de valor de cambio. Esto implica que no solo las relaciones entre propietarios, sino también las relaciones entre propietarios y no propietarios, están caracterizadas por relaciones de intercambio. Esta característica es común a la producción de mercancías en general, pero es específica del capitalismo. En el contexto del capitalismo, Marx distingue entre dos formas de circulación: la circulación simple de mercancías (M-D-M) y la circulación del capital (D-M-D'). En la circulación simple de mercancías, el productor vende sus mercancías para obtener dinero y luego utiliza ese dinero para comprar otras mercancías que satisfacen sus necesidades. En este caso, el dinero actúa como un medio para obtener valores de uso. En contraste, en la circulación del capital, el capitalista comienza con dinero (D), lo utiliza para comprar fuerza de trabajo y medios de producción (M), y luego, después de un proceso de producción, vuelve al mercado con un producto que se vende nuevamente por dinero (D'). Aquí, el dinero no se utiliza directamente para satisfacer necesidades, sino como capital, es decir, como una forma de inversión para obtener ganancias. Esta diferencia entre D' y D se llama plusvalía y representa la ganancia del capitalista. La plusvalía es la base objetiva y el incentivo principal de la circulación del capital y proporciona el motor impulsor de la producción capitalista. Marx enfatiza que la importancia de la plusvalía radica en la forma históricamente específica de la producción capitalista. Para el capitalista, la acumulación constante de riqueza en forma de plusvalía se convierte en el único motivo de sus operaciones. La opinión de los economistas ortodoxos es que el incentivo de la producción y la obtención de ganancias es una característica innata de la naturaleza humana. El origen de la plusvalía En el análisis de la plusvalía, es necesario examinar primero el valor de la mercancía fuerza de trabajo. Cuando se señala que la fuerza de trabajo es una mercancía, no significa que el trabajo mismo sea una mercancía. El capitalista adquiere la capacidad de trabajo del obrero, su fuerza de trabajo, mediante un contrato de trabajo por un período determinado. Es importante comprender que lo que el obrero vende es su capacidad de trabajo por un período específico, y no el trabajo en sí mismo. En una sociedad de esclavos, el comprador adquiere al esclavo y no a su trabajo, bajo el capitalismo el obrero se vende por un tiempo estipulado. La fuerza de trabajo, al ser una mercancía, también tiene un valor que se determina por el tiempo de trabajo necesario para producir y reproducir esta mercancía especial, que en última instancia consiste en la producción de los medios de subsistencia necesarios para el mantenimiento del trabajador. El valor de la fuerza de trabajo se reduce al valor de los medios de subsistencia requeridos para mantener al trabajador en su estado normal como individuo laborante. Estos medios de subsistencia varían según las condiciones físicas y las necesidades históricas y culturales del país. Marx argumenta que la plusvalía no puede surgir simplemente en el proceso de circulación de mercancías, ni puede originarse en los materiales utilizados en la producción. Los materiales transfieren su valor a los productos finales, pero no tienen el poder de generar valor adicional. La clave para comprender la generación de plusvalía radica en la distinción entre trabajo necesario y trabajo excedente. El trabajo necesario es el trabajo que se requiere para producir los medios de subsistencia del obrero, y su producto se destina al trabajador como salario. Por otro lado, el trabajo excedente es el trabajo que excede lo necesario para la reproducción del obrero y es apropiado por el capitalista como plusvalía. El capitalista se beneficia de la diferencia entre el valor creado por el trabajador y el salario que le paga. Es importante destacar que la existencia de trabajo necesario y trabajo excedente no es exclusiva del capitalismo, ya que se encuentra presente en diversas sociedades. Lo que distingue al capitalismo es la forma específica en que se lleva a cabo esta explotación, es decir, la producción de plusvalía a través de la relación entre capital y trabajo asalariado. Los componentes del valor En el análisis anterior, se muestra que el valor de una mercancía producida en el capitalismo se puede dividir en tres partes. La primera parte, denominada "capital constante" y representada por la letra c, corresponde al valor de los materiales y maquinaria utilizados, que no cambia su valor durante el proceso de producción. La segunda parte, llamada "capital variable" y representada por la letra v, corresponde al valor utilizado para pagar los salarios y restituir el valor de la fuerza de trabajo, y puede generar una plusvalía adicional dependiendo de las circunstancias. Y por último la plusvalía se representa con la letra p. Valor Total = c + v + p Capital constante + Capital variable + plusvalia = Valor total Esta formulación del valor de una mercancía puede extenderse y aplicarse al análisis del valor total de la producción durante un período determinado, ya sea de una empresa o de toda la economía. Es importante destacar dos comentarios al respecto, esta fórmula simplificada se relaciona estrechamente con los balances contables de las empresas. El valor total se corresponde con las ventas brutas, el capital constante se refiere a los gastos en materiales y depreciación, el capital variable corresponde a los salarios y sueldos, y la plusvalía representa los ingresos disponibles para distribución o reinversión. Esto muestra la estrecha relación de la teoría del valor de Marx con las categorías contables reales de las empresas capitalistas. En segundo lugar, si extendemos esta fórmula para abarcar toda la economía, proporciona un marco conceptual para el manejo de lo que se conoce como ingreso nacional. Sin embargo, es importante tener en cuenta las diferencias entre los conceptos marxistas de ingreso y los utilizados por los investigadores modernos. Mientras que los investigadores modernos suelen incluir en el ingreso nacional bruto la suma de V + P más la depreciación del capital fijo, y el ingreso nacional neto a V + P. En "entrada bruta" Ricardo, por ejemplo, se asemejaría al ingreso neto moderno (V + P), mientras que la "entrada neta" se refiere únicamente a la plusvalía, es decir, la suma de ganancias y renta. La tasa de la plusvalía La fórmula anterior c + v + p es un elemento central de la teoría económica de Marx. Las proporciones que se derivan de ella son: Tasa de plusvalía: p´ = p / v Esta es la forma capitalista de lo que Marx llama tasa de explotación, es decir, la proporción de trabajo excedente con respecto al trabajo necesario. La magnitud de la tasa de la plusvalía es determinada por tres factores: la duración del día de trabajo, aquí se establece el tiempo total que debe dividirse entre trabajo necesario y trabajo excedente; la cantidad de mercancías que entran en el salario real y la productividad del trabajo, de estos últimos dos se determina cuánto de ese tiempo debe contarse como trabajo necesario. La tasa de plusvalía puede ser mayor, por una extensión de trabajo, por una rebaja del salario real, por un aumento de la productividad del trabajo o por alguna combinación de las tres. Marx trabaja con la suposición simplificada de que la tasa de plusvalía es igual en todas las ramas de la industria y en todas las empresas dentro de cada industria. Esto implica ciertas condiciones que en la realidad solo suceden parcialmente, por ejemplo, debe haber una fuerza de trabajo homogénea, transferible y móvil, además cada industria y cada empresa dentro de las industrias deben emplear exactamente la cantidad de trabajo que sea socialmente necesaria. La composición orgánica del capital La segunda proporción que se deriva de la fórmula c +v + p es una medida de la relación del capital constante con el capital variable, en el capital total usado en la producción, a la que Marx llama la Composición orgánica del capital. Composición orgánica del capital = o = c / c + v En un lenguaje no técnico, la composición orgánica del capital es una medida de la amplitud en que el trabajo está provisto de materiales, instrumentos y maquinarias en el proceso productivo. Igual que en el anterior caso de la tasa de plusvalía, los factores que determinan la composición orgánica del capital están sujetos a varias influencias causales. La tasa de los salarios reales, la productividad del trabajo, el nivel común de la técnica (estrechamente relacionado con la productividad del trabajo) y la amplitud de la acumulación de capital en el pasado entra en la determinación orgánica de capital. La tasa de la ganancia Para el capitalista la proporción de la plusvalía con respecto al desembolso total de capital, es decir, la tasa de ganancia es una proporción crucial. Tasa de ganancia = g = p / ( c + v ) Se indican algunas implicancias con respecto a esta proporción, en primer lugar la propiedad de la tierra se toma como cero, es decir, no se le asigna ninguna relación económica particular. Esta suposición le permite centrarse en las relaciones capitalistas de explotación sin abordar explícitamente el tema de la renta de la tierra. Por consiguiente, se señala que la fórmula p/c + v, que representa la tasa de ganancia, muestra estrictamente la ganancia sobre el capital realmente empleado en la producción de una mercancía específica. Sin embargo, en la práctica, los capitalistas suelen calcular la tasa de ganancia sobre su inversión total durante un período de tiempo determinado, como un año. La inversión total generalmente no es igual al capital empleado durante un año, ya que los diferentes elementos de la inversión tienen distintos períodos de rotación. Por ejemplo, un edificio de fábrica puede tener una vida útil de cincuenta años, mientras que una máquina puede durar diez años, y los salarios se pagan cada tres meses. Para simplificar la exposición teórica y ajustar la fórmula de la tasa de ganancia al concepto de una tasa anual de ganancia, Marx realiza la suposición de que todo el capital tiene un periodo de rotación idéntico de un año (o cualquier otro período unitario elegido para el análisis). Esta suposición implica que el proceso productivo requiere un año, que los materiales, maquinaria y fuerza de trabajo comprados al comienzo del año se completan al final del mismo, y que la producción se vende, recuperando así todos los gastos junto con la adición de la plusvalía. En cuanto a los factores que determinan la tasa de la ganancia, es fácil demostrar que son idénticos a los factores que determinan la tasa de la plusvalía y la composición orgánica del capital. Por otro lado, se discute la suposición de igualdad en las tasas de plusvalía y tasas de ganancia entre las industrias y empresas. Esto se basa en la movilidad tanto del trabajo como del capital, así como en la igualdad general en el nivel de tecnología. Si se asume que las tasas de plusvalía y tasas de ganancia son iguales en todas partes, se plantea la cuestión de si la composición orgánica del capital debe ser también la misma en todas partes. Si existieran diferencias en la composición orgánica del capital, surgirían desigualdades en las tasas de ganancia entre los capitalistas. Por ejemplo, si dos mercancías tienen igual valor y tasas de plusvalía, pero diferentes composiciones orgánicas del capital, se crearía una situación inestable en términos de ganancias. Marx señala que la afirmación de igualdad en las tasas de plusvalía y tasas de ganancia se basa en tendencias reales existentes en la producción capitalista, debido a la competencia. Sin embargo, no existe una tendencia real a la igualdad en las composiciones orgánicas del capital entre industrias completamente diferentes con métodos de producción muy variados. Por lo tanto, se concluye que en la realidad del modo de producción capitalista, la ley del valor no ejerce un control directo. No obstante, esto no implica que la teoría del valor de Marx deba ser descartada. Se plantea la posibilidad de suponer un sistema capitalista en el cual las composiciones orgánicas del capital sean iguales en todas partes, lo que permitiría que la ley del valor siga vigente. Sin embargo, es necesario poner a prueba esta suposición y examinar las posibles modificaciones necesarias en los resultados obtenidos. Si las modificaciones resultan ser insignificantes, el análisis basado en la ley del valor estaría justificado. En caso contrario, se requerirían ajustes en el análisis. La validez de este enfoque debe determinarse empíricamente y no puede decidirse de antemano. Bortkiewicz, entre los críticos de la estructura teórica de Marx, fue quien reconoció la importancia de la ley del valor y su aplicación. Además, Bortkiewicz sentó las bases para una prueba lógicamente irrefutable de la validez del método de Marx, lo que le otorga el derecho de ser considerado no sólo como crítico, sino también como un contribuyente importante a la teoría marxista. Marx sostiene que el hecho de que la ley del valor no sea válida en el orden económico capitalista se debe a un factor o una serie de factores que no hacen más que ocultar la esencia del capitalismo. Si asumimos que la composición orgánica del capital es la misma en todas las esferas de la producción, la ley del valor controlaría directamente el intercambio de mercancías sin detener la explotación de los obreros por parte de los capitalistas y sin reemplazar el deseo de ganancia de los capitalistas por ningún otro motivo en la determinación del volumen, la dirección y la técnica de la producción. Aquí tenemos, en pocas palabras, la razón para suponer que las composiciones orgánicas del capital son iguales. Sin embargo, esta suposición no debe confundirse con las suposiciones de igualdad en las tasas de plusvalía y las tasas de ganancia. Estas últimas tienen su justificación en las tendencias reales existentes en una economía capitalista de competencia, mientras que la primera supone una abstracción deliberada de condiciones que existen en el mundo real. Texto 9: El triunfo del utilitarismo y la revolución marginalista Screpanti y Zamagni Capítulo 5 y 6 Revolucion Marginalista (1870 -1880) Época de profunda transformación estructural interpretada como los primeros síntomas de una crisis general del sistema capitalista o como manifestación de una gran depresión. En este contexto las relaciones sociales tuvieron un crecimiento desigual tanto en las fábricas como en la sociedad. Por un lado hubo notable aumento en la concentración del capital en los sectores mecánicos, siderúrgicos, transporte y comunicaciones. Se consolidó la sociedad anónima como la forma de movilización y control de cantidades de capitales necesarios para el desarrollo. En las empresas las relaciones entre individuos dieron lugar a los primeros intentos de gestión de personal y elaboración de la ciencia de la administración de las empresas. Se agudizó el conflicto de clase entre formaciones políticas y sindicales así como también de la competitividad entre los precios y la tecnología. Lo que provocó un lento declive en el liderazgo industrial inglés y un aumento en las dificultades de coordinación internacional. Época de disminución del nivel general de los precios a escala mundial y reducción del crecimiento del comercio internacional. A comienzos de la década 1870 aparecieron tres importantes obras que marcaron el inicio de la revolución marginalista: la teoría de la economía política (1871) de William Stanley Jevons, los Grundsätze der Volkwirtschaftslehre (1871) de Carl Menger, y los elementos de economía política pura (2 tomos, 1874 y 1877) de León Walras. Sistema teórico Neoclásico: La primera característica del nuevo sistema que aparece es la pérdida del interés por el fenómeno del desarrollo económico, el cual es el foco principal de las teorías económicas de Smith, Ricardo y Marx y todos los demás economistas clásicos. Jevons describió el problema económico de la siguiente manera: “Dada una población con diversas necesidades y ciertas posibilidades de producción en poder de ciertas tierras y de otras fuentes de recurso debe determinarse el modo de distribuir el trabajo de la mejor manera para dar la máxima utilidad al producto”. Esta formulación de Jevons dejó huella en todas las investigaciones económicas de su época. Una segunda característica que se convirtió en el pilar del sistema teórico neoclásico es la decisión al planteamiento utilitarista. Jevons, Menger y Walras reformularon la teoría del valor utilidad de la hipótesis de utilidad marginal decreciente de la misma forma en que modificaron los fundamentos utilitaristas de la economía política. Su marginalismo acreditó una especial versión de la economía política según la cual el comportamiento humano resulta exclusivamente reducible al cálculo racional orientado de la maximización de la utilidad. Una tercera característica es el método. El método neoclásico se basa en el principio de las variaciones de las proporciones, también conocido como principio sustitución, el cual es un método que no tiene equivalente en el pensamiento clásico En el ámbito de la teoría de consumo, se asume que un conjunto de bienes es sustituible por otro, mientras que en la teoría de la producción, que una combinación de factores es sustituible por otra. Se busca encontrar las condiciones en las cuales se puede llegar a escoger la alternativa óptima. Éste método propone que las alternativas en el juego sean abiertas y que las decisiones tomadas sean reversibles. Una cuarta característica distintiva del planteamiento neoclásico es la relativa a los sujetos económicos. Se busca que los individuos sean capaces de realizar elecciones racionales con el objetivo de la maximización de sus beneficios y de la utilidad así como también que sean individuos que se caracterizan por la individualidad de la unidad en la que recae la toma de las decisiones como la familia o las empresas. Desaparecen las clases sociales o cuerpos políticos del análisis, centrales en los sistemas teóricos de los clásicos y Marx. La quinta característica consiste en el logro definitivo de la antihistoricidad de las leyes económicas. Objetivo que muchos clásicos habían aspirado pero que ninguno había realizado con éxito. Las leyes económicas van a pasar a asumir finalmente el carácter absoluto y objetivo que se le atribuye a las leyes de la naturaleza. El problema de la escasez planteado por los neoclásicos fundamenta la validez universal de las leyes económicas. Para esto es necesario abandonar el estudio de las relaciones sociales. Con la revolución marginalista nació el proyecto reduccionista, según el cual a la economía no se le reconocería otro ámbito de estudio que el de las relaciones técnicas, que son las relaciones entre hombre y naturaleza. Es así que tanto el reduccionismo individualista como el reduccionismo antihistoricista condujeron a la eliminación de las relaciones y clases sociales. Finalmente la sexta característica de la teoría neoclásica es la sustitución de una teoría subjetivista del valor por una que es objetivista. Uno de los fundamentos del principio del valor subjetivo es el supuesto de que todos los valores son individuales y subjetivos. Individuales en el sentido en que hay que entenderlos siempre como fines de individuos determinados. Subjetivos en el sentido de que surgen de un proceso de elección, en donde un objeto tiene valor si es deseado por un sujeto. Por otro lado, el fundamento del principio del valor objetivo es que los valores existen independientemente de las decisiones individuales. El individuo puede aceptar o rechazar los valores pero no tienen la posibilidad de establecer su legitimidad. La teoría de la distribución de la renta se convierte en un caso particular de la teoría del valor, un problema de determinación de los precios de los servicios de los factores productivos, más que de reparto de la renta entre las clases sociales. ¿Fue una auténtica revolución? Uno de los problemas más importantes que plantea la revolución marginalista a los historiadores del pensamiento es si se trató o no de una auténtica revolución. La revolución marginalista consiste en la liberación de la microeconomía, entendida como teoría de las decisiones individuales de la macroeconomía clásica. Es tal la revolución que la ciencia económica comenzó a denominarse economics en lugar de political economy. Se buscó apartar la economía de los cuerpos e intereses políticos. Las razones del éxito Razones por las cuales se dio la revolución marginalista: internas y externas. En las razones internas se encontraban la incapacidad de la ortodoxia clásica de resolver una serie de problemas teóricos. Comenzaron a existir problemas en las teorías del valor-trabajo y en la tentativa de los Ricardianos de superar esta dificultad con una teoría del coste de producción. Finalmente hubieron problemas más graves en la generalizaciones que en las críticas a las teorías. Un ejemplo de esto es que Jevons afirmó que los casos de producción conjunta constituían en realidad el caso general, mientras que para Mills era una excepción a la teoría del valor basado en el costo de producción. A su vez, los clásicos no habían logrado producir una teoría satisfactoria de la distribución de la renta lo que constituía una grave carencia. Las principales dificultades eran las relativas a la teoría de los salarios que constituían el fundamento de toda la estructura. Una vez que se descartó la tesis de qué los salarios permanecen anclados al nivel de subsistencia en virtud del mecanismo malthusiano de la población toda la teoría se vino abajo. Las razones externas son aún más importantes que las anteriores. En primer lugar, las críticas al socialismo y al marxismo venían tomando fuerza lo que implicó romper con ciertas barreras y conceptos creados en el seno de la economía clásica, tales como el excedente, la clase social, fuerza de trabajo, el capitalismo y la explotación. La teoría de la utilidad marginal proporcionó la solución buscada y al mismo tiempo permitió demostrar que en la economía competitiva se realizaba un tipo de organización social cercano al ideal, donde las reglas de mercado permiten llegar a soluciones óptimas y lograr la armonía de intereses y maximización de objetivos individuales. Se dio una conflictividad y disgusto social creciente desde 1880 y que fue aumentando hasta mediados de la década siguiente. Por lo que cuando los neoclásicos presentan una teoría capaz de desviar completamente la atención de los problemas desagradables, estaban lanzando al mercado precisamente la teoría que este demandaba. Asimismo, los marginalistas fueron fuertes defensores del laissez faire. Mientras los clásicos lo apuntaban más hacia el problema de la acumulación, los neoclásicos lo hicieron hacia el problema de la eficacia distributiva. Otras dos cuestiones importantes son que los países capitalistas ya estaban más avanzados y habían resuelto el problema del despegue industrial, de forma que las exigencias de la acumulación dejaron de ser tema central. Por otro lado, durante 1870 y 1880 queda en evidencia la incapacidad del capitalismo para vencer la anarquía de mercado, a esto se le llamó Gran Depresión. Por lo que en parte da razón al tipo de teorías que demostraban que el mercado lejos de ser anárquico, proporcionaba la mejor asignación de recursos posible, y que si no iba bien era porque las coaliciones obreras impedían que el mercado funcionara. William Stanley Jevons - El cálculo lógico en economía Jevons se opone al sistema de la lógica de Mill, en Los Principios de las Ciencias. En La Teoría de la economía política, podemos leer que la economía pertenece a la clase de las ciencias que además de ser lógicas, son también matemáticas; nuestra ciencia debe ser matemática simplemente porque trata de cantidades. Lo que se vincula directamente a Bentham que dice: “Las ideas de Bentham son el punto de partida de la teoría desarrollada en este trabajo; he procurado tratar la economía como un cálculo de placeres y sufrimientos, y he esbozado la forma general que la ciencia económica debe asumir últimamente”. De aquí surgen premisas como “el valor depende por completo de la utilidad”, lo que es opuesto a la mayoría de los clásicos. El punto de partida del análisis Jevoniano es el intercambio. Se dan dos características principales en los agentes económicos. La primera es que cada cual actúa sobre la base de un cálculo racional maximizador, y este es en cualquier caso el único elemento de la acción humana que puede y debe estudiar la economía. En segundo lugar: “Satisfacer nuestras necesidades o maximizar el placer con el mínimo esfuerzo, constituye el problema de la economía”. Se habla de utilidad no como cualidad del objeto, sino como la suma de los placeres que su uso proporciona. Se da un problema, pues la utilidad resulta difícil de comparar y medir. Ya que cada mente resulta inescrutable para cualquier otra mente, y no parece existir un denominador común de los sentimientos de los distintos individuos. Jevons analizó la producción y la acumulación de capital desde la misma perspectiva que el intercambio. Un elemento esencial de la contribución de Jevons fue su interpretación de la ley de rendimientos decrecientes, que formuló al tratar de la teoría de la renta de la tierra. Dos sutiles cambios en la interpretación de la ley fueron en primer lugar, la eliminación de hecho de la distinción entre caso extensivo (cultivo simultáneo de tierras de distinta fertilidad o cantidad) y caso intensivo (aplicación de sucesivas dosis idénticas de capital y trabajo a la misma parcela), con una sobrevaloración del segundo caso (clásicos más interesados en la explicación de la renta de la tierra que de los precios de las mercancías centraron su atención en las extensivas). Mientras la diferente productividad de las tierras de distinta calidad es una circunstancia directamente observable en una situación dada, la productividad marginal de una dosis de input indica un cambio de la situación y, en consecuencia, representa solo un incremento virtual del output. En segundo lugar, el desplazamiento del interés hacia el caso intersivo condujo a un importante cambio en términos de cambios hipotéticos, en lugar de cambios observables, y esto contribuyó a acreditar la tesis de la simetría entre la tierra y los otros inputs. De aquí se derivan dos consecuencias importantes. La primera de ellas es que la sustituibilidad entre tierra y trabajo asistido se extiende de la producción agrícola a todos los tipos de producción, incluso en los que no aparece un input directo de tierra. La segunda es que la sistituibilidad se extiende a todos los inputs, mientras que para los clásicos la sustituibilidad presuponía un estricta complementariedad entre trabajo y utensilios. Jevons dedicó gran atención a problemas de política social. Plantea principios que deberían guiar la intervención pública en la economía. El estado natural de la economía de mercado es la armonía social, y no el conflicto de clases. “El supuesto conflicto entre trabajo y capital es una ilusión”. Acepta que los capitalistas tienen diferentes intereses que los trabajadores, pero “la competencia debería resolver el posible conflicto de intereses entre las dos partes, puesto que haría que el capital fuera remunerado solo al tipo de interés fijado por el mercado, mientras que el trabajador percibiría solo el valor de los que ha producido. Jevons no estaba en contra de los sindicatos, pero sí en contra de la fijación de salario basada en la contratación colectiva. Léon Walras El principal aporte de Walras es la Teoría del Equilibrio Económico General. Ningún autor anterior habría logrado constituir una estructura teórica general que sirva de marco para el estudio de las múltiples relaciones que vinculan un mercado con otro. La oferta y demanda de un mercado afectan y depende de los precios de otros, por lo que se requiere un análisis general. Los mercados deben interrelacionarse para hacer compatibles las acciones de todos los sujetos económicos. El sujeto que consigue realizar su intento de maximizar su satisfacción tendrá un exceso de demandas para algunos bienes y un exceso de ofertas para otros. Mediante el intercambio, el individuo se sirve de los excesos de oferta para eliminar los excesos de demanda. Un estado de equilibrio económico general es una situación en la que los precios son tales que permiten a todos los individuos maximizar simultáneamente sus propios objetivos. El libre juego de la competencia llevará a distribuir los factores entre las producciones de las diversas mercancías de manera que satisfagan las demandas de los consumidores. La escasez de recursos productivos respecto a la demanda de los bienes influirá de manera determinante sobre los precios relativos. Todas las cosas que forman parte de la riqueza social existen sólo en cantidades limitadas. La economía está formada por una pluralidad de sujetos que están presentes en el mercado, como consumidores, oferentes de servicios productivos o empresarios. Los servicios productivos son adquiridos por empresarios y transformados en bienes, los cuales a su vez son adquiridos por otros empresarios que los usan para producir, o por consumidores finales. Los consumidores ahorristas eligen el nivel y la composición del consumo y del ahorro. Mientras que los empresarios deciden el nivel y la composición de la producción y la inversión. No importa cómo se componga la renta del individuo, que parte sea de su trabajo y cuál del capital. Inicio de cada período dotación dada de recursos (naturales y producidos anteriormente), al igual que de bienes y capacidad de prestar servicios. Los consumidores determinarán la distribución de su renta entre consumo y ahorro que proporcione mayor satisfacción intertemporal; y luego determinarán cómo distribuir la renta de consumo, de modo de obtener la máxima utilidad. Quienes ofrecen servicios productivos, intentarán conseguir el mejor equilibrio entre la renta obtenida y lo generoso de su prestación. Los empresarios intentan conseguir el máximo beneficio de su actividad, maximizando la diferencia entre el valor de la producción y los costos de las mismas. La persecución de los objetivos individuales obliga a los agentes a intervenir en las relaciones de intercambio. El equilibrio económico general El problema central de la teoría de Walras consiste en mostrar cómo los intercambios voluntarios entre individuos bien informados, autointeresados y racionales conducen a una organización sistemática de la producción y de la distribución de la renta que resulta eficiente y mutuamente beneficiosa. La única forma admitida de interacción social es la que se lleva a cabo en el mercado por medio del intercambio voluntario. Ni los sindicatos, ni los grupos de presión, ni los cárteles de empresas, ni otros tipos de grupos sociales son admitidos, dado que violan un requisito fundamental del modelo de equilibrio económico general que es el de la competencia perfecta. El mercado coordina acciones de los sujetos individuales, y existen precios determinados de manera tal que hacen que resulten ventajosas para cada individuo precisamente aquellas actividades e iniciativas que satisfacen de manera eficiente sus necesidades. Por esto la teoría de precios juega acá un papel fundamental. El precio de un bien es uno de los elementos determinantes del precio de demanda de un factor utilizado para producirlo. A partir del precio de oferta y el precio de demanda de un factor, se determina su precio de mercado, lo que afecta el precio y la oferta del producto. Existe un equilibrio competitivo walrasiano si hay un conjunto de precios tales que: 1. En cada mercado la demanda es igual a la oferta 2. Cada operador tiene la posibilidad de comprar y vender exactamente lo que tenga proyectado 3. Todas las empresas y consumidores tienen la posibilidad de intercambiar precisamente aquellas cantidades de mercancías que maximizan respectivamente sus beneficios y utilidades Para obtener un resultado de este tipo es necesario conocer: el número de consumidores, el número de las empresas, las dotaciones iniciales, las preferencias de los consumidores y las técnicas disponibles. El modelo de formación de los precios en el que se basa la teoría Walrasiana del intercambio es el de la contratación competitiva. Esta teoría trata de mercados competitivos donde los modelos son concebidos como subastas. Al inicio de la contratación el subastador vocea un vector de precios y deja que los agentes económicos formulen sus propuestas de compra y de venta. El vector de precios de equilibrio será aquel que iguale oferta y demanda. En caso que no sean iguales, se da el proceso de tatonnement que refiere a esto de ir tanteando y variando precios según haya exceso de oferta o de demanda. Determina esto como una ticket economy, considerada como una economía ideal donde la justicia social y el bienestar material fuesen compatibles, aunque se alejara de la realidad de las economías de mercado. El mercado está en equilibrio cuando el beneficio se anula a causa de la competencia entre empresarios. La existencia de beneficio positivo o negativo da síntoma de desequilibrio. Los empresarios se ganan la vida como terratenientes, trabajadores o capitalistas, no como empresarios. Se da un sistema de ecuaciones simultáneas donde hay tantos mercados como mercancías y por mercado tres ecuaciones, donde una es de demanda, una de oferta y otra de equilibrio. Por mercado hay tantas ecuaciones de demanda como consumidores y tantas ecuaciones de oferta como de empresas. En el mercado de factores la cantidad de ecuaciones de demanda es el número de bienes que cada empresa produce por el número de empresas, y el número de ofertas igual al número de propietarios de los factores. Se definen las ecuaciones de producción de forma tal que los costos igualen los precios. Los costos de producción dependen de los precios de los inputs y de la técnica utilizada, representada por coeficientes de fabricación, que se suponen fijos y que expresan la manera en que se combinan cada input con el output. Las ecuaciones de capitalización suponen que el valor de compra de cada bien de capital es igual a su renta neta. Se da un equilibrio donde la tasa de rendimiento de todos los bienes son uniformes e iguales a la tasa de interés. Número de incógnitas igual al número de ecuaciones. La ley de Walras en un sistema de equilibrio general, si todos los mercados excepto uno están en equilibrio y los presupuestos de todos los agentes están nivelados, entonces también el mercado restante debe estar en equilibrio. La ciencia económica pura: No debe verse invalidada por los juicios de valor; completa indiferencia a las consecuencias, buenas o malas, con las que avanza en la búsqueda de la verdad pura. Plantea una diferencia entre juicio técnico y juicio ético (caso del fármaco usado por un médico o por un asesino). Posición de Walras como moderado reformista en materia socioeconómica. Para él análisis económico no podía tener ningún vínculo con las medidas de política económica, ya que siempre mantuvo claramente diferenciados el plano normativo y el plano positivo. Los temas preferidos en sus propuestas de políticas económicas fueron la nacionalización de monopolios naturales, la estabilización de precios por parte de la autoridad monetaria, el mercado de capitales, cuya eficacia y fiabilidad debería asegurar el Estado (apropiación de tierras para aumentar ingresos gubernamentales). Walras se definía a sí mismo como socialista científico. Carl Menger El nacimiento de la escuela austriaca y el Methodenstreit, con base aristotélica de la escuela austríaca. Existen cualidades o hechos, como la acción, la naturaleza humana y otros fenómenos más complejos, que son cognoscibles a priori, de manera que es posible enunciar leyes que no necesitan confirmación inductiva. Al oponerse a buscar las leyes de la economía, Menger estableció el sistema teórico de la escuela austríaca, en oposición a la escuela histórica de Schmoller. Entendía a la ciencia económica como disciplina teórica pura, de manera que ofreciera una explicación del valor y los precios alternativa a la de los clásicos. Para los clásicos el valor estaba regido por los costes pasados, mientras que Menger planteaba que era la expresión del juicio del consumidor acerca de la utilidad de los bienes aptos para satisfacer sus necesidades. Esto va contra el inductivismo alemán de la época. La crítica principal de los alemanes a la economía clásica estaba más bien dirigida al método. Determinaban que en economía se debería utilizar un planteamiento histórico, y no teórico; y la disciplina debería ocuparse únicamente de la descripción, clasificación y recopilación de los fenómenos observados. Por esto Menger se batía a dos frentes, el metodológico con los alemanes y el de la teoría económica con los clásicos. Schmoller, líder de la joven escuela histórica, se opuso al enfoque axiomático-deductivo de los clásicos y los neoclásicos. Acusaba que no se tenía suficientemente en cuenta en la elaboración teórica el conocimiento de los hechos y el material histórico. La economía debía alejarse de las abstracciones y acercarse a los fundamentos empíricos. Asimismo, estudió cómo las formas de acumulación capitalistas afectaba las clases sociales, y sobre sus relaciones, así como los efectos del laissez faire sobre las clases menos pudientes. Methodenstreit disputa sobre el método ya que pone en el centro de atención a la comunidad científica internacional. Existen dos principales tesis: La primera es que la ciencia pura será siempre wertfrei y libre de valores, ya que para ser ciencia la economía debía de estar libre de juicios de valor. La segunda es que la economía puede tratar científicamente solo el comportamiento de los agentes individuales, ya sean consumidores o empresas. Desde el punto de vista científico no se podría hablar de colectivos económicos, ni habría lugar en la ciencia económica para la macroeconomía, para conceptos como renta nacional, riqueza colectiva y similares. Se pasa de la idea de que los deseos de los individuos constituyen el único criterio del bien y del mal, a una tesis de que el bienestar social lo promueven y fomentan las políticas que aspiran a maximizar la suma total de los placeres, lo que trae graves dificultades lógicas y prácticas. Menger se diferenció de Bentham al percibir las dificultades técnicas de las teorías de las reformas basadas en principios utilitaristas: “el mayor bienestar para el mayor número” no resulta compatible con el individualismo metodológico, en donde todas las proposiciones sobre el comportamiento de los agentes colectivos son reducibles a proposiciones sobre el comportamiento de sus componentes individuales. El individualismo metodológico se opone al holismo u organicismo metodológico, según el cual los términos colectivos de la ciencia social designan realidades sociales con entidad propia distinta de la suma de sus constituyentes individuales (holismo del cual eran partidarios los clásicos y Marx). Para los holistas: el funcionamiento del sistema económico no podría entenderse solo a partir de una teoría de los comportamientos de los agentes individuales, y esto explicaría que utilizaran la categoría de clase social. Utilidad Marginal para Menger ¿Con qué condición el principio de utilidad marginal puede considerarse el fundamento de todo el discurso económico? A condición de que este principio puede ampliarse del reducido ámbito del intercambio a los problemas, más complejos, de la producción y la distribución. En este sentido, no es suficiente explicar cómo partiendo de cantidades dadas de bienes de consumo distribuidas entre los individuos de manera conocida, se establece un conjunto de intercambios que, en competencia perfecta, maximizan las utilidades de los sujetos y al mismo tiempo determinan la configuración del equilibrio de los precios relativos. Hay problemas al llevar la aplicación de la utilidad marginal a los fenómenos productivos y distributivos, dado que no parece poder compararse los costos con la utilidad. La única manera de preservar la simetría entre la oferta y la demanda consiste en homogeneizar costes con utilidad. Es acá donde está la verdadera contribución de Menger, y lo que lo diferencia de Walras y Jevons. Con sus teorías de la imputación y del costo de oportunidad, Menger tradujo los costos en utilidad. La utilidad de los “bienes de orden superior” se deriva de la de los bienes de “primer orden” (bienes de consumo) a cuya producción contribuyen. Esta utilidad indirecta puede ser “imputada” a cada uno de los factores de la producción teniendo en cuenta su contribución marginal a dicha producción. Así, el coste efectivo sostenido para producir un bien determinado se convierte en “coste de oportunidad”, el coste representado por el sacrificio de la utilidad de aquellos otros bienes que se podrían haber obtenido de los recursos utilizados para producir el bien en cuestión. Los costos de producción no se valoran en términos absolutos, sino en términos relativos, es decir en términos de alternativas sacrificadas. De esta manera oferta y demanda aparecen como dos aspectos del mismo problema. A su vez, ocurre que todo aquello que para la empresa representa un costo, para los propietarios de factores productivos representa una renta. Sucede que el mismo principio, desde el momento en que explica el fenómeno de los costos, automáticamente explica también la formación y distribución de las rentas. Los salarios, beneficios y rentas de la tierra dependen, en última instancia de las demandas y de los precios de los bienes de consumo, y en consecuencia vienen determinados por la utilidad. La distribución de la renta deja de ser un capítulo aparte de la teoría económica, para convertirse únicamente en un apartado, ahora privado de la teoría, del capítulo que trata de la teoría de los precios. Así, la teoría del valor basada en la utilidad marginal lleva directamente a la teoría de la distribución basada en la productividad marginal. Si cada factor recibe el valor de su contribución productiva, el valor de la producción total resulta exactamente agotado en la remuneración de los factores, y no queda ningún excedente del que alguien pueda apropiarse sin haberlo producido (teoría del agotamiento del producto). Capitulo 6: La construcción de la ortodoxia neoclásica Fin de la gran depresión y de la crisis agraria (1870-1880). Se plantean medidas proteccionistas de la industria nacional en Europa, Estados Unidos y Japón. Estos países se lanzaron a un impetuoso desarrollo económico que se prolongó hasta la primera guerra mundial, y que fue destacado por las numerosas novedades tecnológicas. Comienza un fuerte período de crecimiento, que vino acompañado de mejoras en los niveles de vida de las clases trabajadoras, dado que no imponía un freno a la expansión. A esto se le llamó, la belle Époque. Fue una época de innovaciones tecnologías, movilidad de capitales, estabilidad económica y relativa paz. Marshall y los neoclásicos ingleses La gran invención de Marshall fue el método de análisis del equilibrio parcial y su contribución decisiva al análisis económico. Marshall aplicaba el método de equilibrio parcial al estudio del mercado de las mercancías y no al de los factores productivos, donde sí elaboró un sistema de equilibrio general con relaciones esenciales entre productos y factores de producción. En contraposición con Walras, Marshall tendía a privilegiar el realismo y la capacidad explicativa de la teoría más que la coherencia lógica y la elegancia formal de los resultados. Se centró en las condiciones de equilibrio de cada mercado, ignorando interrelaciones entre sectores. Los principales instrumentos de análisis fueron los conceptos de industria y empresa representativa. Siendo la industria un conjunto de empresas que producen la misma mercancía y una empresa representativa una media que reúne las características más sobresalientes de la industria. Diferencia entre el público al que apuntaba Marshall (hombre de negocios) y Walras (colegas, estudiosos en general). 1890 - Principios de Economía Su contribución más importante fue la cruz marshalliana, con la que trató de combinar la teoría de la producción de los autores clásicos con la teoría neoclásica de la demanda. Utilizó la hipótesis de utilidad marginal constante del dinero, y puso en relación la escala de la utilidad marginal de un bien con la escala de demanda del consumidor, llegando a la formulación de la teoría del excedente o renta del consumidor. Marshall se propuso presentar la ciencia económica de acuerdo con la visión científica entonces dominante, destacando la solidez de sus fundamentos, la continuidad de su crecimiento y la universalidad de sus principios. Aparta el objeto de la economía desde la asignación de recursos hacia cómo dichos recursos llegan a ser lo que son, por lo que consideró que la teoría de oferta y demanda no era la base científica de la disciplina. Competencia y Equilibrio Diferencia entre walras y marshall: 1) Marshall se alejó del Walras, quien consideraba competencia perfecta, donde los precios estaban dados y nadie tenía poder alguno de mercado. Distinguió entre comportamiento de mercado y normal, donde el primero refiere a la cantidad de bienes comprados y vendidos efectivamente en un momento dado y a un determinado precio de mercado, y el segundo refleja lo que cada uno de los agentes decide vender o comprar normalmente, por unidad de tiempo, y en un determinado período. Plantea que los precios de mercado difieren generalmente de los precios normales. Los precios normales son como valoraciones subjetivas de los precios que se prevé que tenderán a predominar en el mercado en un determinado horizonte temporal futuro, y es basándose en estos como cada empresario decide la dimensión y el tipo de instalaciones que adoptará. Determina que si hay relación entre precios normales y de mercado, sería de los primeros a los segundos, y no que los primeros surjan de la observación de los segundos. 2) Segunda diferencia con Walras, en definición de competencia. Mientras Walras considera el agente en competencia perfecta es un tomador de precios, Marshall plantea que un mercado perfectamente competitivo es aquel en el que opera un número elevado de sujetos, cada uno con objetivos que están en conflicto con los de los demás, y tratará de realizarlos sin entrar en coaliciones o bloques y sin poder ejercer una presión especial. Habrá desequilibrio cuando para cierto nivel de demanda el precio de oferta y demanda difieren. Si el precio de demanda mayor al de oferta, los productores aumentan cantidades. La existencia de desequilibrios se traduce en primer lugar en una variación de las cantidades y solo después en una variación de los precios. Filosofía social de Marshall El fin último de la actividad económica es la maximización del bienestar colectivo. Contrario a la idea de que la única manera de mejorar las condiciones de los pobres consistiría en incentivar el egoísmo de los ricos. Fuerte diferencia con Walras, entendiendo que sí hay un vínculo inextricable entre los ámbitos económico, social y cultural, una fuerte conexión entre los hechos de la esfera material y los de la esfera moral, conexión que implica importantes consecuencias en el modo de concebir, por ejemplo, la intervención de Estado en la economía. Le preocupó rebatir la tesis de que el Estado no debería intervenir de ningún modo para corregir el proceso de la selección natural. Sí adoptó la visión Darwiniana de la evolución, considerando que todo cambio en la estructura social se daría de manera lenta y progresiva, donde cualquier intento de producir cambios inmediatos no causaría más que miseria. Le otorgó un papel fundamental a la dimensión sociopolítica de la acción humana en la discusión económica. Asimismo defendió que el Estado tuviera el derecho y el deber de intervenir en el ámbito económico para regular los mecanismos del mercado y corregir las distorsiones. Texto 10: Enciclopedia británica. Empirismo lógico y Círculo de Viena 1. EMPIRISMO LÓGICO: https://www.britannica.com/topic/logical-positivism El positivismo lógico también conocido como empirismo lógico es un movimiento filosófico que comenzó en Viena en la década de 1920s y fue caracterizado por la creencia de que el conocimiento científico es el único conocimiento fáctico, y que las demás doctrinas metafísicas tradicionales deben ser rechazadas. El positivismo lógico difiere de las formas anteriores de David Hume y Ernst Mach, ya que sostiene que la fase última del conocimiento se basa en la verificación o confirmación experimental pública más allá de una experimentación personal. La axiomatización como medida del grado de madurez/solidez de una teoría. A diferencia de Comte y Stuart Mill sostiene que las doctrinas metafísicas no son falsas sino sin sentido, que las preguntas sobre sustancia, causalidad y libertad no tiene respuesta por el simple hecho de no ser preguntas genuinas. El Círculo de Viena, que produjo su primer manifiesto en 1929, tuvo su origen entre físicos y matemáticos antes de la Primera Guerra Mundial. Se llegó a la conclusión de que el empirismo de Mill y Mach era inadecuado, porque no explicaba las verdades matemáticas y lógicas, además de no explicar satisfactoriamente el elemento a priori en las ciencias naturales. “ En 1922 Hans Hahn, uno de los líderes del Círculo de Viena, presentó a sus estudiantes en la Universidad de Viena el Logisch-philosophische Abhandlung (1921; Tractatus Logico-Philosophicus, 1922) de Ludwig Wittgenstein. Este trabajo introdujo una nueva teoría general del significado, derivada en parte de las investigaciones lógicas de Giuseppe Peano, Gottlob Frege, Bertrand Russell y Alfred North Whitehead, y le dio al grupo de Viena su fundamento lógico.” El interés por el empirismo lógico disminuyó en 1950 y para 1970 dejó de ser considerado un movimiento filosófico distinto. A.J. Ayer un participante de las reuniones del Círculo de Viena y autor de “Lenguaje, verdad y lógica (1936), un manifiesto para el movimiento, expresaba “todos los conocimientos del mundo derivan de la experiencia sensorial y nada en la experiencia justifica una creencia en Dios o en cualquier otra entidad metafísica extravagante”. En este manifiesto, Ayer defendió una teoría de la verificación del significado según la cual una expresión es significativa sólo si expresa una proposición cuya verdad o falsedad puede verificarse (al menos en principio) a través de la experiencia. 2. CIRCULO DE VIENA: https://www.britannica.com/topic/Vienna-Circle Un grupo de filósofos, científicos y matemáticos formado en los 1920s que se juntaban regularmente en Viena a investigar el lenguaje y metodología científica. El fundador y líder del grupo fue Moritz Schlick, quien era un epistemólogo y filósofo de la ciencia. Su movimiento filosófico el “empirismo lógico”, también conocido positivismo lógico, empirismo científico, neopositivismo, y el movimiento de la unidad de la ciencia, tuvo como uno de sus aportes principales la creencia de que la estructura lógica de cualquier teoría científica podía especificarse independientemente de su contenido. De igual forma formularon el principio de verificabilidad o criterio de significado, donde el significado de una proposición se basa en la experiencia y la observación. En base a estos dos aspectos se adoptó una doctrina de ciencia unificada, no observándose diferencias fundamentales entre las ciencias físicas y biológicas o las naturales y sociales. El fundador y líder del grupo fue Moritz Schlick, quien era un epistemólogo y filósofo de la ciencia. “La principal crítica del principio de verificabilidad ha sido que, debido a que no es una proposición empírica, es en sí misma en sus propios términos sin sentido o tautológicamente (ciencia formal) verdadera como una definición arbitraria de significado. En respuesta, se ha argumentado que el principio es de hecho una tautología, aunque no arbitraria en el sentido de que refleja el uso real y que carece estrictamente de sentido, pero debe tomarse como una recomendación para la realización de investigaciones científicas.” TEXTO 11: La escuela austríaca. Cari Menger y sus discípulos 1 l.l Características generales de la escuela austríaca / 1.1.1. Subjetivismo, teoría del valor e individualismo metodológico La escuela austríaca de Economía, también conocida como escuela de Viena, se caracteriza por su subjetivismo, teoría del valor e individualismo metodológico. Su enfoque subjetivista considera que el valor de un bien no depende de su naturaleza objetiva, sino de la estimación subjetiva de los individuos. La teoría del valor se basa en la utilidad y la escasez en lugar del trabajo como determinantes del valor. El individualismo metodológico sostiene que el centro del estudio de los fenómenos económicos es el individuo y que las explicaciones deben basarse en las acciones y decisiones individuales. Esta escuela rechaza los agregados macroeconómicos y enfatiza en el análisis microscópico de las acciones individuales. Además, se destaca la importancia de comprender la interacción social y cómo surgen instituciones beneficiosas sin una voluntad común y deliberada para crearlas. La praxeología, como teoría de la acción humana, se basa en la idea de que los individuos buscan sus fines de acuerdo con sus valoraciones subjetivas y su conocimiento práctico, disperso e inarticulable. Esta escuela critica el socialismo y defiende la importancia de la competencia y los mercados para coordinar las acciones de los individuos de manera eficiente. I 1.1.2 La disputa sobre el método adecuado para el estudio de la Economía La disputa entre Carl Menger y Gustav Schmoller representó un conflicto fundamental en el campo de la economía. Menger y la Escuela Austríaca defendieron la validez universal de las categorías económicas y la teoría económica como una herramienta para comprender fenómenos económicos en cualquier tiempo y lugar. Por otro lado, Schmoller y sus seguidores de la Escuela Histórica Alemana consideran que la teoría económica era relativa y que era necesario estudiar los hechos económicos concretos en su contexto histórico. La Escuela Austríaca abogó por un enfoque apriorístico y deductivo en la economía, basado en razonamientos lógicos-deductivos a partir de axiomas fundamentales. Consideraron que los fenómenos económicos eran tan complejos y variables que no podían ser sometidos al análisis experimental utilizado en las ciencias naturales. Por lo tanto, la contrastación empírica de las teorías económicas y el uso de métodos cuantitativos, como la econometría, fueron vistos con desconfianza. La Escuela Austríaca también cuestionó la posibilidad de hacer predicciones cuantitativas en economía, argumentando que solo eran posibles predicciones generales y cualitativas sobre la base de principios universales de la acción humana. Su enfoque contrastaba con otras escuelas, como la Escuela de Chicago, que enfatizaban la capacidad predictiva de las teorías económicas. Esta postura de la Escuela Austríaca ha sido objeto de críticas, ya que desafía la concepción tradicional de lo que se considera científico y ha llevado a su falta de reconocimiento entre algunos especialistas de la disciplina, debido a la importancia que se le atribuye a la capacidad predictiva de las teorías económicas como prueba de su validez. I 1.2. El fundador: Cari Menger La escuela austríaca de Economía se origina con Carl Menger, profesor de Economía Política en la Universidad de Viena entre 1879 y 1903. Sus teorías se encuentran precedentes en la escuela de Salamanca de la escolástica española, especialmente por su concepción dinámica y subjetiva de la economía. Menger publicó en 1871 su obra fundamental "Principios de economía política", en la que desarrolló una teoría del valor que resolvería la paradoja del valor (por qué el agua, siendo esencial, vale menos que los diamantes). Esta teoría, conocida como la revolución marginalista, transformó tanto la estructura como el método de la ciencia económica. I 1.2.1. La teoría subjetiva del valor La teoría del valor de Carl Menger, conocida como la teoría subjetiva del valor, se basa en el principio de la utilidad marginal. Este principio fue descubierto casi simultáneamente por otros economistas como William Stanley Jevons y Léon Walras, pero las ideas de Menger se hicieron más conocidas debido a su aplicación más amplia y a la formulación no matemática. Menger resolvió la "paradoja del valor" al descubrir que el valor de un bien no es inherente a él, sino que surge de las apreciaciones subjetivas de los individuos. El valor de los bienes se basa en su relación con nuestras necesidades y puede cambiar según las circunstancias. Menger argumentó que el valor no es una cualidad intrínseca de los bienes, sino un juicio que los agentes económicos hacen sobre su importancia para la satisfacción de sus necesidades. Además, Menger introdujo la noción de bienes de orden superior, que son los medios necesarios para alcanzar fines deseados y adquieren valor en función de ese fin. A través de su teoría de la utilidad marginal, Menger también abordó el problema de la distribución de la utilidad entre los diferentes bienes que contribuyen a la producción de un producto final. I 1.2.2. Origen y evolución de las instituciones La contribución más destacada de Carl Menger, además de su teoría del valor subjetivo, fue su metodología para el estudio de la economía. Menger argumentó que la economía debe establecer leyes económicas a través de la investigación abstracta y teórica, en lugar de confundir la historia de los fenómenos económicos con la teoría económica, como lo había hecho la escuela histórica. Menger defendió la capacidad de la teoría para captar la esencia de los fenómenos económicos y enfatizó que una teoría económica previa era necesaria para explicarlos adecuadamente. Por ejemplo, Menger aplicó su teoría subjetiva del valor para comprender el dinero como una institución humana que surge espontáneamente de las relaciones económicas, sin la intervención deliberada del estado. Menger planteó la pregunta de cómo instituciones sociales útiles para el bien común pueden surgir sin una voluntad común y deliberada para crearlas, y destacó la importancia de una teoría de los órdenes espontáneos, que posteriormente fue desarrollada por Friedrich Hayek. Esta teoría busca explicar el surgimiento, evolución y funcionamiento de instituciones sociales a partir de acciones individuales no intencionales en un contexto de conocimiento imperfecto, ignorancia, incertidumbre y error. I 1.3. Los primeros discípulos. Friedrich von Wiesery Eugen Bóhm-Bawerk A pesar de que Eugen von Böhm-Bawerk y Friedrich von Wieser fueron seguidores importantes de Carl Menger, ninguno de ellos fue alumno directo de Menger, ya que comenzaron sus estudios después de que Menger dejara de enseñar. Aprendieron de Menger a través de la lectura de su obra "Los principios". Aunque Wieser fue quien acuñó por primera vez el término "utilidad marginal", no se considera un autor ortodoxo dentro de la escuela austríaca. Según Friedrich Hayek, después de recibir la influencia de Menger, Wieser siguió su propio camino, aunque cabe destacar que la escuela austríaca nunca desarrolló una ortodoxia estricta en general. Wieser llegó a suceder a Menger como profesor en la Universidad de Viena. Aunque su participación en la política, como ministro de Comercio, interrumpió su labor académica, sus trabajos contribuyeron a difundir la teoría subjetiva del valor. Wieser intentó desarrollar la teoría de los precios y abordar el concepto de costo que faltaba en la teoría de Menger. Menger no había asignado un lugar al concepto de costo de producción en su teoría del valor, ya que consideraba que el valor de las cosas no dependía de su costo de producción, sino de su utilidad futura. Esto difería de la teoría clásica del valor, que otorgaba importancia al trabajo o al costo de producción en la determinación del valor. Para la escuela austríaca, sin embargo, el valor de los productos es la causa y el valor de los bienes de producción es el efecto, lo cual puede parecer paradójico. Los costos aumentan porque aumenta el valor de los bienes de producción (materias primas, trabajo, máquinas, etc.), y el costo de los bienes de producción sube o baja debido al valor de los productos listos para el consumo. Según Böhm-Bawerk, la relación entre causa y efecto se invierte en comparación con la antigua teoría, que consideraba que los costos eran la causa y el valor de los productos era el efecto. / 1.3.1. Los costes de oportunidad La ley de costos de Wieser, también conocida como doctrina de los costos alternativos, interpreta el costo como la utilidad sacrificada al renunciar a otros propósitos al utilizar un recurso para uno específico. Wieser consideraba que los costos eran los llamados "costos de oportunidad". El costo de una satisfacción consiste en renunciar a otra satisfacción para poder alcanzar la primera. Wieser también prestó atención a la teoría de la imputación, que explicaba cómo se valoran los bienes de producción y cómo se distribuye la utilidad final entre los diferentes bienes de orden superior. Sin embargo, según Hayek, sus resultados no fueron satisfactorios. Además, al igual que sus sucesores, Wieser también criticó la obra de Karl Marx, conocido como el padre del socialismo científico, examinando detalladamente su teoría del valor trabajo. Wieser argumentó que incluso en una economía socialista, las valoraciones no pueden ser obviadas, ya que en todas partes los seres humanos tienen las mismas necesidades y los medios para satisfacerlas siempre son escasos. I 1.3.2. La teoría del capital y el interés: la crítica a la teoría de la explotación de K. Marx Eugen Böhm-Bawerk, amigo y cuñado de E. von Wieser, fue un destacado economista y político austríaco. Se le reconoce principalmente por su teoría del capital y el interés, expuesta en su obra "Capital e interés" de dos volúmenes. Böhm-Bawerk sostiene que el interés es la prima que se paga para igualar el valor de los bienes presentes con los bienes futuros, debido a la preferencia temporal de las personas. Su teoría destaca la importancia del tiempo en los procesos económicos y argumenta que el valor de los bienes presentes se prefiere sobre los bienes futuros en igualdad de circunstancias. El interés surge como un "premio al ahorro" y compensa el sacrificio de renunciar al consumo inmediato para invertir en bienes de capital. El tipo de interés se determina en el mercado, donde se intercambian bienes presentes por bienes futuros. Böhm-Bawerk también es conocido por su crítica subjetivista a Karl Marx y su teoría del valor. Ataca los fundamentos del marxismo, argumentando que los precios de las mercancías no se basan únicamente en la cantidad de trabajo incorporado, sino también en el tiempo necesario para producir un bien. Según él, el interés no surge de la explotación del trabajo, sino de las diferentes valoraciones subjetivas de los bienes presentes y futuros, que son inherentes a la naturaleza humana y no pueden ser eliminadas por el socialismo. Böhm-Bawerk tuvo una gran influencia en la escuela austríaca y su obra continúa siendo relevante en la teoría del capital hasta el día de hoy. 11.4. LUDWIG VON MISES. El desafío al socialismo 11.4.1. La imposibilidad del cálculo económico en una sociedad socialista Mises, en 1919, poco después del triunfo de la revolución bolchevique, presentó un ensayo donde ponía las bases de la crítica austríaca al socialismo. Critica a los que defienden la economía socialista como alternativa a la economía de mercado. Para Mises, el socialismo al haber rechazado el principio de economía de intercambio (que permite realizar el cálculo económico para estimar la evolución futura basándose en las diferentes valoraciones de los sujetos que participan en el mercado), no puede tener un método racional de fijar precios. Es decir, no puede haber economía. La economía socialista es irracional. Si no se tiene en cuenta los valores subjetivos que los consumidores atribuyen a los bienes, es imposible una valoración de lo que realmente conviene hacer, y se llegará a un sistema de producción absurdo. En la organización económica que se funda en la propiedad privada de los medios de producción, todos los individuos independientes (consumidores y productores) efectúan el cálculo económico. Como consumidor, establece la jerarquía de los bienes. Como productor, regula el uso de los bienes de orden superior para obtener de ellos el máximo rendimiento. Por el juego simultáneo de ambos procesos de evaluación de los valores, se forma una escala de los precios exactamente regulada, que le permite a cada uno poner de acuerdo su propia demanda con el cálculo económico. Todo esto falla en la economía socialista. Sin cálculo económico no puede haber economía. No se dispondría de ningún medio para reconocer lo que es racional, o se que la producción no podrá organizarse eficazmente en función del principio de economía. Esta teoría de Mises sobre la imposibilidad del cálculo económico en una economía socialista no prosperó, porque a partir de esta polémica muchos socialistas reconocieron la importancia de un adecuado sistema de cálculo económico para la distribución de los recursos. Pero Mises continuó elaborando una teoría de la acción humana a la que llamó praxeología. 11.4.2. La praxeología como teoría de la acción humana Mises creía que la acción constituía la esencia del hombre (homo agens: ser actuante). Los humanos actúan para alcanzar objetivos, metas o fines que ambicionan, por eso hay que analizar y explicar la vida económica mediante conceptos como propósito o intención. La acción es siempre intencional. El objeto de estudio de la praxeología son los medios, no los fines. Se ocupa de estudiar si los medios empleados son idóneos para la construcción de los fines propuestos. Los medios a nuestro alcance para conseguir nuestros fines son siempre escasos, el individuo tiene que elegir, y lo hará de acuerdo con su propia escala de valores que jerarquiza fines y medios. Sustituirá un estado menos satisfactorio por otro mejor, lo que revela el utilitarismo detrás de la concepción liberal misiana. La capacidad coordinadora de las empresas explica cómo funcionan los mercados libres. El ser humano crea o percibe oportunidades de ganancia que actúan como incentivo para crear nueva información de los fines y medios; los empresarios coordinan las diferentes actividades de los diferentes individuos que persiguen diferentes fines. Mises recomendaba que el economista no descuidara su formación humanista para comprender la realidad social, sobre todo el estudio de la historia. El individuo es generalmente racional, pero sus acciones pueden contener incertidumbre, ignorancia, error. Para él, todas las proposiciones económicas se podían deducir mediante pensamiento lógico (incluso la ley de utilidad marginal, puede deducirse del conocimiento del hecho de que el individuo siempre prefiere lo que le satisface más que lo que menos). Unido a su rechazo del empirismo y las matemáticas, fue vista como una postura profundamente extrema y radical. 11.4.3. La teoría del dinero y los ciclos económicos Mises aplicó la concepción del marginalismo (escuela austríaca) a otros campos como la teoría del dinero y del crédito, y los ciclos económicos. Aplicaba la concepción subjetivista al dinero, fundamentando su valor sobre la base de la utilidad marginal. Al mismo tiempo desarrollaría una teoría del ciclo conocida como “la teoría austríaca del ciclo económico”, que más adelante profundizará el discípulo Hayek. Dinero: la demanda del dinero depende de su valor (entendido como poder adquisitivo), generando un razonamiento circular: su valor depende de la demanda y la demanda del valor (para los bienes de consumo el precio viene determinado por la oferta y la demanda). Mises intenta resolver el problema a través de la dimensión temporal. La gente demanda dinero en función de su poder adquisitivo, pero ese poder adquisitivo se refería al pasado, a la experiencia que tenía la gente del poder adquisitivo del dinero ayer. Y la experiencia de ayer viene dada por la de anteayer, etc. Se trata del teorema regresivo del dinero, que es la aplicación mengeriana de su surgimiento evolutivo. Ciclos económicos: según Mises la creación expansiva de créditos y depósitos sin respaldo de un ahorro que un sistema bancario basado en un coeficiente de reserva fraccionario dirigido por un banco central podía provocar, propiciaba un crecimiento cíclico y descontrolado de la oferta monetaria así como un alargamiento artificial del proceso productivo que, a la larga, provocará una crisis económica. Los bancos, a través de la expansión del crédito, tienden a reducir el tipo de interés. La política económica que fomenta el “dinero barato” y cree que lo mejor es lograrlo a través de la expansión del crédito, se esfuerza en crear las condiciones institucionales para hacerla posible. Pero cuando las autoridades deciden dar fin a esa expansión del crédito, ya se han realizado inversiones injustificadas debido a la falsa impresión de rentabilidad que esa expansión provocó. Muchas empresas que se mantenían por una elevación artificial de los precios ya no son rentables y tienen que cerrar. La recesión se ve como un proceso necesario mediante el cual la economía de mercado líquida las malas inversiones provocadas por el boom y vuelve a las proporciones adecuadas entre consumo e inversión. La teoría misiana del ciclo es coherente con el pensamiento de la escuela de Viena de que las intervenciones en el ámbito monetario tienen efectos descoordinadores sobre la estructura productiva de la economía. El Instituto Austríaco de Coyuntura Económica, donde Mises colocó a Hayek como director, había previsto que los errores en materia monetaria y crediticia en los Estados Unidos anteriores a la Gran Depresión podrían tener consecuencias nefastas. 11.5. FRIEDERICH VON HAYEK. Orden espontáneo versus ingeniería social Es el autor más célebre e importante de la escuela austríaca. Su influencia se debe sobre todo al resurgimiento del pensamiento liberal en las últimas décadas del siglo XX. Tenía ideas fabianas, pero luego de la Primera Guerra Mundial toma contacto con el libro El socialismo de Mises (1922) y cambia de opinión. Trabajó con Mises en Viena, fue invitado por el economista Lord Robbins a la London School of Economics y a Cambridge, donde conoció a Keynes. Después fue a la Universidad de Chicago y volvió a Europa. En 1974 recibió el premio Nobel de Economía. Contribuyó junto a Mises al debate (críticas) sobre el cálculo económico en la economía socialista, cuyas tesis se recogen en su libro Collectivist economic planning (1935). El mayor aporte de Hayek se centra en la idea de que el socialismo es un error intelectual, resultado de no haber comprendido la naturaleza del conocimiento que se halla en la base de la realidad social, y en no haber entendido cómo es y funciona el mercado. 11.5.1. El mercado como orden espontáneo El mercado (también nombrado por Hayek con el término griego catalaxia) no es anárquico ni caótico. Responde a un tipo de orden que existe en la realidad, llamado por Hayek orden espontáneo. Estos órdenes son el resultado de un proceso de evolución social prolongado en el tiempo. No fueron creados por nadie, no tienen propósito, meta u objetivo concreto. Propician la obtención de diferentes fines individuales. Por eso sus componentes no se ordenan de acuerdo con un plan, sino que sólo proporcionan un marco o estructura para favorecer que cada uno pueda perseguir sus fines libremente. Los órdenes espontáneos constan de numerosos y variados elementos complejos que se relacionan entre sí con cierta coherencia y regularidad, lo que permite formular expectativas. El mercado no es el único orden espontáneo, la sociedad también lo es en el sentido que no ha sido diseñada ni organizada por nadie, y por eso no puede organizarse de un modo racional. A la actitud de los que querían organizar a la sociedad según pautas racionales, Hayek la llamó racionalismo constructivista o cientismo. Los órdenes espontáneos se dan debido a la regularidad del comportamiento de sus elementos, producto de estar sometidos a las mismas normas. Es necesario que todos los individuos sigan normas definidas y su comportamiento no sobrepase ciertos límites. Hayek las denomina “normas de recto comportamiento” y son de carácter general, abstracto y universal. Muchas veces no necesitan expresarse explícitamente y suelen ser resultado de un proceso de evolución social. Los órdenes espontáneos son complejos, no pueden ser controlados por una sola mente humana, sobrepasan el alcance de nuestro conocimiento y percepción. La información que se genera continuamente en estos órdenes está muy descentralizada, y no puede ser centralizada por un individuo o agente de planificación. 11.5.2. El problema de la división del conocimiento Hayek afirmaba que el problema de la división del conocimiento es semejante al problema de la división del trabajo, pero que ha sido completamente relegado por los economistas como si no tuviera interés. Para él constituye un problema central de toda la ciencia social. En el ámbito de la economía, el problema de la división del conocimiento plantea dudas en relación al equilibrio. Según Hayek las teorías del equilibrio asumen un mercado perfecto, donde todos los miembros conocen al instante los acontecimientos, tienen la misma información relevante para la toma de decisiones. Para que esto suceda, debemos explicar mediante qué proceso los individuos adquirirán el conocimiento de qué bienes son escasos y cuál es su valor. Esto conduce a una de las tesis económicas más interesantes de Hayek: la idea de que el mercado, prototipo de orden espontáneo, es una “red de telecomunicaciones”, el conocimiento disperso y fragmentado es transmitido gracias al mercado (que permite la mejor gestión, desarrollo y difusión de esa información). El mecanismo a través del cual se consiguen estos resultados son los precios, actúan como indicativos. Registran alteraciones facilitando así la adaptación a lo imprevisto y desconocido, informan cómo emplear los recursos de la mejor manera, comunican los deseos de los consumidores, si hay abundancia o escasez de un recurso, informan sobre planes errados y sobre quién posee la información. Los precios son consecuencia del uso de información que solo los individuos conocen. Es la competencia la que fija los precios, porque ella permite descubrir y seleccionar al que tiene la información relevante y puede servir mejor al consumidor. El problema consiste en averiguar cómo optimizar la utilización de la información y las capacidades y oportunidades de la gente para obtener nueva información que se encuentra distribuida entre todos los individuos y que nadie puede poseer en su totalidad. La competencia es fundamentalmente un proceso de descubrimiento, que facilita la adquisición y transferencia de la información. La teoría de la competencia de Hayek: la competencia es un proceso dinámico que crea las opiniones de la gente sobre qué es lo mejor y más barato. Entonces el mercado es democrático porque responde a los deseos de un soberano: los consumidores. En definitiva, un orden espontáneo no puede someterse a ningún plan de ingeniería social. Desde el punto de vista científico, el socialismo es imposible. La planificación central en la economía de una sociedad compleja es imposible por el carácter del conocimiento del que el ser humano se vale para actuar, ya que en gran parte es individual. Por lo tanto no puede ser tratado como objeto o dato identificable. Según Hayek, si el problema económico de una sociedad consiste en adaptarse rápidamente a los cambios en las circunstancias de tiempo y lugar, hay que resolverlo mediante la descentralización. En un sistema en el que el conocimiento está disperso entre muchos individuos, los precios pueden coordinar las acciones de diferentes personas. En una economía donde existe propiedad privada de los medios de producción los precios actúan como brújula, si fueran intervenidos por una autoridad política se deformaría la información sobre la oferta y la demanda. 11.5.3. La teoría de los ciclos económicos Hayek desarrolló la teoría de los ciclos en los años 30 y le valió el premio Nobel en 1974. La mayoría de las teorías de los efectos del dinero sobre los precios y los outputs consideran sólo los efectos de la oferta monetaria total sobre el nivel de precios y sobre el output agregado o inversión. La teoría austríaca de Mises y Hayek, se fija en la forma entra en la economía y cómo afecta a los precios relativos y la inversión en sectores particulares. La reducción de los tipos de interés causada por la expansión crediticia dirige los recursos hacia los primeros estadios de la producción, alargando así el período de producción. Si los consumidores cambian sus preferencias a favor del consumo futuro en lugar del presente, haciendo bajar los tipos de interés, la estructura de producción más larga en el tiempo habría sido una respuesta apropiada y coordinada. Pero si se ha producido por la extensión de crédito, será una falsa señal que causa cambios en la estructura de la producción que no se ajustan a las preferencias temporales de los consumidores. El boom generado por el aumento de la inversión es artificial. Cuando los participantes del mercado se percatan que no hay suficientes ahorros para completar los proyectos, estas malas inversiones se descubren y liquidan. La recuperación consiste en acabar con esas malas inversiones inducidas por haber bajado los tipos de interés por debajo de su nivel, restaurando el tiempo de la estructura de producción para que concuerde con las preferencias inter-temporales de los consumidores. 11.5.4. Autorregulación del mercado contra intervención estatal Según Hayek es mejor dejar que el mercado se autorregule (como cualquier orden espontáneo). Crítica que muchas veces las intervenciones de los poderes públicos esconden intereses corporativos, favoreciendo el surgimiento de monopolios al amparo del poder político. Un monopolio que ha llegado por servir mejor al consumidor, suele ser transitorio, y es probable que surjan otros competidores. Pero los grandes grupos de interés tienen deseo de influir sobre el poder público, consiguiendo que el gobierno regule sectores de la realidad económica a su favor a cambio de su apoyo. Eso es lo que sucede para Hayek, con muchas medidas del Estado de Bienestar. Por esta crítica a la justicia social en la que muchas veces se amparan intereses falsos, Hayek fue considerado uno de los líderes del neoliberalismo. 11.5.5. La polémica con Keynes: el problema de la inflación Las medidas intervencionistas propias del Estado social, legitimado por la búsqueda de una distribución más justa de la riqueza, producen inflación. Al aumentar el nivel de gasto público, la política monetaria depende de la voluntad de los gobernantes. Ellos controlan la moneda y pueden manipular el dinero para conseguir resultados a corto plazo (que normalmente son los que preocupan a los políticos). Pero a largo plazo, esa inflación provoca la ruina de las clases medias, disuade del ahorro y crea paro (desempleo). La lucha contra la inflación fue una de las causas de la polémica entre Hayek y Keynes en los años 1930. Hayek consideraba que la idea de Keynes de incrementar artificialmente la demanda agregada, distorsionarían la estructura productiva y terminarían generando desempleo. Además los gastos del Estado de Bienestar se costean mediante una política fiscal de impuestos progresivos, que no cumple los objetivos para lo que fue creada: las grandes rentas gravadas con un impuesto mayor son muy pocas y, a la larga, toda la economía sufre las consecuencias de la falta de estímulo e incentivos para el ahorro y la inversión. Algunos autores consideran que este es el coste inevitable que tenemos que pagar si queremos una sociedad más justa e igualitaria. Pero Hayek señala que bajo esta idea subyace el mismo error intelectual: no haber comprendido qué es y cómo funciona el mercado. Cree que es un error adjudicar comportamientos al mercado, porque no es un individuo que piensa y actúa. Los procesos auto-ordenadores (orden espontáneo) como el mercado, no se ajustan a normas morales. Las reglas del Estado de Derecho amparan el funcionamiento de los órdenes espontáneos. Los resultados del mercado no serán injustos, lo serán determinadas actuaciones de los sujetos que participan en él. No se puede intervenir para corregir los resultados, ya que la producción de riqueza no es independiente de su redistribución (la intervención política para redistribuir riquezas incide sobre las condiciones para producirla). Se pueden crear las condiciones que favorezcan la libre actuación de todos en el mercado para que consigan sus fines, remover obstáculos y proteger mediante una red de seguridad a los que no pueden valerse por sí mismos en él (prestar asistencia a quienes no son capaces de cuidar de sí mismos). 11.5.6. La desnacionalización del dinero Hayek aspiraba a que todos sus principios liberales fueran aplicados a escala internacional. Por eso conviene destacar su tesis de la desnacionalización del dinero y la competencia de monedas (libre competencia de la emisión y circulación de los medios de pago). En la Europa comunitaria de hoy resulta chocante, pero es coherente con la visión de Hayek del dinero como una mercancía más, que la sociedad suministrar con mayor eficacia que los Estados. Cree que la desnacionalización del dinero puede prevenir la inflación y limitar el poder discrecional del gobierno. Según Hayek la empresa privada habría creado diversas monedas, y las que hubieran prevalecido en la competencia, habrían sido estables en cuanto a su valor. 11.6. La escuela en Estados Unidos: ISRAEL M. KIZNER y MURRAY N. ROTHBARD Mises se fue de Viena a Ginebra en 1934, y en 1940 parte hacia Estados Unidos por amenazas nazis. Allí trabaja en la Universidad de Nueva York. Durante los años 1930, la tradición austríaca del seminario había finalizado. Para Kizner, los austríacos supervivientes, Mises y Hayek, en la posguerra eran considerados marginados de los nuevos planteamientos. En décadas posteriores a la Segunda Guerra Mundial se pondrían los fundamentos de la moderna escuela austríaca norteamericana. Los primeros alumnos destacados que tuvo Mises en Nueva York fueron el americano Rothbard (1926-1995) y el inglés Kizner (1930-). Rothbard llevó a cabo el intento de reelaborar la historia económica desde el punto de vista de su escuela y dedicó mucho esfuerzo a rastrear los orígenes intelectuales, destacando autores de la escolástica española en su obra Historia de pensamiento económico (1995), como antecedentes del subjetivismo en economía. Por otra parte, llevando el liberalismo de la escuela de Viena a sus extremos, intentó fundamentar un anarquismo capitalista sobre las bases del derecho natural (La ética de la libertad, 1982). Kizner se ha dedicado al estudio del empresario y la actividad empresarial (teoría de la empresarialidad), relegada por los clásicos, implícita en la obra de Mises, pero también recoge ideas keynesianas sobre el papel del conocimiento en el proceso de mercado (Competencia y empresarialidad, 1975). Deseaba afrontar el carácter empresarial de la acción humana individual, característica esencial de la economía misiana. Para Mises la acción humana es una acción emprendedora, capaz de descubrir, innovar o predecir oportunidades en un mundo dinámico y competitivo, donde los sujetos persiguen sus propios fines. La actividad empresarial y los beneficios surgen del desequilibrio de los diferentes planes de los individuos, condición que el empresario capta y trata de satisfacer con su acción. O sea, la actividad empresarial coordina diferentes proyectos individuales que de otra forma no se satisfaría, y que se logra debido a su imaginación y atrevimiento. Kizner llama “función empresarial” a una función creadora, que crea información cuando el individuo percibe que hay una posibilidad nueva de ganancia, que el mercado transmite rápidamente a través de los precios, y así los agentes económicos aprenden cómo deben actuar. El empresario, sin saber exactamente que busca y sin buscarlo, se encuentra siempre atento y preparado para descubrir o crear nuevas oportunidades de ganancia. Es probable que la regulación gubernamental de la actividad económica dificulte o frustre las posibilidades coordinadoras que surgen espontáneamente del proceso empresarial. Es por esta comprensión de la capacidad coordinadora que tiene el proceso empresarial, que la escuela austríaca tiende a favorecer las soluciones liberales y a defender el laissez-faire (dejar hacer). Sostiene que el mercado no intervenido por el Estado propicia los incentivos necesarios para estimular el movimiento del mercado en una dirección que tiende al equilibrio. 11.7. Conclusiones En épocas anteriores la enorme influencia del paradigma keynesiano desde la Segunda Guerra Mundial y el auge del análisis macroeconómico, la escuela austríaca de economía era conocida por pocos estudiosos. A partir de la crisis del petróleo en 1973, el colapso del comunismo, la crisis del Estado de Bienestar y el predominio de la economía de mercado, el interés por el liberalismo ha aumentado. A la vez, el otorgamiento del premio Nobel a Hayek, uno de sus máximos representantes, le dio respetabilidad. Ha recibido críticas por la forma de entender la ciencia económica muy diferente de la de los enfoques del pasado e, incluso del presente (aunque se trate también de escuelas liberales como la escuela de Chicago de M. Friedman o G. Becker). El radicalismo en algunos postulados y el rechazo a la contrastación empírica de las teorías y las matemáticas, le alejan del enfoque neoclásico dominante. Conviene recordar que la escuela austríaca se trata de una escuela de pensamiento que pretende incluir a la economía en una teoría más amplia de la acción humana, que aspira abarcar más cosas que lo comúnmente consideramos objeto específico de la economía. Al haber hecho de los seres humanos el centro de su investigación y haber explicado que la libertad (económica y política) es una necesidad irrenunciable, contribuyeron a hacer una ciencia económica más humana, que frecuentemente se presentaba como algo alejado de la realidad. Una realidad que los austríacos consideran siempre cambiante, dinámica, insegura, donde las normas, instituciones, consecuencias inintencionadas de las acciones humanas, nos recuerdan lo limitado de nuestro conocimiento y la necesidad de la humildad intelectual. Texto 12: Landreth y Colander (2002): Historia del Pensamiento Económico. Capítulo 16: El desarrollo de la econometría y los métodos empíricos en economía: La economía se preocupa por los eventos del mundo real y el debate sobre qué teoría económica aceptar se ha centrado en cómo relacionar las ideas teóricas con la observación empírica. Surgen preguntas sobre la relación entre teoría y realidad, la validez de la observación empírica como método de contraste, la importancia de la observación directa frente a la intuición heurística, y si el desarrollo de teorías formales es solo un juego. Los economistas se han enfrentado a estas preguntas a través de la observación, la estadística, la econometría, la calibración, las simulaciones y la investigación experimental. El debate sobre los métodos empíricos en economía se divide entre el enfoque microeconómico y macroeconómico, siendo este último el que genera más discusión. Se presentan cuatro enfoques empíricos utilizados por los economistas y se examinan los primeros intentos de combinar el trabajo estadístico con observaciones superficiales. Luego se analizan las decisiones ad hoc en el tratamiento estadístico de los datos, lo que llevó al desarrollo de la econometría. Sin embargo, estas decisiones han generado dudas en algunos economistas sobre los estudios econométricos, lo que ha llevado a una situación inestable en la economía empírica actual. La Economía Empírica: La economía empírica es la aplicación de métodos de investigación para relacionar las teorías económicas con la realidad. Hay cuatro enfoques principales: el empirismo de sentido común, el análisis estadístico, el análisis econométrico clásico y el análisis econométrico bayesiano. El empirismo de sentido común se basa en la observación directa y la comparación con las ideas teóricas. El análisis estadístico cuantificado y analiza los datos económicos. El análisis econométrico clásico contrasta teorías utilizando métodos estadísticos. El análisis econométrico bayesiano utiliza creencias subjetivas y estadísticas para evaluar teorías. Estos enfoques pueden complementarse o utilizarse de manera independiente. La tecnología informática ha influido en la forma en que los economistas realizan investigaciones empíricas. Se han desarrollado nuevas técnicas como simulaciones de comportamiento de agentes, calibración de modelos macroeconómicos y experimentos naturales. Estos cambios han ampliado la forma en que se estudia la economía. Este enfoque utiliza la teoría económica intuitiva en lugar de modelos estructurales y sus datos provienen de los experimentos naturales que se realizan. Economía matemática, estadística y econometría: La economía matemática se refiere al uso de técnicas matemáticas para formular hipótesis y aclarar sus implicaciones. La estadística implica el análisis de cifras numéricas, mientras que la econometría combina la economía matemática con el análisis estadístico para contrastar formalmente las hipótesis. Antes de la formalización matemática de la teoría económica, los economistas formulaban teorías históricas y hipótesis verbalmente, y se basaban en circunstancias o eventos para contrastarlas. Sin embargo, este enfoque heurístico no permitió una contraste aceptable de las hipótesis. En las décadas de 1960 y 1970, hubo avances significativos en la contrastación estadística y los métodos econométricos, gracias a los avances tecnológicos en la informática. Esto permitió realizar estudios empíricos más complejos y contrastar hipótesis de manera más rápida y precisa. Sin embargo, las esperanzas de convertir la economía en una ciencia plenamente contrastable no se han cumplido en su mayoría. La econometría se considera una combinación de economía matemática y análisis estadístico, donde se utilizan técnicas matemáticas para formular hipótesis y el análisis estadístico para contrastar formalmente esas hipótesis. La economía matemática genera teorías lo suficientemente específicas como para ser contrastadas formalmente, mientras que la estadística se basa en observaciones numéricas sin una formulación teórica precisa. Un ejemplo de una teoría que no puede contrastarse empíricamente es la teoría de la población de Malthus, que en su formulación incluye factores inobservables y no cuantificables, lo que hace difícil su contrastación estadística. Los primeros estudios empíricos: En uno de los primeros empíricos, Gregory King y Charles Davenant examinan la relación entre el precio y la cantidad en el comercio. Davenant demostró una relación inversa aproximada entre el precio y la cantidad en su trabajo. King retomó estos estudios y buscó fundamentos empíricos para esta relación en particular. LA ECONOMÍA NEOCLÁSICA Y EL ANÁLISIS EMPÍRICO: En el pasado, los estudios empíricos fueron la excepción y no la norma en la economía. Los economistas clásicos solían postular leyes basadas en el sentido común y respaldarlas con ejemplos, sin someterlas a pruebas rigurosas. Sin embargo, con la llegada de la economía neoclásica a fines del siglo XIX, se comenzó a cuestionar este enfoque. Los economistas neoclásicos buscaban hacer de la economía una ciencia exacta y se debatía sobre la mejor forma de realizar análisis empíricos, destacando el análisis estadístico. Henry L. Moore(1869–1958). A principios del siglo XX, Moore fue pionero en el uso de muchos métodos estadísticos que más tarde volverían a ser habituales. Utilizó los avances en métodos estadísticos y teoría de probabilidad para realizar inferencias formales a partir de datos económicos. Moore buscaba verificar teorías económicas, como la teoría de los salarios de JB Clark basada en la productividad marginal. Sin embargo, su análisis presentó algunos problemas, como la falta de rigor en la selección de su estructura teórica y la limitación de datos. Moore también tenía un interés político en sus estudios, buscando criticar propuestas socialistas de mayor igualdad de la renta. Su objetivo era demostrar científicamente que la teoría de la productividad marginal era cierta y que un Estado socialista podría generar problemas al redistribuir la renta. Aunque su motivación política plantea interrogantes sobre la imparcialidad de sus resultados, sus contribuciones en la integración de métodos estadísticos en la economía fueron significativas. Además, sus trabajos sobre la medición empírica de la curva de demanda y los ciclos económicos sentaron las bases de la econometría microeconómica y macroeconómica moderna, respectivamente. La curva de demanda de Moore y el problema de identificación: Moore realizó un estudio sobre la estimación de las curvas de demanda de bienes agrícolas y de arrabio, y los problemas asociados con la identificación empírica de estas curvas. Moore enfrentó la dificultad de medir empíricamente una curva de demanda, ya que los datos observados en el mercado podrían pertenecer a la curva de oferta, la curva de demanda o ninguna de las dos. El investigador debe relacionar los datos observados con la teoría para resolver este problema. Moore asumió que los precios y las cantidades observadas eran puntos de equilibrio en las curvas de oferta y demanda. También supuso que la oferta de bienes agrícolas era determinada por factores externos y no se vio afectada por el precio vigente. Estimó diferentes curvas de demanda utilizando datos porcentuales y necesidades lineales y cúbicas. Las curvas estimadas mostraron una pendiente negativa, como predice la teoría, y tuvieron un coeficiente de determinación alto. Sin embargo, la estimación de Moore recibió críticas por parte de algunos economistas que consideraron que su análisis empírico era demasiado simplista en comparación con la complejidad de la teoría subyacente. También se cuestionó su estimación de la demanda de arrabio, que mostró una pendiente positiva, lo cual contradecía la teoría microeconómica establecida. El autor sugiere que la curva de demanda de pendiente positiva de Moore no fue un error, sino un intento de abordar las limitaciones de los datos y permitir que estas limitaciones guíen su análisis. Moore creía que su curva de demanda dinámica, que relacionaba regularidades empíricas, podría ser útil para hacer predicciones sobre la economía, aunque no obstante no se alineaba con la teoría estática subyacente. Henry Schultz y las variables independientes y dependientes: Henry Schultz (1893-1938) hizo contribuciones importantes al análisis económico al estudiar los aranceles y estimar la curva de demanda. Durante su investigación, descubrió que se podría obtener diferentes elasticidades al realizar regresiones de la cantidad en función del precio, en lugar de regresiones del precio en función de la cantidad, como se había hecho anteriormente. Schultz afirmó que la elección de la variable dependiente e independiente en una regresión dependía de tener una idea previa sobre cuál era la correcta. En caso de no tener una idea previa, recomendaba elegir la regresión que presentara el mejor ajuste determinado mediante un contraste de Pearson. La idea de Schultz fue importante porque dijo que la medición estadística no puede separarse de la teoría. Nuestra percepción de los resultados está influenciada por nuestras creencias. Esta idea llevó a la práctica común en la econometría de distinguir cuidadosamente entre las variables independientes y dependientes. Sin embargo, decir que la medición estadística cambia en función de la teoría no implica que dependa por completo de ella. La teoría ofrece interpretaciones limitadas que se pueden extraer de los datos estadísticos. El problema de identificación en la teoría microeconómica moderna: persiste y se refiere a la comprensión de cómo se generan los datos observados y su importancia dentro de un contexto teórico. Por ejemplo, en industrias como la de las computadoras, relojes digitales y televisores en color, se ha observado una relación inversa entre el precio y las cantidades vendidas. Sin embargo, existen diferentes explicaciones posibles para estos datos, como una demanda creciente y curvas de oferta a largo plazo con pendiente negativa o el impacto de la competencia y el avance tecnológico. El problema radica en que los datos por sí solos no permiten identificar la causa subyacente. LA MACROECONOMÍA Y EL ANÁLISIS EMPÍRICO: La macroeconomía es más difícil de estudiar empíricamente que la microeconomía debido a su naturaleza interrelacionada. WS Jevons fue uno de los primeros en intentar realizar estudios empíricos macroeconómicos. La teoría de las manchas solares de Jevons: WS Jevons fue un pionero en matemáticas y teoría de la utilidad. Aunque es conocido por su contribución a la teoría microeconómica, también realizó estudios empíricos macroeconómicos. Intentó encontrar la causa de los ciclos económicos y creyó que las manchas solares podrían ser la razón. Analizó datos agrícolas y descubrió una posible relación entre las fluctuaciones de las cosechas y la actividad de las manchas solares. Sin embargo, su teoría no fue bien recibida por otros economistas y fue ridiculizada en su tiempo. A pesar de eso, se le reconoce como pionero de los métodos econométricos por su intento de utilizar la estadística para desarrollar y contrastar una teoría macroeconómica. Las aportaciones de Moore a la macroeconomía: Moore hizo contribuciones a la macroeconomía, especialmente en la estimación de la demanda de cosechas y el estudio del ciclo económico. Desarrolló una teoría y una medición estadística del ciclo económico, severamente en los ciclos meteorológicos como causa de las fluctuaciones económicas. Utilizó el análisis estadístico para respaldar su argumento, pero fue criticado por Philip Wright, quien ajustó la medida de las precipitaciones y cuestionó la relación estadística. Moore amplió su estudio a más países y concluyó ciclos de ocho años. Aunque su teoría se amplió para incluir múltiples causas, su enfoque en los ciclos meteorológicos, incluso relacionados con Venus, no fue seguido por otros economistas. Sin embargo, sentó las bases para estudios econométricos posteriores y contribuyó al análisis de las economistas institucionales. Clement Juglar: convirtió un enfoque histórico para analizar los ciclos económicos, utilizando tanto datos cualitativos como cuantitativos. A diferencia de Jevons y Moore, que se centraron en estadísticas, Juglar buscó peculiaridades en cada ciclo a través de un razonamiento económico sensato y un análisis minucioso de la historia y las instituciones de la época. Su enfoque se basaba menos en la teoría y más en la sensibilidad hacia los datos económicos, siendo considerado un precursor del enfoque estadístico institucional. Wesley C. Mitchell: empirista heterodoxo: Wesley C. Mitchell, uno de los primeros institucionalistas, se apartó de los economistas neoclásicos en su enfoque empírico en macroeconomía. Desarrolló un método pragmático que enfatizó la observación y análisis directo de los hechos económicos. Consideró que las teorías eran útiles como telón de fondo para interpretar las observaciones empíricas, y vio a la economía como un arte para ayudar a formular políticas económicas. Mitchell contrastó hipótesis sobre los ciclos económicos mediante análisis estadísticos y juicios de valor basados en datos e información institucional. Aunque su enfoque no siguió los métodos científicos formales, influyó en los macroeconomistas ortodoxos en Estados Unidos en la década de 1930. La medición y la recogida de datos: La recogida y medición de datos en economía presenta desafíos significativos. Se requiere construir datos acordes con los conceptos teóricos, como el nivel general de precios o la oferta monetaria. Varios economistas, como Irving Fisher, Richard Stone, James Meade, Simon Kuznets, Wassily Leontief, Abram Bergson y Alexander Gerschenkron, han realizado importantes contribuciones en el campo de la medición y la contabilidad nacional. Estos estudiosos han desarrollado métodos y medidas para cuantificar la renta nacional, el consumo, el gasto y otros aspectos macroeconómicos. Sus investigaciones han demostrado la importancia de la recopilación precisa de datos y han revelado discrepancias en las mediciones económicas, como en el caso del crecimiento de la Unión Soviética. LA APARICIÓN DE LA ECONOMETRÍA: La aparición de la econometría fue un cambio significativo en los análisis económicos en las décadas de 1960 y 1970. Reemplazó el enfoque utilizado por Mitchell en macroeconomía y se convirtió en el enfoque dominante tanto en microeconomía como en macroeconomía. Esto se debe a varias razones: mejoras en los métodos estadísticos y econométricos, el deseo de aplicar y contrastar teorías de manera precisa, el desarrollo de la economía matemática, la esperanza de convertir la economía en una ciencia exacta y el apoyo de defensores de la econometría. E. J. Working y el problema de identificación: EJ Working (1900–1968) hizo avances en el enfoque econométrico en microeconomía al abordar el problema de identificación. Demostró que si se podía especificar independientemente de la oferta o la demanda, se podía estimar las curvas de oferta y demanda respectivamente. Esto permitió estimar relaciones empíricas estáticas incluso sin cumplir las condiciones ceteris paribus. La teoría keynesiana y la macroeconomía: En la década de 1930, la econometría en macroeconomía se desarrolló principalmente debido a la influencia de la teoría keynesiana y la necesidad de explicar la Gran Depresión. Se realizaron esfuerzos para encontrar evidencia empírica de la teoría keynesiana, como estimar el multiplicador y la función de consumo. También aumentó el interés por la planificación central y la estimación de relaciones económicas. Ragnar Frisch, Jan Tinbergen y el desarrollo de grandes modelos macroeconométricos: Ragnar Frisch y Jan Tinbergen fueron dos economistas destacados que desarrollaron grandes modelos macroeconométricos. Su objetivo era formular medidas económicas para alterar la estructura de las ecuaciones y lograr los resultados deseados en la economía. Sin embargo, sus métodos fueron críticos por otros economistas, como Keynes y Friedman, que cuestionaron la validez de los procedimientos de estimación y las pruebas estadísticas utilizadas. Trygve Haavelmo y la revolución probabilística en econometría: Trygve Haavelmo introdujo el enfoque probabilístico en la econometría y la teoría económica. Argumentó que las teorías económicas deben tratarse como teorías probabilísticas en lugar de relaciones exactas. Su enfoque fue aceptado por la Comisión Cowles for Research in Economics, que realizó importantes investigaciones en economía utilizando métodos matemáticos y estadísticos. La Comisión Cowles inició el método probabilístico, que tuvo un impacto significativo en la econometría. La cliometría y Robert W. Foge: La cliometría es la aplicación de la econometría a la historia, y ha generado interés y controversia. Robert W. Fogel es un destacado historiador que ha utilizado la econometría en sus estudios, cuestionó las conclusiones extraídas por los historiadores literarios sobre la relación entre los ferrocarriles y el crecimiento económico de Estados Unidos. Otros economistas también practicaron la cliometría y se mantendrán una literatura abundante al respecto. Hubo debates sobre la legitimidad de esta nueva metodología. Uno de los modelos macroeconométricos más famosos desarrollados por la Comisión Cowles fue el modelo Klein-Goldberger, que fue la primera representación empírica del sistema keynesiano. Este modelo tuvo numerosas variables endógenas y determinadas que permitieron el análisis de las interrelaciones económicas. LA CAÍDA EN DESGRACIA DE LA MACROECONOMETRÍA: Durante la década de 1960, se desarrollaron modelos macroeconométricos basados en la teoría keynesiana que parecían científicos. Sin embargo, a mediados de la década de 1970, se aceptó debido a la incapacidad para predecir con precisión las perturbaciones económicas. Comparaciones entre estos modelos y modelos más simples de series temporales demostraron que no eran mejores en predicciones. Las críticas a los modelos macroeconométricos se basan en su dependencia de datos y ajustes estadísticos, el uso de variables aproximadas y variables inmensurables, la falta de experimentos controlados y la falta de reproducibilidad. Los economistas, como Robert Solow, expresaron su preocupación sobre la utilidad limitada de la econometría en macroeconomía y la necesidad de realizar valoraciones subjetivas. La desconfianza en los contrastes econométricos ha producido errores y falta de reproducibilidad en los estudios. Algunos proponen el enfoque de la econometría bayesiana, pero la mayoría continúa utilizando métodos tradicionales. La dificultad para realizar contrastes empíricos ha generado enfoques retóricos y sociológicos en la metodología de investigación económica. Las críticas modernas a los modelos macroeconométricos: incluyen la crítica de Lucas, realizada por Robert Lucas, quien argumenta que los modelos no son adecuados para predecir los efectos de futuras políticas debido a los cambios en la estructura del modelo cuando se utiliza una política diferente. Otros críticos, como David Hendry y Christopher Sims, enfatizan la importancia de utilizar técnicas estadísticas actualizadas y realizar múltiples contrastes para obtener un ajuste preciso de los datos, priorizando las relaciones estadísticas sobre la teoría. Hendry aboga por considerar todas las variables como endógenas y utilizar métodos como los vectores autorregresivos, mientras que Sims defiende no imponer estructuras teóricas a los datos y utilizar técnicas estadísticas para descubrir las relaciones. Estos enfoques son vistos como una reencarnación moderna del enfoque de Mitchell, que se centraba en los datos con un mínimo de teoría. Aunque los críticos señalan que estos nuevos métodos no utilizan teorías económicas, argumentan que los modelos macroeconométricos tradicionales también tienen limitaciones teóricas. La crítica de Lucas ha tenido una influencia significativa en el campo, a pesar de que los problemas ya eran conocidos por economistas anteriores a él, como se discutió en la Comisión Cowles y los trabajos de Marschak, Koopmans y Phillips en las décadas de 1950 y 1960. LA ECONOMETRÍA BAYESIANA: La econometría bayesiana es un enfoque estadístico que propone una interpretación subjetiva de los datos en contraposición a la interpretación objetiva de la econometría clásica. Mientras que en la estadística clásica se busca una estimación única y objetiva del parámetro, basado en criterios como los BLUE (mejor estimador lineal e insesgado), en el análisis bayesiano se genera una función de densidad posterior basada en las creencias iniciales del investigador y la evidencia empírica. Aunque algunos econometristas se han comprometido con la econometría bayesiana, su uso es limitado debido a la dificultad de formalizar las creencias previas, encontrar la distribución posterior y convencer a otros de la validez de los resultados bayesianos. Aunque se han planteado quejas sobre la enseñanza actual de econometría, que se centra más en técnicas económicas que en métodos econométricos per se, el resto lo dedican a otros aspectos del estudio, especialmente a la construcción de un modelo econométrico relevante y al desarrollo de datos adecuados antes de las estimaciones y la interpretación de los resultados después de las estimaciones. La causa de esta diferencia se halla en que los profesores que enseñan econometría a menudo no son las personas que la realizan realmente. Como señalan Magnus y Morgan (1999), el análisis econométrico real se aprende haciéndolo, no estudiándolo. Está por ver si estas quejas llevarán a realizar mejores estudios empíricos en el futuro." LOS ECONOMISTAS EXPERIMENTALES Y LA SIMULACIÓN: Un grupo de economistas experimentales ha adoptado un enfoque distinto para realizar análisis empíricos en economía. Utilizando experimentos con animales o personas como compradores y vendedores, prueban si la teoría económica predice correctamente los resultados obtenidos. Estos economistas argumentan que han demostrado proposiciones económicas a través de sus experimentos. Por ejemplo, un experimento llamado "doble mercado oral de subastas" realizado por Vernon Smith y otros economistas sufrieron que el precio en el mercado se aproxima rápidamente al equilibrio y se ajusta cuando cambian las condiciones de oferta y demanda. Este enfoque experimental permite observar cómo reaccionan los mercados en diferentes condiciones institucionales, como en el caso de comparar mercados con precios declarados y subastas. Además, los economistas experimentales han contribuido en la resolución de problemas prácticos. Por ejemplo, en el caso de los precios de transporte de mercancías, se demostró que los precios declarados tendían a ser más altos que en las subastas, lo cual llevó al Departamento de Transporte de Estados Unidos a solicitar la ayuda de estos economistas para resolver el problema de fijación de precios. También se ha contrastado el teorema de Coase, encontrando que las partes perjudicadas que pueden negociar tienden a lograr un resultado eficiente, independientemente de quién tenga el derecho legal. Sin embargo, se demostró que cuando se asignaba el derecho legal de forma aleatoria, las partes tendían a distribuir el excedente de manera equitativa en lugar de maximizar sus ganancias individuales. Esto sugiere que existe una ética basada en la equidad en la distribución de los derechos de propiedad. Dada la dificultad de contrastar teorías de forma empírica, estas investigaciones han cobrado importancia. Su aceptación por parte de los economistas tendrá implicaciones significativas que requerirían cambios en la formación de los economistas, así como en su papel y enfoque para abordar los problemas económicos. Una tendencia relacionada es el uso de simulaciones, donde se construyen modelos con agentes que siguen reglas locales y se realizan simulaciones para determinar qué reglas sobreviven. Esto permite seleccionar supuestos basados en su capacidad de supervivencia en lugar de basarse en la introspección. RESUMEN La econometría ha experimentado avances y desafíos en su historia. En macroeconometría, ha habido progresos y lecciones aprendidas a lo largo de más de cincuenta años de construcción de modelos, aunque no de manera lineal o continua. Sin embargo, los críticos de la macroeconometría cuestionan la falta de claridad en los modelos estructurales y consideran que se les atribuye más de lo que es razonable. En cuanto a la microeconometría, se centra en problemas de equilibrio y plantea problemas metodológicos menos graves. Sin embargo, también tiene críticos que argumentan que se requiere más información de la que está disponible en la economía y que los contrastes estadísticos clásicos no tienen el significado pretendido sin experimentos controlados. Los críticos tienen diferentes perspectivas: los institucionalistas enfatizan el empirismo informado por la información institucional e histórica, mientras que los críticos bayesianos sugieren contrastes técnicos que reflejan la subjetividad de la estadística. La econometría busca una gran precisión cuantitativa sin la ventaja de experimentos controlados o grandes muestras. Los modelos económicos tienden a tener estructuras precisas pero simplistas, lo que limita su precisión cuantitativa. Los enfoques institucionalistas han tenido éxito al abordar problemas específicos con un enfoque histórico y desagregado, considerando las circunstancias y motivaciones de los diferentes grupos económicos afectados. En general, se sugiere que los análisis econométricos podrían ser más fructíferos si se enfocarán en comprender mejor las restricciones institucionales y el comportamiento individual. —--------------------------------------------------------------------------------------------------------------------------------------- Texto 13: Barber, William (1967): “Historia del Pensamiento Económico”. Alianza Editorial. Cap 8 “La doctrina económica de la Teoría General de Keynes” El problema analítico de la Teoría General La obra principal de Keynes giraba en torno a un problema central: la determinación de los niveles de renta nacional y de empleo en las economías industriales, y la causa de las fluctuaciones económicas. Los clásicos se habían enfocado en el crecimiento económico a largo plazo dejando de lado la inestabilidad a corto plazo. Marx se acercaba más a Keynes pero creía que la caída del capitalismo era inevitable, desde su punto de vista las fluctuaciones generales eran el resultado de una enfermedad incurable del sistema capitalista. En la Teoría General, se plasma la idea de que el análisis económico debía ser reconstruido para llevar los problemas agregativos a corto plazo al centro de la escena. Un capitalismo no regulado era incompatible con el mantenimiento del pleno empleo y estabilidad económica. Su educación profesional le había enseñado a respetar el valor analítico de la teoría neoclásica. El sistema neoclásico (que en la Teoría General él designaba como “teoría clásica”), según Keynes, representaba el modo en el que nos gustaría que se comportará nuestra economía. El ataque a la Ley de Say y la interpretación del dinero La Ley de Say distinguía entre superproducción “general” y “parcial”. La primera se suponía imposible, en tanto que la otra aún podía ocurrir. Esto podría traducirse en la proposición de que toda la renta sería gastada. Después de todo, ¿qué persona cuerda acumularía fondos estériles en un volumen sustancial cuando prestándolos podría aumentar su renta?. Toda la estructura del pensamiento neoclásico sobre el ahorro y la inversión se había construido en torno a estos postulados. Un aumento en el tipo de interés inflaría el volumen de los fondos prestables. El tipo de interés era, de este modo, interpretado como un sensible mecanismo de equilibrio entre el ahorro y la inversión. Esta línea argumental fue reforzada posteriormente por la interpretación neoclásica corriente del papel del dinero. En esta doctrina la principal función del dinero era la de medio de cambio. El dinero era económicamente interesante solo en la medida en que se gastaba y circulaba a través del sistema. El ataque de Keynes a la tradición de la ley de Say se centraba en este análisis del dinero. Comenzó la tarea invirtiendo la perspectiva desde la cual se consideraba el dinero. Keynes prefirió el dinero como activo, pero insistió en que había también otra razón para mantener dinero: el motivo especulativo. La réplica de Keynes está basada en la relación inversa entre los tipos de interés y los valores-capital de los activos financieros. Keynes afirmó que podría haber circunstancias en las que fuera prudente atesorar para cubrirse frente a los riesgos de pérdidas de capital. Los tipos de interés probablemente subirían (exponiendo a los propietarios de activos a pérdida sustanciales de capital). La reinterpretación del tipo de interés El modelo keynesiano y el análisis agregativo del sistema neoclásico manejaban las mismas variables: renta, ahorro, inversión, dinero y tipo de interés. El interés se ha considerado generalmente como la recompensa por no gastar, mientras que, de hecho, es la recompensa por no atesorar. El tipo de interés estaba gobernado no por la oferta y demanda de fondos prestables (como habían mantenido los escritos neoclásicos) sino por la oferta y demanda de dinero. El público puede demandar dinero por motivos especulativos. Los saldos mantenidos de este modo constituirán el atesoramiento, y su dimensión, probablemente, estaría influida ante todo por el tipo de interés y las expectativas sobre la futura evolución de este. A bajos tipos de interés, por el contrario, podía preferir el atesoramiento como salvaguardia frente a las posibles pérdidas de capital. La doctrina que iniciara afirmaba que el tipo de interés era esencialmente un fenómeno monetario y además sin relación con los factores reales de rugosidad y productividad del capital con los que los neoclásicos lo habían relacionado. El ahorro y la inversión podían responder a cambios en el tipo de interés, pero no eran sus determinantes El análisis keynesiano del consumo y del ahorro En el pensamiento neoclásico se consideraba la renta nacional como una variable más bien estable que fluctuaba sólo ligera y transitoriamente en torno a su nivel de pleno empleo. Esto no quiere decir que los autores neoclásicos despreciaran totalmente la influencia sobre el ahorro de los cambios en la renta nacional. El nivel de renta se convertía en el principal determinante mientras que al tipo de interés se le asigna un papel secundario. Keynes relacionó más estrechamente el ahorro al nivel de renta, poca gente era demasiado sensible a los cambios en los tipos de interés en sus decisiones de ahorrar. Y poca gente estaría influida por los cambios en el tipo de interés al decidir la distribución de su renta entre consumo y ahorro. Por lo que para Keynes no sólo era el nivel de renta la más poderosa influencia sobre el volumen de ahorro, sino que era probable que el ahorro aumentará absoluta y relativamente conforme creciera la renta. Indicaba que sería necesario un volumen creciente de gastos de inversión para llegar al equilibrio entre esta y el ahorro al nivel de actividad de pleno empleo. Keynes dijo: “una comunidad pobre estará dispuesta a consumir la mayor parte del total de su producción, de tal modo que será necesario un volumen muy modesto de inversión para alcanzar el pleno empleo; mientras que una comunidad rica tendrá que descubrir muchas más amplias oportunidades de inversión para que las propensiones ahorrarles de sus miembros más ricos sean compatibles con el empleo de sus miembros más pobres. La determinación de la inversión Las decisiones de ahorrar e invertir eran en gran medida independientes la una de la otra y se tomaban por diferentes grupos de personas y por razones distintas. Si los rendimientos netos esperados excedieran del coste de capital entonces merecía la pena las inversiones mientras que si el tipo de interés excediera de las tasas esperadas de rendimiento no se llevarán a cabo las inversiones en instalaciones equipos y existencias. Este elemento de continuidad entre los sistemas neoclásicos y keynesianos no debería ocultar, sin embargo, una importante diferencia en las interpretaciones alternativas de la tasa esperada de rendimiento sobre la inversión. A primera vista pareciera que Keynes utilizaba un concepto estrechamente relacionado con la noción neoclásica de la productividad marginal de capital y en parte eso es verdad; conforme crecieron las existencias de capital (permaneciendo lo demás igual) esperaba que los rendimientos de las unidades adicionales tenderían a disminuir. Pero Keynes a esto le agregó las expectativas de los empresarios, concluyendo que depende del rendimiento esperado del capital y no meramente del rendimiento corriente. La eficacia marginal del capital era una cuestión de expectativas en tal grado que el cambiante humor de la comunidad empresarial podría contrarrestar la influencia del tipo de interés sobre la inversión. En resumen, las técnicas convencionales de política económica eran insuficientes para remediar la insuficiencia de la demanda agregada. Si había de restaurarse la prosperidad era necesario un papel más activo del gasto público. El análisis keynesiano y la determinación del equilibrio agregado Los autores neoclásicos habían despreciado en gran medida esta relación dentro de la estructura de su pensamiento bajo el supuesto de que la renta nacional estaba sujeta a fluctuaciones solo dentro de límites bastantes estrechos. Para Keynes, por el contrario, era posible una amplia gama de posiciones de renta de equilibrio y la cuestión era ¿A qué niveles se establecería el equilibrio de la renta nacional? Claramente un aumento en el gasto para inversión aumentaría la renta total, esta condición podía verse satisfecha cuando la renta hubiera crecido lo bastante para dar lugar al crecimiento necesario del ahorro. Las implicaciones del análisis keynesiano para la política económica Sostuvo que independientemente de la existencia de estas organizaciones la reducción de salarios no ofrecía ninguna posibilidad de remediar el desempleo. Tal táctica agravaría probablemente más el problema al recortar la demanda efectiva. Las repercusiones más amplias de la doctrina keynesiana La crítica keynesiana de laissez-faire se basaba en fundamentos totalmente diferentes. El peso de su argumento recaía sobre la demostración de que un sistema de mercado no intervenido es probable que fuera crónicamente inestable e incapaz de asegurar la plena utilización de los recursos productivos. Desde un punto de vista keynesiano la forma más útil de describir el proceso de ajuste de la balanza de pagos era por los cambios en la renta agregada asociados con los superávits o déficits de la misma. En cambio, los economistas neoclásicos habían destacado los movimientos de oro y los cambios inducidos en la oferta monetaria y los precios como mecanismo de reajuste. En primer lugar el alcance de esta obra quedaba deliberadamente restringido a un lapso de tiempo de 6 a 9 meses por esta razón era apropiado para los propósitos sus propiedades generadoras de renta a través del proceso multiplicador e ignorar los efectos a largo plazo de los gastos de inversión sobre las existencias de activos productivos de la economía. En segundo lugar, es escaso en el análisis microeconómico. Lo que ahora se designa como la “síntesis neoclásica” intenta restablecer el tipo de interés como un regulador sensible de la actividad económica Aunque el argumento es ahora más sutil que antes de que la teoría general pusiera en tela de juicio la ley de Say. En la versión actual las tendencias equilibradoras del tipo de interés influyen en las relaciones entre los cambios en el valor capital de los activos financieros y las decisiones de consumir. Afirman sin embargo que el sistema de mercado es suficientemente flexible para asegurar el pleno empleo siempre que precios y salarios sean perfectamente flexibles. —-------------------------------------------------------------------------------------------------------------------------------------- Texto 14:Screpanti, Ernesto y Zamagni, Stefano (1993): “Panorama de Historia del Pensamiento Económico” Oxford University Press. Cap. 9 Del periodo de oro a la estanflación Durante los años oscuros de la Segunda Guerra Mundial, la gente ya comenzaba a hablar sobre cómo reconstruir la economía mundial una vez que terminara la guerra. Después de la Primera y Segunda Guerra Mundial, Gran Bretaña perdió su liderazgo económico y Europa en su conjunto mostraba un atraso evidente, mientras que Estados Unidos importaba masivamente tecnología, capital y métodos de organización. Esto hizo que Estados Unidos desempeñará un papel importante en la reconstrucción. La nueva época de prosperidad se basó en tres supuestos principales: el desarrollo económico como forma de resolver conflictos de distribución y controlar el comunismo, la integración europea como garantía de evitar otra guerra mundial, y la coordinación internacional para prevenir crisis disruptivas como las de la época de entreguerras. El Plan Marshall contribuyó de manera decisiva al desarrollo industrial renovado de los países europeos, impulsando la colaboración económica y facilitando la importación de materias primas necesarias. Además, resolvió la "cuestión alemana" sin crear problemas de pagos por reparaciones y, finalmente, generó el deseo en los europeos de imitar el estilo de vida estadounidense. Los acuerdos monetarios internacionales establecidos en Bretton Woods en 1944, con la creación del Fondo Monetario Internacional, el Banco Mundial y el GATT, también fueron muy importantes para coordinar las medidas monetarias y comerciales a nivel mundial. El gran auge que siguió se extendió a los países industrializados y a algunos de los nuevos países surgidos de la descolonización. Sin embargo, aquellos países con una base industrial sólida lograron reducir la brecha con Estados Unidos, lo que se conoció como un "milagro económico". Por otro lado, la mayoría de los países emergentes de su pasado colonial experimentaron mejoras limitadas, principalmente basadas en la venta de materias primas en los mercados internacionales. El impulso hacia la integración europea fue más que una simple propuesta y dio lugar a la creación de la Comunidad Europea del Carbón y del Acero, luego al Mercado Común y a otras iniciativas comunitarias que dieron forma a la nueva economía europea. Esto detuvo rápidamente la decadencia de las economías europeas y tuvo importantes repercusiones tanto en Estados Unidos como en Europa del Este, que había quedado rezagada en el proceso de desarrollo. Estos años fueron testigos de grandes cambios sociales y culturales, como el crecimiento de las ciudades, cambios en los patrones de consumo, mayor movilidad de la población y un aumento general en el nivel de vida. Las protestas sindicales fueron limitadas en parte debido a la alta demanda de empleo, lo cual brindó a los trabajadores una buena oportunidad para mejorar su situación económica. La síntesis neoclásica Está sección sobre la "síntesis neoclásica", que fue una respuesta de los economistas al enfoque keynesiano después de la publicación de la Teoría General de Keynes. Esta síntesis neoclásica se convirtió en la corriente principal de la economía después de la Segunda Guerra Mundial. Algunos economistas importantes que contribuyeron a esta teoría fueron William Baumol, James Duesenberry, Lawrence R. Klein, Franco Modigliani, James Edward Meade, Don Patinkin, Paul Anthony Samuelson, Robert Solow y James Tobin. Uno de los enfoques fundamentales de esta síntesis fue el modelo IS-LM, desarrollado por Hicks y luego ampliado por Modigliani. Modigliani construyó un modelo "clásico generalizado" que incluía tanto el modelo clásico como el keynesiano como casos especiales. Mostró que el modelo clásico sigue la dicotomía entre el sector real y monetario de la economía, mientras que el modelo keynesiano no garantiza el pleno empleo debido a los salarios rígidos. También demostró que la rigidez de los salarios era necesaria para obtener las conclusiones de Keynes. Patinkin, por su parte, desarrolló un modelo de equilibrio general que confirmaba la neutralidad del dinero y la dicotomía clásica. Su teoría se basaba en la ausencia de ilusiones monetarias y en la perfecta flexibilidad de precios en todos los mercados. Además de esta síntesis teórica, los economistas neoclásicos realizaron investigaciones sobre aspectos específicos de la teoría keynesiana para corregir sus defectos y ajustarla a los resultados de la investigación empírica. Algunos de los problemas abordados fueron la función de consumo, la demanda de dinero, la teoría de la inflación y la teoría del crecimiento. En cuanto a la función de consumo, se propusieron varias teorías para explicar la relación entre consumo e ingreso. Se discutió la estabilidad de la función de consumo a corto plazo y a largo plazo, así como la influencia de la riqueza y el ingreso permanente en el consumo. En resumen, la síntesis neoclásica fue una respuesta a la teoría keynesiana y se convirtió en la corriente dominante de la economía después de la Segunda Guerra Mundial. Se basaba en el modelo IS-LM y defendía la neutralidad del dinero y la dicotomía clásica. Los economistas neoclásicos también realizaron investigaciones sobre aspectos específicos de la teoría keynesiana, como la función de consumo, la demanda de dinero, la inflación y el crecimiento económico. La Contrarrevolución Monetarista La contrarrevolución monetarista comenzó en 1956 cuando Milton Friedman publicó "La Teoría Cuantitativa del Dinero: una reafirmación". Friedman argumentó que la teoría cuantitativa del dinero debía interpretarse como una teoría de la demanda de dinero y no como una simple explicación del nivel de precios. Reformuló la teoría de la demanda de dinero teniendo en cuenta avances en la investigación moderna, y propuso un modelo similar a los basados en elecciones de cartera. Friedman también presentó la hipótesis de la estabilidad de la función de demanda de dinero como una teoría del multiplicador monetario y del multiplicador de inversión. Argumentó que los estímulos monetarios eran más efectivos que los estímulos fiscales, ya que el gasto público financiado mediante endeudamiento aumentaría la tasa de interés y "desplazaría" las inversiones privadas, mientras que un aumento en la oferta monetaria aumentaría los ingresos sin aumentar la tasa de interés. La contrarrevolución monetarista desafió la teoría subyacente de la curva de Phillips, argumentando que el desempleo no estaba relacionado con las variaciones en los salarios monetarios, sino con las variaciones en los salarios reales. Friedman introdujo la hipótesis de expectativas inflacionarias y afirmó que las autoridades monetarias solo podían reducir el desempleo si generaban una tasa de inflación mayor a la esperada. A finales de la década de 1960, la teoría monetarista ganó fuerza política debido a la estanflación de esos años, que parecía respaldar sus advertencias sobre los efectos inflacionarios de las políticas keynesianas. Los monetaristas abogaron por restringir la expansión monetaria y reducir la economía. Sin embargo, la hegemonía del monetarismo fue efímera. Surgió una nueva corriente conocida como "neomonetarismo" o "nueva macroeconomía clásica" a fines de la década de 1970. Aunque vinculada al monetarismo tradicional, esta corriente se diferenciaba por su mayor refinamiento teórico y metodológico, así como por su posición más extrema en cuanto a la política económica. Los principales exponentes fueron Robert E. Lucas Jr., Thomas J. Sargent y Neil Wallace. El neomonetarismo superó las debilidades del monetarismo al considerar las expectativas de manera más racional y al adoptar hipótesis de expectativas racionales en lugar de expectativas adaptativas. Esto implicaba que los agentes económicos formaban expectativas basadas en información completa y correcta, lo que eliminaba la posibilidad de ser sistemáticamente engañados. Esta nueva corriente planteó desafíos adicionales a la teoría keynesiana neoclásica y condujo a un cambio en la dirección de la macroeconomía. Del desequilibrio al equilibrio no walrasiano En la década de 1960, se hizo evidente que el modelo de equilibrio walrasiano no era adecuado para explicar la teoría de Keynes. Economistas como Patinkin, Clower y Leijonhufvud propusieron modelos alternativos para estudiar las situaciones de desequilibrio y fundamentar microeconómicamente la macroeconomía keynesiana. Clower sugirió eliminar la idea de que los intercambios se realizan en equilibrio, argumentando que fuera del equilibrio, las decisiones de los individuos no son compatibles entre sí. Esto lleva a una dualidad decisoria en la que la demanda real se ve limitada por los ingresos monetarios disponibles. Además, la falta de equilibrio implica la existencia de restricciones tanto en el gasto como en los ingresos. Esto puede generar un proceso multiplicador similar al concebido por Keynes. Leijonhufvud compartía una posición similar a la de Clower, pero destacaba el papel de las deficiencias informativas en la generación de procesos multiplicadores. Al enfocarse en la falta de información generada por los precios diferentes a los del equilibrio walrasiano, identificó el elemento clave en este enfoque teórico y allanó el camino para los modelos de equilibrio no walrasiano formulados en la década de 1970. Estos modelos de equilibrio no walrasiano abandonaron la idea de flexibilidad de precios y postularon la existencia de precios fijos. En estos modelos, los agentes económicos toman decisiones en base a restricciones cuantitativas percibidas, lo que puede llevar a equilibrios en los que no haya incentivos para cambiar las decisiones individuales. Dependiendo de las hipótesis sobre los precios fijos, las restricciones cuantitativas y los agentes relacionados, se pueden alcanzar diferentes tipos de equilibrio, incluyendo equilibrios con desempleo keynesiano y equilibrios con desempleo clásico. En resumen, los modelos de equilibrio no walrasiano surgieron como alternativas al modelo de equilibrio walrasiano para explicar la teoría keynesiana. Estos modelos enfatizan el papel del desequilibrio, las restricciones cuantitativas y los precios fijos en la economía, y muestran que el caso de Keynes puede ser considerado como un caso de equilibrio no walrasiano temporal. Enfoque post-keynesiano El enfoque post-keynesiano es una reinterpretación crítica de la teoría neoclásica a través de la perspectiva de Keynes. Los economistas post-keynesianos se consideran a sí mismos como seguidores de Keynes y han intentado desarrollar un sistema teórico coherente basado en sus ideas. Existen dos grupos principales de post-keynesianos: europeos y estadounidenses. El grupo europeo se originó en la Universidad de Cambridge y está compuesto por economistas como Richard Kahn, Joan Robinson, Nicholas Kaldor y Luigi Pasinetti. Estos economistas interpretaron a Keynes desde una perspectiva cambridgiana, centrándose en la demanda efectiva y la teoría de la distribución. Argumentaron que la demanda efectiva es fundamental para comprender el equilibrio económico y que la teoría neoclásica del interés es errónea. El grupo estadounidense se reunió en torno al Journal of Post-Keynesian Economics y está compuesto por economistas como Hyman Minsky y Sidney Weintraub. Estos economistas han centrado su atención en la dinámica monetaria y la importancia de las expectativas en la economía. La diferencia principal entre los dos grupos radica en sus áreas de investigación favoritas: crecimiento y distribución para los europeos, y dinámica monetaria para los estadounidenses. Sin embargo, ambos grupos comparten la crítica a la síntesis neoclásica y buscan separar las ideas verdaderamente keynesianas de los residuos neoclásicos y marshallianos. En cuanto a la teoría de crecimiento y distribución, los post-keynesianos han desarrollado una perspectiva alternativa basada en el teorema de la "copa de viuda", que sostiene que los ingresos de los capitalistas dependen de su gasto. Joan Robinson y Nicholas Kaldor son dos de los principales exponentes de esta teoría. Argumentan que la distribución de ingresos está determinada por las políticas de precios de las empresas y el grado promedio de monopolio en la economía. El enfoque post-keynesiano es una crítica a la teoría neoclásica y una reinterpretación de las ideas de Keynes. Los economistas post-keynesianos se dividen en dos grupos principales, europeos y estadounidenses, y han desarrollado teorías alternativas sobre crecimiento y distribución. Su objetivo es construir un sistema teórico completo y coherente basado en las ideas de Keynes. Las teorías monetarias modernas post-keynesianas surgieron en los años 70 y principios de los 80, pero ya en 1963 Tobin hizo una importante contribución con su artículo "Commercial Banks as Creators of Money", donde esbozó algunas presuposiciones teóricas fundamentales sobre la oferta de dinero endógena. En la década de 1970, la teoría monetarista de Friedman descubrió que la variación de la oferta de dinero ocurre en ciclos similares a los de la renta y los precede sistemáticamente. Esto condujo a un ataque monetarista contra la teoría neoclásica keynesiana. Sin embargo, las teorías post-keynesianas salieron fortalecidas de este debate, ya que argumentaban que el nivel de renta depende de las decisiones autónomas de los empresarios y que la oferta de dinero varía endógenamente en relación con la demanda de financiación para la inversión. Estas teorías post-keynesianas sostienen que existe un doble vínculo causal que va desde las inversiones hacia la demanda de dinero y desde las inversiones hacia la demanda agregada. Si la oferta de dinero se ajusta rápidamente a la demanda, sus variaciones deben anticiparse a las de la renta. Esto se debe a que el multiplicador keynesiano transmite el impulso de inversión a la renta solo después de cierto retraso. Las contribuciones más importantes en ese debate fueron los trabajos de Kaldor sobre "The New Monetarism" (1970) y el artículo de Tobin "Money and Income: Post Hoc Ergo Propter Hoc?" (1970). La naturaleza endógena de la oferta de dinero tiene efectos ambivalentes en la dinámica de la economía capitalista. Por un lado, permite que el crecimiento de la inversión vaya más allá de la capacidad inmediata de autofinanciación. Por otro lado, al hacerlo, exacerba la inestabilidad intrínseca de un régimen de laissez-faire, creando las condiciones para crisis financieras catastróficas e interrupciones drásticas en el crecimiento. Los efectos desestabilizadores que la estructura del sistema financiero puede tener en la economía real han sido estudiados en profundidad por Minsky en varios trabajos escritos en la década de 1970. Minsky propuso una teoría de la crisis que se basa en la distinción keynesiana entre "riesgo del deudor" y "riesgo del acreedor". Con la hipótesis de un aumento del riesgo, Minsky justificó la existencia de una curva decreciente para la eficiencia marginal del capital, o el precio de demanda de capital. También argumentó que la expansión del crédito hace que la oferta de dinero crezca arrastrando la base monetaria hacia arriba. En contraposición a las teorías neoclásicas, los postkeynesianos sostienen que la curva de costos de una empresa es plana hasta que todas las plantas estén completamente utilizadas, y que los precios se fijan mediante la aplicación de un margen de ganancia bruta a los costos variables. Los postkeynesianos también cuestionan la curva de Phillips, tanto a corto como a largo plazo, argumentando que una contracción o expansión de la demanda agregada no genera automáticamente ajustes para alcanzar el pleno empleo. Por lo tanto, abogan por políticas fiscales expansivas para estimular la demanda y contrarrestar la inflación mediante políticas de ingresos que moderen los reclamos distributivos. La Nueva Macroeconomía Keynesiana En esta sección se mencionan las ideas desarrolladas por John Hicks después de su "conversión" a mediados de la década de 1960. Esta conversión fue más drástica de lo que parecía a simple vista, ya que Hicks rechazó las tesis sobre la distribución funcional del ingreso que él mismo formuló en 1932 en su libro "Teoría de los salarios" y también criticó la interpretación de Keynes basada en su antiguo modelo IS-LM. Hicks rechazó este modelo principalmente porque no era adecuado para comprender el papel de la preferencia por la liquidez en la determinación de la dinámica del empleo y porque no tenía sentido determinar el equilibrio macroeconómico a través de dos curvas, una IS que expresaba una condición de equilibrio de flujo y otra LM que expresaba una condición de equilibrio de stock. Además, Hicks realizó otros cambios en su enfoque teórico, como aceptar las críticas de Cambridge a la teoría neoclásica del capital, utilizar el método de sectores integrados verticalmente y formular modelos de crecimiento no estacionario, y revisar la teoría del dinero. Sin embargo, lo más importante de este "Hicks posterior" es que sentó las bases teóricas de la nueva macroeconomía keynesiana de la década de 1980 con su modelo de precios fijos. Este enfoque va más allá del argumento neoclásico tradicional de que los resultados obtenidos por Keynes dependen del abandono de la hipótesis de competencia perfecta y también va más allá de la observación de que la mayoría de los modelos macroeconómicos keynesianos presuponen precios fijos. Hicks rechazó en bloque la teoría neoclásica de formación de precios en un régimen de competencia, argumentando que solo en ciertos mercados, como los especulativos, las hipótesis tradicionales de precios flexibles tienen sentido. En los mercados de bienes industriales, los precios son determinados por los propios agentes económicos, quienes los ajustan en respuesta a señales económicas como las variaciones en los salarios y otros precios. Esto no significa que los precios sean "rígidos", sino que no cambian tan rápidamente como sugieren los libros de texto microeconómicos neoclásicos. La principal consecuencia de esto es que es necesario rechazar el prejuicio extendido, de origen marshalliano, de que las variaciones de precios predominan en los ajustes a corto plazo y las variaciones de cantidades en los ajustes a largo plazo. El enfoque de precios fijos tuvo éxito en las décadas de 1970 y 1980. Además de los modelos de equilibrio no walrasiano inspirados en él y los modelos post-keynesianos que adoptaron la hipótesis de precios fijos mucho antes de que Hicks la propusiera nuevamente, en los últimos veinte años se ha desarrollado una corriente de pensamiento que ha colocado esta hipótesis en el centro del análisis macroeconómico y ha avanzado más en la búsqueda de justificaciones microeconómicas. Aunque aún no se ha alcanzado un consenso absoluto en la comunidad económica, la hipótesis de precios fijos ha ganado atención y ha sido objeto de investigación en el campo de la macroeconomía. Esta corriente de pensamiento sostiene que los precios no se ajustan instantáneamente para equilibrar la oferta y la demanda en todos los mercados, como lo sugiere el enfoque walrasiano tradicional. En cambio, argumenta que los precios pueden ser rígidos en el corto plazo debido a diversas razones, como costos de ajuste, información imperfecta o comportamiento estratégico de las empresas. Al adoptar la hipótesis de precios fijos, los modelos macroeconómicos pueden analizar cómo los shocks o perturbaciones en la economía pueden afectar el equilibrio y generar fluctuaciones económicas. También permiten examinar la eficacia de las políticas monetarias y fiscales en un entorno donde los precios no se ajustan rápidamente. Si bien esta corriente de pensamiento ha avanzado en la justificación microeconómica de los precios fijos, todavía existen debates sobre cómo incorporar de manera más precisa estos aspectos en los modelos macroeconómicos y cómo reconciliarlos con la teoría tradicional del equilibrio walrasiano. En resumen, aunque el enfoque de precios fijos ha sido objeto de estudio y ha ganado importancia en el análisis macroeconómico, todavía hay discusiones en curso sobre su validez y su integración en los modelos económicos. Después de la contra-revolución monetarista, el modelo IS-LM cayó en desuso, aunque en los últimos años ha mostrado signos de recuperación. Por un lado, un número creciente de economistas keynesianos de diversas orientaciones lo consideraron inadecuado para representar correctamente el pensamiento de Keynes. Por otro lado, los macroeconomistas nuevos clásicos también lo encontraron insuficiente y criticaron sus fundamentos microeconómicos no ortodoxos, la teoría de la no neutralidad del dinero y la hipótesis de expectativas exógenas y no racionales. Además, la "crítica de Lucas" generó dudas sobre la estabilidad de las curvas IS y LM, argumentando que podrían desplazarse como consecuencia de las políticas que las curvas mismas sugieren. El factor decisivo que llevó a la renuncia del modelo fue que muchos economistas, guiados por intereses en la investigación monetarista, desviaron su atención hacia el problema de la inflación. El aparato analítico IS-LM se basa en la hipótesis de que el nivel de precios es un dato y solo de manera bastante complicada puede utilizarse para explicar las fluctuaciones en el equilibrio que siguen a las variaciones en la inflación. Por lo tanto, fue reemplazado por un esquema conocido como el modelo de oferta y demanda agregada (AD-AS), diseñado precisamente para tener en cuenta las variaciones en el equilibrio en presencia de inflación. Texto 15: Friedman, M. (1956). La metodología de la economía positiva. En: Revista de Economía Política, IX (23), p. 355-396 John Neville Keynes distingue entre “una ciencia positiva”, un cuerpo de conocimiento sistematizado concerniente a lo que es; y una ciencia normativa u ordenadora, un cuerpo de conocimiento sistematizado que discute los criterios sobre lo que debe ser; un arte, un sistema de reglas para la consecución de un fin dado, y puntualiza que la “confusión entre ellas es corriente y ha sido la fuente de muchos errores perjudiciales”, señalando con insistencia la importancia de admitir una ciencia positiva”. 1.- Relación entre la economía positiva y normativa. Las conclusiones de la economía positiva parecen, y son, relevantes para grandes problemas normativos, para cuestiones sobre lo que debe hacerse y cómo debe conseguirse cualquier meta fijada. La economía positiva es un principio independiente de cualquier posición ética particular o de juicios normativos. Su objetivo es proporcionar un sistema de generalizaciones que puedan usarse para hacer predicciones correctas sobre las consecuencias de cualquier cambio en las circunstancias. La economía normativa y el arte de la economía, por otro lado, no pueden ser independientes de la economía positiva. Si este juicio es válido significa que un acuerdo sobre una política económica “correcta” depende mucho menos del progreso de la economía normativa que del progreso de una economía positiva que obtenga conclusiones que sean ampliamente aceptadas. 2.- Economía positiva El último objetivo de una ciencia positiva es el desarrollo de una “teoría” o “hipótesis” que produzca predicciones válidas y significativas sobre fenómenos todavía no observados. Es una mezcla de dos elementos, en parte es un lenguaje que promueve “métodos sistemáticos y organizados de razonamiento” y en parte es un cuerpo de hipótesis sustantivas encargadas de abstraer rasgos esenciales de la compleja realidad. Como lenguaje: la teoría carece de contenido sustantivo. Su cometido es servir como sistema ordenador para organizar el material empírico y facilitar su comprensión; y los criterios por los que ha de juzgarse son los propios de un sistema clasificador. Los cánones de la lógica formal pueden mostrar por sí solos si un lenguaje particular es completo y consistente. La evidencia de hecho, por sí sola, puede mostrar si las categorías del “sistema ordenador analítico” tienen una contrapartida empírica con sentido. Considerada como un cuerpo de hipótesis sustantivas, la teoría debe ser juzgada por su poder predictivo para la clase de fenómenos que intenta explicar”. Solo la evidencia de hecho puede mostrar si es “acertada” o “equivocada”. La única prueba decisiva de la validez de una hipótesis es la comparación de sus vaticinios con la experiencia. La evidencia de hecho nunca puede “probar” una hipótesis; únicamente puede evitar el que sea desaprobada. Las predicciones por las que la validez de una hipótesis no se aprueba no necesitan ser sobre fenómenos que no han ocurrido todavía, pueden ser sobre fenómenos que han ocurrido, bien por observaciones que no han sido todavía realizadas o son desconocidas de la persona que hace la predicción. En este sentido la validez de una hipótesis no es por sí misma un criterio suficiente para elegir entre hipótesis alternativas, porque aún cuando una hipótesis concuerde con la evidencia utilizable existen un infinito número de ellas. Una teoría es “más sencilla” cuanto menos conocimiento inicial necesita para hacer un vaticinio en un campo dado de fenómenos; es más “fértil” cuanto más precisa sea la predicción resultante, cuanto más amplio sea el campo en que la teoría produce vaticinios. La imposibilidad de la evidencia dramática y directa del experimento “crucial” entorpece la adecuada prueba de las hipótesis en la Ciencia Económica”, pero esto tiene menos importancia que la dificultad que esto supone para conseguir una aprobación razonablemente rápida y amplia de las conclusiones avaladas por una evidencia válida. Motiva que el rechazar una hipótesis sin éxito sea una labor lenta y difícil. Hay una considerable variación a este respecto. Ocasionalmente la experiencia proporciona una evidencia que es casi tan directa, dramática y convincente como cualquiera otra que puedan proporcionar los experimentos controlados. Las tautologías tienen un lugar muy importante en la economía y en otras ciencias como lenguaje especializado. Una consecuencia más seria de la dificultad de probar las hipótesis económicas por sus vaticinios es el alentar al desconcierto sobre el papel de la evidencia empírica del trabajo teórico. Los dos momentos de elaboración de la hipótesis y la prueba de su validez están relacionados en dos aspectos, en primer lugar, los hechos particulares que entran en cada etapa son en parte una consecuencia de los datos disponibles y del conocimiento de cada investigador. En segundo lugar, el proceso difícilmente parte de la nada; la etapa inicial requiere la comparación de las deducciones de una primera serie de hipótesis con la observación, la contradicción de las deducciones. Una hipótesis es importante si “explica” mucho con poco, o sea si abstrae los elementos comunes y cruciales de la masa de circunstancias complejas y detalladas que rodean al fenómeno que va a explicarse y permite unas predicciones válidas. Por tanto, una hipótesis para ser importante debe poseer supuestos descriptivamente falsos, ya que no toma en cuenta la mayor parte de las circunstancias reales. El problema esencial en torno a los “supuestos” de una teoría no es, si son descriptivamente “realistas”, porque nunca lo son, sino, si constituyen aproximaciones lo suficientemente buenas para resolver el problema de que se trate. Y esta cuestión puede contestarse sólo comprobando si la teoría funciona, lo que sucede si proporciona vaticinios bastante seguros. Así la doble prueba de la teoría, de la que antes de hablar, se reduce a una sola. 3.- ¿Puede probarse una hipótesis por el realismo de sus supuestos? El problema importante en relación con la hipótesis es especificar las circunstancias bajo las que la fórmula sirve o, más exactamente, el alcance general del error en sus vaticinios bajo diversas circunstancias. La especificación es a su vez parte esencial de la hipótesis una parte que probablemente se revisará y extenderá a medida que la evidencia disponible aumente. Con todo, no siempre conviene utilizar la teoría más general, porque la exactitud mayor que ésta proporciona puede no justificar su mayor coste y, por tanto, el problema de bajo que circunstancias una teoría más sencilla resulta lo bastante apropiada, sigue siendo importante. La utilización adecuada de los supuestos al especificar las circunstancias por las que una teoría se acepta es frecuentemente, y por error, interpretada como si quisiera decir que los supuestos pueden utilizarse para determinar las circunstancias por las que la teoría se admite y ha sido, en este sentido, una importante fuente para sustentar la creencia de que una teoría debe probarse por sus supuestos. Un segundo e incluso más importante conjunto de evidencias para sustentar la hipótesis de la maximización de beneficios es la experiencia de las innumerables aplicaciones de la hipótesis a problemas específicos y que sus deducciones no sean contradichas. La evidencia para aceptar una hipótesis consiste siempre en los repetidos fracasos de sus contradicciones que deben acumularse en la medida en la que se utiliza la hipótesis, evidencia ésta que por su misma naturaleza es difícil de documentar totalmente. 4.- Significado y papel de los “supuestos” de una teoría Hemos visto que una teoría no puede probarse por el “realismo” de una teoría está rodeado de vaguedad. Pero si eso fuera todo, sería difícil explicar el extendido uso del concepto y la tenacidad con la que todos hablamos de los supuestos de una teoría y comparamos los supuestos de teorías alternativas. En la metodología, como en la ciencia positiva, las definiciones negativas pueden hacerse en general con más seguridad que las afirmaciones. Los supuestos de una teoría juegan tres papeles positivos diferentes, aunque relacionados: a) El uso de los “supuestos” en la exposición de una teoría. Una hipótesis o teoría consiste en afirmar que ciertas fuerzas son y, por deducción otras no lo son, importantes para una clase de fenómenos que pretenden explicarse, al mismo tiempo que especifica la manera en que actúan las fuerzas que se consideran importantes. La hipótesis puede considerarse por dos partes: 1) Un mundo conceptual o modelo abstracto más sencillo que el “mundo real”, que contiene tan sólo las fuerzas que la hipótesis asegura que son importantes, 2) una serie de reglas que definen la clase de fenómenos para los que el “modelo” puede considerarse como una adecuada representación del “mundo real”, que especifiquen la correspondencia entre las variables o entidades del modelo y los fenómenos observables. Las reglas para la utilización del modelo, por otro lado, no es posible que sean tan abstractas y completas. Deben ser concretas, y, por consiguiente, incompletas con más facilidad, aún incluso entonces no de forma completa, cuando la teoría forma parte de una teoría más general. Al hablar de los “supuestos cruciales” de una teoría, estamos, creo yo, tratando de fijar los elementos clave de un modelo abstracto. Por lo regular, hay muchos medios diferentes de describir el modelo en su integridad. Estos son lógicamente equivalentes; lo que son considerados como axiomas o postulados de un modelo desde un punto de vista, pueden ser tomados como teoremas desde otro, y, al contrario. Los “supuestos” especiales, llamados “cruciales”, se seleccionan en atención a su conveniencia, sencillez y brevedad, para describir el modelo, su plausibilidad intuitiva o su capacidad para sugerir, si bien tan sólo por deducción, algunas de las consideraciones que son esenciales para juzgar o aplicar el modelo b) El uso de los “supuestos”, como prueba indirecta de una teoría La posibilidad de intercambiar teoremas y axiomas en un modelo abstracto implica la posibilidad de intercambiar “deducciones” y “supuestos” en la hipótesis sustantiva corresponde al modelo abstracto, lo que no quiere decir que cualquier deducción puede intercambiarse con cualquier supuesto, sino tan sólo que puede haber más de una serie de afirmaciones que impliquen a los restantes. Lo que llamamos supuestos de una hipótesis pueden utilizarse para conseguir alguna evidencia indirecta para la aceptación de la hipótesis, en la medida en la que los mismos supuestos pueden considerarse como deducciones de las hipótesis, y, por lo tanto, su adecuación con la realidad como un impedimento para la contradicción de algunas deducciones o en tanto que los supuestos posean otras deducciones de las hipótesis susceptibles de una observación empírica. Otro medio por el que los "supuestos" de una hipótesis puede facilitar su comprobación indirecta es manifestando su parentesco con otras hipótesis, y de este modo confirmar su validez a través de la validez de las hipótesis en cuestión. Este género de evidencia indirecta obtenida de hipótesis relacionadas explica en gran medida la diferencia en la confianza otorgada a hipótesis concretas por la gente con ideas dispares, nunca hay una certeza en la ciencia y el peso de la evidencia en pro o en contra de una hipótesis nunca, puede señalarse "objetivamente" por completo. c) Algunas veces un medio inconveniente para especificar las condiciones bajo las que se espera que la teoría sea válida. 5.- Algunas implicaciones para los principios económicos Los principios metodológicos abstractos que hemos estado discutiendo guardan una relación directa con la perenne crítica de la teoría económica “ortodoxa” como “irreal” y con los intentos realizados para formular una teoría que afronte una crítica. Como hemos visto, la crítica de este tipo está fuera de lugar si no va acompañada por la evidencia de que una hipótesis diferente en uno u otro aspecto de la teoría que se critica proporciona mejores predicciones para una amplia serie de fenómenos. Sin embargo, la mayor parte de tal crítica no se complementa de esta forma; se basa casi por entero en las discrepancias entre los "supuestos" y el "mundo real". Una teoría o sus "supuestos" no pueden posiblemente ser totalmente "realistas" en el sentido descriptivo inmediato dado frecuentemente a este término. Pero en tanto que la prueba de "realismo" sea la seguridad descriptiva de los "supuestos" percibida directamente no hay razón para hacer tal distinción. La confusión básica entre la precisión descriptiva y pertinencia analítica que se halla detrás de muchas de las críticas sobre la teoría económica en el plano de que sus supuestos son irreales. Una hipótesis fundamental de la ciencia es que las apariencias son engañosas y que hay un medio de mirar, interpretar y organizar la evidencia que revelará qué fenómenos superficialmente desconectados y diversos son manifestaciones de una estructura más fundamental y relativamente sencilla. Y la prueba de esta hipótesis, como la de cualquier otra, son sus resultados, una prueba que la ciencia ha aportado siempre. Si una clase de "fenómenos económicos" se muestran variados y complejos, hay que suponerlo, porque carecemos de una teoría adecuada para explicarlos. La confusión entre la precisión descriptiva y la pertinencia analítica ha conducido no sólo a la crítica de la teoría económica en cuestiones bien intrascendentes, sino también al desconocimiento de la teoría económica y desviación de los esfuerzos para corregir los supuestos defectos. Los "tipos ideales" de los modelos abstractos desarrollados por los teóricos de la economía se han considerado como categorías estrictamente descriptivas, encaminadas a coincidir directa y completamente con entidades del mundo real, independientemente del propósito con el que el modelo debería utilizarse. Teoría más general: Tal teoría nos permitiría operar en problemas en que ahora no podemos hacerlo y, además, facilitar la determinación de la serie de circunstancias bajo las que una teoría más simple puede considerarse como una buena aproximación. Para cumplir con este cometido, la teoría más general debe tener contenido y sustancia; debe poseer implicaciones susceptibles de contrastación empírica y de sustantivo interés e importancia. 6.- Conclusiones La economía como ciencia positiva es un cuerpo de generalizaciones aceptadas sobre los fenómenos económicos, que pueden utilizarse para vaticinar las consecuencias de los cambios dados en las circunstancias. La familiaridad con el objeto de la ciencia económica provoca una actitud despreciativa hacia la adquisición del conocimiento especial sobre el mismo. La necesidad de confiar en la experiencia incontrolada, más que en los experimentos controlados, hace difícil obtener una evidencia dramática y tajante que justifique la aceptación de las hipótesis formuladas. La necesidad de apoyarse en la experiencia incontrolada no afecta al principio metodológico fundamental de que una hipótesis debe robarse sólo por 'la conformidad de sus deducciones o predicciones con los fenómenos observables; sin embargo, hace que la prueba de las hipótesis sea más difícil y da pie a errores sobre determinados principios metodológicos. Una confusión que ha sido especialmente común, y ha hecho mucho daño, es la relativa al papel de los "supuestos" en el análisis económico. Una hipótesis científica significativa o una teoría, afirma que ciertas fuerzas son y otras, en cambio, no son importantes para entender una clase peculiar de fenómenos. Una teoría no puede probarse comparando sus "supuestos" directamente con la "realidad". Sin duda, no hay medio alguno por el que esto pueda hacerse. La idea de que una teoría puede probarse por el realismo de sus supuestos, independientemente de la precisión de sus vaticinios, está muy extendida y es la fuente de gran parte de la crítica constante de que la teoría económica no es realista. Una valoración referente al estado actual de la economía positiva, un resumen de la evidencia en que se apoya «su validez y la fijación del crédito relativo que cada parte merece, es desde luego una tarea para un tratado o una colección de tratados, si es que esta tarea es posible, no para un breve artículo sobre metodología. Los modelos abstractos que corresponden a estas hipótesis han sido elaborados con gran detalle y han ganado mucho en rigor y precisión. El material descriptivo sobre las características de nuestro sistema económico y sus operaciones ha sido reunido en una escala sin precedentes. El progreso en la economía positiva requerirá no sólo la prueba y elaboración de las hipótesis existentes, sino también la construcción de otras nuevas. La metodología de la economía positiva de Milton Friedman se basa en el enfoque científico de la economía, que busca describir y predecir los fenómenos económicos de manera objetiva, sin emitir juicios de valor. Friedman es considerado uno de los principales exponentes de la escuela de pensamiento económico conocida como monetarismo. Según Friedman, la economía positiva se centra en el análisis de los hechos y la formulación de teorías económicas basadas en evidencia empírica. Los economistas deben utilizar métodos rigurosos, como la recolección de datos, la observación y el análisis estadístico, para desarrollar y probar sus teorías. El objetivo es comprender cómo funcionan los sistemas económicos y predecir sus resultados. Friedman argumenta que la economía positiva debe ser separada de la economía normativa, que se refiere a las opiniones y juicios de valor sobre cómo deberían ser las políticas económicas. Según él, los economistas pueden y deben ofrecer asesoramiento sobre las consecuencias de las políticas, pero la elección final entre diferentes cursos de acción debe basarse en consideraciones políticas y éticas, no en análisis económicos. Friedman también enfatiza la importancia de los mercados libres y la competencia en la economía. Sostiene que, en general, los mercados libres son más eficientes para asignar recursos que la intervención gubernamental. Argumenta a favor de la reducción de la regulación y el control del gobierno sobre la economía, así como de la promoción de la libre empresa y la libertad individual. En resumen, la metodología de la economía positiva de Milton Friedman se basa en el enfoque científico de la economía, utilizando métodos rigurosos para describir y predecir los fenómenos económicos. Aboga por la separación entre la economía positiva y la normativa, promoviendo la importancia de los mercados libres y la competencia en la economía. Texto 16: Blaug, Mark (1985). La metodología de la Economía. Madrid: Alianza Editorial, pp 115-134 ¿Ultraempirismo? El libro "The Significance and Basic Postulates of Economic Theory" de Terence Hutchison, publicado en 1938, introdujo el criterio metodológico de falsabilidad de Popper en los debates económicos. Hutchison reconoció la importancia del criterio de demarcación de Popper antes de que se conociera ampliamente su trabajo. En su libro, Hutchison argumentó que todas las proposiciones económicas pueden clasificarse como tautológicas o empíricas, y tendió a caracterizar la mayoría de las proposiciones económicas como tautologías. Sin embargo, esta clasificación no tuvo en cuenta la distinción entre proposiciones que son simplemente definiciones disfrazadas y aquellas que son contrastables pero están formuladas de manera que impiden su contrastación. Además, Hutchison defendió la necesidad de contrastar empíricamente las proposiciones económicas y criticó a los economistas por proponer afirmaciones empíricas no-contrastables en lugar de tautologías. Hutchison fue acusado de ultraempirismo por Machlup, quien argumentó que la contrastación directa de supuestos fundamentales en economía era gratuita y engañosa. Hutchison respondió que la contrastación de supuestos podía realizarse tanto directamente como indirectamente a través de la contrastación de las conclusiones derivadas de esos supuestos. Hutchison defendió la contrastabilidad empírica tanto de los supuestos como de las implicaciones de las teorías económicas. En ese momento, los apriorismos, que consideraban que la economía se basaba en deducciones puras sin necesidad de verificación externa, eran prominentes en el pensamiento económico. Frank Knight rechazó las ideas de Hutchison y defendió que las proposiciones económicas no podían ser contrastadas empíricamente debido a su naturaleza teleológica y su dependencia del conocimiento intuitivo. Es importante tener en cuenta el contexto histórico de la época, donde los apriorismos eran ampliamente aceptados y el debate metodológico estaba en curso. Hutchison continuó defendiendo la relevancia de las prescripciones metodológicas de Popper en economía, pero reconoció que el enfoque monista o dualista en metodología tenía sus desafíos y limitaciones. El operacionalismo: En 1936, Percy Bridgman desarrolló el operacionalismo metodológico en su obra "The Nature of Physical Theory". En ese mismo periodo, Paul Samuelson comenzó a escribir su tesis doctoral sobre los fundamentos del análisis económico, donde abordó la significación operacional de la teoría económica. Samuelson demostró que los supuestos de maximización condicionada no eran suficientes para derivar la mayoría de las predicciones económicas. Además, estableció la distinción entre el razonamiento estático comparativo (cálculo cuantitativo) y el cálculo cualitativo. Samuelson buscaba obtener teoremas operacionalmente significativos en economía, es decir, hipótesis que pudieran ser concebiblemente refutadas. Sin embargo, su concepto de teorema operacionalmente significativo se asemejaba más al falsacionismo popperiano que al operacionalismo tal como lo estableció Bridgman. Donald Gordon intentó precisar el significado del operacionalismo en economía, definiendo la proposición operacional como aquella que implica una operación que podría realizarse en principio y cuyos resultados podrían contrastar la proposición. Añadió la operación de introspección además de las operaciones físicas. Su definición de operacionalismo se aproximaba a la idea de falsabilidad de Popper. Gordon también aplicó el principio de correspondencia de Samuelson para reinterpretar la definición de teorema operacionalmente significativo, estableciendo la importancia del cálculo cualitativo. En cuanto al ensayo "Metodología de la Economía Positiva" de Milton Friedman, su tesis central afirmaba que los economistas no deberían preocuparse por adoptar supuestos "realistas". Esta afirmación generó una controversia que duró casi una década, y la argumentación de Friedman es compleja, lo que ha llevado a diferentes interpretaciones entre los economistas. El ensayo presenta dos tesis diferentes, pero poco relacionadas entre sí. La tesis de la irrelevancia-de-los-supuestos La tesis de la irrelevancia de los supuestos, presentada por Friedman en su ensayo, se centra en la unidad metodológica de las ciencias físicas y sociales, incluida la economía positiva. Friedman argumenta que las teorías económicas deben ser juzgadas por su poder predictivo y no por la conformidad de sus supuestos con la realidad. Según él, una hipótesis debe ser descriptivamente falsa en sus supuestos para ser importante y su validez se determina mediante la comparación de sus predicciones con la experiencia. Friedman critica la idea de que los supuestos realistas proporcionan una forma adicional de contrastar una teoría, ya que considera que esto es erróneo y genera inconvenientes. Señala que todas las teorías económicas idealizan el comportamiento de los agentes económicos y simplifican las condiciones iniciales, por lo que son descriptivamente inexactas. Además, argumenta que el realismo de los supuestos en cuanto a las motivaciones de los agentes económicos no es relevante, ya que las teorías basadas en supuestos "como-si" pueden tener capacidad predictiva. Sin embargo, Friedman admite que los supuestos pueden tener un papel indirecto en la contrastación de una teoría. Incluso aunque una teoría sea considerada falsa en base a la evidencia empírica, sus supuestos pueden ser implicaciones de otra teoría más amplia que sí ha sido contrastada. Friedman también reconoce que los supuestos son importantes para especificar el campo de aplicación de una teoría.Es importante tener en cuenta que Friedman no distingue claramente entre diferentes tipos de supuestos, como proposiciones sobre motivaciones, comportamiento real, relaciones funcionales, restricciones o condiciones de aplicabilidad. Esto ha llevado a confusiones en la interpretación de su tesis. En resumen, la tesis de la irrelevancia de los supuestos de Friedman sostiene que los supuestos realistas no son necesarios ni relevantes para evaluar una teoría económica, y que su validez se determina principalmente por su poder predictivo y capacidad de contrastación. La característica-F : El texto se refiere al debate entre Friedman y Samuelson sobre la característica-F y la metodología en la economía. Samuelson intentó reducir la argumentación de Friedman a la versión básica de la característica-F, pero abandonó su defensa del "operacionalismo" y adoptó el "descriptivismo". Esto generó críticas hacia Samuelson, ya que muchos consideraron que su nueva metodología era peor que la de Friedman. Samuelson argumentó que la falta de realismo en los supuestos de una teoría no afecta su validez, e incluso afirmó que los supuestos poco realistas pueden tener mérito si simplifican la realidad. Sin embargo, Friedman y otros críticos consideraron que el realismo de los supuestos es importante y que la inexactitud fáctica de los mismos debilita la teoría.Se menciona que la demostración lógica de Samuelson sobre la falacia de la característica-F se basa en una teoría axiomatizada completa, lo cual no es aplicable a la mayoría de las teorías económicas. Además, se argumenta que incluso una teoría axiomatizada requiere condiciones iniciales y supuestos auxiliares "realistas" para ser empíricamente contrastada. Se critica el compromiso de Friedman con la metodología del instrumentalismo, que considera a las teorías como meros instrumentos generadores de predicciones. Se señala que una teoría puede proporcionar predicciones precisas sin explicar el mecanismo causal detrás de ellas, lo cual es insuficiente para la ciencia. El texto también menciona que tanto Friedman como Samuelson adoptan una metodología defensiva para proteger a la economía de las críticas al irrealismo de sus supuestos y a la falta de predicciones contrastadas. Se hace referencia a casos en los que tanto Friedman como Samuelson han inferido consecuencias sobre el mundo real a partir de supuestos poco realistas. En resumen, el texto analiza el debate entre Friedman y Samuelson sobre la característica-F y la metodología en la economía. Critica la postura de Samuelson de reducir la importancia del realismo de los supuestos y cuestiona la metodología defensiva adoptada por ambos autores para proteger a la economía de las críticas. —-------------------------------------------------------------------------------------------------------------------------Texto 19: Rutherford, Malcolm (1985). La economía institucional: antes y ahora*. Distrito Federal, México: Universidad Autónoma Metropolitana Unidad Azcapotzalco, pp. 13 - pp. 39. La economía institucional: antes y ahora. Formación y atractivo del institucionalismo estadounidense Se plantea que los fundadores del institucionalismo fueron Thorstein Veblen, Wesley Mitchell y John R. Commons. Siendo Thorstein Veblen quien dio la inspiración intelectual al institucionalismo. El primer institucionalismo cuenta con una gran influencia de Veblen. Dicho sistema subraya la naturaleza acumulativa y dependiente de la trayectoria del cambio institucional, el papel de la nueva tecnología en el origen del cambio institucional y el carácter predominantemente pecuniario del conjunto de instituciones estadounidenses. Estas instituciones eran consideradas como una forma de restricción de la actividad individual. Además, abarcaban formas de pensamiento que eran generalmente aceptadas. De esta forma, se planteaba que las instituciones eran las encargadas de modelar las preferencias y los valores de los individuos. Veblen no compartía el pensamiento de que las instituciones funcionaran con el fin de promover el beneficio social, sino que pensaba lo contrario. Las instituciones existentes contaban con tanta inercia hacia cualquier plan establecido como hacia las acciones de los intereses existentes. Estas tendían a perder el ritmo con los avances tecnológicos y los problemas económicos y sociales que generaban. De esta forma, para Veblen las instituciones estadounidenses eran consideradas como anticuadas e inadecuadas para la tarea del control social de la industria moderna. Según Walton Hamilton, esto creaba una brecha entre las industrias que tenemos y las organizaciones sociales obsoletas. Wesley Mitchell expresaría un pensamiento similar, pero enfocado en el conflicto de "producir bienes y ganar dinero". Veblen plantearía que la noción de "mano invisible" del mercado es aplicable en casos donde las condiciones de las manufacturas son de pequeña escala, pero las condiciones cambian cuando pasan a ser producción a gran escala. Veblen sería particularmente duro en lo que respecta a las tácticas de manipulación usadas en las negociaciones para generar ingresos, así como a la pérdida generada por la restricción monopolística, ciclos económicos y desempleo. Muchos institucionalistas tuvieron intereses significativos en cuestiones de leyes y economía. Commons construyó su propuesta basándose en las nociones de capacidad de penetración de los conflictos de distribución del poder legislativo y los tribunales al intentar resolver conflictos. Los institucionalistas en leyes y economía abarcaron temas como la evolución de los derechos de propiedad, el contexto legal de las transacciones, la propiedad intangible y el crédito mercantil. La gran importancia que tuvo el atractivo institucionalista fue la afirmación de que este representaba el ideal de la ciencia empírica. Fue de gran influencia la combinación que realizó Wesley Mitchell de las ideas veblenianas con la economía monetaria, teniendo como enfoque principal el cuantitativo y estadístico que habían utilizado los estudiantes de Chicago. Mitchell comenzaría a trabajar en la evolución y el funcionamiento de las instituciones de la economía monetaria, incluyendo el desarrollo fuera del sistema señorial de los derechos laborales. Pero eso no tendría un buen final, ya que Mitchell abandonaría esta propuesta y culminaría con el Business Cycle. En este libro, Mitchell concedería a los ciclos económicos como un fenómeno que surgiría del comportamiento generado por las instituciones de una economía monetaria. Llegando a la conclusión de que son las instituciones las que generan las regularidades en el comportamiento de las masas que el trabajo cuantitativo analiza. Con el paso del tiempo, se seguía sosteniendo que el institucionalismo era más científico que la economía ortodoxa, debido a que era más empírico y se encontraba en línea con las últimas investigaciones de otras disciplinas. Después de la Primera Guerra Mundial, la corriente institucionalista parecía ser la que perdurará en el tiempo. Ofrecía una propuesta económica que afirmaba ser moderna y científica, centrada en el examen crítico de la estructura institucional existente. Estaba en línea con los métodos empíricos de las ciencias exactas y se basaba en los últimos estudios de psicología, filosofía y derecho. Además, estaba estrechamente vinculada a cuestiones importantes y urgentes de reforma económica y social. Ascenso del institucionalismo estadounidense en el periodo de entreguerras La guerra había impreso en muchos la gran importancia de perfeccionar la información económica y el análisis de políticas y el papel potencial del gobierno sobre la economía. Durante el período de reconstrucción se darían las oportunidades significativas para cambiar la conducta de la investigación económica. Diversas instituciones estarían compitiendo por ser los líderes de esta corriente, entre ellos Columbia y Wisconsin llegaron a ser los centros más importantes del institucionalismo. Dentro de ambas instituciones se encontrarán grandes exponentes del institucionalismo como Wesley Mitchell, J. M. Clark, F. C. Mills, Rexford Tugwell. El movimiento institucionalista hizo varias contribuciones positivas como lo fueron mediciones serias de la economía. Es decir, debido a su visión científica, los institucionalistas propusieron perfeccionar seriamente la medición económica. La NBER llegaría a realizar diversos estudios y de gran relevancia sobre los ciclos económicos, movimientos de precios, además de jugar un papel fundamental en el desarrollo de la contabilidad del ingreso nacional. En conjunto con la Reserva Federal, la NBER realizaría grandes desarrollos sobre la información monetaria y financiera. Morris Copeland sería conocido por los diversos estudios realizados sobre los flujos monetarios, los cuales terminaron siendo una pieza fundamental para el cálculo de flujos de recursos financieros. Los institucionalistas se encontraban sumergidos en la mejora del trabajo estadístico de las diferentes dependencias gubernamentales. Walter Stewart se encontraba inmerso en el perfeccionamiento de la división estadística y la investigación de la Reserva Federal, dichos trabajos seguirán de la mano de Winfield Riefler. Los institucionalistas realizaron relevantes contribuciones a varios debates claves en la economía, los temas serían diversos como la psicología y economía, ciclos económicos, comportamiento de las empresas en la fijación de precios, propiedad y control de las corporaciones, monopolio y competencia, sindicatos y demás. En lo que respecta a los temas de la psicología y economía se destacaría el ensayo de J. M. Clark "Economics and Modern Psychology" debido a que se anticipó a otros estudios modernos sobre la toma de decisiones y la racionalidad limitada. Mitchell y Burns destacaron en los temas sobre los ciclos económicos, debido a que basarían su planteamiento de los ciclos como resultados de complejas interacciones entre decisiones mercantiles, sistemas bancarios y monetarios, y anticipaciones y retrasos en el movimiento de los precios. La fijación de precios de las empresas que enfrentan altos gastos generales estaría sujeta al análisis de Clark. Bajo ciertas circunstancias, la competencia podría ser destructiva o conducir a consecuencias adversas, era común entre los institucionalistas. Hamilton tomaría esto y basaría su estudio en la industria del carbón que describiría como una industria competitiva, pero que padecía de capacidad excesiva y condiciones de trabajo deficientes. Las finanzas y propiedad corporativas serían abarcadas por diversos estudios como los de Bonbright y Means, Berle y Means. Estos estudios se convirtieron en un abanico de las primeras exposiciones de Veblen sobre la separación de propiedad y control. Finalmente, los institucionalistas hicieron importantes contribuciones a políticas en su trabajo por el desarrollo del seguro de desempleo, compensaciones al trabajador, seguridad social, legislación laboral, regulación de los servicios públicos, programas de apoyo a los precios de la agricultura y en la promoción de la "planificación" gubernamental para crear niveles altos y estables de producción. Institucionalismo estadounidense después de 1945 El institucionalismo no llegó a cumplir la primera promesa debido a que no fue capaz de establecer de forma exacta los fundamentos de la "psicología moderna". Luego de la mitad de la década de 1920, los psicólogos abandonarían la propuesta del instinto/hábito a favor de un behaviorismo que se volvió cada vez más estrecho y confuso de entender. El trabajo institucionalista sería atacado por el ad hoc, o por los carentes fundamentos de una apropiada teoría del comportamiento individual. El institucionalismo participó probablemente en liberar a la economía de un lenguaje explícitamente hedonista, pero no desarrolló la base alternativa para convencer a los economistas de abandonar sus fundamentos racionalistas. En conjunto, los institucionalistas no lograron desarrollar sus teorías de las normas sociales, del cambio tecnológico, de la toma de decisiones legislativa y judicial. Las razones se deben en parte a la falta de fundamentos psicológicos claros, pero también a la atención que pusieron los institucionalistas de entreguerras en los problemas de políticas inmediatas y apremiantes como los ciclos económicos y la regulación de los servicios públicos. Finalmente, la significativa agenda institucionalista de la reforma social se desechó, por la eliminación de algunas de las causas originales del movimiento institucionalista, y a la vez las agudas críticas de una mayor participación del gobierno que habían promovido tanto los institucionalistas. Debido a lo anterior, los institucionalistas se terminaron desplazando de forma paulatina desde una posición central en la economía estadounidense hacia una posición marginal en la misma. Texto 20: Blaug, Mark (1985). La metodología de la Economía. Madrid: Alianza Editorial, pp. 48 a 75. / Capítulo 2: De Popper a la nueva heterodoxia Los paradigmas de Kuhn La teoría de Popper es normativa. La metodología popperiana de la falsación se mantiene en línea con las ideas recibidas, aunque en muchos otros aspectos se separa de ellas. Kuhn, sin embargo, introduce la total ruptura con las ideas recibidas ya que su énfasis recae en las prescripciones positivas. Kuhn considera a la ciencia normal (la resolución de problemas en el contexto de un marco teórico ortodoxo) como la norma, mientras que la ciencia revolucionaria (derrocamiento de un marco teórico), sería lo excepcional en la historia de las ciencias. Para Popper la ciencia se encuentra en un estado de revolución permanente mientras que para Kuhn la historia de la ciencia se caracteriza por largos períodos en los que se preserva el status quo que se ven interrumpidos en ocasiones por saltos discontinuos de un paradigma vigente a otros, sin puente conceptual entre ellos. El rasgo distintivo de las ideas de Kuhn es el concepto de revoluciones científicas como claras rupturas en el desarrollo de la ciencia, y especialmente la idea de la existencia de drásticos cortocircuitos de comunicación en los períodos de «crisis revolucionaria». Los principales elementos de su teoría son: ● ● ● ● ● ● Los practicantes de la ciencia normal están de acuerdo tanto de los problemas que requieren solución como en la forma general que tomará la solución La ciencia normal es un proceso autosostenido y acumulativo de resolución de problemas concretos dentro del contexto de un marco analítico común La interrupción de la ciencia normal viene anunciada por la proliferación de teorías y por la aparición de controversias metodológicas El nuevo marco ofrece solución definitiva a problemas anteriormente no resueltos, y esta solución resulta ser reconocida, aunque previamente fuese ignorada La generación antigua y la nueva encuentran terreno común a medida que los problemas no resueltos del antiguo marco conceptual se convierten en ejemplos corroboradores del marco nuevo A medida que el nuevo marco conquista terreno, se va convirtiendo a su vez en ciencia normal para la generación siguiente En la segunda edición de su libro, Kuhn admite que su descripción previa de las revoluciones científicas era exagerada ya que los cambios de paradigma durante las revoluciones científicas no implican discontinuidades en el debate científico ni suponen elección entre teorías alternativas. La denominación de «revoluciones» para los cambios de paradigma la usa para destacar que los argumentos que se utilizan para defender el paradigma nuevo contiene siempre elementos no-racionales que van más allá de las demostraciones lógicas o matemáticas. Además, presenta cualquier período de progreso científico marcado por un gran número de paradigmas superpuestos y entremezclados. Los paradigmas no se sustituyen unos a otros repentinamente y, en cualquier caso, los paradigmas nuevos no surgen y se asientan de repente, sino que obtienen la victoria después de un largo proceso de competencia intelectual. Lo que se mantiene es el énfasis en el papel que juegan los juicios normativos en las controversias científicas, especialmente las que se centran en la comparación de enfoques científicos alternativos, junto con una desconfianza hacia los factores cognoscitivos (como la racionalidad epistemológica) en comparación con los factores sociológicos (como la autoridad, la jerarquía y la identificación con un grupo) como determinantes del comportamiento científico. La obra de Kuhn no es una contribución a la metodología sino a la sociología de la ciencia. Metodología vs historia Si Popper tiene razón respecto del mito de la inducción, aquellos que desean «decir las cosas como son» se encontrarán arrastrados a «decir las cosas como debieran ser», ya que, al contar la historia de la evolución pasada de una forma y no de otra, estarán necesariamente revelando sus puntos de vista implícitos sobre la naturaleza de la explicación científica. Así, todas las proposiciones de la historia de la ciencia están cargadas de metodología. Por otro lado, parecería lógico que todas las proposiciones acerca de la metodología de la ciencia estuviesen también cargadas de historia. En efecto, predicar las virtudes del método científico ignorando completamente la cuestión de si los científicos actuales o del pasado han practicado efectivamente tal método, resultaría ciertamente arbitrario. Programas científicos de investigación La metodología de la ciencia de Popper es una metodología agresiva porque, según sus criterios, una gran parte de la «ciencia» puede desecharse como metodológicamente incorrecta. La metodología de Kuhn, por el contrario, es una metodología defensiva, ya que trata de reivindicar la práctica real de la ciencia. La obra de Lakatos se puede considerar como un compromiso entre ambas. Para Lakatos, como para Popper, la metodología en sí no proporciona a los científicos un formulario de reglas para resolver los problemas científicos; su campo es el del enfoque lógico, y su contenido un conjunto de reglas no-mecánicas destinadas a la evaluación de teorías ya plenamente articuladas. Donde Lakatos difiere de Popper es en que para él la lógica de la evaluación que utiliza es al mismo tiempo una teoría histórica que intenta explicar retrospectivamente el desarrollo de la ciencia. Lakatos niega que las teorías concretas sean las unidades adecuadas para realizar evaluaciones científicas y afirma que lo que se debe evaluar son grupos de teorías más o menos interrelacionadas (programas científicos de investigación). A medida que un PCI se enfrenta con falsaciones, experimentará variaciones en sus supuestos auxiliares, las cuales, como Popper ha señalado, podrán suponer un aumento o una disminución de contenido, o representarán un «cambio temático progresivo o degenerador». Un PCI no será «científico» de una vez por todas y para siempre; puede dejar de serlo con el transcurso del tiempo, al ir gradualmente pasando del estatus de programa «progresivo» al de «degenerado», así como puede ocurrir lo contrario. Así, se halla un criterio de demarcación entre ciencia y no-ciencia que es histórico, ya que incluye la evolución de las ideas en el tiempo como uno de sus elementos constitutivos. Lakatos afirma que la historia de la ciencia es la historia de los PCI más que la historia de las teorías y cada uno de ellos se compone de un núcleo (irrefutable por la decisión metodológica de sus protagonistas) y un cinturón protector (las partes flexibles, donde el núcleo se combina con las hipótesis auxiliares para formar las teorías concretas y contrastables en las que se basa la reputación científica del PCI). Lakatos argumenta que el criterio de falsabilidad de Popper no sólo exige que las teorías científicas sean contrastables, sino también que cada una de ellas sea independientemente contrastable, es decir, susceptible de predecir resultados no predichos por las teorías rivales. En tal caso, la «corroboración» popperiana requiere al menos dos teorías, y lo mismo puede decirse de los PCI. Un PCI concreto será considerado superior a otro si explica todos los fenómenos predichos por su PCI rival y, además, hace predicciones confirmadas. Para Lakatos la historia de la ciencia es concebida como una sucesión de PCI progresivos que se superan constantemente unos a otros con teorías de contenido empírico creciente. Mientras tanto, Kuhn la considera una serie continua de refinamientos paradigmáticos puntuados cada varios siglos por una revolución científica. El anarquismo de Feyerabend Muchas de las líneas tendenciales de la obra de Lakatos hacia la suavización de los rasgos «agresivos» del popperianismo y la ampliación de los límites de lo permitido han sido seguidas y ampliadas por otros críticos recientes de las ideas recibidas, tales como Hanson, Polianyi y Toulmin, pero quien más lejos ha llegado por este camino ha sido Feyerabend. Todos siguen a Kuhn y a Lakatos en su rechazo del programa popperiano que postula una filosofía de la ciencia completamente ahistórica, y se centran en el carácter esencialmente colectivo y cooperativo del conocimiento científico: es su contrastabilidad interpersonal, incorporada en el concepto de resultados repetibles en forma definida, lo que constituye el distintivo de la ciencia. Otra característica persistente del nuevo enfoque sobre las teorías científicas es la idea de que todas las observaciones empíricas están necesariamente cargadas de teoría y que incluso los actos ordinarios de percepción, tales como el acto de ver, de tocar, de oír, están profundamente condicionados por nuestras conceptualizaciones previas. En esta cuestión concreta, el nuevo enfoque se acerca a Popper, que señaló la paradoja que supone la exigencia de que las teorías sean severamente contrastadas en términos de sus predicciones observables, pero al mismo tiempo todas las observaciones son interpretaciones que hacemos a la luz de alguna teoría. En Contra el Método, Feyerabend afirma que no existe ningún canon de metodología científica que no haya sido violado en algún momento de la historia de la ciencia. Además, la tesis de que la ciencia crece por medio de la incorporación de las antiguas teorías como casos particulares de las nuevas y más generales es un mito. Por último, el progreso científico, sea cual sea el procedimiento que adoptemos para concebirlo o medirlo, se ha producido en el pasado, precisamente, porque los científicos nunca se vieron constreñidos por compromiso alguno con la filosofía de la ciencia. La ciencia, insiste Feyerabend, es mucho más irracional que su imagen metodológica y no existe criterio de demarcación que la pueda separar de la no-ciencia. Feyerabend no está en contra del método en las ciencias, sino que más bien está en contra del método en general, y aconseja ignorar todo método. Su verdadero objeto de crítica es la influencia represiva que ejerce la propia ciencia, y especialmente la pretensión de los órganos científicos establecidos de que sólo ellos conocen los métodos correctos con los que descubrir la verdad. De vuelta a los primeros principios La ciencia, con todos sus fallos, es el único sistema ideológico autocrítico y autocorrector que el hombre ha inventado en toda su historia; a pesar de la inercia intelectual, a pesar de su conservadurismo inherente y a pesar de la tendencia a cerrar filas para mantener a raya a los heréticos. En defensa del monismo metodológico ¿Existe un método científico aplicable a todas las ciencias, sea cual sea el tema de que se ocupan, o deben las ciencias sociales emplear una lógica de investigación especial y propia? Hay muchos científicos que quieren acercarse a los métodos de la física, química y biología, pero otros están convencidos de que las ciencias sociales poseen una comprensión intuitiva de sus temas centrales de la que carecen los científicos de estas otras ciencias. Popper definió el monismo metodológico: todas las ciencias teoréticas o generalizadores, (deberían) hacer uso del mismo método, tanto si se trata de ciencias naturales como de ciencias sociales. Pero luego estableció el principio de individualismo metodológico para las ciencias sociales: la tarea de las ciencias sociales consiste en construir y analizar nuestros modelos sociológicos con todo cuidado en términos de los individuos, de sus actitudes, expectativas y relaciones. Versteben: comprensión desde dentro por medio de la intuición y la empatía, como opuesta al conocimiento desde fuera, a través de la observación y el cálculo. Los científicos de las ciencias naturales carecen de este tipo de conocimiento de participante, de conocimiento de primera mano, porque les es imposible imaginar lo que es ser átomo o molécula. Pero los científicos de las ciencias sociales, interesados en el comportamiento humano, pueden colocarse en la posición de los agentes humanos que están analizando, pueden recurrir a la introspección como fuente de conocimiento del comportamiento de dichos agentes, y de esta forma hacen uso de una ventaja inherente que poseen sobre los estudiosos de los fenómenos naturales. Tanto el monismo metodológico como la doctrina de Versteben son criticadas porque no ofrecen método alguno de contrastación interpersonal con el que validar las proposiciones referentes al comportamiento gobernado por normas. La cuestión del Versteben se encuentra a la vez ligada al principio popperiano del individualismo metodológico. Este principio se opone al principio de la metodología totalizadora que postula que los «todos» sociales tienen objetivos o funciones que no pueden ser reducidos a las creencias, actitudes y acciones de los individuos que los forman. Muchos de los seguidores de Popper deducen el individualismo metodológico de lo que se ha denominado el individualismo ontológico (los individuos crean todas las instituciones sociales y por tanto los fenómenos colectivos son simplemente abstracciones hipotéticas derivadas de las decisiones de los individuos). Pero, aunque el individualismo ontológico es trivialmente cierto, no tiene necesariamente relación con la forma en que deberíamos o no deberíamos investigar los fenómenos colectivos, es decir, no tiene por qué relacionarse con el individualismo metodológico. Popper explica que el individualismo metodológico debe interpretarse como la aplicación a las cuestiones sociales del «principio de racionalidad», o del «método cero» aplicado a la «lógica de una situación». Fue un intento de generalizar el método de la teoría económica de forma que resultara aplicable a otras ciencias sociales. Habiendo, pues, reafirmado el monismo metodológico, incluso en contra de la aparente disolución del tema por parte de Popper, queda claro que no pretendemos negar la relativa inmadurez de todas las ciencias sociales, incluida la Economía, en relación con al menos algunas de las ciencias físicas. Puede ser que, en principio, no encontremos grandes diferencias entre los métodos de las ciencias físicas y los de las ciencias sociales, pero en la práctica las diferencias entre ellos pueden ser casi tan drásticas como las existentes entre los métodos de las ciencias sociales y los principios de la crítica literaria, por poner un ejemplo. Texto 21: Davis J. (2011). “Individuals and identity in Economics”. Cambridge University Press. Introducción y páginas 95 a 118 Introducción 1.1 Individuals Count - Los individuos cuentan, los individuos importan Este es un libro sobre la conceptualización del individuo humano en la economía reciente. De hecho, una de las principales justificaciones de por qué gran parte de nuestro mundo social durante el último medio siglo ha sido reinterpretado en el lenguaje y los conceptos de la economía es que la economía hace que el individuo humano sea central. Seguramente es uno de los grandes supuestos normativos de la sociedad humana contemporánea, que no se mantuvo en gran parte del pasado, que el individuo humano cuenta o debería contar, que el individuo es importante y que los individuos tienen un valor moral inherente, a pesar de todos los pruebas de prácticas humanas en sentido contrario. Así que la influencia y el poder de la economía en la representación del mundo de hoy, al parecer, se debe en gran parte a que se la percibe como una defensa de este profundo compromiso humano. Sin embargo, hay buenas razones para creer que la economía opera con una concepción inadecuada de la individualidad y, por lo tanto, no defiende ni puede defender este profundo compromiso humano. Peor aún, una falsa defensa del individuo, en la que los individuos realmente no cuentan en la economía pero se dice que sí, puede amenazar este compromiso al confundir nuestra comprensión de lo que se necesita para decir que los individuos cuentan en la vida económica y en general. La economía en el sentido más simple trata de maximizar la producción. El autor (Davis 2003) ya había planteado que que la concepción estándar del individuo en economía no explica al individuo, y lo que la gente cree que es una concepción del individuo humano en economía es en realidad una concepción individual abstracta que representa a los individuos indiscriminadamente como personas únicas, conjuntos de personas, partes de personas, países, organizaciones, animales, máquinas; de hecho, cualquier cosa a la que se le pueda atribuir una función maximizadora. Por lo tanto, básicamente no ofrece una explicación o defensa del ser humano único como individuo, porque las personas no tienen más valor en su análisis que todos estos otros "individuos". Desde este punto de vista, la economía se trata sólo de maximizar la producción, y los individuos están al servicio de este objetivo. Sin embargo, la economía se encuentra actualmente en un período de transición. Ahora se cree ampliamente que se están produciendo cambios importantes en la corriente principal de la economía asociados con el surgimiento de una colección de nuevos programas de investigación y estrategias de investigación, todos los cuales pueden argumentarse para desafiar los principios fundamentales. supuestos en la economía neoclásica estándar, incluso si esta no es necesariamente la intención de quienes desarrollan estos nuevos programas y estrategias. De hecho, ahora hay un debate considerable sobre la profundidad y la naturaleza de las críticas que ha presentado la economía reciente, principalmente estimulado por el reconocimiento de que muchos de estos nuevos enfoques desafían directamente la teoría de la racionalidad, el núcleo reconocido de la economía estándar de posguerra. La opinión del autor es que los recientes desafíos a la economía estándar dirigidos a la teoría de la racionalidad plantean un desafío aún más fundamental, a saber, su suposición de que los individuos racionales son individuos atomizados: la idea central de la concepción individual abstracta. El camino que elijan los economistas dirá mucho sobre la relevancia continua de la economía en un mundo en el que la gente ya ha decidido que los individuos cuentan. Este libro profundiza en la evolución de la comprensión del individuo dentro de la economía, centrándose específicamente en los desarrollos recientes dentro de la corriente principal de la economía. Reconoce que la teoría económica neoclásica tradicional, que ha dominado durante más de un siglo, ya no es la fuerza motriz detrás del desarrollo económico. En cambio, explora varios enfoques nuevos que han surgido dentro de la corriente principal de la economía, cada uno de los cuales presenta críticas significativas al marco neoclásico estándar. El autor identifica varios programas de investigación destacados en la economía reciente, incluida la teoría de juegos, la economía del comportamiento, la economía experimental, la economía evolutiva, la neuroeconomía, la teoría de sistemas adaptativos complejos y el enfoque de capacidad. Estos programas son el foco principal del libro, ya que heredan el legado problemático de la concepción individual atomista. El autor argumenta que es crucial que estos enfoques aborden las fallas de esta concepción individual, que es probable que sean cada vez más reconocidas. Si bien la economía como disciplina tiende a priorizar preocupaciones pragmáticas y aplicadas, como el modelado matemático y la explicación de nuevas formas de mercado, el autor sostiene que las cuestiones filosóficas subyacen a la teoría económica, aunque a menudo se pasan por alto. Sin embargo, las estrategias desarrolladas para redefinir al individuo en la economía reciente están principalmente motivadas por problemas prácticos dentro de la teoría económica. Sin embargo, el autor sostiene que estas estrategias plantean preguntas filosóficas fundamentales, y su éxito y valor social dependen de cómo aborden estos problemas, ya sea intencionalmente o no. En resumen, este libro examina críticamente el panorama cambiante del pensamiento económico con respecto al individuo. Explora nuevos enfoques dentro de la corriente principal de la economía y sus críticas a la concepción individual atomista tradicional. El autor argumenta que estas estrategias plantean cuestiones filosóficas fundamentales que darán forma a su éxito e impacto social y, en última instancia, influirán en la teoría económica y las políticas económicas sociales. 1.2 The Identity Framework - El marco de la Identidad La identidad es un concepto central en este libro. El autor introduce el concepto de identidad como un aspecto fundamental de la investigación del libro sobre el individuo dentro de la economía. Reconoce las múltiples interpretaciones y usos de la identidad en varios campos, incluida la economía, que sólo recientemente ha comenzado a incorporarla. Para abordar esta complejidad, el autor adopta un enfoque ontológico de la identidad. - Él mismo denomina así su enfoque: My particular approach to identity – what I term an ontological-criterial approach to identity – … Este enfoque ontológico implica examinar si las concepciones de individuos utilizadas en la economía reciente identifican y se refieren con éxito a las entidades previstas. El autor establece criterios fundamentales para referirse a los individuos y evalúa si las concepciones en economía cumplen con estos criterios. El objetivo no es definir la identidad personal en sí, sino determinar qué implican nuestras concepciones económicas sobre la identidad personal cuando se alinean con el concepto de individuo. ● Dos criterios se consideran esenciales para el concepto de individuo. 1) El primero es el criterio de individuación, que requiere que una concepción de un individuo los represente efectivamente como seres distintos e independientes. ● ● 2) El segundo es el criterio de reidentificación, que se centra en cómo los individuos pueden identificarse como entidades distintas e independientes a lo largo de los procesos de cambio. Estos criterios están interconectados, y el criterio de reidentificación se construye sobre la base establecida por el criterio de individuación. El autor argumenta que es crucial que las concepciones de los individuos en economía satisfagan ambos criterios. Esto es necesario porque la economía se basa en la elección intertemporal, asumiendo que el yo presente de las personas puede conectarse con su yo futuro. Además, diversas actividades económicas, como la educación, las decisiones familiares y las inversiones a largo plazo, presuponen la naturaleza perdurable de los individuos. Además, la premisa implícita en economía es que los individuos poseen habilidades o capacidades duraderas que trascienden sus elecciones específicas. La concepción individual atomista estándar en economía es criticada por no cumplir con los criterios de individuación y reidentificación, lo que indica que representa inadecuadamente a los individuos humanos. Esto prepara el escenario para la discusión posterior sobre concepciones alternativas del individuo en la economía reciente y su capacidad para abordar estas deficiencias. 1.3 The Atomistic Individual Conception: Homo Economicus - La Concepción Individual Atomista: Homo Economicus En esta sección se discute el concepto del "Homo economicus" y su representación del individuo en la economía. La concepción tradicional ve a los individuos como seres aislados definidos por sus propias preferencias, haciéndolos atomizados. Las preferencias se consideran exógenas y propiedad del individuo. Sin embargo, este punto de vista simplemente estipula el uso del término "individuo" sin explicar la individualidad en sí. La economía neoclásica ha adoptado la concepción individual atomista pero la trata como una virtud lógica más que como una crítica. La representación formal del Homo economicus equipara a los individuos con sus funciones de utilidad, que se construyen para cumplir con los requisitos del análisis de equilibrio. Esta concepción individual abstracta está divorciada del comportamiento humano y basada en propiedades lógico-matemáticas. La racionalidad y la individualidad están co-definidas dentro de este marco. Sin embargo, han surgido dudas sobre la aplicabilidad del comportamiento racional al mundo real, respaldadas por la evidencia de la psicología de que las personas no siempre se comportan racionalmente. La naturaleza de la racionalidad se está explorando en varias disciplinas científicas, y la capacidad de convertir procesos computacionales en mecanismos físicos juega un papel importante en la definición de la racionalidad. Esto sugiere que la racionalidad está limitada por el estado histórico del desarrollo científico y los procesos computacionales/cognitivos disponibles para los individuos. El autor argumenta que si la racionalidad humana está limitada materialmente, la individualidad también está limitada en función de cómo operan las explicaciones de los individuos como entidades distintas. El concepto de individualidad está sujeto a dos límites: el criterio de individuación, que evita la fragmentación de los individuos en múltiples yos, y el criterio de reidentificación, que asegura que los individuos mantengan su distinción a pesar de compartir características con otros. Las explicaciones exitosas de un solo individuo operan dentro de estos límites. Esta sección concluye enfatizando el desarrollo continuo del conocimiento humano y la necesidad de una continua interpretación y reinterpretación de los límites de las explicaciones de un solo individuo. El enfoque del libro mencionado en el pasaje está en el nuevo pensamiento sobre los individuos en la economía y cómo aborda los límites para explicar a los individuos como perdurablemente distintos. 1.4 Dos estrategias y dos problemas para reconceptualizar Individuos en la economía reciente Aquí se describen dos puntos de vista amplios con respecto a lo que está mal con la teoría de la racionalidad tradicional en la economía reciente: 1. El primer punto de vista enfatiza la interdependencia de las elecciones de los individuos e identifica la falta de consideración de esta interdependencia como el principal problema. Esta perspectiva condujo al desarrollo de la teoría de juegos en la década de 1980, que marcó una diversificación significativa de la economía convencional alejándose del modelo neoclásico tradicional centrado en la oferta y la demanda. El objetivo de incorporar la interdependencia en las explicaciones económicas es mejorar la comprensión del comportamiento racional al incluir las interacciones sociales. Sin embargo, el desafío surge al tratar de conciliar la interacción social con la concepción tradicional del Homo economicus, que asume que los individuos son distintos e independientes. La incapacidad de cerrar esta brecha dificulta la explicación de cómo formas más fuertes de interacción social pueden coexistir con la individualidad. 2. El segundo punto de vista enfatiza la amplia evidencia de anomalías en la elección y percibe la falta de realismo como el problema en la teoría estándar de elección. Esta perspectiva dio lugar tanto a la economía del comportamiento "antigua" como a la "nueva", y esta última tuvo un mayor impacto en la economía dominante desde la década de 1990. Los defensores de este punto de vista argumentan que se puede desarrollar una explicación de la elección más psicológicamente realista incorporando los diversos mecanismos de elección observados empíricamente. Estos mecanismos demuestran que las elecciones de las personas están influenciadas por el contexto en el que se realizan. Sin embargo, el desafío radica en explicar cómo encaja la individualidad en este marco. Los economistas del comportamiento que se adhieren a la concepción del Homo economicus se esfuerzan por reconocer plenamente el límite subpersonal en las explicaciones de un solo individuo, lo que les impide abordar adecuadamente el problema de explicar cómo las personas pueden tener múltiples yoes sin dejar de ser considerados individuos únicos. Se sugiere que, si bien gran parte de la nueva investigación en la corriente principal de la economía tiene como objetivo mejorar la teoría de la racionalidad, estos esfuerzos a menudo no logran abordar los problemas asociados de representar y explicar a los individuos cuando operan dentro del alcance de la concepción tradicional del Homo economicus. Apartarse de esta concepción tradicional y explorar cómo se limita la individualidad, de forma similar a los límites de la racionalidad, ha mostrado cierto progreso en la explicación tanto de la racionalidad como de la individualidad en la vida económica. Sin embargo, el autor señala que la cuestión de qué es la individualidad recibe menos atención en comparación con el enfoque en la racionalidad, y es posible que los economistas no reconozcan por completo las posiciones implícitas que adoptan sobre los individuos. Como resultado, la dirección futura de la economía en este tema sigue sin estar clara. 1.5 Economics’ Embeddedness - El Arraigo de la Economía * En economía y sociología económica, el arraigo se refiere al grado en que la actividad económica está restringida por instituciones no económicas. Las secciones anteriores del libro analizan la influencia de otras disciplinas en la economía y cómo las estrategias de investigación recientes en la economía dominante han tomado prestados conceptos y metodologías de varios campos. Estos incluyen la teoría de juegos de las matemáticas, la economía del comportamiento de la psicología, el experimentalismo de todas las ciencias, la neuroeconomía de la neurociencia, el modelado de complejidad de la física y el pensamiento evolutivo de la biología. También hay casos de economía que toma prestados principios de dominios sociales ajenos al mercado, lo que se conoce como imperialismo económico. Sin embargo, este préstamo ha sido en gran medida unilateral, con una influencia predominante de las matemáticas y las ciencias naturales. La actual reorientación de la economía refleja una visión naturalista de la ciencia, donde el comportamiento económico se trata como un fenómeno a investigar utilizando métodos de las ciencias naturales. Esta perspectiva dominante ha limitado la influencia de otras disciplinas de la economía, como la ciencia política, la historia, la sociología, la psicología social, la antropología y la filosofía, que tuvieron un impacto más significativo en el pasado. Si bien la economía se ha vuelto más abierta a incorporar desarrollos de otras ciencias, lo hace de manera selectiva. Una observación muy importante es que las ciencias naturales, a diferencia de las ciencias sociales y las humanidades, tienen un compromiso más débil con la investigación del individuo humano como objeto fundamental de estudio. Las ciencias naturales a menudo se centran en las fuerzas naturales que actúan sobre los individuos, mientras que las ciencias sociales y las humanidades centran sus explicaciones en los individuos como agentes clave. Si la economía continúa desarrollándose a lo largo de las líneas de las ciencias naturales, plantea la posibilidad de eliminar a los individuos como actores significativos en el discurso económico. Esta tendencia puede entrar en conflicto con el hecho de que la economía es una ciencia social y su capacidad para servir como ciencia política que aborda el impacto en los individuos. El desarrollo futuro de la economía también se verá influido por factores ajenos a la comunidad científica. La economía está incrustada en sistemas complejos de organización social humana moldeados por el cambio tecnológico, los desafíos del ajuste social y las preocupaciones ambientales. Los dos problemas de límites discutidos anteriormente, que definen el espacio de las explicaciones de un solo individuo, no son solo problemas teóricos sino desafíos reales que enfrentan los individuos en la vida contemporánea. A medida que la interacción social se vuelve más compleja y las circunstancias cambian con mayor frecuencia e inesperadamente, surgen preguntas sobre la importancia de la individualidad y cómo las personas mantienen sus identidades. La tasa creciente de cambio social impulsa la investigación sobre el destino de la individualidad y el papel de la economía en su comprensión. 1.6 La importancia normativa de la visión económica del individuo En su libro anterior sobre el individuo, Davis reconoce las críticas de Don Ross, quien calificó su enfoque de humanista. Ross abogó por un enfoque de "cientificismo" metodológicamente superior que combina la economía neoclásica con la ciencia evolutiva cognitiva y del comportamiento, defendiendo una visión antiantropocéntrica. Davis acepta la etiqueta humanista y cree que el individuo es efectivamente un objeto de preocupación normativa. La oposición creada entre ellos por Ross se considera injusta ya que ambos sostienen concepciones normativas del individuo. Davis aclara que su análisis del individuo en la economía no se basa en valores normativos que anulan el análisis científico, sino más bien en un análisis de identidad de las concepciones individuales que se encuentran en la economía. Además, la idea de un enfoque de valor neutral para el individuo en la economía, guiado por una visión de las ciencias naturales, pasa por alto la influencia generalizada de los valores sociales tanto en la economía como en la ciencia. El autor destaca que los individuos son fundamentales para la economía no solo porque los economistas los consideren científicamente relevantes, sino porque los individuos tienen valor dentro del mundo social. La economía tiene responsabilidades tanto científicas como normativas con respecto al individuo. Si bien la mayor parte del libro se centra en el análisis científico de cómo los economistas representan a los individuos en función de su comportamiento, hay una breve discusión sobre por qué los individuos también deben ser considerados objetos de preocupación normativa en economía. El autor enfatiza el papel del individuo en la determinación del alcance y la naturaleza de los derechos económicos, que se consideran derechos humanos cruciales junto con los derechos políticos, sociales y culturales. Los derechos económicos se destacan como particularmente importantes para el bienestar individual general, ya que las muertes prevenibles debido a la pobreza y las privaciones superan con creces las muertes por terrorismo. Sin embargo, los derechos económicos carecen de una base segura de justificación en comparación con los derechos políticos, que históricamente están vinculados a las estructuras democráticas nacionales. Aquí, la economía juega un papel central en la defensa de los derechos económicos (y humanos), ya que la concepción del individuo empleada por la economía tiene implicaciones para su defensa. La concepción actual del homo economicus del individuo en la economía es criticada por apoyar inadecuadamente los derechos económicos como derechos humanos. El método de análisis del libro tiene como objetivo no solo evaluar la idoneidad de las concepciones individuales en la economía reciente, sino también arrojar luz sobre lo que significa ser un individuo en la vida económica. Al utilizar el análisis de identidad para comprender lo que implica que las personas sean individuos distintos, se pueden obtener conocimientos sobre las políticas económicas necesarias para garantizar esto. Por lo tanto, la investigación científica del individuo en la economía también tiene un significado normativo. Las preocupaciones normativas sirven como una motivación importante para el libro, aunque no representan su único enfoque. —---------------------------------------------------------------------------------------------------------------------------------1- Básicamente se acotaron los poderes del monarca 2- John Law fue un economista escocés inventor del papel moneda en Europa. Su idea económica central era que el dinero es un medio de intercambio y no constituye una riqueza en sí mismo, y que la riqueza nacional depende del comercio. Wikipedia Nacimiento: 16 de abril de 1671, Edimburgo, Reino Unido Fallecimiento: 21 de marzo de 1729, Venecia, Italia 3-Las funciones del dinero El dinero cumple tres funciones básicas: ● Medio de cambio, porque es intercambiable por otros bienes y servicios. Esta función es la principal y anula el trueque. ● Unidad de cuenta, porque determina el precio de cualquier bien en función de una cantidad de dinero. ● Depósito de valor, debido a que podemos ahorrar dinero para conservar riqueza. 4-Richard Cantillon fue un economista franco-irlandés, autor del "Essai sur la Nature du Commerce en Général". Fue considerado por William Stanley Jevons como "la cuna de la Economía política". Nacimiento: 1680, Ballyheigue, Irlanda Fallecimiento: 1734, Londres, Reino Unido 5-Sir James Steuart, 3.º Baronete de Goodtrees e posteriormente 7.º Baronete de Coltness; mais tarde Sir James Steuart Denham, também chamado de Sir James Denham Steuart ( /ˈstuːərt,_ˈstjuːʔ/; 21 de outubro de 1713, Edimburgo – 26 de novembro de 1780, Coltness, Lanarkshire) foi um famoso jacobita e autor do "provável primeiro tratado sistemático escrito em [1] inglês sobre economia" e o primeiro livro em inglês com 'política economica' no título. Cap 5 : El individuo en la teoría de juegos: desde puntos fijos a Experimentos 5.1 El comodín de la teoría de juegos En el capítulo 5.1, se explora la incorporación de la interacción estratégica en la teoría de juegos y cómo afecta la concepción del individuo en la economía. En la teoría de juegos no cooperativos, los individuos interactúan directamente y sus decisiones dependen de las acciones de los demás. Esto contrasta con la visión estándar en la que la interacción es indirecta y las elecciones son independientes. Hay dos enfoques polarizados en la teoría de juegos contemporánea: uno enfatiza los juegos no cooperativos de un solo juego y el otro se centra en los juegos de repetición indefinida. El primer enfoque argumenta que la interacción no marca una gran diferencia en la concepción individual estándar, mientras que el segundo sostiene que la interacción puede ser significativa. Se plantea que agregar la interacción en la explicación de los individuos es como un "comodín" que cambia nuestra forma de pensar sobre ellos. El capítulo también señala que la teoría de juegos ha influido en la economía desde la década de 1980 y ha desafiado la concepción tradicional del Homo economicus. Los juegos no cooperativos de un solo juego se utilizaron ampliamente para examinar cuestiones fundamentales en economía, pero surgieron limitaciones en el marco de la teoría de juegos clásica de Nash, lo que condujo al desarrollo de conceptos de solución más fuertes. Por otro lado, los juegos de repetición indefinida presentan desafíos adicionales debido a su propensión a comportamientos cooperativos y han llevado a la realización de experimentos para determinar los resultados de equilibrio. En la sección 5.2 se discute la concepción del individuo en el programa de refinamiento Nash-Harsanyi-Aumann, que busca establecer equilibrios en juegos de información incompleta. Se compara esta visión con la concepción estándar de preferencias subjetivas del individuo y se argumenta que están relacionadas. En la sección 5.3 se evalúa la concepción de individuo en juegos de información incompleta y se concluye que está en línea con la concepción estándar, limitando la contribución de la interacción estratégica para repensar al individuo. La sección 5.4 se centra en los juegos de repetición indefinida y los experimentos realizados en la Universidad de Michigan, y se plantea la cuestión sobre el papel del experimentador en la construcción de los individuos y la validez externa de los experimentos. Se destaca que la exploración de los juegos de repetición indefinida ha tenido implicaciones importantes para la economía y el marco de juegos no cooperativos de un solo juego. En la sección 5.5 se discute qué concepción del individuo surge en un marco de interacción experimentalista y se concluye que, aunque muchos investigadores siguen aferrados al Homo economicus, no descartan otras visiones alternativas. El capítulo concluye en la sección 5.6 señalando las limitaciones de enfatizar únicamente la interacción como una forma de explicar a los individuos y planteando la posibilidad de un cambio de paradigma en la economía estándar hacia un enfoque más interactionista sobre la naturaleza de los individuos. 5.2 El programa Nash-Harsanyi-Aumann: identidad de punto fijo En el programa Nash-Harsanyi-Aumann, se aborda la concepción del individuo en el contexto de los juegos estratégicos. La demostración de Nash sobre la existencia de equilibrios en estos juegos proporciona una base formal para explicar la existencia de los individuos que participan en ellos. El programa se basa en el teorema del punto fijo de Brouwer-Kakutani, que establece que una transformación que mapea cada punto de un conjunto a otro punto dentro del mismo conjunto tiene un punto fijo, es decir, un punto que se mapea en sí mismo. Este teorema demuestra la existencia de relaciones consistentes al anclar el sistema en una relación auto-idéntica. Si aplicamos esta comprensión a los individuos en los juegos, podemos considerarlos como sistemas consistentes de relaciones. Cada individuo, compuesto por múltiples puntos que lo representan, se transformaría en sí mismo a través de la relación auto-idéntica. Esto implica que la existencia de cada individuo depende de esta relación auto-idéntica, similar a cómo se explica la identidad personal en filosofía. Para caracterizar formalmente a un individuo en términos económicos, se requiere que un punto fijo se transforme en sí mismo, lo cual implica que debe ser reflexivo. Los individuos son reflexivos en el sentido de que, en todas las transformaciones posibles, se reproduce constantemente una relación auto-idéntica si el individuo existe como un sistema de relaciones único. En la teoría de la utilidad estándar, los individuos son reflexivos en este sentido, ya que sus preferencias auto-idénticas se reproducen en todas las transformaciones. Sin embargo, surge un problema debido a la naturaleza privada y subjetiva de las preferencias. Al ser subjetivas, se basan en las "propias" preferencias del individuo y presuponen su existencia en lugar de proporcionar una explicación para ella. Esto plantea una diferencia importante entre la teoría estándar de la utilidad y la teoría de juegos del programa Nash-Harsanyi-Aumann. En la teoría de juegos, especialmente en juegos de información completa, todas las preferencias de los individuos son conocidas por todos los jugadores, lo que fundamenta su subjetividad en la interacción del juego en lugar de ser exclusivamente "propias". Esto permite tratar las preferencias auto-idénticas de los individuos como la fuente de una relación auto-idéntica en la que el individuo se reproduce constantemente. En resumen, el programa Nash-Harsanyi-Aumann aborda la concepción del individuo en términos de relaciones auto-idénticas y reflexividad. A través del teorema del punto fijo y la interpretación de las preferencias en el contexto de juegos de información completa, se proporciona una base formal para explicar la existencia de los individuos y su participación en los juegos. 5.2.1 Juegos con información completa El programa de refinamiento Nash-Harsanyi-Aumann aborda la concepción del individuo en el contexto de la teoría de juegos, utilizando el teorema del punto fijo de Brouwer-Kakutani como base para explicar la existencia de individuos en los juegos. En los juegos de información completa, los jugadores necesitan conocer las reglas del juego, las ganancias de utilidad de los demás jugadores y jugar de manera racional. La conciencia mutua y el conocimiento común son requisitos fundamentales para el equilibrio de Nash. A diferencia del modelo estándar de utilidad, que enfatiza las preferencias privadas e independientes, en la teoría de juegos se considera el conocimiento mutuo y el conocimiento común, lo que organiza las preferencias individuales en una estructura transparente y reflexiva. Las preferencias individuales siguen siendo subjetivas, pero se enmarcan en un contexto intersubjetivo de interacción en los juegos. En este marco, los individuos se consideran sistemas de relaciones organizados en torno a una relación auto-identificada que se reproduce constantemente. Por lo tanto, la identidad y la existencia del individuo se determinan en términos de estas preferencias auto-idénticas, pero en el contexto interactivo de los juegos, adquieren un significado diferente, incorporando la individualidad en la sociedad. 5.2.2 Juegos con información incompleta Los argumentos de Harsanyi abordan dos problemas relacionados con los juegos de información incompleta. En primer lugar, el marco de equilibrio de Nash requiere información completa, pero la mayoría de los juegos son juegos de información incompleta. En segundo lugar, las estrategias mixtas (combinación de diferentes estrategias puras con probabilidades) son necesarias para justificar los equilibrios de Nash en muchos juegos, pero las estrategias mixtas carecen de plausibilidad en la toma de decisiones del mundo real. Harsanyi propone una solución al utilizar estrategias puras que se presentan como estrategias mixtas a través de las conjeturas o suposiciones de otros jugadores sobre las estrategias puras que están siendo jugadas. Esto permite analizar los juegos de información incompleta como si se estuvieran jugando estrategias mixtas. Aumann extiende la doctrina de Harsanyi al argumentar que, si los individuos comparten creencias iniciales y actualizan sus creencias de manera bayesiana cuando se enfrentan a diferencias de información, las diferencias de información se eliminan y las probabilidades posteriores se vuelven iguales. Esto se debe a que el conocimiento común prevalece sobre la información asimétrica, lo que implica que los jugadores no pueden estar de acuerdo en estar en desacuerdo. Harsanyi propone que los juegos de información incompleta se formulen considerando los tipos de jugadores en lugar de los jugadores individuales. Los jugadores se representan como tipos que poseen ciertas características, y las evaluaciones de probabilidad se basan en las características conocidas por todos los jugadores. Cada jugador estima las probabilidades de que otros jugadores sean de ciertos tipos y actúa asumiendo que los demás harán lo mismo. La evaluación de los tipos de los jugadores se realiza condicionada al conocimiento de su propio tipo. La ganancia esperada de cada jugador depende de las estrategias de todos los oponentes potenciales, lo que implica que los tipos de jugadores son los "verdaderos jugadores" y sus funciones de ganancia son las "verdaderas funciones de ganancia". De esta manera, se puede definir fácilmente el equilibrio de Nash en el juego construido. En resumen, los argumentos de Harsanyi resuelven los problemas de información incompleta y justificación de estrategias mixtas al considerar los juegos como si fueran juegos de información completa y utilizar tipos de jugadores como los "verdaderos jugadores" en el análisis del equilibrio de Nash. 5.3 Conocer tu propia identidad El argumento planteado es que los juegos de información completa sustituyen la concepción subjetiva de las preferencias individuales por una concepción objetiva del juego, lo que representa un avance en la forma de pensar sobre el individuo. Sin embargo, en los juegos de información incompleta, el marco de Harsanyi-Aumann reintroduce el concepto problemático de preferencias privadas de la teoría de utilidad estándar. En estos juegos, los jugadores conocen sus propios tipos con certeza, pero solo tienen información probabilística sobre los tipos de los demás jugadores. Esto implica que los jugadores tienen un acceso especial a sus propias preferencias, lo que contradice la estructura intersubjetiva del juego. En consecuencia, se vuelve al enfoque de utilidad subjetiva estándar, que resulta circular y vacío, y no proporciona una concepción adecuada del individuo en un contexto de información incompleta. Aunque el marco de Harsanyi-Aumann se ha utilizado ampliamente en la economía para analizar juegos de información incompleta, el concepto de preferencias individuales no desempeña un papel funcional en dicho análisis. El enfoque se centra en la naturaleza de la interacción entre los jugadores, asumiendo que los tipos de los jugadores son dados y descartando la posibilidad de que la interacción estratégica cambie la naturaleza de los jugadores. Sin embargo, es razonable considerar que los individuos pueden cambiar sus tipos y otras características como resultado de la interacción estratégica. La teoría evolutiva de juegos aborda explícitamente esta cuestión al investigar cómo la interacción endogeneiza a los jugadores a lo largo de las trayectorias de pagos. En resumen, el análisis de los juegos de información incompleta de Harsanyi-Aumann restablece el concepto de preferencias privadas, lo cual es problemático en términos de una concepción adecuada del individuo en el contexto de la teoría de juegos. Sin embargo, la investigación experimental de juegos repetidos y la teoría evolutiva de juegos ofrecen oportunidades para desarrollar una concepción más dinámica del individuo en la interacción estratégica. 5.4 Principio del formulario Juegos repetidos y experimentos Los juegos finitamente repetidos se asemejan a los juegos de una sola jugada en el sentido de que los jugadores pueden utilizar la inducción hacia atrás para jugar en la primera ronda de un juego de múltiples rondas lo que jugarían en la ronda final. En contraste, en los juegos de juego repetido indefinidamente, en los que los jugadores no prevén un final del juego, este razonamiento se desmorona y existen un número infinito de estrategias de equilibrio. Esta diferencia plantea la cuestión de la naturaleza del individuo en la interacción estratégica. La investigación experimental en juegos de juego repetidos indefinidamente ha desafiado la concepción del Homo economicus, mostrando que los individuos a menudo cooperan en lugar de solo buscar sus propios pagos. Esto plantea la pregunta de si este tipo de comportamiento también se aplica a los juegos de una sola jugada y de repetición finita en el mundo real. Sin embargo, muchos teóricos de juegos todavía buscan "refinar" nuestra comprensión de los juegos de una sola jugada y de repetición finita, asumiendo que la concepción estándar del individuo es esencialmente correcta y ampliando los principios consistentes con el equilibrio de Nash. La investigación experimental en teoría de juegos ha desempeñado un papel importante en el desarrollo del pensamiento sobre los juegos de juego repetidos indefinidamente. La variedad de soluciones y enfoques experimentales disponibles crea diferentes formas de entender la relación entre la interacción y la naturaleza de los individuos. Además, el diseño del experimento influye en la interacción entre los participantes y puede endogenizar la concepción del individuo. En resumen, la investigación experimental en teoría de juegos ha cuestionado la concepción del Homo economicus al demostrar comportamientos de cooperación en juegos de juego repetido indefinidamente. El diseño del experimento puede influir en la forma en que se endogeniza la concepción del individuo en la interacción. Esto plantea la pregunta de cómo la interacción determina la naturaleza de los individuos en el contexto de los juegos. 5.4.1 Juegos repetidos indefinidamente Los juegos de juego repetido indefinido han sido objeto de debate en la teoría de juegos. Algunos consideran que son menos importantes en comparación con los juegos de una sola jugada, mientras que otros argumentan que podrían ser un modelo para todo comportamiento estratégico. La cuestión del ajuste entre la teoría de juegos y el mundo real ha sido fundamental en la investigación de los juegos de juego repetidos. Los experimentos iniciales de Robert Axelrod, conocidos como el Torneo de Dilema del Prisionero Computarizado, fueron influyentes en este campo. Axelrod invitó a expertos en teoría de juegos a diseñar programas de computadora que compitieron en una secuencia de juegos del dilema del prisionero. El programa victorioso en ambos torneos fue TIT FOR TAT, que adopta una estrategia de cooperación inicial seguida de la acción del oponente en cada ronda. Estos experimentos destacaron la importancia de la cooperación y la reciprocidad en la interacción estratégica. El enfoque en el diseño experimental también surgió en este contexto, ya que se reconoció que los resultados podrían depender de cómo se construyeran los experimentos. Además, se observó una variedad de resultados experimentales que desafiaban la teoría estándar y reforzaban la idea de que el comportamiento individual depende del diseño de la interacción. En general, el experimentalismo en la teoría de juegos ha llevado a cuestionar la concepción fija del individuo y a reconocer que lo que las personas son se ve influenciado por cómo se diseñan las interacciones. 5.4.2 Experimentalismo y Diseño de Mecanismos En resumen, el texto discute los problemas relacionados con el diseño experimental en juegos y la validez externa de los resultados obtenidos en laboratorios. Se plantea que los juegos pueden ser vistos como interacciones continuas en lugar de intercambios aislados, lo que puede llevar a que los sujetos experimentales se comporten de acuerdo a lo que creen que se espera de ellos, incluso si entienden la interacción de manera diferente. El texto también destaca que el entorno del laboratorio es artificial y puede presentar dificultades para representar el mundo real. Se argumenta que la validez externa se ve afectada por la falta de contextos reales y la eliminación de señales contextuales en los experimentos controlados. Además, se menciona que los sujetos experimentales son conscientes de que participan en un experimento, lo que puede influir en su comportamiento. Se plantea la cuestión de si los sujetos experimentales se preocupan por la utilidad del experimentador y si los protocolos del experimento funcionan como señales contextuales que indican cómo se debe jugar el juego. Se sugiere que la identificación social y las señales contextuales pueden influir en el comportamiento de los sujetos experimentales. El texto concluye que la validez externa de los experimentos es problemática debido al metajuego en el que el investigador está incluido. Se argumenta que no hay un punto de referencia externo para evaluar la validez externa y que la idea misma de validez externa pierde su significado. Se menciona el enfoque de la teoría del diseño de mecanismos, que utiliza los resultados eficientes de Nash como base para las políticas o los protocolos de experimentación. También se menciona el enfoque de los paternalistas libertarios, quienes reconocen que las personas no siempre se comportan como el Homo economicus y que las reformas institucionales pueden no producir siempre dicho comportamiento. En general, el texto sugiere que los individuos pueden ser influenciados por el entorno experimental, pero que su comportamiento puede variar y no siempre seguirá las predicciones de la teoría de juegos estándar. 5.5 Ambigüedad y construcción En resumen, el autor sugiere que los juegos de repetición indefinida inicialmente eran menos propicios para el análisis formal en la teoría de juegos en comparación con los juegos de una sola jugada y los juegos de repetición finita. Sin embargo, la investigación empírica de los juegos de repetición indefinida ha impulsado la teoría de juegos experimental, desplazando en gran medida a la teoría de juegos clásica. Esta investigación ha llevado a una reevaluación de la concepción del individuo en la teoría de juegos. En primer lugar, la investigación experimental ha generado una consideración activa de los individuos en interacción. La variedad de soluciones y enfoques experimentales en los juegos de repetición indefinida ha ampliado la comprensión de la interacción y su impacto en los individuos. La visión convencional del individuo como caso general ha dado paso a una visión en la que el comportamiento no convencional se considera más común. Aunque la visión convencional todavía se defiende en economía, ahora necesita ser respaldada con evidencia empírica. En segundo lugar, la interacción estratégica plantea preguntas sobre los límites de la concepción del individuo. La teoría de juegos no ha abordado de manera exhaustiva los límites y la reconfiguración de lo que implica ser un individuo en interacción. La concepción del individuo en la teoría de juegos es ambigua, ya que existen múltiples posibilidades y poca orientación sobre cómo abordar esta cuestión. Además, se plantea la idea de que los investigadores experimentales pueden construir o influir en la identidad de los sujetos experimentales. Los sujetos experimentales ejercen una capacidad reflexiva para adoptar o rechazar la identidad deseada por el investigador. Esta capacidad de construcción de identidad amplía la descripción del experimento e implica una relación entre el investigador y los sujetos experimentales. En conclusión, la teoría de juegos ha influido en el pensamiento económico sobre la concepción del individuo. La investigación experimental ha llevado a una consideración activa de los individuos en interacción, pero los límites y la reconfiguración de la concepción del individuo aún no se han abordado completamente. Además, la capacidad de construir identidades en los entornos experimentales destaca la naturaleza relacional de la identidad del individuo. 5.6 Problemas y límites En resumen, este capítulo analiza dos áreas principales en la teoría de juegos: el programa de refinamiento del equilibrio de Nash-Harsanyi-Aumann y los juegos indefinidamente repetidos desde una perspectiva experimental. Se argumenta que el programa de Nash-Harsanyi-Aumann no logra escapar de las limitaciones subjetivas del enfoque estándar y ofrece una descripción de los individuos como paquetes de estrategias arbitrariamente determinados. Por otro lado, la investigación experimental de los juegos indefinidamente repetidos plantea preguntas sobre la naturaleza de los individuos, aunque aún no se ha llegado a conclusiones definitivas. El siguiente capítulo se centrará en explicaciones racionales de los individuos en dos dominios diferentes: los equipos y la neuroeconomía. Se destaca la importancia de abordar los límites sub personales y supra-personales de la individualidad para una comprensión más completa de los individuos en la economía —----------------------------------------------------------------------------------------------------------------------------Texto 22: Azar P. (2021). Diferencias de género en el comportamiento económico En la teoría económica neoclásica, la racionalidad es uno de los supuestos principales, en donde comportamientos basados en altruismo, arte y belleza, solidaridad, etc. quedan excluidos de la motivación de la acción humana en el aspecto económico. La economía feminista ha realizado esfuerzos por revisar los modelos neoclásicos para incorporar incentivos y comportamientos que no se ajustan a la racionalidad económica que dichos modelos suponen. Existen diferencias en el vínculo tradicional de hombres y mujeres con el mercado y éstas los llevan a tener preferencias y realizar elecciones distintas, incluso ante idénticas situaciones. En base a experimentos realizados a un grupo de estudiantes teniendo en cuenta el “competir” o “cooperar” se arrojaron los siguientes resultados: Los análisis parten del supuesto de que hombres y mujeres reaccionarán diferente frente a la competencia: por lo tanto, se espera que su comportamiento diverge cuando se introducen cambios en el entorno. Efectivamente, en Gneezy, Niederle y Rustichini (2003), el cambio de un desafío personal a uno en competencia implicó una mejora del desempeño de los hombres que se atribuye únicamente a la postura favorable a la competencia que presentan los varones, a diferencia de las mujeres. Aún más, de acuerdo a Niederle y Vesterlund (2007), varones y mujeres difieren en su evaluación acerca del desempeño que tienen en el grupo, y por lo tanto estiman diferente sus oportunidades de éxito, más allá de los resultados reales que obtienen. Ello puede incidir en su actitud frente a la competencia. En el mismo sentido, el trabajo de Niederle y Yestrumskas (2008) enfatiza la disímil percepción de hombres y mujeres de sus capacidades para desempeñarse. Vinculan el resultado a que las mujeres no solo muestran más incertidumbre acerca de sus capacidades, sino que se inclinan menos a explorar y probarlas. En cambio, los hombres presentan una sobreconfianza y más atracción hacia los desafíos, lo que podría explicar la mayor inclinación masculina a la competencia encontrada en el experimento. Las autoras señalan que estas diferencias en la actitud de unas y otros podrían explicar, en parte, la subrepresentación de mujeres en actividades de alto perfil, aunque no existan diferencias de género en la capacidad para realizarlas. ¿Son las mujeres más aversas al riesgo? En la literatura económica, una mayor aversión al riesgo se interpreta directamente como un defecto. Se asocia con una menor habilidad para tomar decisiones “racionales” en juegos de probabilidad, con falta de ambición o con escasa capacidad para avanzar en la pirámide ocupacional o en las jerarquías empresariales. Si las mujeres fueran más aversas al riesgo que sus pares varones, se esperaría que dejaran pasar con más frecuencia oportunidades de lucro, solo por evitar la incertidumbre. El hallazgo más habitual en estos estudios es que, en promedio, las mujeres muestran una mayor aversión al riesgo que los varones. Para ellos, las situaciones de riesgo son un desafío que los convoca a participar. Para ellas, son amenazas que es preferible evitar. Más allá de los experimentos reseñados, también es cierto que cuando se trabaja con muestras de población con calificaciones específicas, por ejemplo gerentes y profesionales activos, las diferencias de género en las preferencias por el riesgo se reducen o desaparecen. Tal es el caso del estudio de Atkinson, Baird y Frye (2003) sobre el comportamiento inversor de hombres y mujeres gerentes de fondos mutuales de inversión. Las diferencias en el desempeño se atribuyen a conocimiento de la materia y a restricciones en el nivel de riqueza que se maneja en los portafolios, pero no al género. ¿Las mujeres se preocupan más que los hombres por el bienestar del resto? Ortmann y Tichy (1999) diseñan un juego basado en el dilema del prisionero usando las recompensas percibidas por cada elección para analizar diferencias de género en la manera de tomar decisiones estratégicas a través de diferentes rondas. Encuentran que en las primeras rondas, las mujeres optan por cooperar con más frecuencia que los hombres (41 % vs. 30 %). Sin embargo, en las rondas siguientes, el nivel de cooperación baja y la diferencia entre hombres y mujeres se reduce. Es decir, la cooperación o el engaño a través de las rondas lleva a un aprendizaje sobre el comportamiento esperado que es similar para varones y mujeres. Por lo tanto, aunque en las primeras rondas las mujeres se aproximen al juego de manera más cooperativa que los hombres, con la experiencia alinean sus comportamientos. A priori, parecería encontrarse una predisposición diferente a la negociación en los varones y mujeres que participan de los experimentos. Ellas parecerían sentirse menos cómodas con la negociación o mejorar su desempeño solo cuando negocian por los demás, es decir cuando son responsables de velar por los intereses de otras personas. Además, parecerían tender a adoptar comportamientos que las conducen a reducir las probabilidades de obtener mejores condiciones laborales o mayores reconocimientos (como en el caso de la académica). Sin embargo, las diferencias psicológicas por género que parecen detectarse también parecen diluirse con la experiencia. ¿Cuánto explica la biología y cuánto la cultura las diferencias de comportamiento entre hombres y mujeres? Los seres humanos somos producto de la evolución, por lo cual es posible que ésta tenga un rol importante para configurar las preferencias de hombres y mujeres en función de qué actitud les ha sido más efectiva para preservarse en el entorno desde tiempos remotos. Desde esta perspectiva, la mayor predisposición hacia la competencia de los varones respecto a las mujeres podría tener su origen en la necesidad de asegurarse el éxito reproductivo. Dado que los hombres pueden tener más hijos que las mujeres, tienen más que ganar de la competencia frente a otros hombres, desde el punto de vista reproductivo. Por otra parte, es cierto que existen diferencias biológicas entre hombres y mujeres, con implicancias directas para el desempeño económico de cada uno (por ejemplo, la fuerza física habilita a ocupar ciertos puestos de trabajo o las tareas asociadas al nacimiento pueden afectar la inserción laboral de las madres). A su vez, desde el punto de vista de la cultura o la socialización de género; los roles de género no son innatos, sino aprendizajes de nociones socialmente construidas. En este sentido, el comportamiento de hombres y mujeres bien podría derivarse de normas construidas socialmente. Comportarse de acuerdo a estas expectativas puede reflejar la voluntad de actuar según lo que se espera de la pertenencia a una determinada categoría social. Se espera que hombres y mujeres tengan diferentes roles en las sociedades y así son entrenados desde la niñez. Varios experimentos demuestran que para el caso de la mujeres, el haber tenido profesores de su mismo sexo mejoraría su desempeño educativo posterior; no así en el caso de los hombres para los cuales es indiferente. Entonces ¿cuál es la explicación? Más que elegir una u otra línea de argumentos, es probable que ambas se complementen. —---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- Texto 23. Backhouse, R. E, y Cherrier, B. (2017). The age of the applied economist: the transformation of economics since the 1970s. History of Political Economy, 49(Supplement), 1-33. El texto empieza con una frase de Angus Deaton (2007) que dice: “Si la tesis típica de los ochenta era una elaborada pieza de teoría de precios estimada por máximos no lineales basada un número muy reducido de observaciones, la tesis típica de hoy utiliza poca o ninguna teoría, una econometría mucho más simple y cientos de miles de observaciones”. Dicha afirmación demuestra el cambio a lo largo del tiempo que tuvo el tratamiento de los problemas económicos dado por los economistas, que al inicio se basaba prácticamente en teoría y muy pocas observaciones, para ahora, un uso reducido de teoría y una extrema importancia aplicada a las observaciones. Una crítica común del pasado era que los economistas, en lugar de comprometerse con el mundo real, formulaban supuestos que les permitían sacar sus conclusiones preferidas. La transformación de la economía en las últimas décadas del siglo XX se ha denominado cada vez más un "giro empírico". El autor menciona que desde los años 80 se produjo un gran crecimiento de la investigación empírica y al mismo tiempo un declinio de la investigación teórica. Sobre esta base, se anuncian conclusiones como "la muerte de la teoría" o al menos un "cambio de paradigma". Muestra que se ha producido un cambio dirigido al trabajo empírico en tres de las principales revistas, que los trabajos empíricos han adquirido más prestigio. El autor menciona que existen varias razones de por qué se fue dando este cambio. Una de ellas es la ya mencionada arriba, el prestigio del trabajo económico empírico. Otras son el surgimiento de nuevas técnicas, como la contabilidad nacional, los índices del coste de vida, el análisis input-output, el análisis coste-beneficio y la evolución de las finanzas supusieron el desarrollo de nuevos conceptos y herramientas, así como grandes proyectos para recopilar, registrar y dar sentido a los datos. De la tabla presente en la página 3 del texto que muestra la metodología usada en la publicación del “American Economic Review” desde 1963 hasta 2011 se pueden sacar 3 conclusiones fundamentales: En primer lugar, el período en el que la teoría, tal y como se entiende ahora el término, dominó el trabajo empírico, que duró unos treinta años, fue interludio excepcional. En segundo lugar, se ha producido un cambio en la relación entre el trabajo teórico y empírico, pero el trabajo empírico no se ha desconectado completamente de la teoría. En tercer lugar, el descenso más significativo es el de los artículos exclusivamente teóricos. Como afirmó Dani Rodrik (2015): "Hoy en día, es prácticamente imposible publicar en las mejores revistas …de desarrollo y economía internacional sin incluir algún análisis empírico serio. ... Las normas de la profesión exigen ahora mucha más atención a la calidad de los datos, a la inferencia causal a partir de pruebas y a una serie de trampas estadísticas. En general, este giro empírico ha sido bueno para la profesión.” La importancia concedida a la "teoría aplicada" y al análisis político es un claro indicio de que lo que ha ocurrido recientemente no sólo se refiere al trabajo empírico, sino que abarca la relevancia de la teoría y la política. Esto sugiere que la economía no ha pasado realmente "de la teoría a los datos", sino que ha experimentado una profunda redefinición de la relación entre el trabajo teórico y el empírico. El autor afirma que el término “aplicada” de economía aplicada tiene un efecto ambiguo pero, en realidad lo hace mejor y no peor para lo que pretende explicar. Dice que se necesita un término que englobe un conjunto grande de identidades y prácticas que aquellos que se acompasan dentro del término “empírico”. Como sostiene Erickson, la "aplicación" se refiere a menudo a la capacidad de una teoría para producir padrones innovadores de colaboración, no sólo su capacidad para predecir o describir resultados. En resumen, este volumen trata de cómo el periodo en el que ser teoricista era la actividad más prestigiosa para un economista evolucionó hasta la situación actual en que los economistas se enorgullecen de ser aplicados, ya sean teóricos aplicados o economistas empíricos que abordan problemas de política. El texto también aborda detalladamente la relación entre estudiantes de economía, los profesores y la importancia que se daba a diversos temas a lo largo de los años 40/50 hasta el 2000. Y comó se fueron observando esos diversos cambios. Se puede ver un ejemplo cuando menciona que la creciente complejidad de la relación entre teoría y aplicación quedó ilustrada por los premios de los años 60 y principios de los 70, cada uno de los cuales implicaba una relación diferente entre teoría y aplicación. También menciona algunas ramificaciones políticas, por ejemplo: a principios de la década de 1970 se sucedieron varios ataques en discursos presidenciales contra la economía por ser demasiado teórica y alejada de la realidad. Una primera explicación del giro aplicado en economía es el surgimiento de nuevas y diversas técnicas para confrontar los modelos con los datos. Otra técnica cada vez más utilizada era la economía experimental. El período en que la economía experimental se afianzó firmemente coincide con el desarrollo de un conjunto de diversas técnicas. Otras técnicas difuminaron la demarcación entre teoría y trabajo aplicado, construyendo objetos económicos en el mundo real en vez de solamente estudiarlos. Una segunda explicación del reciente giro aplicado es la "revolución de los datos". Aunque la reciente explosión de bases de datos digitales multivariables a gran escala y en tiempo real es alucinante y tiene el atractivo de una revolución, la disponibilidad de datos económicos también ha evolucionado constantemente desde la Segunda Guerra Mundial. Más que una revolución en los años ochenta o en cualquier otra década, la historia de la economía parece ser una de constante adaptación a nuevos tipos de datos. En 1970, por ejemplo, Jorgenson explicó que "la base de datos para la investigación econométrica se está expandiendo mucho más rápidamente que la propia investigación econométrica". La espectacular mejora en la recopilación y el almacenamiento de datos ha sido posible gracias a la mejora de la tecnología informática. Normalmente considerado como el factor más importante detrás del giro aplicado, el ordenador ha influido en mucho más que solamente los datos económicos. No era inevitable que los ordenadores irían favorecer trabajo empírico sobre la teoría: de hecho, uno de los principales usos de los ordenadores era la simulación, una técnica (o quizá una familia de técnicas) que difuminaba la distinción entre teoría y trabajo aplicado. Uno de los puntos que afirman Blackhouse y Cherrier es que las simulaciones desdibujan la distinción entre teoría y aplicación. A lo largo de la posguerra, los economistas han afirmado repetidamente que la disponibilidad de nuevos conjuntos de datos y la potencia informática para analizarlos han transformado diversos campos. Sin embargo, en todas las historias mencionadas en este texto, la diversidad de las prácticas de economía aplicada es el resultado no sólo de combinaciones idiosincrásicas de técnicas de modelización, conjuntos de datos, de técnicas de modelización, software y hardware; también fue consecuencia de una variedad de sitios, antiguos y nuevos, en los que se practicaba la economía aplicada, y de las cambiantes demandas que patrones y clientes imponían a los economistas. Esto, por supuesto, está relacionado con la orientación política del giro aplicado. Un ejemplo del texto: los economistas se enfrentaron con exigencias diversas, a veces contradictorias, que crearon nuevas formas de hacer un trabajo "aplicado" y capas adicionales de complejidad en las relaciones de estas prácticas con el trabajo teórico. (Esto es importante para la conceptualización de lo que le ocurrió a la economía en aquel "plan macroeconómico" se dejó de pensar en metas y objetivos para pasar a comprender métodos y técnicas que se concibieron independientemente.) Todo esto sugiere que el giro hacia la economía aplicada, que implicó cambios tanto en las prácticas de los economistas como en la percepción de su identidad, fue cambiado, en cierta medida, por las exigencias políticas y las instituciones que las mediaron. Conclusión: Las décadas de 1950 y 1960 podrían describirse como la era del economista teorista. La teoría ocupaba un lugar destacado en las principales revistas y fue estructurando cada vez más la forma en que los economistas pensaban sobre problemas económicos. Como hemos mostrado, la situación cambió gradualmente, a medida que nuevas técnicas y nuevas fuentes de datos permitieron obtener resultados que los economistas consideraban más sólidos. Se consideraba que el trabajo aplicado necesitaba una base teórica, y la econometría se utilizaba para probar hipótesis teóricas formalmente especificadas. Pero al mismo tiempo, el giro hacia la teoría de juegos y el desarrollo de teorías de información imperfecta y asimétrica ampliaban enormemente las herramientas teóricas a disposición de los economistas, proporcionando teorías formales de fenómenos sobre los que antes los economistas sólo podían hablar de manera informal. A medida que esto sucedía, el papel de la teoría cambió. Ya no era posible poner fé en una única teoría general que lo abarcara todo: en su lugar, lo mejor que podían esperar los economistas era una serie de teorías, cada una de las cuales podía utilizarse en diferentes circunstancias. Este es el antecedente del creciente uso del término teoría aplicada. Los crecientes y complejos vínculos con los responsables políticos y una variedad de clientes también hicieron más difícil aplicar la teoría de forma estandarizada. Las demandas públicas y privadas empujaron a los economistas a adaptar las teorías y herramientas a usos específicos, modificándolas profundamente en el proceso. Pero ésta fue sólo una dimensión de la importancia de la economía aplicada. A medida que los gobiernos se volcaron a soluciones del mercado para problemas económicos, aumentó el alcance del trabajo aplicado. Se había vuelto la era del economista aplicado.