Nueva economía keynesiana
La nueva economía keynesiana o Nuevo keynesianismo (no Neokeynesianismo) es una escuela de macroeconomía que se esfuerza por proporcionar fundamentos microeconómicos para la economía keynesiana. Se desarrolló en parte como respuesta a las críticas a la macroeconomía keynesiana por parte de los seguidores de la nueva macroeconomía clásica.
Dos supuestos principales definen el enfoque neokeynesiano de la macroeconomía. Al igual que el enfoque neoclásico, el análisis macroeconómico neokeynesiano suele suponer que los hogares y las empresas tienen expectativas racionales. Sin embargo, las dos escuelas difieren en que el análisis neokeynesiano suele asumir una variedad de fallas del mercado. En particular, los neokeynesianos asumen que existe una competencia imperfecta en la fijación de precios y salarios para ayudar a explicar por qué los precios y los salarios pueden volverse "fijos", lo que significa que no se ajustan instantáneamente a los cambios en las condiciones económicas.
La rigidez de precios y salarios, y las otras fallas del mercado presentes en los modelos neokeynesianos, implican que la economía puede no lograr el pleno empleo. Por lo tanto, los neokeynesianos argumentan que la estabilización macroeconómica por parte del gobierno (usando la política fiscal) y el banco central (usando la política monetaria) puede conducir a un resultado macroeconómico más eficiente que el que tendría una política de laissez faire.
El nuevo keynesianismo se convirtió en parte de la nueva síntesis neoclásica, a la que ahora generalmente se hace referencia simplemente como la nueva economía keynesiana, que incorporó partes tanto de él como de la nueva macroeconomía clásica, y forma la base teórica de la macroeconomía dominante en la actualidad.
Desarrollo de la economía keynesiana
1970
La primera ola de economía neokeynesiana se desarrolló a fines de la década de 1970. El primer modelo de información fija fue desarrollado por Stanley Fischer en su artículo de 1977, Contratos a largo plazo, expectativas racionales y la regla de oferta monetaria óptima. Adoptó un modelo de contrato "escalonado" o "superpuesto". Suponga que hay dos sindicatos en la economía, que se turnan para elegir los salarios. Cuando le toca el turno a un sindicato, éste elige los salarios que fijará para los dos períodos siguientes. Esto contrasta con el modelo de John B. Taylor donde el salario nominal es constante durante la vida del contrato, como se desarrolló posteriormente en sus dos artículos, uno en 1979 "Establecimiento de salarios escalonados en un modelo macro" y otro en 1980 "Dinámica agregada y Contratos".Tanto los contratos de Taylor como los de Fischer comparten la característica de que solo los sindicatos que establecen los salarios en el período actual utilizan la información más reciente: los salarios en la mitad de la economía aún reflejan información antigua. El modelo de Taylor tenía salarios nominales rígidos además de la información rígida: los salarios nominales tenían que ser constantes durante la duración del contrato (dos períodos). Estas primeras nuevas teorías keynesianas se basaban en la idea básica de que, dados los salarios nominales fijos, una autoridad monetaria (banco central) puede controlar la tasa de empleo. Dado que los salarios se fijan a una tasa nominal, la autoridad monetaria puede controlar el salario real (los valores de los salarios ajustados por inflación) al cambiar la oferta monetaria y, por lo tanto, afectar la tasa de empleo.
1980
Costos del menú y competencia imperfecta
En la década de 1980 se desarrolló el concepto clave de utilizar los costos del menú en un marco de competencia imperfecta para explicar la rigidez de los precios. El concepto de un costo de suma global (costo de menú) para cambiar el precio fue introducido originalmente por Sheshinski y Weiss (1977) en su artículo sobre el efecto de la inflación en la frecuencia de los cambios de precios. La idea de aplicarla como una teoría general de la rigidez del precio nominal fue presentada simultáneamente por varios economistas en 1985-1986. George Akerlof y Janet Yellen propusieron la idea de que, debido a la racionalidad limitada, las empresas no querrán cambiar su precio a menos que el beneficio sea más que una pequeña cantidad.Esta racionalidad limitada conduce a la inercia en los precios y salarios nominales, lo que puede llevar a que la producción fluctúe a precios y salarios nominales constantes. Gregory Mankiw tomó la idea del costo del menú y se centró en los efectos sobre el bienestar de los cambios en la producción resultantes de la rigidez de los precios. Michael Parkin también presentó la idea. Aunque inicialmente el enfoque se centró principalmente en la rigidez de los precios nominales, Olivier Blanchard y Nobuhiro Kiyotaki lo ampliaron a los salarios y los precios en su influyente artículo Monopolistic Competition and the Effects of Aggregate Demand.Huw Dixon y Claus Hansen demostraron que incluso si los costos del menú se aplicaran a un pequeño sector de la economía, esto influiría en el resto de la economía y conduciría a que los precios en el resto de la economía respondieran menos a los cambios en la demanda.
Si bien algunos estudios sugirieron que los costos del menú son demasiado pequeños para tener un impacto agregado, Laurence M. Ball y David Romer demostraron en 1990 que las rigideces reales podrían interactuar con las rigideces nominales para crear un desequilibrio significativo. Las rigideces reales ocurren cuando una empresa tarda en ajustar sus precios reales en respuesta a un entorno económico cambiante. Por ejemplo, una empresa puede enfrentar rigideces reales si tiene poder de mercado o si sus costos de insumos y salarios están sujetos a un contrato. Ball y Romer argumentaron que las rigideces reales en el mercado laboral mantienen altos los costos de una empresa, lo que hace que las empresas duden en reducir los precios y pierdan ingresos. El gasto creado por las rigideces reales combinado con el costo de menú de cambiar los precios hace que sea menos probable que la empresa reduzca los precios a un nivel de compensación del mercado.
Incluso si los precios son perfectamente flexibles, la competencia imperfecta puede afectar la influencia de la política fiscal en términos del multiplicador. Huw Dixon y Gregory Mankiw desarrollaron modelos simples de equilibrio general de forma independiente que mostraban que el multiplicador fiscal podría aumentar con el grado de competencia imperfecta en el mercado de producción.La razón de esto es que la competencia imperfecta en el mercado de productos tiende a reducir el salario real, lo que lleva a que el hogar sustituya el consumo por el ocio. Cuando aumenta el gasto público, el aumento correspondiente en los impuestos a tanto alzado hace que disminuyan tanto el ocio como el consumo (suponiendo que ambos sean un bien normal). Cuanto mayor sea el grado de competencia imperfecta en el mercado de producción, menor será el salario real y, por lo tanto, más la reducción recae en el ocio (es decir, los hogares trabajan más) y menos en el consumo. Por lo tanto, el multiplicador fiscal es menor que uno, pero aumenta en el grado de competencia imperfecta en el mercado de producción.
El modelo de contratos escalonados de Calvo
En 1983 Guillermo Calvo escribió "Precios escalonados en un marco de maximización de la utilidad". El artículo original fue escrito en un marco matemático de tiempo continuo, pero hoy en día se usa principalmente en su versión de tiempo discreto. El modelo Calvo se ha convertido en la forma más común de modelar la rigidez nominal en los nuevos modelos keynesianos. Existe la probabilidad de que la empresa pueda reajustar su precio en cualquier período h (la tasa de riesgo), o de manera equivalente, la probabilidad (1-h) de que el precio permanezca sin cambios en ese período (la tasa de supervivencia). La probabilidad ha veces se denomina "probabilidad de Calvo" en este contexto. En el modelo de Calvo, la característica crucial es que el fijador del precio no sabe cuánto tiempo permanecerá vigente el precio nominal, en contraste con el modelo de Taylor, donde la duración del contrato se conoce ex ante.
Fallo de coordinación
El fracaso de la coordinación fue otro importante nuevo concepto keynesiano desarrollado como otra posible explicación de las recesiones y el desempleo. En las recesiones, una fábrica puede quedarse inactiva aunque haya personas dispuestas a trabajar en ella y personas dispuestas a comprar su producción si tuvieran trabajo. En tal escenario, las recesiones económicas parecen ser el resultado de una falla de coordinación: la mano invisible no logra coordinar el flujo óptimo y habitual de producción y consumo. El artículo de 1988 de Russell Cooper y Andrew John Coordinating Coordination Failures in Keynesian Models expresó una forma general de coordinación como modelos con múltiples equilibrios donde los agentes podrían coordinarse para mejorar (o al menos no dañar) cada una de sus respectivas situaciones.Cooper y John basaron su trabajo en modelos anteriores, incluido el modelo de coco de Peter Diamond de 1982, que demostró un caso de falla de coordinación que involucraba la teoría de búsqueda y coincidencia. En el modelo de Diamond, es más probable que los productores produzcan si ven que otros producen. El aumento de posibles socios comerciales aumenta la probabilidad de que un productor determinado encuentre a alguien con quien comerciar. Como en otros casos de falla de coordinación, el modelo de Diamond tiene equilibrios múltiples y el bienestar de un agente depende de las decisiones de los demás. El modelo de Diamond es un ejemplo de una "externalidad de mercado denso" que hace que los mercados funcionen mejor cuando más personas y empresas participan en ellos.Otras posibles fuentes de fallas en la coordinación incluyen las profecías autocumplidas. Si una empresa anticipa una caída en la demanda, es posible que reduzca la contratación. La falta de puestos de trabajo podría preocupar a los trabajadores, que luego reducirían su consumo. Esta caída de la demanda cumple con las expectativas de la empresa, pero se debe enteramente a las propias acciones de la empresa.
Fallas del mercado laboral: salarios de eficiencia
Los nuevos keynesianos ofrecieron explicaciones por la falta de equilibrio del mercado laboral. En un mercado walrasiano, los trabajadores desempleados pujan a la baja los salarios hasta que la demanda de trabajadores satisfaga la oferta. Si los mercados son walrasianos, las filas de los desempleados se limitarían a los trabajadores en transición entre trabajos y trabajadores que eligen no trabajar porque los salarios son demasiado bajos para atraerlos. Desarrollaron varias teorías que explican por qué los mercados pueden dejar desempleados a los trabajadores dispuestos. La más importante de estas teorías, los nuevos keynesianos, fue la teoría del salario de eficiencia utilizada para explicar los efectos a largo plazo del desempleo anterior, donde los aumentos del desempleo a corto plazo se vuelven permanentes y conducen a niveles más altos de desempleo a largo plazo.
En los modelos de salarios de eficiencia, a los trabajadores se les paga a niveles que maximizan la productividad en lugar de equilibrar el mercado. Por ejemplo, en los países en desarrollo, las empresas pueden pagar más que una tarifa de mercado para garantizar que sus trabajadores puedan permitirse una nutrición suficiente para ser productivos. Las empresas también pueden pagar salarios más altos para aumentar la lealtad y la moral, lo que posiblemente conduzca a una mejor productividad. Las empresas también pueden pagar salarios más altos que los del mercado para evitar la elusión. Los modelos de elusión fueron particularmente influyentes. El artículo de Carl Shapiro y Joseph Stiglitz de 1984 Equilibrium Unemployment as a Worker Discipline Device creó un modelo en el que los empleados tienden a evitar el trabajo a menos que las empresas puedan monitorear el esfuerzo del trabajador y amenazar a los empleados con desempleo.Si la economía está en pleno empleo, un holgazán despedido simplemente se muda a un nuevo trabajo. Las empresas individuales pagan a sus trabajadores una prima sobre la tasa de mercado para garantizar que sus trabajadores prefieran trabajar y mantener su trabajo actual en lugar de eludir y correr el riesgo de tener que cambiarse a un nuevo trabajo. Dado que cada empresa paga más que los salarios de equilibrio del mercado, el mercado laboral agregado no se equilibra. Esto crea un grupo de trabajadores desempleados y aumenta el costo de ser despedido. Los trabajadores no solo corren el riesgo de recibir un salario más bajo, corren el riesgo de quedarse atrapados en el grupo de desempleados. Mantener los salarios por encima de los niveles de equilibrio del mercado crea un serio desincentivo para eludir que hace que los trabajadores sean más eficientes, aunque deja desempleados a algunos trabajadores dispuestos.
1990
La nueva síntesis neoclásica
A principios de la década de 1990, los economistas comenzaron a combinar los elementos de la nueva economía keynesiana desarrollada en la década de 1980 y antes con la teoría del ciclo económico real. Los modelos RBC eran dinámicos pero suponían una competencia perfecta; Los nuevos modelos keynesianos eran principalmente estáticos pero se basaban en una competencia imperfecta. La Nueva síntesis neoclásica combinó esencialmente los aspectos dinámicos de RBC con la competencia imperfecta y las rigideces nominales de los nuevos modelos keynesianos. Tack Yun fue uno de los primeros en hacer esto, en un modelo que usaba el modelo de precios de Calvo. Goodfriend y King propusieron una lista de cuatro elementos que son fundamentales para la nueva síntesis: optimización intertemporal, expectativas racionales, competencia imperfecta y costoso ajuste de precios (costos de menú).Goodfriend y King también encuentran que los modelos de consenso producen ciertas implicaciones de política: mientras que la política monetaria puede afectar la producción real a corto plazo, pero no hay compensación a largo plazo: el dinero no es neutral a corto plazo pero sí en el largo plazo. La inflación tiene efectos negativos sobre el bienestar. Es importante que los bancos centrales mantengan la credibilidad a través de políticas basadas en reglas como la inflación objetivo.
Regla de Taylor
En 1993, John B. Taylor formuló la idea de una regla de Taylor, que es una aproximación de forma reducida de la sensibilidad de la tasa de interés nominal, establecida por el banco central, a los cambios en la inflación, la producción u otras condiciones económicas. En particular, la regla describe cómo, por cada uno por ciento de aumento en la inflación, el banco central tiende a subir la tasa de interés nominal en más de un punto porcentual. Este aspecto de la regla a menudo se llama el principio de Taylor. Si bien tales reglas brindan aproximaciones concisas y descriptivas de la política del banco central, en la práctica, los bancos centrales no las consideran explícitamente de manera proscriptiva al establecer las tasas nominales.
La versión original de la regla de Taylor describe cómo responde la tasa de interés nominal a las divergencias de las tasas de inflación reales de las tasas de inflación objetivo y del Producto Interno Bruto (PIB) real del PIB potencial:
En esta ecuación, es la tasa de interés nominal a corto plazo objetivo (por ejemplo, la tasa de los fondos federales en los EE. UU., la tasa base del Banco de Inglaterra en el Reino Unido), es la tasa de inflación medida por el deflactor del PIB, es la tasa deseada de inflación, es la supuesta tasa de interés real de equilibrio, es el logaritmo del PIB real y es el logaritmo de la producción potencial, determinada por una tendencia lineal.
La curva de Phillips neokeynesiana
La curva de Phillips neokeynesiana fue derivada originalmente por Roberts en 1995, y desde entonces se ha utilizado en la mayoría de los modelos DSGE neokeynesianos de última generación. La nueva curva keynesiana de Phillips dice que la inflación de este período depende de la producción actual y de las expectativas de inflación del próximo período. La curva se deriva del modelo dinámico de precios de Calvo y en términos matemáticos es:
Las expectativas del período actual t de inflación del próximo período se incorporan como , donde es el factor de descuento. La constante captura la respuesta de la inflación a la producción y está determinada en gran medida por la probabilidad de cambio de precio en cualquier período, que es :.
Cuanto menos rígidos sean los precios nominales (cuanto más alto sea ), mayor será el efecto del producto sobre la inflación actual.
La ciencia de la política monetaria
Las ideas desarrolladas en la década de 1990 se unieron para desarrollar el nuevo equilibrio general estocástico dinámico keynesiano utilizado para analizar la política monetaria. Esto culminó con el nuevo modelo keynesiano de tres ecuaciones encontrado en la encuesta de Richard Clarida, Jordi Gali y Mark Gertler en el Journal of Economic Literature. Combina las dos ecuaciones de la nueva curva keynesiana de Phillips y la regla de Taylor con la curva IS dinámica derivada de la ecuación de consumo dinámico óptimo (ecuación de Euler del hogar).
Estas tres ecuaciones formaron un modelo relativamente simple que podría utilizarse para el análisis teórico de cuestiones de política. Sin embargo, el modelo se simplificó demasiado en algunos aspectos (por ejemplo, no hay capital ni inversión). Además, no funciona bien empíricamente.
Años 2000
En el nuevo milenio ha habido varios avances en la nueva economía keynesiana.
La introducción de mercados laborales imperfectamente competitivos
Mientras que los modelos de la década de 1990 se centraron en precios rígidos en el mercado de producción, en 2000 Christopher Erceg, Dale Henderson y Andrew Levin adoptaron el modelo de Blanchard y Kiyotaki de mercados laborales sindicalizados combinándolo con el enfoque de fijación de precios de Calvo y lo introdujeron en un nuevo enfoque keynesiano. modelo DSGE.
El desarrollo de modelos DSGE complejos.
Para tener modelos que funcionaran bien con los datos y pudieran usarse para simulaciones de políticas, se desarrollaron nuevos modelos keynesianos bastante complicados con varias características. Los artículos seminales fueron publicados por Frank Smets y Rafael Wouters y también por Lawrence J. Christiano, Martin Eichenbaum y Charles Evans. Las características comunes de estos modelos incluían:
- persistencia del hábito. La utilidad marginal del consumo depende del consumo pasado.
- Fijación de precios de Calvo en los mercados de producción y de productos, con indexación de modo que cuando los salarios y los precios no se restablecen explícitamente, se actualizan según la inflación.
- costos de ajuste de capital y uso de capital variable.
- nuevos choques
- choques de demanda, que afectan la utilidad marginal del consumo
- choques de margen que influyen en el margen de beneficio deseado del precio sobre el costo marginal.
- La política monetaria está representada por una regla de Taylor.
- Métodos de estimación bayesianos.
Información pegajosa
La idea de Sticky information que se encuentra en el modelo de Fischer fue desarrollada posteriormente por Gregory Mankiw y Ricardo Reis. Esto agregó una nueva característica al modelo de Fischer: hay una probabilidad fija de que pueda volver a planificar sus salarios o precios cada período. Utilizando datos trimestrales, asumieron un valor del 25 %: es decir, cada trimestre, el 25 % de las empresas/sindicatos elegidos al azar pueden planificar una trayectoria de precios actuales y futuros basada en información actual. Así, si consideramos el período actual: el 25% de los precios se basará en la última información disponible; el resto en información que estaba disponible la última vez que pudieron replanificar su trayectoria de precios. Mankiw y Reis encontraron que el modelo de información pegajosa brindaba una buena manera de explicar la persistencia de la inflación.
Los modelos de información pegajosa no tienen rigidez nominal: las empresas o sindicatos son libres de elegir diferentes precios o salarios para cada período. Es la información la que es pegajosa, no los precios. Por lo tanto, cuando una empresa tiene suerte y puede volver a planificar sus precios actuales y futuros, elegirá una trayectoria de lo que cree que serán los precios óptimos ahora y en el futuro. En general, esto implicará establecer un precio diferente cada período cubierto por el plan. Esto contradice la evidencia empírica sobre los precios. Ahora hay muchos estudios de rigidez de precios en diferentes países: Estados Unidos, la Eurozona, Reino Unidoy otros. Todos estos estudios muestran que, si bien hay algunos sectores en los que los precios cambian con frecuencia, también hay otros sectores en los que los precios permanecen fijos a lo largo del tiempo. La falta de precios rígidos en el modelo de información rígido es inconsistente con el comportamiento de los precios en la mayor parte de la economía. Esto ha llevado a intentos de formular un modelo de "doble rigidez" que combina información rígida con precios rígidos.
2010s
La década de 2010 vio el desarrollo de modelos que incorporaron la heterogeneidad de los hogares en el marco estándar neokeynesiano, comúnmente denominados modelos 'HANK' (agente heterogéneo neokeynesiano). Además de los precios rígidos, un modelo HANK típico presenta un riesgo de ingresos laborales idiosincrásico no asegurable que da lugar a una distribución de la riqueza no degenerada. Los primeros modelos con estas dos características incluyen a Oh y Reis (2012), McKay y Reis (2016) y Guerrieri y Lorenzoni (2017).
El nombre "modelo HANK" fue acuñado por Greg Kaplan, Benjamin Moll y Gianluca Violante en un artículo de 2018 que además modela los hogares como acumulando dos tipos de activos, uno líquido y otro ilíquido. Esto se traduce en una gran heterogeneidad en la composición de la cartera entre los hogares. En particular, el modelo se ajusta a la evidencia empírica al presentar una gran proporción de hogares con poca riqueza líquida: los hogares 'alcanzables'. De acuerdo con la evidencia empírica, aproximadamente dos tercios de estos hogares tienen cantidades no triviales de riqueza ilíquida, a pesar de tener poca riqueza líquida. Estos hogares se conocen como hogares ricos al día, un término introducido en un estudio de 2014 sobre políticas de estímulo fiscal realizado por Kaplan y Violante.
La existencia de hogares ricos y precarios en los modelos neokeynesianos es importante para los efectos de la política monetaria, porque el comportamiento de consumo de esos hogares es muy sensible a los cambios en el ingreso disponible, más que a las variaciones en la tasa de interés (es decir, el precio de los bienes). consumo futuro en relación con el consumo actual). El corolario directo es que la política monetaria se transmite principalmente a través de efectos de equilibrio general que funcionan a través de los ingresos laborales de los hogares, en lugar de a través de la sustitución intertemporal, que es el principal canal de transmisión en los modelos del Agente Representativo Neokeynesiano (RANK).
Hay dos implicaciones principales para la política monetaria. Primero, la política monetaria interactúa fuertemente con la política fiscal, debido al fracaso de la equivalencia ricardiana debido a la presencia de familias precarias. En particular, los cambios en la tasa de interés modifican la restricción presupuestaria del gobierno y la respuesta fiscal a este cambio afecta el ingreso disponible de los hogares. En segundo lugar, los choques monetarios agregados no son distributivos neutrales, ya que afectan el rendimiento del capital, lo que afecta de manera diferente a los hogares con diferentes niveles de riqueza y activos.
Implicaciones políticas
Los economistas neokeynesianos están de acuerdo con los economistas neoclásicos en que, a largo plazo, se mantiene la dicotomía clásica: los cambios en la oferta monetaria son neutrales. Sin embargo, debido a que los precios son rígidos en el modelo neokeynesiano, un aumento en la oferta monetaria (o de manera equivalente, una disminución en la tasa de interés) aumenta la producción y reduce el desempleo a corto plazo. Además, algunos modelos neokeynesianos confirman la no neutralidad del dinero bajo varias condiciones.
No obstante, los economistas neokeynesianos no abogan por el uso de una política monetaria expansiva para obtener ganancias a corto plazo en la producción y el empleo, ya que aumentaría las expectativas inflacionarias y, por lo tanto, acumularía problemas para el futuro. En cambio, abogan por el uso de la política monetaria para la estabilización. Es decir, no se recomienda aumentar repentinamente la oferta monetaria solo para producir un auge económico temporal, ya que será imposible eliminar las mayores expectativas inflacionarias sin producir una recesión.
Sin embargo, cuando la economía se ve afectada por algún shock externo inesperado, puede ser una buena idea compensar los efectos macroeconómicos del shock con la política monetaria. Esto es especialmente cierto si el shock inesperado es uno (como una caída en la confianza del consumidor) que tiende a reducir tanto la producción como la inflación; en ese caso, expandir la oferta monetaria (bajar las tasas de interés) ayuda al aumentar la producción mientras estabiliza la inflación y las expectativas inflacionarias.
Los estudios de la política monetaria óptima en los modelos DSGE neokeynesianos se han centrado en las reglas de tipos de interés (especialmente las "reglas de Taylor"), que especifican cómo el banco central debe ajustar el tipo de interés nominal en respuesta a cambios en la inflación y la producción. (Más precisamente, las reglas óptimas generalmente reaccionan a cambios en la brecha del producto, en lugar de cambios en el producto per se). En algunos modelos DSGE neokeynesianos simples, resulta que estabilizar la inflación es suficiente, porque mantener una inflación perfectamente estable también estabiliza la producción y el empleo. en el grado máximo deseable. Blanchard y Galí han llamado a esta propiedad la 'coincidencia divina'.
Sin embargo, también muestran que en modelos con más de una imperfección del mercado (por ejemplo, fricciones en el ajuste del nivel de empleo, así como precios rígidos), ya no hay una 'coincidencia divina' y, en cambio, existe una compensación entre estabilizar la inflación y la estabilización del empleo. Además, aunque algunos macroeconomistas creen que los modelos neokeynesianos están a punto de ser útiles para el asesoramiento político cuantitativo trimestral, existe desacuerdo.
Recientemente, se demostró que la coincidencia divina no se cumple necesariamente en la forma no lineal del modelo neokeynesiano estándar. Esta propiedad solo se mantendría si la autoridad monetaria se establece para mantener la tasa de inflación exactamente en 0%. En cualquier otro objetivo deseado para la tasa de inflación, existe una compensación endógena, incluso en ausencia de imperfecciones reales, como salarios rígidos, y la coincidencia divina ya no se cumple.
Relación con otras escuelas macroeconómicas
A lo largo de los años, ha ejercido influencia una secuencia de 'nuevas' teorías macroeconómicas relacionadas con el keynesianismo o que se oponen al mismo. Después de la Segunda Guerra Mundial, Paul Samuelson utilizó el término síntesis neoclásica para referirse a la integración de la economía keynesiana con la economía neoclásica. La idea era que el gobierno y el banco central mantuvieran el pleno empleo aproximado, de modo que se aplicaran las nociones neoclásicas, centradas en el axioma de la universalidad de la escasez. El modelo IS/LM de John Hicks fue fundamental para la síntesis neoclásica.
El trabajo posterior de economistas como James Tobin y Franco Modigliani que involucró más énfasis en los microfundamentos del consumo y la inversión a veces se denominó neokeynesianismo. A menudo se contrasta con el poskeynesianismo de Paul Davidson, que enfatiza el papel de la incertidumbre fundamental en la vida económica, especialmente en lo que respecta a cuestiones de inversión fija privada.
El nuevo keynesianismo fue una respuesta a Robert Lucas y la nueva escuela clásica. Esa escuela criticó las inconsistencias del keynesianismo a la luz del concepto de "expectativas racionales". Los nuevos clásicos combinaron un equilibrio único de compensación del mercado (en pleno empleo) con expectativas racionales. Los neokeynesianos utilizaron "microfundamentos" para demostrar que la rigidez de los precios impide que los mercados se equilibren. Por lo tanto, el equilibrio basado en expectativas racionales no necesita ser único.
Mientras que la síntesis neoclásica esperaba que la política fiscal y monetaria mantuviera el pleno empleo, los nuevos clásicos asumieron que el ajuste de precios y salarios alcanzaría automáticamente esta situación en el corto plazo. Los nuevos keynesianos, por otro lado, consideraban que el pleno empleo se lograba automáticamente solo a largo plazo, ya que los precios son "rígidos" a corto plazo. Se necesitan políticas del gobierno y del banco central porque el "largo plazo" puede ser muy largo.
En última instancia, las diferencias entre la nueva macroeconomía clásica y la economía neokeynesiana se resolvieron en la nueva síntesis neoclásica de la década de 1990, que forma la base de la corriente principal de la economía actual, y el énfasis keynesiano en la importancia de la coordinación centralizada de las políticas macroeconómicas (por ejemplo, política monetaria y política). estímulo fiscal), las instituciones económicas internacionales como el Banco Mundial y el Fondo Monetario Internacional (FMI), y el mantenimiento de un sistema de comercio controlado se destacó durante la crisis financiera y económica mundial de 2008. Esto se ha reflejado en el trabajo de los economistas del FMI y de Donald Markwell.
Principales economistas neokeynesianos
- Jordi Galí
- marca gertler
- Nobuhiro Kiyotaki
- miguel woodford
- Gregorio Mankiw
Contenido relacionado
Planificación económica de tipo soviético
Sunoco
Economía digital