Do not follow this hidden link or you will be blocked from this website !

 Le retour de l’économie keynésienne


Xavier RAGOT * Président, Observatoire français des conjonctures économiques (OFCE) ; directeur de recherche, CNRS ; professeur d'économie, Sciences Po. Contact : xavier.ragot@sciencespo.fr.
Les modèles macroéconomiques standards utilisés avant la crise, qualifiés de néokeynésiens, reposent sur la notion de taux d’intérêt naturel plutôt que de demande effective. Or les développements récents de la théorie macroéconomique modélisent de manière bien plus réaliste le fonctionnement du marché des biens et services et le fonctionnement du marché du travail. Ces modèles retrouvent les intuitions keynésiennes – sous-consommation, paradoxe de l’épargne – dans des cadres qui permettent une confrontation plus rigoureuse aux données. Le caractère keynésien ou néoclassique de l’économie ne devrait pas être un enjeu politique ou théorique, mais plutôt un enjeu empirique. À cet égard, des résultats économétriques récents indiquent par exemple que l’économie américaine se comporte de manière keynésienne dans les grandes crises et de manière non keynésienne dans les crises de moindre amplitude, ce qui devrait guider la politique économique.

La crise des subprimes commencée aux États-Unis et la période de convalescence de l’économie mondiale mettent en lumière plusieurs faits saillants : l’ajustement lent des prix, aussi bien sur les marchés des biens que sur le marché du travail, la présence d’un chômage de masse dans les pays du Sud de la zone euro, des multiplicateurs budgétaires élevés et l’existence d’une trappe à liquidité pour la politique monétaire. Tous ces éléments, présentés dans la première partie de l’article, étaient absents des modèles macroéconomiques standards qui représentaient une synthèse de la pensée macroéconomique avant la crise. Ces modèles qualifiés de « néokeynésiens » sont en fait plutôt « néowickselliens » et reposent sur la notion de taux d’intérêt naturel plutôt que de demande effective, comme on le montre dans la deuxième partie de l’article. Les développements récents de la théorie macroéconomique modélisent de manière bien plus réaliste le fonctionnement du marché des biens et des services et le fonctionnement du marché du travail. Ces développements retrouvent les intuitions au cœur de l’économie keynésienne comme la sous-consommation ou le paradoxe de l’épargne. Certains des mécanismes étaient identifiés dans les modèles dits « à prix fixes » avant les années 1980 (Barro et Grossman, 1971, ou Benassy, 1986, parmi d’autres). Ces modèles retrouvent ces intuitions dans des cadres qui permettent une confrontation plus rigoureuse des données. Le caractère keynésien ou néoclassique de l’économie ne devrait pas être un enjeu politique ou théorique, mais plutôt un enjeu empirique. Les résultats économétriques (Challe et al., 2015) indiquent, par exemple, que l’économie américaine se comporte de manière keynésienne dans les grandes crises et de manière non keynésienne dans les crises de moindre amplitude, ce qui devrait guider la politique économique.

Les dysfonctionnements des théories économiques révélés par la crise

Huit ans après le début de la crise des subprimes commencée en 2008 aux États-Unis, la terne convalescence économique cache une divergence des conjonctures entre les pays. Si les États-Unis ont durablement retrouvé un taux de chômage faible (avec un taux d’emploi faible, il est vrai) et connaissent une croissance élevée, dans la zone euro, la croissance est poussive, et la croissance chinoise connaît un ralentissement marqué. Cette hétérogénéité des situations économiques est perceptible au sein de l’Union européenne. Les taux de chômage anglais et allemand sont de l’ordre de 5 %, il est le double en France, et le taux de chômage espagnol est plus de deux fois le taux de chômage français. Cette hétérogénéité est aussi le résultat des politiques économiques menées dans les différentes régions du monde1. Les États-Unis ont mené tôt des politiques budgétaires et monétaires très accommodantes. Leur dette publique ainsi que celle de la Grande-Bretagne rapportées au produit intérieur brut (PIB) ont crû de plus de 40 % entre 2007 et 2014, alors que l’augmentation de la dette publique de la France était de l’ordre de 30 % pendant la même période2. De même, la politique monétaire de quantitative easing, consistant en un rachat massif de dettes publiques par les banques centrales, a commencé dès 2009 aux États-Unis pour ne débuter qu’en 2015 dans la zone euro3.

Cette période a-t-elle changé en profondeur la façon dont les économistes comprennent le fonctionnement des économies de marché ? De nouvelles théories ont-elles émergé pour rendre compte soit de l’instabilité macroéconomique de 2008, soit de la lenteur et de la diversité des rythmes de rétablissement ? La recherche économique a fait preuve d’une très grande diversité des approches après la crise de 2008, qui n’est pas perçue par le grand public. Que ce soit le rôle de l’irrationalité des acteurs financiers dans l’instabilité financière (Shleifer et Vishny, 2010 ; Dubecq et al., 2014), le rôle des inégalités dans la macroéconomie (notamment les travaux de Piketty ou de Kumhof et al., 2015), la prise de risque excessive du secteur bancaire du fait du soutien implicite des États (Farhi et Tirole, 2012) et le rôle de la dérive de l’endettement comme facteur de crise (Schularick et Taylor, 2012), de nombreuses pistes sont aujourd’hui explorées. À la diversité des sujets s’ajoutent la diversité des méthodes, comme l’analyse des données des ménages ou des entreprises, les données historiques ou les modèles théoriques. Cette diversité, voire cette profusion, peut donner l’image d’une dispersion de la pensée et d’une perte de cohérence. Parmi tous ces mécanismes, qu’est-ce qui est important pour la macroéconomie ? La hiérarchisation des mécanismes et des modèles est essentielle pour l’analyse économique car les implications des politiques économiques peuvent être contradictoires ou, difficulté additionnelle, peuvent renvoyer à des temporalités différentes. La dette publique est un exemple particulièrement important. La question n’est pas tant le niveau optimal de dette publique, mais le rythme de convergence d’un niveau observé vers un niveau optimal. Malheureusement, les modèles de long terme n’incluent pas des mécanismes de court terme. Il faut donc prendre l’ensemble des modèles produits de l’analyse économique pour les penser ensemble. Chaque modèle doit être pensé comme un mot qui aide à produire une narration expliquant la situation économique dans toute sa complexité. L’enjeu n’est pas seulement intellectuel, il s’agit plus prosaïquement de ne pas faire d’erreur de politique économique ou de ne pas promettre l’impossible.

Cet article avance l’idée que l’on assiste à un renouveau de la pensée keynésienne avec de nouveaux outils : la notion de demande effective, donc de sous-consommation et de sous-investissement, est maintenant reconceptualisée. Cette affirmation pourrait paraître saugrenue pour deux raisons. Il est tout d’abord étrange d’affirmer que la modernité prend la forme d’un retour à Keynes, qui est le plus ancien des macroéconomistes. Cette contradiction est bien sûr apparente, le retour aux réflexions autour de la demande effective se fait au sein d’un corpus théorique bien plus précis et développé. Ensuite, comment invoquer un retour à la pensée keynésienne, alors que le consensus parmi les macroéconomistes et les institutions internationales (notamment au sein des banques centrales) est réalisé depuis le début des années 2000 autour de modèles néokeynésiens ? Le retour à Keynes n’est-il pas déjà réalisé dans la pratique ? Une précision s’impose en effet. Il sera démontré plus loin que ces modèles DSGE (de l’anglais dynamic stochastic general equilibrium) dits « néokeynésiens » sont en fait « néowickselliens », et qu’ils ne reposent pas sur une conception de la demande agrégée, mais sur une notion de taux d’intérêt naturel4.

Contenu informationnel des prix et inefficience des marchés

Au sein de la théorie macroéconomique, la théorie keynésienne regroupe, souvent de manière indistincte, tous les modèles au sein desquels la seule coordination par le système de prix est inefficace5. Elle s’oppose donc à la théorie des marchés efficients. Pour résumer, l’approche des marchés efficients regroupe les considérations à la fois walrassiennes et autrichiennes6. Dans ce cadre, la seule concurrence entre les acteurs économiques conduit le système de prix à résumer toute l’information pertinente. La coordination par les prix aboutit soit à un optimum social (approche walrassienne), soit plus modestement au moins mauvais des mondes possibles (approche autrichienne). L’approche keynésienne considère que le contenu informationnel des prix n’est pas adéquat et que l’économie peut se trouver en situation de sous-emploi des facteurs, donc en situation de chômage involontaire. L’intervention publique peut améliorer la situation économique en modifiant des quantités échangées sur les marchés : la quantité de biens pour modifier la demande et l’activité économique, la quantité de monnaie, la quantité de crédit ou encore la quantité de dette publique. Il existe un grand nombre de modèles qui conduisent à un contenu informationnel inadéquat des prix. Ces modèles peuvent être fondés sur l’incomplétude des marchés financiers, sur les asymétries informationnelles qui aboutissent à des contraintes de crédit, sur des comportements sophistiqués de formation des anticipations ou, au contraire, sur des comportements routiniers, ou encore sur des limites dans les capacités des acteurs économiques à simplement traiter l’information (Sims, 2005).

Le contenu informationnel inadéquat des prix peut aboutir à des symptômes opposés. Le premier est une volatilité excessive. Ce mécanisme est présent sur les marchés financiers et son identification précise a été récompensée par la remise du prix Nobel d’économie à Robert Schiller. Le second symptôme est un mouvement trop lent des prix par rapport au changement de situation économique. Ce phénomène, qualifié de « rigidités nominales », s’observe sur les marchés des biens et des services et sur le marché du travail. La période de convalescence économique est keynésienne en ce que l’on observe un retour spectaculaire des rigidités nominales et de la volatilité financière.

Le retour des rigidités nominales

Quatre exemples permettent de mesurer l’amplitude des rigidités nominales pour les économies développées.

Le premier exemple est la crise de la zone euro en général et de la Grèce en particulier. Le cœur des déséquilibres macroéconomiques dans la zone euro provient de la différence des balances commerciales et courantes qui conduit à une polarisation entre des pays du Nord, comme l’Allemagne, qui sont fortement exportateurs et des pays du Sud, comme l’Espagne, qui sont fortement importateurs et qui s’endettent donc par rapport au reste du monde. La cause de ces déséquilibres n’est pas une politique fiscale irresponsable (rappelons que la dette publique espagnole était inférieure à 40 % du PIB en 2007), mais une évolution différenciée des salaires. Cette divergence est le produit d’un double mouvement. Les salaires (le coût unitaire du travail en particulier) et les prix des pays du Sud ont crû plus vite que la moyenne européenne. Ensuite, les salaires allemands ont augmenté bien moins vite que la moyenne européenne du fait de la modération salariale allemande commencée au milieu des années 1990 (Dustmann et al., 2014). Une estimation des désajustements nominaux (iAGS, 2016, chapitre 3) indique que la Grèce est encore surévaluée de l’ordre de 20 % par rapport à la moyenne européenne. Le Moigne et Ragot (2015) comparent les différences entre les dynamiques des prix et des salaires entre la France et l’Allemagne pour le secteur des biens échangeables et des biens non échangeables. L’écart des dynamiques des salaires est manifeste entre les pays pourtant proches sur le plan commercial et explique de l’ordre de la moitié de l’écart des performances exportatrices des deux pays. Ainsi, les déséquilibres macroéconomiques des balances courantes n’ont pas conduit à des effets correcteurs sur les niveaux des prix et des salaires dans la zone euro.

Le deuxième exemple est le cas espagnol, plus spécifiquement. La surévaluation de l’Espagne a conduit le gouvernement à s’engager de manière trop brutale dans une politique de dévaluation interne, qui consiste à faire baisser le niveau des prix afin de faire décroître le taux de change interne de l’Espagne au sein de la zone euro. Cette politique a conduit le gouvernement à utiliser les moyens disponibles pour faire baisser les salaires, dans le but de faire baisser les prix. Le résultat n’a pas été celui escompté. Certes, les salaires ont baissé, mais les prix ont très peu diminué. En conséquence, les marges des entreprises ont considérablement augmenté, attirant les investissements étrangers7. Le retour espagnol se fait donc par une hausse de la part des profits dans l’économie. La part des profits des entreprises non financières en Espagne, mesurée par l’excédent brut d’exploitation rapporté à la valeur ajoutée, a crû de 37 % en 2006 à 43 % en 2014. Dans d’autres pays, des rigidités salariales à la baisse sont identifiées de longue date dans l’analyse économique. Si l’effet sur la consommation est le même, les ménages ne perçoivent pas de la même manière une hausse de l’inflation et une baisse du salaire nominal. Schmitt-Grohé et Uribe (2013) documentent l’existence de rigidités nominales de nombreux pays de la zone euro. Le cas du Portugal est en particulier étudié par Martins (2013).

Troisième exemple, la faible réaction des prix après la crise ne concerne pas seulement les pays de la zone euro, mais aussi les États-Unis. En effet, selon les estimations standards, l’inflation aurait dû décroître bien plus aux États-Unis que ce qui a été observé pendant la période 2008-2011. Il existe un vif débat sur les causes de cette désinflation manquante (Coibion et Gorodnichenko, 2013, par exemple). L’une des explications est que la crédibilité des banques centrales est telle que les agents anticipent toujours un taux d’inflation proche de 2 % et formulent des revendications salariales ancrées sur cette croyance, quel que soit l’état de l’économie (Bernanke, 2010).

La présentation précédente ne précise pas les causes des rigidités nominales, mais indique seulement leur existence sur le marché des biens et du travail. Quatrième exemple, un second type de rigidités nominales concerne les marchés financiers et est bien plus facile à comprendre : il s’agit de la borne zéro des taux d’intérêt nominaux, baptisée « trappe à liquidité ». La politique monétaire fixe le taux d’intérêt nominal sur le marché interbancaire. Théoriquement, un taux d’intérêt nominal négatif est impossible car il reviendrait à taxer la monnaie et les agents auraient toujours intérêt à conserver leur monnaie en billets de banque (taux d’intérêt nominal nul) plutôt que d’accepter un taux d’intérêt négatif. Dans la pratique, le coût de stockage de billets, les coûts de transaction afférents permettent aux banques centrales de visiter des territoires où le taux d’intérêt est négatif. Il existe cependant une borne inférieure, inconnue certes, pour le taux d’intérêt nominal. La trappe à liquidité est étudiée dans de nombreux articles, notamment depuis l’expérience japonaise (Krugman, 1998 ; Eggertsson et Woodford, 2003).

Ainsi assiste-t-on à un retour de nombreuses rigidités nominales dans l’ajustement macroéconomique. Avant de préciser les implications pour la théorie économique et pour la politique monétaire et fiscale, il convient de préciser pourquoi ces rigidités sur plusieurs marchés n’étaient pas au cœur des précédentes théories macroéconomiques, notamment des modèles néokeynésiens, de type DSGE.

La modélisation macroéconomique : Wicksell, Keynes et les agents hétérogènes

Modèles néokeynésiens et néowickselliens : le rôle du taux d’intérêt naturel

La modélisation macroéconomique a inclus de longue date la politique monétaire au sein de modèles d’anticipations rationnelles en formalisant les rigidités nominales sur le seul marché des biens. Ce cadre de base a été baptisé « modèle néokeynésien » et il repose sur une formalisation de l’inflation qui s’ajuste lentement à l’activité économique. La politique de la banque centrale qui fixe le taux d’intérêt nominal peut influencer le taux d’intérêt réel. Le modèle étudie alors l’effet du taux d’intérêt réel pour l’activité économique. Le cœur néokeynésien consiste à identifier le bon niveau de taux d’intérêt réel pour l’activité économique (Woodford, 2003). Le cœur des déséquilibres macroéconomiques est alors une déviation du taux d’intérêt par rapport au taux d’intérêt susceptible de stabiliser l’activité économique, dénommé le « taux d’intérêt naturel ». Par exemple, un taux d’intérêt trop bas pendant trop longtemps amènerait une dynamique déstabilisante de l’endettement, car la demande de crédit augmenterait (coût faible du crédit) aussi bien que l’offre (recherche de rendement), aboutissant à une prise de risque excessive (Dubecq et al., 2014). Taylor (2010), par exemple, explique la crise économique des subprimes par un taux d’intérêt trop faible pendant trop longtemps et donc par une politique monétaire trop accommodante.

La centralité du taux d’intérêt pour l’analyse économique est associée au nom de l’économiste suédois Knut Wicksell. De fait, les modèles DSGE néokeynésiens sont souvent qualifiés de « neowickselliens » (Canzoneri et al., 2008, par exemple). Le rôle des rigidités nominales est principalement de permettre à la politique monétaire d’avoir un effet réel, car les rigidités nominales n’ont lieu que sur le marché des biens. Le modèle de base néokeynésien devrait donc être rebaptisé « néowicksellien ».

Le rôle de la politique budgétaire permet de rendre compte de la nature wicksellienne de ces modèles. En effet, une hausse de la demande agrégée du fait d’une politique budgétaire accommodante conduit à un multiplicateur budgétaire faible, souvent inférieur à 1 (Woodford, 2010). Probablement pour cette raison, la profession des économistes utilisant ces modèles néokeynésiens a sous-estimé l’impact récessif des politiques budgétaires restrictives. Le débat empirique sur la valeur des multiplicateurs fait rage. Cependant, un consensus semble se dégager après les travaux du Fonds monétaire international (FMI) vers une valeur des multiplicateurs pouvant être largement supérieure à l’unité (FMI, 2012)8.

Rigidités nominales : la « vieille » tradition keynésienne

Les modèles néokeynésiens introduisant des rigidités nominales sur un seul marché s’opposent à une « vieille » tradition keynésienne qui étudie la présence simultanée de rigidités nominales sur plusieurs marchés. Cette tradition des modèles à prix fixes repose sur de nombreuses contributions élaborées dans les années 1970 et qui avaient pour objectif de reformuler le modèle keynésien historique (élaboré par Hicks, c’est-à-dire le modèle IS/LM) dans un cadre rigoureux. La contribution de Barro-Grossman (1971) a été développée par Benassy (1986) avec la contribution de nombreux économistes français. Ce courant de recherche a presque disparu dans les années 1990, du fait de l’absence de microfondation de la rigidité des prix à cette époque, au profit des modèles qualifiés de « néokeynésiens »9. La question est aujourd’hui l’introduction de ces rigidités dans un cadre réaliste. Cela demande un ingrédient supplémentaire, le traitement de l’hétérogénéité.

Représentation de l’hétérogénéité/inégalité dans la macroéconomie

La présence de rigidités nominales conduit à l’existence de chômage involontaire10. Des travailleurs ne trouvent pas d’emplois au salaire en vigueur. En présence de chômage involontaire, les agents économiques sont très différents suivant leur trajectoire salariale : l’économie est composée de travailleurs stables et de chômeurs de longue durée, d’entreprises florissantes et d’entreprises luttant pour trouver des clients. La représentation de cette hétérogénéité est une difficulté formidable pour la science économique, qui demande des développements mathématiques inédits. Face à de telles difficultés, la profession des macroéconomistes a suivi deux pistes. La première piste a consisté à faire comme si cette hétérogénéité n’existait pas. Dans un premier temps, il a été supposé que l’économie était composée d’un agent représentatif, comme une grande famille dont les membres se séparaient pour aller sur différents marchés pour se retrouver le soir au repas familial en mettant toutes les ressources en commun. Il ne faut pas être trop sévère avec cette hypothèse hautement irréaliste. Elle est souvent introduite de manière pragmatique car on ne sait pas trop comment faire autrement. Deuxième piste, une autre branche de l’économie étudie les modèles dits « à agents hétérogènes » qui représentent explicitement l’hétérogénéité, mais dans des cadres bien plus simples. La tradition des agents hétérogènes provient initialement de contributions en théorie de la monnaie par Bewley-Huggett (voir Aiyagari, 1994, et Krusell et Smith, 1998, entre autres). Considérer l’hétérogénéité de la population est incroyablement difficile et repose très souvent sur des simulations numériques qui tirent parti de la puissance croissante des ordinateurs.

Les nouvelles formulations et le retour du paradoxe de l’épargne de Keynes

Au terme de cette mise en perspective, il apparaît que la théorie macroéconomique doit maintenant introduire des rigidités nominales sur différents marchés dans des modèles à agents hétérogènes. Quelques contributions récentes proposent aujourd’hui une telle synthèse et se caractérisent par une grande technicité du fait du traitement de l’hétérogénéité des acteurs économiques. Les contributions récentes incluent Gornemann et al. (2012), ou Ravn et Sterk (2013). La contribution la plus quantitative11 est fournie par l’article de Challe et al. (2015). Les auteurs introduisent différentes frictions en utilisant des techniques économétriques pour rendre compte des faits saillants : l’ampleur des inégalités de revenus et de richesse aux États-Unis, le fonctionnement du marché du travail américain, avec les données maintenant connues de retour à l’emploi pour les chômeurs et de perte d’emploi pour les employés, et enfin les rigidités nominales sur le marché des biens. Ce modèle permet de penser la notion de demande effective dans un cadre rigoureux. Plutôt que de décrire la technicité du modèle, il convient de prendre du recul pour identifier les mécanismes en jeu.

Le cœur de la question relative à la demande effective est de savoir si le choix de consommation et d’épargne des ménages est un choix optimal au sens économique ou s’il peut conduire à une demande effective trop faible et donc à une hausse du chômage, ce qui justifie une politique fiscale expansionniste. Par exemple, si les ménages anticipent une hausse du chômage, il est parfaitement normal qu’ils décident d’épargner plus par précaution pour s’auto-assurer contre la perte éventuelle de leur emploi12. Cette décision est parfaitement rationnelle sur le plan économique, mais elle conduit à une chute de la demande agrégée, ce qui entraîne une baisse de la production et non des prix, du fait des rigidités nominales qui jouent ici un rôle central. La chute de la demande agrégée accroît le taux de chômage, ce qui augmente l’épargne de précaution (faisant décroître de manière additionnelle la demande agrégée). Les auteurs montrent dans un exercice quantitatif que l’auto-assurance et la chute de la demande agrégée expliquent de l’ordre de la moitié de la chute de la consommation aux États-Unis après la crise de 2008. Cependant, ces mécanismes ne semblent pas à l’œuvre dans les récessions américaines de moindre ampleur. Ainsi, par des modèles d’une grande technicité, on retrouve les intuitions déjà identifiées par Keynes du paradoxe de l’épargne : épargner conduit par définition à ne pas consommer, ce qui génère des externalités de demande négative (c’est-à-dire une chute de la demande agrégée), qui conduit à une baisse de l’activité économique et donc du revenu, ce qui peut réduire à la fois la consommation et paradoxalement l’épargne elle-même.

Dans un tel cadre, il est possible de penser rigoureusement les notions de sous-consommation et de sous-investissement. On le voit, il s’avère que le retour de la pensée keynésienne demande une utilisation de modèles complexes et de techniques économétriques sophistiquées pour confronter le modèle aux données. Cette relative technicisation est utile lorsqu’elle n’est pas utilisée comme un substitut à l’intuition économique, mais plutôt comme une manière d’ancrer l’intuition théorique dans un cadre rigoureux permettant une quantification.

Le mécanisme du paradoxe de l’épargne (paradoxe of thrift chez Keynes) repose sur l’existence de rigidités nominales. Sans elles, la hausse de l’épargne et la chute de la consommation aboutissent à une évolution des prix qui stabilise l’économie. Avec des prix flexibles, la hausse du taux d’épargne se traduit par une baisse du taux d’intérêt réel, ce qui permet aux entreprises d’investir et donc de relancer l’activité économique. En d’autres termes, sans rigidités nominales, le canal de la demande disparaît au profit du canal de l’offre qui passe par l’augmentation de l’investissement et qui est très stabilisateur pour l’économie. Challe et al. (2015) montrent que le canal de la demande prédomine lors de récessions importantes, comme celle de 2008, alors que le canal de l’offre peut dominer lors de retournement de l’activité d’amplitude faible. Au fond et comme on peut s’y attendre, la question de savoir si le monde se comporte de manière keynésienne, c’est-à-dire avec la présence forte d’externalités de demande, ou de manière néoclassique est une question empirique et non théorique.

Conclusion

Le retour de la pensée keynésienne est d’abord une réalité empirique avant d’être une posture théorique. La crise ouverte en 2008 aux États-Unis, puis la gestion de la crise de la zone euro ont montré à la fois la présence de rigidités nominales importantes, l’existence de multiplicateur budgétaire élevé, la contrainte de la trappe à liquidité du fait de contraintes sur le taux d’intérêt nominal, et enfin une hausse importante du chômage involontaire. Tous ces éléments sont au cœur de la macroéconomie keynésienne, mais demandent aujourd’hui des modèles sophistiqués pour être confrontés aux données. La discipline économique se technicise et s’éloigne parfois de plus en plus de la teneur politique des débats de politique économique. La question de savoir si le monde se comporte de manière keynésienne ou en lien avec la politique de l’offre ne devrait pas être un enjeu politique, mais plutôt un débat intellectuel rigoureux. Au terme de ce panorama, il nous faut conclure au retour de la pensée keynésienne.


Notes

1 Le panorama macroéconomique n’est ici qu’esquissé. Voir le rapport iAGS (2016), par exemple, pour une présentation plus détaillée de la situation de chaque pays (www.progressiveeconomy.eu/sites/default/files/iAGS 2016 V1.pdf).
2 Voir, par exemple, les données sur le site de la Federal Reserve Bank of St. Louis : https://research.stlouisfed.org/fred2/series/GFDEGDQ188S.
3 Il convient de noter la grande incertitude macroéconomique qui caractérise cette année 2016. Les fluctuations des indices boursiers, l’incertitude sur la croissance de court et moyen terme indiquent à quel point il est difficile de conclure à la fin de la période de convalescence de l’économie mondiale. À cette incertitude endogène s’ajoutent les incertitudes sur les effets du changement climatique et des déplacements des populations en Europe.
4 Une dernière critique avance l’incongruité d’un retour à Keynes alors que les nouvelles technologies de l’information et de la communication nous projettent dans une période schumpetérienne de destruction créatrice et d’innovations radicales, qui pourraient, par exemple, contribuer à une réduction de la consommation d’énergie fossile et d’émission de CO2. Plutôt qu’opposition, il faut ici penser complémentarité des analyses. On assiste certes indéniablement à une forme nouvelle de progrès technique, la question posée est comment ce progrès technique se transforme en croissance à court et moyen terme. Les réflexions de nature keynésienne consistent à se demander si le progrès technique peut accroître le chômage à court et moyen terme et donc à penser la période de transition avant que le changement technique ne s’épanouisse dans de nouvelles pratiques.
5 La diversité des approches est présentée dans les deux volumes déjà anciens de New Keynesian Economics de Mankiw et Romer (1991).
6 L’approche walrassienne est formalisée au sein du modèle d’Arrow et Debreu. L’approche autrichienne repose sur les travaux de Hayek Von Mises. Un courant néoautrichien est toujours actif en économie.
7 Voir le site : https://ec.europa.eu/eurostat/tgm/table.do?tab=table&init=1&language=en&pcode=tec00100&plugin=1.
8 Pour avoir de telles valeurs, une grande variété de frictions doivent être introduites dans les modèles macroéconomiques : soit des rigidités nominales sur le marché des biens et sur le marché du travail (Gali et al., 2007), soit des rigidités sur le marché des biens et sur les marchés financiers (borne zéro des taux d’intérêt, Christiano et al., 2011). Comme il a été rappelé supra, ces frictions étaient rarement considérées simultanément avant la crise de 2008, pourtant l’appréhension simultanée des rigidités nominales est précisément la contribution de la « vieille » tradition keynésienne.
9 Les modèles d’ajustement imparfaits des prix ont été élaborés au début des années 1980 avec les formulations maintenant de type standard de Calvo, Rotemberg ou Taylor. La macroéconomie actuelle introduit en effet les rigidités de prix de deux manières différentes. Premièrement, il est supposé que les producteurs possèdent des pouvoirs de monopole qui leur permettent de fixer les prix (en tenant compte de la concurrence imparfaite des autres producteurs), le cadre de base est issu de la contribution de Dixit et Stiglitz. Deuxièmement, il est supposé que les marchés fonctionnent mal et que les vendeurs et les acheteurs se rencontrent de manière aléatoire sur les marchés et décident du prix de la transaction après une négociation bilatérale. Ce modèle, qualifié de « modèle d’appariement », est dû à la contribution de Diamond (1981) qui a reçu le prix Nobel en 2010. Ce modèle d’appariement est maintenant le modèle canonique de modélisation du marché du travail depuis les travaux de Mortensen et Pissarides. Comme l’a souligné Robert Hall, le modèle d’appariement peut aboutir à des salaires et des prix rigides et possiblement indépendants de la conjoncture économique.
10 La modélisation du fonctionnement réaliste des marchés aboutit à l’existence de rationnement. Des acteurs économiques voudraient acheter ou vendre au prix en vigueur, mais ne peuvent le faire, et le prix ne s’ajuste pas. Ce concept abstrait de rationnement prend une tonalité bien plus concrète lorsqu’il est appliqué au marché du travail : le rationnement est l’autre nom du chômage involontaire.
11 L’article de Challe et al. (2015) repose sur un développement de Challe et Ragot (2015). Ce dernier article présente un cadre théorique sans rigidités nominales. De fait, les mécanismes présentés dans l’article sont absents.
12 L’auto-assurance dans un tel cadre est le résultat de l’incomplétude des marchés d’assurance, dans la tradition de Bewley, Huggett et Aiyagari : l’auto-assurance est un substitut à l’assurance.

Bibliographies

Aiyagari S. R. (1994), « Uninsured Idiosyncratic Risk and Aggregate Saving », The Quarterly Journal of Economics, vol. 109, pp. 659-684.
Auerbach A. J. et Gorodnichenko Y. (2012), « Measuring the Output Responses to Fiscal Policy », American Economic Journal: Macroeconomics, vol. 4, n° 2, pp. 1-27.
Barro R. et Grossman H. (1971), « A General Disequilibrium Model of Income and Employment », American Economic Review, vol. 61, n° 1, pp  82-93.
Benassy J.-P. (1986), Macroeconomics: an Introduction to the Non-Walrasian Approach, Academic Press.
Bernanke B. (2010), « The Economic Outlook and Monetary Policy », discours délivré au Federal Reserve Bank of Kansas City Economic Symposium, Jackson Hole, Wyoming, 27 août.
Canzoneri M., Cumby R., Diba B. et Lopez-Salido D. (2008), « Monetary Aggregates and Liquidity in a Neo-Wicksellian Framework », Journal of Money Credit and Banking, vol. 40, n° 8, pp. 1667-1698.
Challe E., Matheron J., Ragot X. et Rubio-Ramirez J. F. (2015), « Precautionary Saving and Aggregate Demand », document de travail.
Challe E. et Ragot X. (2015), « Precautionary Saving over the Business Cycle », The Economic Journal.
Christiano L., Eichenbaum M. et Rebelo S. (2011), « When Is the Government Spending Multiplier Large? », Journal of Political Economy, vol. 119, n° 1, pp. 78-121.
Coibion O. et Gorodnichenko Y. (2013), « Is the Phillips Curve Alive and Well After All? Inflation Expectations and the Missing Disinflation », in Lessons from the Financial Crisis for Monetary Policy, National Bureau of Economic Research.
Diamond P. (1981), « Aggregate Demand Management in Search Equilibrium », Journal of Political Economy, vol. 90, n° 5.
Dubecq S., Mojon B. et Ragot X. (2014), « Risk-Shifting, Fuzzy Capital Constraint and the Risk-Taking Channel of Monetary Policy », International Journal of Central Banking, vol. 11, n° 1, pp. 71-101.
Dustmann C., Fitzenberger B., Schönberg U. et Spitz-Oener A. (2014), « From Sick Man of Europe to Economic Superstar: Germany’s Resurgent Economy », Journal of Economic Perspectives, vol. 28, n° 1, pp. 167-188.
Eggertsson G. B. (2011), « What Fiscal Policy is Effective at Zero Interest Rates? », NBER Macroeconomics Annual, vol. 25, pp  59-112.
Eggertsson G. B. et Woodford M. (2003), « The Zero Bound on Interest Rates and Optimal Monetary Policy », Brookings Papers on Economic Activity, n° 1, pp. 139-234.
Farhi E. et Tirole J. (2012), « Collective Moral Hazard, Maturity Mismatch and Systemic Bailouts », American Economic Review, vol. 102, n° 1, pp. 60-93.
FMI (Fonds monétaire international) (2012), IMF Global Prospects and Policies Report, p. 43.
Galí J., López-Salido D. et Vallés J. (2007), « Understanding the Effects of Government Spending on Consumption », Journal of the European Economic Association, MIT Press, vol. 5, n° 1, pp. 227-270.
Gornemann N., Kuester K. et Nakajima M. (2012), « Monetary Policy with Heterogeneous Agents », Federal Reserve Bank of Philadelphia, Working Paper, n° 12-21.
iAGS (2016), Give Recovery a Chance, sous la direction de Timbeau X., OFCE, 117 p.
Jorda O. (2005), « Estimation and Inference of Impulse Responses by Local Projections », American Economic Review, vol. 95, n° 1, pp. 161-182.
Krugman P. R. (1998), « It’s Baaack: Japan’s Slump and the Return of the Liquidity Trap », Brookings Papers on Economic Activity, vol. 29, n° 2, pp. 137-205.
Krusell P. et Smith A. A. (1998), « Income and Wealth Heterogeneity in the Macroeconomy », Journal of Political Economy, vol. 106, n° 5, pp. 867-896.
Kumhof M., Rancière R. et Winant P. (2015), « Inequality, Leverage and Crises », American Economic Review, vol. 105, n° 3, pp. 1217-1245.
Le Moigne M. et Ragot X. (2015), « France Allemagne : une histoire du désajustement européen », Revue de l’OFCE, vol. 142, pp. 177-231.
Mankiw G. et Romer D. (éd.) (1991), New Keynesian Economics, vol. 1 et 2, MIT Press.
Martins F. (2013), « Survey Evidence on Price and Wage Rigidities in Portugal », Working Paper, n° 12, septembre.
Owyang M., Ramey V. A. et Zubairy S. (2013), « Are Government Spending Multipliers Greater during Periods of Slack? Evidence from Twentieth-Century Historical Data », American Economic Review, Papers and Proceedings, vol. 103, n° 3, mai, pp. 129-134.
Ramey V. A. (2011), « Identifying Government Spending Shocks: It’s All in the Timing », Quarterly Journal of Economics, vol. 126, n° 1, pp. 51-102.
Ramey V. A. et Zubairy S. (2014), « Government Spending Multipliers in Good Times and in Bad: Evidence from US Historical Data », National Bureau of Economic Research, Working Paper, n° 20719.
Ravn M. et Sterk V. (2013), « Job Uncertainty and Deep Recessions », University College London, mimeo.
Schmitt-Grohé S. et Uribe M. (2013), « Downward Nominal Wage Rigidity and the Case for Temporary Inflation in the Eurozone », Journal of Economic Perspectives, vol. 27, n° 3, été, pp. 193-212.
Schularick M. et Taylor A. M. (2012), « Credit Booms Gone Bust: Monetary Policy, Leverage Cycles and Financial Crises, 1870-2008 », American Economic Review, vol. 102, n° 2, pp. 1029-1061.
Shleifer A. et Vishny R.  W. (2010), « Unstable Banking », Journal of Financial Economics, vol. 97, n° 3, pp. 306-318.
Sims C. (2005), « Rational Inattention: a Research Agenda », Deutsche Bundesbank,Working Paper, n° 34.
Taylor J. B. (2010), « Getting Back on Track: Macroeconomic Policy Lessons from the Financial Crisis », Federal Reserve Bank of St. Louis Review, vol. 92, n° 3, mai/juin, pp. 165-176.
Woodford M. (2003), Interest and Prices, Princeton University Press.
Woodford M. (2011), « Simple Analytics of the Government Expenditure Multiplier », American Economic Journal: Macroeconomics, vol. 3, n° 1, pp. 1-35.