Do not follow this hidden link or you will be blocked from this website !

 La nouvelle régulation bancaire microprudentielle : principes, incidences et limites


Jean Paul POLLIN

* Professeur émérite, Laboratoire d'économie d'Orléans, Université d'Orléans. Contact : jean-paul.pollin@univ-orleans.fr.

Cet article se propose de présenter rapidement et d’évaluer les nouvelles dispositions du système de régulation micro-prudentielle, résultant des accords de Bâle III. On décrit d’abord les fondements et les grandes lignes de ces accords destinés à tirer les leçons de la crise financière. On cherche ensuite à en apprécier les coûts et avantages, d’un point de vue théorique puis empirique. Enfin on évoque trois questions qui devraient faire l’objet de traitements complémentaires pour permettre à la réforme d’atteindre sa pleine efficacité.

La consolidation des systèmes bancaires est à l’évidence l’une des conditions essentielles d’un retour à une croissance (plus) équilibrée dans la quasi-totalité des pays développés. On sait en effet qu’un système bancaire efficient et stable est nécessaire à la production des services de paiement et à la mobilisation de l’épargne, aux meilleures conditions de qualité, de coût et de sécurité.

On sait aussi que les banques jouent un rôle majeur (par la production de crédits et l’intermédiation de marché) dans l’allocation du capital. Or ce rôle sera d’autant plus important dans les circonstances de sortie de l’actuelle « Grande Récession », celles de l’émergence vraisemblable d’un nouveau modèle de croissance. Parce qu’il faudra orienter le capital vers de nouveaux secteurs et de nouveaux emplois, sans remettre en danger le circuit de financement. En l’occurrence, il ne s’agit pas d’interdire aux banques de prendre des risques, ce qui serait absurde, mais plutôt de faire en sorte qu’elles les apprécient, les gèrent, les tarifient correctement et les assument pleinement. Ce qui est peut-être la meilleure façon d’aborder la question de la régulation microprudentielle.

Car les particularités de l’activité bancaire rendent son fonctionnement dépendant, dans une large mesure, du dispositif de régulation, plus ou moins contraignant, mais toujours présent, auquel elle est soumise. En d’autres termes, plus que dans tous les autres secteurs de l’économie, l’efficience et la stabilité du secteur bancaire sont fonction de la qualité de sa régulation. Or la crise actuelle a démontré que le système issu des accords de Bâle I et Bâle II était manifestement défaillant. Il l’était dans le détail de ses dispositions, mais il l’était aussi dans sa conception. Ce qui rend sa reconstruction plus laborieuse.

Dans un premier temps, nous évoquerons donc les principales failles des accords de Bâle I et Bâle II, ainsi que les pistes retenues pour y remédier. Ensuite, nous analyserons des points de vue théorique et empirique, les coûts et les bénéfices du durcissement de la réglementation. Enfin, on traitera des compléments à apporter au nouveau dispositif pour lui donner une pleine efficacité.

Bâle III : une réforme pour tirer les enseignements de la crise

Si l’on s’en réfère aux rapports et aux déclarations de la Banque des Règlements Internationaux (BRI) ou du Comité de Bâle, les révisions du dispositif de contrôle prudentiel s’orientent dans trois directions principales : l’accroissement du niveau et de la qualité des fonds propres, l’extension de la couverture des risques et la prise en compte du risque de liquidité. Notre intention n’est pas ici de reprendre dans le détail ces orientations1. Nous allons plutôt revenir sur leurs fondements, leurs éventuelles ambiguïtés et difficultés de mise en œuvre.

Renforcer la qualité des fonds propres

Le premier objectif de la réglementation des fonds propres bancaires est de préserver la capacité d’absorption des pertes et de garantir ainsi la pérennité des établissements de crédit. Plus exactement, il s’agit de faire en sorte que la collectivité ne soit pas contrainte à assumer les conséquences de choix individuels parce que c’est inéquitable et que cela incite à la prise de risques (le fameux aléa de moralité). Or la crise a prouvé que la réglementation en vigueur était manifestement déficiente puisque nombre d’États ont été contraints à intervenir pour recapitaliser et offrir diverses garanties à leur secteur bancaire. Toutefois, le Comité de Bâle a considéré qu’il était surtout nécessaire (et urgent) d’accroître la qualité des capitaux propres, jugeant que, dans leur définition actuelle, leur capacité d’absorption était insuffisante. En d’autres termes, on comptabilisait jusqu’ici en capitaux propres, y compris dans le tier 1, des ressources qui n’en avaient pas vraiment les propriétés attendues. Une partie des produits hybrides, qui ont fait l’objet de nombreuses innovations au cours des vingt dernières années, ont été considérés comme des fonds propres alors qu’ils ont plutôt la nature de dettes.

Au demeurant le tier 1, qui, à la différence du tier 2, est censé absorber les pertes en situation de survie de la banque, était manifestement trop faible2. Ainsi, le « noyau dur » des fonds propres (core tier 1) ne devait représenter au minimum que 2 % des actifs pondérés des risques (soit un quart du capital total). Mais si l’on prend la définition qui sera retenue à l’avenir, c’est-à-dire les actions ordinaires et les bénéfices mis en réserves, ce minimum n’était que de 1 %. Naturellement, une majorité de banques présentait des ratios supérieurs à ce minimum, mais la BRI estime qu’un nombre significatif d’établissements avait un ratio compris entre 1 % et 3 %, soit un levier (sur core tier 1) allant de 33 à 100 (Hannoun, 2010).

On ajoutera qu’une partie des capitaux propres de certaines banques était apportée par des filiales (ou au contraire par la société holding). Or ce capital est peu disponible pour absorber des pertes dans la mesure où sa mobilisation est susceptible de mettre en difficulté l’institution actionnaire. Il s’agit donc d’une sorte de capital captif qui doit être déduit, au moins en partie.

Enfin, nous n’avons évoqué à ce stade que le ratio rapportant le core tier 1 aux actifs pondérés des risques tels que définis par la réglementation. Or on observe que le montant des actifs totaux (non pondérés) a évolué plus rapidement que celui des actifs pondérés. La BRI rapporte qu’entre le début de 2005 et le début de la crise au troisième trimestre 2007, la valeur des actifs des cinquante plus grandes banques mondiales a été multipliée par deux et demi, tandis que le montant de leurs actifs pondérés a été multiplié par deux (Hannoun, 2010). Cela ne s’explique évidemment pas par une orientation du portefeuille vers des actifs moins risqués, mais par un contournement de la réglementation. La titrisation, notamment, a permis de transformer des crédits en actifs considérés comme peu risqués supportant des charges en capital plus faibles. La possibilité trop largement offerte de faire glisser des actifs du banking book dans le trading book a agi dans la même direction. Il en est résulté naturellement une forte dégradation, dans les dix années précédant la crise, du ratio core tier 1 sur total des actifs.

Toutes ces dérives surprenantes ont été possibles non seulement parce que les définitions des différentes formes de capital étaient trop floues et trop compliquées, mais aussi parce que les superviseurs nationaux ont agi en ordre dispersé en jouant sur la diversité des systèmes juridiques et comptables. Peut-être aussi ont-ils souhaité interpréter les textes dans l’intérêt supposé de leur système bancaire. De ce point de vue, Bâle III réduit les marges d’interprétation en clarifiant sensiblement la définition des capitaux propres. Le core tier 1, compris de façon restrictive, en devient la catégorie essentielle puisqu’il représentera, à partir de 2015, au minimum 4,5 % des actifs pondérés (au lieu de 1 % dans les précédentes dispositions), pour un ratio total (tier 1 + tier 2) inchangé de 8 %. Auquel s’ajoutera un stock de capital de précaution (capital conservation buffer) requis de 2,5 % en 2019, lui aussi composé d’actions ordinaires et de profits mis en réserves.

Ces nouvelles dispositions supposent un effort de recapitalisation du système bancaire pris globalement qui n’est cependant pas gigantesque. Le BCBS (Basel Committee on Banking Supervision) estime que dans l’état actuel des choses, les grandes banques pour lesquelles il a pu obtenir les informations nécessaires présentent un ratio de core tier 1 aux actifs pondérés de 5,7 %, selon la nouvelle définition3. L’effort pour parvenir au ratio requis de 7 % (minimum + capital conservation buffer) ne serait donc que de 1,3 %, étalé sur sept ans à huit ans. Au demeurant, il s’agit là d’une exigence indispensable pour que le système bancaire puisse jouer correctement son rôle dans l’allocation du capital en prenant des risques qu’il est capable d’assumer.

Réviser l’évaluation des risques

Parmi les points très positifs du dispositif de Bâle I était l’idée d’établir une relation entre le montant du capital requis d’un établissement et le niveau des risques portés par ses actifs. Car le second objectif de la réglementation du capital bancaire doit être de neutraliser l’incitation des banques à la prise de risques. On montre en effet que la clause de responsabilité limitée, ajoutée à l’assurance dont disposent les déposants (qui les dissuadent de surveiller les risques), crée un biais de comportement des actionnaires en faveur du risque. Une façon de neutraliser ou de limiter ce biais est alors de lier la constitution des capitaux propres au niveau des risques de façon à en annuler l’avantage qu’en tirent les actionnaires. Toute augmentation de l’espérance de pertes doit induire un ajustement des garanties destinées à en assumer le coût.

Toutefois, si le principe retenu depuis Bâle I est parfaitement fondé, sa mise en application est difficile car pour être efficace, la réglementation suppose que l’évaluation des risques soit pertinente et aussi qu’elle soit vérifiable de l’extérieur de la banque (par le superviseur en particulier). Or c’est beaucoup demander car pour être pertinente l’évaluation est fatalement complexe. Tandis que pour être vérifiable de l’extérieur, elle exige au contraire la simplicité. Bâle I a choisi la simplicité en définissant des catégories d’actifs très larges auxquelles étaient associées des pondérations assez arbitraires. Ainsi, la vérification était facile, mais elle avait pour contrepartie une incitation à la prise de risques puisque des actifs de risques (et donc de rentabilités) très différents étaient classés dans la même catégorie, et donc supportaient la même charge en capital. En conséquence, il était davantage profitable d’investir dans des actifs plus risqués et plus rentables. Le dispositif encourageait en quelque sorte à un contournement de la réglementation. Or il faut rappeler que c’est bien ce dispositif qui était en place à la veille de la crise puisque Bâle II n’a été appliqué qu’en janvier 2007 en Europe ; les États-Unis ne l’appliquent pas encore.

Il n’empêche que depuis Bâle I, le Comité de Bâle a constamment travaillé sur de nouvelles mesures des risques, susceptibles de faire évoluer la méthode trop sommaire qui avait été arrêtée dans un premier temps. Pour aller en ce sens, le principe retenu a consisté à donner aux banques une plus grande responsabilité dans l’évaluation des risques en leur imposant des instruments, ou des modèles de référence, et surtout en vérifiant la qualité de leurs procédures d’estimation des paramètres à renseigner. C’est ainsi que l’on a procédé pour la mesure des risques de marché. C’est également cette idée qui a inspiré la rénovation de la mesure du risque de crédit dans Bâle II, selon les méthodes de notation interne.

Mais ces avancées laissent subsister de multiples imperfections dans la mesure des risques et de nombreuses possibilités de contournement de la réglementation. En lui-même, le modèle qui sert de base à Bâle II est théoriquement bien fondé, même si l’on peut contester certaines de ses hypothèses (facteur de risque unique, nature du processus stochastique…). Mais c’est surtout son paramétrage qui pose problème. Entre autres :

  • l’estimation des probabilités de défaut et des pertes en cas de défaut est généralement faite en utilisant des séries trop courtes et non stationnaires. Celles-ci ne captent pas la probabilité d’événements extrêmes ;
  • le traitement des corrélations par classe d’actifs est trop sommaire. Par exemple, on peut faire l’hypothèse d’absence de corrélation des défauts sur des prêts immobiliers aux particuliers, mais pas en situation d’éclatement d’une bulle immobilière. Dans ce cas, évidemment important, les calculs s’avèrent erronés ;
  • une couverture n’a guère de valeur et ne devrait donc pas servir à neutraliser le risque sur l’actif prétendument couvert lorsqu’elle a pour contrepartie une institution trop exposée à un choc pouvant affecter l’actif en question.

La crise a d’ailleurs fait apparaître d’importants déséquilibres entre les taux de pertes subis sur certaines classes d’actifs et les pondérations qui leur étaient affectées dans le calcul des exigences en capital. C’est le cas, par exemple, pour certains risques souverains qui ne faisaient l’objet d’aucune charge en capital.

Pourtant, les évolutions inscrites dans Bâle III ne devraient pas apporter d’améliorations sensibles sur ces différents points. Les nouvelles dispositions concernent principalement le trading book, puisque c’est à ce niveau que se sont concentrées les pertes durant la crise et parce qu’il a été un lieu essentiel de contournement de la réglementation. C’est ainsi que les produits de titrisation seront traités de la même façon, qu’ils soient inscrits dans le trading book ou dans le banking book ; de même que vont augmenter les charges en capital sur les engagements de crédits accordés aux conduits et aux SIV (structured investment vehicles), ainsi que sur les risques de contrepartie dans les opérations de gré à gré, sur dérivés ou sur repos… Mais au total, ces aménagements, même s’ils vont dans le bon sens, seront bien loin de combler l’écart entre la réalité des risques (telle que l’estiment les banques en interne ou telle qu’elle se révèle a posteriori) et leur mesure prudentielle. De sorte que l’objectif visant à lier, à des fins d’incitations, le montant du capital requis à la prise de risques sera toujours plus ou moins déçu. Peut-être même est-il illusoire. Il faut donc sans doute compter sur d’autres mécanismes pour discipliner le comportement bancaire à l’égard du risque.

C’est, entre autres, l’une des raisons pour lesquelles Bâle III a souhaité introduire un ratio de levier qui fixe une limite au montant des actifs (dans le bilan, mais aussi en partie hors-bilan) non pondérés du risque en proportion des capitaux propres. Ce ratio est aussi un instrument de régulation macroprudentielle, mais pour ce qui concerne notre problème, il a pour objectif de pallier les imperfections des mesures réglementaires des risques. Des travaux récents ont d’ailleurs montré que ce ratio était un meilleur prédicteur des pertes bancaires qu’un ratio rapportant le tier 1 aux actifs pondérés des risques4. Mais plus encore, ce peut être un autre moyen pour réduire l’aléa de moralité qui incite à la prise de risques. Car plus le montant exigé de capitaux propres est élevé, plus les actionnaires sont susceptibles d’assumer des pertes importantes et plus l’incitation à la prise de risques se réduit et possiblement disparaît5. La question à résoudre se transforme alors pour devenir un problème de gouvernance. Il s’agit de savoir si les dirigeants de la banque se conduisent en fonction des intérêts bien compris de leurs actionnaires, ou s’ils préfèrent privilégier une croissance qui les conduit à prendre des risques, mais qui conforte leur position et leurs rémunérations.

Réglementer la liquidité

Lorsque le Comité de Bâle a débuté ses travaux, au milieu des années 1980, l’introduction d’une réglementation de la liquidité avait été envisagée. Mais le projet a rapidement été abandonné. Peut-être parce que l’exercice s’est révélé trop difficile et aussi parce que le Comité de Bâle a dû considérer que la solvabilité d’un établissement devait suffire à assurer sa liquidité.

La crise financière a démontré qu’il n’en était rien. Lorsque la défiance s’est installée sur le marché monétaire, du fait des incertitudesconcernant la détention d’actifs toxiques, les taux se sont brusquement tendus et les échanges se sont contractés, dans un scénario « à la Akerlof ». De sorte que les établissements dépendant de ce marché pour leur financement ont connu de sérieuses difficultés et certains n’ont pas survécu ou ne l’ont fait (tel Northern Rock) que grâce à une intervention publique. D’autant que des banques ou des fonds en difficulté ont dû liquider des actifs à des prix soldés, ce qui a provoqué des pertes soudaines pour eux et pour les institutions qui détenaient des actifs semblables. Ce sont donc des problèmes de liquidité qui ont mis en danger la solvabilité plutôt que l’inverse.

La réalité et l’ampleur de cet enchaînement reposent sur la fragilité de la situation de liquidité d’un assez grand nombre d’établissements et notamment sur leur dépendance vis-à-vis des financements sur le marché monétaire. Or dans beaucoup de pays, depuis la fin des années 1990, les banques ont à la fois réduit le montant de leurs actifs liquides et accru sensiblement la part de leurs financements de marché à court ou très court terme. En France, par exemple, on observe que la dette bancaire, à moins d’un mois (hors dépôts à vue), a été pratiquement multipliée par cinq entre 1999 et 2007, tandis que dans le même temps la dette de maturité comprise entre un an et cinq ans était multipliée seulement par deux.

L’objectif était naturellement d’accroître la marge d’intermédiation en prenant un risque de transformation dont l’incidence a été très sous-estimée et portée ici encore à la charge de la collectivité. Au total, cette dérive a joué un rôle majeur dans la crise qui a été, au-delà de l’emballement du crédit et de l’affaire des subprimes, une crise de liquidité. Il est vrai que l’intervention des banques centrales a permis d’éviter l’effondrement du système. Mais autant une telle intervention est justifiée lorsqu’il s’agit de contrer une panique des déposants, parce que c’est la nature même de l’activité bancaire qui l’impose, autant elle est très discutable lorsqu’elle ne fait que remédier à un raccourcissement exagéré de la dette bancaire. Il n’y a aucune raison pour que la banque centrale ajoute à son rôle de prêteur celui de « teneur de marché » en dernier ressort.

Cette grave défaillance du système de régulation est désormais bien identifiée et l’innovation la plus importante des accords de Bâle III nous semble être l’introduction de deux contraintes de liquidité. La première, le liquidity coverage ratio (LCR), impose aux établissements de disposer d’actifs liquides suffisants pour assurer leurs engagements (leurs sorties de trésorerie) sur un mois dans l’hypothèse d’une situation de crise sur les marchés monétaires. La seconde, le net stable funding ratio (NSFR), entend faire respecter un équilibre entre la liquidité des actifs et les exigibilités des passifs (de bilan comme de hors-bilan) àl’horizon d’un an. Dans les deux cas, il s’agit bien de limiter la dépendance des banques vis-à-vis du marché monétaire pour éviter que se reproduise une situation capable de bloquer le système de crédit.

Dans son principe, ces dispositions sont tout à fait bienvenues. C’est éventuellement dans le détail de leurs applications qu’elles peuvent être contestées. Car la définition de la liquidité est une question complexe : théoriquement, elle renvoie à la négociabilité d’un actif ainsi qu’à la variabilité de sa valeur dans le temps (Hicks, 1962). En tout état de cause, ce n’est pas une propriété intrinsèque d’un actif car la négociabilité est endogène au comportement des échangistes : un actif est d’autant plus liquide que les transactions sont importantes sur son marché et le fait qu’il soit liquide tend à accroître les transactions. On pourra donc toujours discuter des ingrédients constitutifs des nouveaux ratios et considérer qu’ils sont trop ou pas assez restrictifs. D’autant que la diversité des systèmes bancaires rend arbitraire, sans doute davantage que pour le ratio de capital, sa définition indifférenciée entre pays. C’est d’ailleurs l’argument invoqué par les banques européennes qui auront plus de difficultés que d’autres pour se conformer à ces nouvelles contraintes. On en vient alors à s’interroger sur le rapport coût/bénéfice de la réglementation révisée.

Coûts de la nouvelle réglementation : les arguments

Naturellement, Bâle III ne fait pas consensus et il est activement contesté par les banques qui craignent de perdre les avantages que leur conférait le plus grand laxisme des accords précédents. L’objection la plus classique à l’encontre du nouveau dispositif consiste à dire qu’il contribuerait à renchérir le coût de fonctionnement du système bancaire et donc le prix et les volumes des crédits distribués. Il en résulterait une baisse de l’investissement et du taux de croissance de l’économie.

La discussion de cette objection mérite cependant que l’on distingue entre la critique adressée au durcissement de la réglementation des fonds propres et celle dirigée contre l’introduction des ratios de liquidité.

La nouvelle réglementation des fonds propres va-t-elle augmenter le coût des crédits ?

L’argumentation des défenseurs du statu quo contre le renforcement des fonds propres est extrêmement simple : puisque le coût des fonds propres est plus élevé que celui de toutes les formes de dettes (dépôts, certificats de dépôts, obligations), l’accroissement de leur pondération va mécaniquement renchérir le coût moyen des ressources bancaires. Or cet accroissement devra être répercuté sur le coût du crédit, ce qui sera pénalisant pour l’activité économique.

Ce raisonnement qui semble de bons sens est en réalité très suspect pour quiconque maîtrise quelques rudiments de théorie financière. Car il est bien évident que la réduction de l’effet de levier diminue les risques de volatilité portés par les actions bancaires ; plus précisément, le risque d’actifs se trouve étalé sur un montant de capitaux propres plus élevé. De même que le risque de défaut porté par les titres de dettes bancaires se trouve également réduit. De sorte que la rémunération exigée sur chaque unité de fonds propres et de dettes doit s’en trouver diminuée. En d’autres termes, l’augmentation du ratio de capital va amener les banques à utiliser en plus grande proportion des capitaux plus coûteux, mais la rentabilité requise sur leurs différentes ressources (actions et dettes) baissera. Théoriquement, dans un système de marchés financiers parfaits, le coût moyen du capital est indifférent à la structure de financement. C’est ce qu’énonce le fameux théorème de Miller et Modigliani (1958) qui reste une référence incontournable en théorie de la finance.

Cela peut se démontrer, plus clairement peut-être, en reprenant les termes de la théorie des portefeuilles et en supposant pour simplifier que la dette est rémunérée au taux sans risque Rf. L’équation, tirée du modèle d’équilibre des actifs financiers (MEDAF), de l’espérance de rentabilité sur les actions (c’est-à-dire coût du capital/actions, noté ki, d’un établissement i) s’écrit :

où Li représente le levier de l’établissement :

et γi le prix du risque systématique associé aux caractéristiques des actifs de l’établissement, c’est-à-dire le prix de marché du risque multiplié par le risque systématique du portefeuille d’actifs6.

Le coût moyen pondéré (CMPi) des capitaux s’écrit alors, pour un taux de l’impôt sur les sociétés, noté ts, et un niveau de dettes, noté Di :

Ainsi, le ratio de capitaux propres (ici, l’inverse du levier) n’affecte le coût du capital de la banque que par l’effet des économies d’impôts provenant de la déduction des intérêts sur la dette. Or cet effet est très faible : en faisant l’hypothèse d’un coût de la dette de 6 % et d’un taux d’impôt sur les sociétés de 33 %, une augmentation du ratio de capitaux propres de 1 % n’accroît le CMP des capitaux de l’établissement que de 2 points de base (pb). Et l’on notera que le fait de lever l’hypothèse d’absence de risques sur la dette ne fait que renforcer l’argument : dans ce cas, l’accroissement des capitaux propres entraîne une diminution à la fois du coût de la dette et des actions.

Quoi qu’il en soit, l’augmentation du CMP en fonction du ratio de capitaux repose ici sur une disposition fiscale contingente et discutable. La non-imposition des intérêts payés sur la dette favorise l’endettement bancaire sans que l’on en voie la justification, si ce n’est que cette disposition s’applique à toutes les entreprises7. De plus, il s’agit d’un coût pour la collectivité qui devrait être comparé à l’utilité d’autres réductions de ressources (ou d’autres dépenses) publiques. Ce qui revient à dire que l’accroissement du coût des ressources bancaires, résultant d’une baisse d’économie d’impôts, n’est pas nécessairement préjudiciable au plan macroéconomique8.

De nombreuses critiques ont été apportées au théorème de Miller et Modigliani sans que la pertinence de l’argument en ait été réellement affectée. Mais il existe une objection plus sérieuse à son application au secteur bancaire9. Elle tient à ce que ce dernier bénéficie d’une garantie publique, c’est-à-dire d’une prise en charge, plus ou moins large et plus ou moins explicite, de ses risques par la collectivité. Cela passe par l’assurance des dépôts (dont la prime n’est pratiquement pas ajustée aux risques pris) et par l’intervention des autorités monétaires ou gouvernementales, venant en aide aux établissements potentiellement défaillants. Dans ces conditions, c’est-à-dire puisque les banques n’ont pas à en payer le prix, la prise de risques d’actifs et de passifs est favorable à leur valorisation. Plus précisément, les établissements de crédit disposent d’une option peu ou pas tarifée, dont on montre qu’elle est une fonction croissante du niveau de risque du portefeuille d’actifs et de la valeur du levier. Dès lors, l’accroissement de l’endettement par rapport aux capitaux propres tend effectivement à réduire le CMP des capitaux bancaires puisqu’une partie du risque supplémentaire induit par la dette est prise en charge par la collectivité. Par le fait même, la sensibilité des rendements requis sur les actions, aussi bien que sur les dettes, s’en trouve diminuée.

Pour autant, cette situation n’est évidemment pas satisfaisante puisqu’elle conduit à une allocation sous-optimale du capital et qu’elle fragilise la position des établissements de crédit que l’État se devra ensuite de consolider parce qu’il ne peut laisser s’effondrer les systèmes de paiement et de crédit. Or l’objectif de la régulation prudentielle consiste précisément à corriger cette anomalie, ou du moins son ampleur. Ce n’est que son insuffisance et/ou son inadaptation qui peuvent expliquer l’éventuel effet de l’endettement sur la réduction du coût du financement bancaire. De sorte que si demain une régulation plus efficace était mise en place, elle supprimerait cette distorsion. Et s’il en était ainsi, les rendements requis sur les capitaux propres et sur la dette bancaire s’en trouveraient accrus, de même que la sensibilité au levier. Plus précisément, dans la mesure où la dette se trouve actuellement mieux protégée que les actions, par l’assurance publique, c’est elle qui serait principalement concernée. C’est-à-dire qu’elle deviendrait plus coûteuse et surtout plus sensible au levier, puisque le niveau des capitaux propres constituerait, plus qu’aujourd’hui, la véritable garantie pour les détenteurs des dettes bancaires. L’avantage du recours à l’endettement disparaîtrait alors, ou du moins serait nettement réduit.

On répliquera bien sûr que cette évolution aura pour contrepartie un accroissement du coût du crédit. Mais il n’y a pas lieu de s’en inquiéter. Car il est anormal qu’une subvention publique implicite et non délibérée induise un taux moyen du crédit artificiellement bas. De surcroît, elle conduit les banques à sous-tarifer le risque, ce qui est encore plus critiquable. On peut parfaitement concevoir que l’État souhaite faciliter l’accès au financement de certains types d’emprunteurs pour des motifs variés, mais on ne voit pas pourquoi il favoriserait toute forme d’endettement de façon indiscriminée.

On ajoutera que s’il apparaissait que l’augmentation des taux d’intérêt en venait à freiner l’offre de crédits de façon sous-optimale, cela justifierait un assouplissement de la politique monétaire. Celle-ci serait parfaitement dans son rôle de régulation macroéconomique en laissant à la politique prudentielle le soin d’encadrer la mesure, la gestion et la tarification du risque.

Au total, la mise en place d’une réglementation efficace des fonds propres doit permettre à la fois de conforter la stabilité des banques et de corriger des distorsions injustifiées dans la tarification du crédit. Contrairement à une idée reçue, fondée sur un raisonnement erroné, l’amélioration de la stabilité ne se fait pas ici aux dépens de l’efficience. Il n’y a donc pas à arbitrer entre les deux termes, mais plutôt à déterminer le niveau minimal de fonds propres qui garantit une prise en charge du risque aussi large que possible par les actionnaires et les détenteurs de la dette bancaire.

Comment appréhender les coûts des ratios de liquidité ?

La question de l’incidence des ratios de liquidité sur le CMP des capitaux se pose différemment. Cela tient à la complexité du concept de liquidité qui a précédemment été soulignée et qui se traduit par de sérieux problèmes d’agrégation de sa (ses) mesure(s). La liquidité des différentes composantes d’un portefeuille ne s’additionne pas notamment parce que la négociabilité d’un actif dépend du montant que l’on souhaite en obtenir en un temps donné. La liquidité des positions individuelles ne s’additionne pas non plus car il existe entre elles des interdépendances ; le fait de redistribuer la liquidité entre les agents peut affecter celle de l’ensemble du système. C’est d’ailleurs ce qui fait que les banques sont en mesure de produire de la liquidité : elles collectent des dépôts qui sont pour elles une ressource stable, mais qui constituent des actifs parfaitement liquides pour leurs détenteurs.

En d’autres termes, il existe des externalités entre les positions et les décisions individuelles qui constituent la dimension systémique de la liquidité. Lorsqu’une banque préfère placer en actifs sans risque (auprès de la banque centrale ou en dette gouvernementale d’excellent rating) plutôt que de prêter sur le marché monétaire, elle alimente, dans certains cas, une crise de liquidité. Ou encore, lorsque des institutions financières en nombre restreint se rendent dépendantes d’un financement sur le marché monétaire, leur risque de liquidité est faible ; il est au contraire élevé lorsque ce comportement se généralise.

En définitive, il n’existe donc pas une situation globale de liquidité, indépendante de la matrice des relations financières entre agents. Il n’existe pas non plus un risque de liquidité globale que se partagerait l’ensemble des agents en fonction de leurs préférences ou de leur capacité à le supporter, comme on l’a évoqué à propos des risques de volatilité ou de défaut. La façon dont les agents se répartissent le risque de liquidité en détermine le niveau. Il ne peut plus alors être question de neutralité de l’introduction des ratios de liquidité.

En conséquence, rien ne permet d’affirmer, par exemple, que l’allongement de la maturité moyenne de la dette ne modifie pas le coût des ressources d’un établissement, mais rien ne permet, non plus, de dire a priori dans quel sens cette modification interviendra. Lorsqu’une banque réduit son exposition au risque de liquidité, elle devrait logiquement pouvoir se financer à un taux plus faible, mais il n’y a aucune raison pour qu’il y ait compensation entre ce qu’elle perd en renforçant sa position de liquidité (en accroissant ses actifs liquides ou en recourant à des ressources plus stables) et ce qu’elle gagne par la diminution de son coût de financement. Puisque le transfert du risque qu’elle opère en affecte le montant, il ne peut y avoir d’équivalence entre la perte et le gain.

La question revient à savoir si les banques ont un avantage, comparatif, en toutes circonstances à gérer et à supporter ce risque par rapport à d’autres institutions financières ou d’autres types d’agents. Jusqu’ici, les banques ont tiré cet avantage de l’intervention des autorités monétaires qui garantissait leur liquidité en situation critique, ce qui a sans doute engendré la prise de risques excessive que l’on a soulignée. Mais si demain, cette garantie, comme il est souhaitable, disparaissait ou se réduisait, qu’en serait-il ? La réponse ne peut être qu’empirique, mais elle est difficile à donner.

Coûts et bénéfices de la nouvelle réglementation : les estimations

Les études empiriques diverses et variées qui ont été réalisées sur l’impact de la nouvelle réglementation confirment, nous semble-t-il, les raisonnements qui précèdent. Elles montrent généralement que les coûts de cette révision sont relativement faibles et inférieurs aux gains que l’on peut en attendre. Pour le montrer, on procédera en présentant les diverses étapes de cette évaluation.

Coût du renforcement des fonds propres

L’effet de l’accroissement du ratio de capital a été abordé selon des méthodes et avec des hypothèses différentes, mais complémentaires. Plusieurs contributions ont simplement cherché à estimer l’incidence sur le coût du capital bancaire en considérant qu’elle serait entièrement répercutée sur le coût du crédit. On retrouve alors la question de la neutralité telle qu’elle a été exposée. Ainsi, Hanson, Kashyap et Stein (2010) ont tenté de mesurer l’incidence du levier sur le rendement requis sur les actions d’un panel de banques américaines entre 1976 et 2008. Les résultats confirment à peu de chose près l’effet Miller et Modigliani, ce qui conduit les auteurs à chiffrer entre 2,5 pb et 4,5 pb l’incidence d’une augmentation de 1 % du ratio de capital sur le coût du crédit.

Un travail du même ordre réalisé à la Banque d’Angleterre par Marcheggiano, Miles et Tang (2011) sur un panel de banques anglaises, sur la période allant de 1992 à 2010, aboutit selon les formes des équations retenues à un accroissement du taux de crédit compris entre 2,4 pb et 9,6 pb, toujours pour 1 % de ratio de capital supplémentaire. Cosimano et Hakura (2011) modélisent et estiment également sur les données de panels les choix conjoints du niveau des capitaux propres, des taux des crédits et du montant des prêts accordés. Sur le sous-échantillon des 100 plus grandes banques, l’impact du ratio de capital ressort à 12 pb.

Les études menées dans le cadre du Comité de Bâle, et en particulier par le groupe de travail sur l’impact à long terme des nouvelles exigences réglementaires (LEI – long-term economic impact), ont adopté une démarche différente (BCBS, 2010a ; King, 2010). Un modèle essentiellement comptable des systèmes bancaires, calibrés à partir de statistiques concernant les banques de treize pays de l’OCDE (Organisation de coopération et de développement économiques), a été créé. En utilisant les bilans et les comptes de résultat agrégés et en faisant des hypothèses sur le coût des différentes sources de capital, on simule l’impact d’une substitution de capitaux propres à de l’endettement de long terme. Le rapport conclut à une augmentation du coût des crédits de 15 pb pour une augmentation de 1 % du ratio de capital. Mais ce résultat est obtenu en supposant inchangés le niveau des revenus hors intérêt, celui des charges ainsi que la rentabilité des capitaux propres (14,8 %), en dépit de la réduction du risque. C’est donc, comme le reconnaît le rapport, une évaluation « prudente ».

Une étude semblable réalisée par Reifner et al. (2011) pour le compte du Parlement européen, à partir d’un échantillon de banques appartenant aux vingt-sept pays de l’Union européenne, aboutit à une augmentation de 6 pb. Enfin, Elliott (2010), utilisant également un modèle comptable appliqué au secteur bancaire américain, conclut à une augmentation de la marge d’intérêt de 20 pb, pour un accroissement de 1 % du ratio de capital.

Coût des ratios de liquidité

Les quantifications de l’effet des nouveaux ratios de liquidité sont moins fréquentes parce que la modélisation du problème est plus délicate. À notre connaissance, seul l’impact du ratio de ressources stables (NSFR) a été estimé dans quelques études. Mais l’exercice implique des hypothèses sur la façon dont les banques vont ajuster la stabilité de leurs passifs à l’illiquidité de leurs actifs. Pour ce faire, elles peuvent en particulier :

  • allonger la maturité de leurs titres de dettes ou tenter d’accroître la part des dépôts considérés comme de la ressource stable ou encore accroître leur ratio de fonds propres, ce qui suggère un recouvrement entre la réglementation du capital et celle de la liquidité ;
  • mais aussi réduire la maturité des prêts consentis (ce qui transfère aux emprunteurs le risque de transformation) ou augmenter la proportion des actifs liquides (notamment les titres de dettes publiques). Ce qui crée un autre recouvrement entre réglementation du capital et de la liquidité puisque ces actifs bénéficient d’une faible pondération dans les calculs de risques.

Ces possibles ajustements ont un coût en termes d’augmentation des charges d’intérêts (les spreads de maturité) ou de réduction des intérêts reçus (les taux plus faibles sur les actifs plus liquides). Or il n’est pas évident de savoir comment les banques souhaiteraient et pourraient procéder, par exemple : quelle est la marge dont elles disposent pour drainer des dépôts supplémentaires ? et quel en sera le prix ? De même qu’il est délicat d’évaluer le recouvrement entre les deux types de réglementations qui conditionne l’addition de leur coût respectif. Les ajustements opérés seront d’ailleurs très variables selon les types d’établissements et les zones géographiques.

Dans ces conditions, le rapport du groupe de travail LEI du Comité de Bâle évalue à 24 pb l’augmentation de la marge d’intermédiation nécessaire pour respecter la contrainte à venir du NSFR (BCBS, 2010a ; King, 2010). Mais si l’on prend en compte le recouvrement entre ce ratio et celui des capitaux propres, le coût se situe seulement à 10 pb. De sorte que pour une augmentation du ratio de capital comprise entre 1 % et 2 %, le coût des deux nouvelles réglementations se situerait entre 25 pb et 39 pb10. Partant d’un ratio de liquidité observé de 86 % (sur l’échantillon de banques de treize pays de l’OCDE), le calcul prend en compte à la fois un accroissement de l’endettement long et une augmentation de la détention de dettes gouvernementales pour parvenir au niveau requis de 100 %.

Le rapport de l’Institute of International Finance (IIF), émanation du lobby bancaire, donne une évaluation globale du coût des deux ratios. Cette évaluation est, sans surprise, plus pessimiste que la précédente puisqu’elle parvient à un coût de 40 pb pour le Japon et la zone euro, mais est supérieure à 80 pb pour les États-Unis. Ces résultats sont obtenus en supposant que les banques vont garder des ratios de capital au-dessus du taux requis par la réglementation, selon un écart identique à celui observé par le passé (ce qui conduit à un ratio de plus de 10 % au lieu des 7 % requis). D’autre part, l’étude considère que le coût de la dette bancaire à long terme connaîtra une forte augmentation (le spread s’accroîtrait de 140 pb). Enfin, on fait l’hypothèse d’une augmentation de 2 % du rendement requis sur les émissions d’actions rendues nécessaires par le renforcement du core tier 1.

Effets de transition

En définitive, les études que l’on vient de recenser, à l’exception peut-être de celle de l’IIF, concluent à des coûts à long terme relativement modestes des nouvelles réglementations. Même en admettant un écart important entre les ratios requis et les ratios actuels (disons 2 % à 3 % pour le ratio de capital et 20 % pour le NSFR), les estimations situent ces coûts de long terme à moins de 50 pb.

Encore faut-il préciser que l’on a supposé la stabilité des charges d’exploitation (et notamment des rémunérations) ainsi que des revenus des autres activités (commissions, revenus des activités de conseil, de trading…). Si l’on considère, au contraire, que les banques ont la possibilité d’accroître leur productivité, si elles peuvent raisonnablement réduire certaines rémunérations ou accroître les autres composantes de leur produit net bancaire, la marge requise sur l’offre de crédits s’en trouvera mécaniquement réduite. Ainsi, Elliot (2010) montre qu’en actionnant ces différents leviers et en y ajoutant une baisse de la rentabilité des capitaux propres, le coût des nouveaux ratios (qu’il estimait à 80 pb) peut être divisé par quatre.

En revanche, on s’est placé jusqu’ici du seul point de vue de l’effet à long terme de la réglementation en négligeant la question de la période de transition. Or les recherches menées dans le cadre du groupe de travail du Comité de Bâle, dédié à cette question (Macroeconomic Assessement Group), ont montré que les marges d’intermédiation pouvaient fluctuer significativement avant de rejoindre leur valeur de long terme ; elles ont en même temps suggéré que le coût de Bâle III pouvait être affecté par le calendrier de sa mise en œuvre (BCBS, 2010b). Cela s’explique par les délais nécessaires pour mettre en place de nouveaux business models bancaires : par exemple, pour diminuer la part des activités trop consommatrices de fonds propres ou pour récupérer des sources plus stables de financement (notamment des dépôts). Mais cela vient aussi de ce que l’augmentation de capitaux propres est plus coûteuse lorsqu’elle prend la forme d’émissions d’actions sur une période trop courte : parce que la structure de portefeuille des investissements est peu flexible à court terme et que l’émission d’actions peut être perçue comme un signal négatif sur la valeur de l’institution si elle est trop importante et trop brutale11. Dans ces conditions, la constitution de fonds propres par rétention de profit et l’étalement des émissions dans le temps sont des solutions moins coûteuses. Ce qui plaide pour une mise en place progressive de la réforme.

Sur ce problème de transition, les résultats des différents travaux effectués pour le Comité de Bâle présentent une grande hétérogénéité. En moyenne (ou en médiane), ils ne font pas apparaître de variations importantes des marges dans le temps, mais la dispersion des estimations autour de cette moyenne est forte du fait de la diversité des modèles utilisés et des champs d’application (les pays et les institutions financières concernés). Il reste donc sur ce point une grande marge d’incertitude qui doit cependant être nuancée dans la mesure où la réforme est censée se mettre en place sur six ans. Mais les banques peuvent elles-mêmes décider de répondre plus rapidement aux évolutions requises, ce qui serait de nature à en accroître le coût.

C’est du reste l’hypothèse retenue par le rapport de l’IIF qui suppose que l’ajustement des banques aux nouvelles règles s’opère sur une période de trois ou quatre ans. Cela induit une augmentation des marges de plus de 160 pb au bout de trois ans aux États-Unis et en zone euro, avant de revenir progressivement vers sa valeur de long terme. Mais il faut bien admettre qu’un tel scénario est peu crédible et semble construit pour les besoins de la cause. Il n’empêche que cette question constitue un point crucial pour l’évaluation du coût induit finalement par la réforme.

Quelles incidences en termes d’activité économique ?

La suite de l’exercice consiste à traduire l’incidence de l’accroissement du coût du crédit sur le PIB. On intègre pour ce faire les estimations que l’on vient d’évoquer dans un modèle macroéconomique, en passant éventuellement par l’évolution des volumes de crédits résultant des augmentations de taux.

Chez Marcheggiano, Miles et Tang (2011), le modèle macroéconomique se réduit à une fonction de production. Le calibrage de l’élasticité de substitution entre capital et travail et de la part du capital dans le revenu leur permet d’estimer l’impact du coût du capital bancaire (donc du taux du crédit) sur la production de long terme. Dans leur scénario de base (doublement du capital tier 1 et effet Miller et Modigliani modéré), cet impact ressort à 14 pb, c’est-à-dire que l’augmentation du ratio de capital entraîne une diminution du niveau du PIB à long terme de 0,14 %12.

Le modèle utilisé par l’IIF est également très simple, mais il conduit à des conclusions bien différentes. Il se limite à estimer l’effet de l’augmentation des taux du crédit sur l’évolution des financements bancaires et non bancaires, puis il fait dépendre le niveau de l’activité économique de ces financements. Or dans la mesure où la modélisation du système bancaire donne lieu, comme il a été dit, à de très fortes variations des marges d’intermédiation à court terme, cela provoque une importante perte d’activité durant les quatre premières années de la simulation. C’est particulièrement le cas pour la zone euro dont le niveau de PIB perd près de 5 % au bout de quatre ans, par rapport au scénario de base, sans changement de réglementation. Mais étant donné les hypothèses retenues dans la modélisation du comportement bancaire ainsi que le simplisme du modèle macroéconomique, on ne peut accorder beaucoup de crédit à ces résultats.

Les contributions aux groupes de travail du Comité de Bâle ont, au contraire, utilisé des modèles sophistiqués et présentent une assez grande diversité. Mais les ordres de grandeur des résultats moyens ou médians qui s’en dégagent ne sont pas très éloignés de ceux de Marcheggiano, Miles et Tang (2011) : 37 pb de baisse du PIB à long terme en moyenne (25 pb pour la médiane), pour une augmentation de 2 % du ratio de capital et le respect du NSFR, en prenant en compte le recouvrement entre les deux ratios. La dispersion des résultats entre modèles et entre pays est par contre assez forte : minimum de 0 % pour un maximum de 1,07 %.

Quels bénéfices nets du renforcement de la réglementation ?

Pour finir, il faut estimer les bénéfices que l’on peut tirer du renforcement de la réglementation pour les comparer à l’évaluation des coûts qui vient d'être décrite. La méthode consiste à calculer les pertes de PIB provoquées par une crise bancaire, puis à les pondérer par la réduction de la probabilité de crise induite par l’amélioration du contrôle prudentiel13. On obtient ainsi l’espérance du gain en PIB obtenu grâce à des règles plus rigoureuses.

Concernant la première opération, les travaux du Comité de Bâle ont mobilisé diverses études et statistiques concernant les crises bancaires observées sur les trente dernières années. Selon les cas, ces crises ont engendré des pertes de production temporaires (le PIB est revenu sur son sentier de croissance après quelques trimestres) ou permanentes (à la fin de la crise, le PIB reste durablement à un niveau plus faible). On calcule alors les pertes moyennes enregistrées durant les crises passées et l’on peut y associer les gains de PIB réalisés par une réduction de la probabilité de crise : pour une réduction de 1 %, ces gains varient de 0,19 % à 1,58 %, selon que les crises sont temporaires ou qu’elles ont un effet permanent.

Quant à la relation entre la probabilité de crise et la réglementation prudentielle, les travaux du Comité de Bâle se réfèrent aussi à une série de modélisations de nature diverse (estimation économétrique, calibrage de modèles de risque de crédit, utilisation de méthodes de stress testing). Les variables de ces modèles sont ensuite converties pour simuler l’impact sur la probabilité de crise de variations du ratio de capital et éventuellement du ratio de liquidité. Ces différentes étapes rendent la méthode fragile et les résultats obtenus par les différents modèles utilisés sont assez éloignés les uns des autres. On retiendra toutefois qu’en moyenne, sur les six modèles utilisés, une augmentation de 2 % du ratio de capital diminue de 4 % la probabilité de crise bancaire14.

On dispose alors de tous les éléments pour comparer les coûts et les avantages du durcissement de la réglementation prudentielle. Et les résultats sont ici tout à fait clairs. Même en supposant que les crises bancaires n’ont pas d’effet permanent et quelle que soit l’hypothèse faite sur le ratio de liquidité, les bénéfices en termes de PIB l’emportent sur les coûts tant que le ratio exigé est inférieur à 15 %15.

Il est intéressant d’observer que ce résultat est cohérent avec celui obtenu par Marcheggiano, Miles et Tang (2011) qui utilisent pourtant une méthodologie sensiblement différente. Ils considèrent que ce sont les fluctuations du PIB qui déterminent celles des actifs bancaires et sont susceptibles de provoquer une crise bancaire si les capitaux propres sont insuffisants. Une estimation du coût de la crise permet alors d’obtenir une relation entre le niveau du ratio de capital et les bénéfices induits (les pertes qu’il permet d’économiser). Même avec des hypothèses très prudentes, il en ressort que le ratio de capital optimal n’est jamais inférieur à 16 % ou 17 %.

Cela conforte l’idée, partagée par nombre d’académiques, selon laquelle la définition des ratios de capital par Bâle III manque encore d’ambition.

De quelques compléments nécessaires

Au-delà des dispositions qui constituent le centre des accords de Bâle III, diverses propositions ont été faites pour le compléter et en améliorer l’efficacité. On se bornera ici à évoquer trois d’entre elles qui ont trait, d’une part, à la mise en cohérence de la régulation bancaire par rapport à celle des autres composantes du système financier et, d’autre part, au renforcement de la discipline de marché par une meilleure information sur les comptes et les structures bancaires.

Encadrer le shadow banking

Même si l’on pense que la nouvelle réglementation contribuera à renforcer la stabilité du secteur bancaire, il n’est pas sûr qu’il en soit de même du système financier pris dans son ensemble. De ce point de vue, il est même possible que Bâle III soit contre-productif si des dispositions complémentaires ne sont pas prises.

Car si l’augmentation des marges d’intermédiation que l’on peut raisonnablement retenir (entre 20 pb et 40 pb avec des hypothèses « prudentes ») semble modeste, elle est néanmoins susceptible de provoquer une migration de l’activité de crédit à l’extérieur du système bancaire stricto sensu. Cela peut se faire au moins de deux façons :

  • d’abord par un accroissement des financements désintermédiés. C’est-à-dire que les banques peuvent inciter des agents non financiers (entreprises, collectivités locales…) à se financer directement sur les marchés ; elles y trouveront des sources de revenus moins soumises à la concurrence que les marges d’intermédiation, sans immobiliser de capitaux propres. Les titres ainsi émis seront détenus en partie par d’autres agents non financiers (ménages, entreprises) soit en direct, soit par l’intermédiaire de fonds de placement. Ce qui signifie que ces agents devront supporter des risques qui jusqu’ici étaient portés et gérés par des établissements de crédit. Cela peut être de nature à modifier le comportement de l’économie, par exemple en augmentant l’ampleur des effets de richesse. De plus, le transfert de risque vers les particuliers nécessitera un besoin accru de protection des épargnants ;
  • ensuite et surtout, les banques vont certainement reprendre et développer leur activité de titrisation des crédits. Mais ces opérations peuvent prendre des formes inégalement problématiques. Les banques ont d’ailleurs déjà commencé à accroître leur recours aux covered bonds qui leur permettra d’émettre de la dette longue à un taux plus faible. Cette solution échappe à la plupart des critiques qui ont récemment été adressées à la titrisation (mauvaise sélection et gestion des risques par les banques qui les transfèrent, difficultés d’évaluation…) puisque les crédits restent au bilan de la banque. L’expansion de cette forme de titrisation ne pose donc pas de difficulté si ce n’est qu’elle tend à dégrader les garanties dont disposent les détenteurs des autres types de dettes bancaires, ce qui peut en réduire l’attractivité. Par ailleurs, pour des raisons juridiques, l’émission de covered bonds n’est pas également possible dans tous les pays et son utilisation est encore souvent restreinte à certains types de crédits. Il conviendrait de l’étendre notamment aux prêts aux PME.

En revanche, la titrisation telle qu’elle a prospéré de la fin des années 1990 au début de la crise (sous la forme de SPV – special purpose vehicules –, de conduits, de SIV – structured investment vehicles – …) est toujours une réelle menace. Certes, les nouvelles dispositions de Bâle III devraient permettre d’éliminer les arbitrages réglementaires dont les conséquences ont été au cœur de la crise. C’est-à-dire que la mise hors-bilan, dont les banques gardent en fait la quasi-totalité du risque, supportera désormais des charges en capital équivalentes par rapport à une détention dans le bilan.

Mais les véhicules de titrisation pourront continuer demain à se financer auprès de fonds (des hedge funds en particulier) ou sur le marché des repos, sans avoir à supporter les charges en capital et sans respecter les ratios de liquidité imposés aux banques. À l’avenir, les pertes subies par les composantes du shadow banking system ne devraient pas impacter directement la situation des établissements de crédit. Mais les performances et les comportements de ces entités non régulées n’en sont pas pour autant indifférents pour la stabilité du système financier. Car lorsqu’elles décident, par exemple, de liquider une partie de leurs actifs (pour faire face à des retraits d’investisseurs ou parce qu’elles connaissent un problème de financement sur le marché), les baisses de valeurs de ces actifs se répercutent sur toutes les institutions qui en détiennent. C’est dire que leurs décisions comportent des externalités potentiellement déstabilisantes.

Or il se peut que le durcissement de la régulation bancaire contribue au développement du shadow banking. Il faudrait donc que ce dernier soit aussi soumis à une régulation, probablement via une réglementation des haircuts sur les opérations de refinancement, pour faire disparaître l’avantage accru dont il va disposer et les méfaits engendrés par son fonctionnement. L’objectif, sans doute utopique, devrait être de faire en sorte qu’un actif donné supporte la même charge en capital, et ce, quelle que soit l’institution qui le détient.

Coordonner la régulation des banques et des assurances ?

Dans le même ordre d’idée se pose la question des effets induits par la mise en œuvre pratiquement conjointe de Bâle III et de Solvabilité II, le nouveau dispositif de régulation de l’assurance qui devrait être mis en place en 2013, dans trente pays européens. Les deux systèmes ont été développés de façon indépendante avec des objectifs distincts et des risques d’incohérences.

À la différence du secteur bancaire, celui des assurances a traversé la crise financière sans difficulté majeure. La motivation principale de Solvabilité II n’est donc pas d’améliorer la capacité d’absorption des pertes par les capitaux propres ; il est plutôt d’inciter les assureurs à mieux mesurer et gérer les risques. Qui plus est le business model de l’assurance est bien différent de celui de la banque. De sorte que les exigences en capital et en liquidité dans ce secteur n’ont aucune raison d'être semblables à celles des banques, aussi bien dans leur conception que dans leur détail. Il n’empêche que ces différences sont susceptibles d’engendrer à la marge des distorsions qui peuvent nuire à une optimisation du système de financement.

Il est difficile de dire si les nouvelles dispositions conduiront à un coût du capital des assurances plus ou moins élevé que celui des banques16. Le point n’est d’ailleurs pas très important dans la mesure où les productions de services des deux types d’institutions sont assez distinctes ; les recouvrements ne portent que sur quelques activités comme l’offre de CDS (credit default swaps). Mais il peut y avoir en revanche une concurrence sur la collecte de ressources stables, par exemple entre les produits d’assurance-vie et les placements en épargne longue offerts par les banques. Dans ce cas, des différences de réglementation peuvent générer des écarts dans les rémunérations servies. Ce qui peut freiner l’adaptation du business model bancaire.

Par ailleurs, la nouvelle réglementation (notamment le passage à la comptabilité en valeur de marché et la mesure des risques sur une période trop courte) devrait conduire les assurances à délaisser les investissements risqués pour privilégier la détention d’obligations de très bon rating17, au moins dans un premier temps, c’est-à-dire avant que les sociétés ne soient autorisées à quitter la méthode standard pourpasser à celle des modèles internes. Or cela peut faire naître deux problèmes :

  • d’une part, les assureurs vont réduire leurs investissements en actions au moment où les banques et les entreprises devraient accroître leurs émissions. En revanche, les assurances développeront leur demande de covered bonds bancaires, ce qu’elles ont d’ailleurs déjà commencé à faire ;
  • d’autre part, banquiers et assureurs vont être amenés à renforcer leur détention de titres de dettes publiques et cette exposition commune (cette corrélation plus forte entre les positions des deux types d’institutions) accroît a priori la probabilité de risque systémique.

Ces questions n’ont jusqu’ici pas fait l’objet d’études empiriques. Elles mériteraient d'être traitées dans le cadre d’une coopération entre les régulateurs des deux types d’institutions.

Exiger la transparence dans l’industrie bancaire

Nous nous sommes jusqu’ici essentiellement concentrés sur le pilier 1 des accords de Bâle qui en constitue la partie la plus développée. Ce faisant, nous avons négligé les piliers 2 et 3 qui concernent la supervision et la discipline de marché.

Pour ce qui est de la supervision, Bâle III recommande d’éviter d’accorder une confiance excessive aux modèles internes des banques, d’utiliser des stress tests afin de mieux apprécier les risques d’événements extrêmes et de considérer un ensemble de phénomènes que le pilier 1 ne prend pas en compte (concentration des risques, interdépendances à travers les dérivés, expositions importantes sur certains produits …). Ces « bonnes pratiques » devraient permettre de dépasser la rigidité peut être excessive de certains termes de l’accord. Il reste tout de même à voir si les superviseurs seront capables d’user de ce pouvoir discrétionnaire pour aller au-delà des règles du pilier 1, alors même que ces dernières sont déjà considérées comme trop contraignantes par le lobby bancaire.

Cela étant, si les régulateurs doutent à ce point de la pertinence des calculs dont ils ont eux-mêmes défini les termes, il importe de trouver d’autres moyens d’encadrer les prises de risques. C’est d’ailleurs l’une des idées qui justifie l’introduction du ratio de levier (lui-même très contesté par la profession bancaire) et nous avons expliqué que c’était une bonne façon de mieux inciter les actionnaires à surveiller les risques dont ils auront à supporter les conséquences. Ce qui revient à dire que ce ratio peut être un facteur utile de stimulation de la discipline de marché.

Il est vrai que la crise n’a pas contribué à rendre populaires les notions d’autorégulation et de discipline de marché, alors qu’elles ont inspiré pour partie la transition de Bâle I vers Bâle II. Mais il est vrai aussi que ces notions n’ont guère de sens sans une information de qualité sur les activités, les performances et surtout les risques des banques. Or il se trouve que cette information est très insuffisante, ce qui rend parfaitement illusoire toute référence à une discipline de marché. L’opacité empêche en effet les investisseurs de faire payer aux établissements le prix des risques qu’ils prennent. Elle entretient aussi une incertitude malsaine sur la situation des établissements qui alimente des rumeurs dont on a pu vérifier récemment le caractère délétère. Des aberrations de marché de l’ampleur de celles que l’on a connues ne seraient pas possibles si les analystes financiers et les investisseurs institutionnels n’étaient pas eux-mêmes en manque d’informations.

Bâle III prévoit u


Notes

1 Pour une présentation détaillée, voir : BCBS (2010c).
2 Le capital tier 2 est destiné à absorber les pertes lorsque la banque devient insolvable.
3 Dans le groupe des banques de plus petite taille dont disposait le BCBS, le chiffre est de 7,8 %, donc au-dessus du minimum requis (BCBS, 2010d).
4 Voir en particulier : Atkinson et Blundell-Wignall (2010).
5 Voir en ce sens : Hellwig (2010).
6 On rappelle que ce risque systématique est égal à la covariance entre les rendements de l’établissement et le rendement du portefeuille de marché.
7 On trouvera une discussion critique de cette disposition dans une note du FMI (FMI, 2011).
8 Ce point est notamment souligné par Admati et al. (2010).
9 On trouvera une discussion plaisante de ce point dans Miller (1995).
10 Dans une étude s’inscrivant également dans le cadre des travaux du Comité de Bâle, mais utilisant une méthode différente, Roger et Vlcek (2011) parviennent à une estimation du coût à long terme du ratio de liquidité de 5 pb pour la zone euro et de 20 pb pour les États-Unis (qui s’ajouterait aux 15 pb ou 20 pb des exigences en fonds propres). Mais leur modélisation du secteur bancaire est extrêmement sommaire et ils se bornent à supposer une augmentation de 25 % des actifs liquides pour satisfaire au NSFR.
11 Le modèle de Majluf et Myers (1984) qui a donné naissance à la théorie du « financement hiérarchique » montre qu’une entreprise a intérêt à émettre des actions lorsque sa valeur de marché est supérieure à sa valeur fondamentale, connue des dirigeants. L’existence de cette asymétrie d’information conduit le marché à interpréter négativement le recours à un financement par émissions d’actions.
12 Les autres scénarios donnent des résultats compris entre 6,4 pb et 32 pb, ce qui reste très faible.
13 Le renforcement du contrôle prudentiel est également capable de réduire la volatilité du PIB dans la mesure où un système bancaire plus solide est mieux à même d’amortir les divers chocs qui peuvent affecter l’activité. Mais nous laisserons ici cette question de côté.
14 La réduction de probabilité n’est plus que de 2,5 % si l’on suppose le respect du NSFR, ce qui réduit naturellement l’éventualité de crise.
15 Il faut cependant souligner que les calculs ont été réalisés en partant des anciennes définitions du ratio de capital. Le Comité de Bâle considère que le passage aux nouvelles définitions implique une réduction d’un tiers des anciens (actuels) ratios. Cela signifie qu’un ratio de 10 %, au lieu de 7 %, du core tier 1 générerait des bénéfices nets dans l’hypothèse la plus prudente. C’est-à-dire dans le cas où les crises n’ont pas d’effet permanent sur le PIB.
16 Voir sur ce point : Al-Darwish et al. (2011).
17 On pourra consulter sur ce point le rapport du CGFS (2011).

Bibliographies

Admati A. et al. (2010), « Fallacies, Irrelevant Facts and Myths in Capital Regulation: Why Bank Equity Is Not Expensive », Standford University, Working Paper, no 86.
Al-Darwish A. et al. (2011), « Possible Unintended Consequences of Basel III and Solvency II », International Monetary Fund, Working Paper, no 11/187.
Atkinson P. et Blundell-Wignall A. (2010), « Thinking beyond Basel III: Necessary Solutions for Capital and Liquidity », OECD Journal: Financial Market Trends, volume 2010, no 1.
BCBS (Basel Committee on Banking Supervision) (2010a), An Assessment of the Long-Term Economic Impact of Stronger Capital and Liquidity Requirements, août.
BCBS (2010b), Assessing the Macroeconomic Impact of the Transition to Stronger Capital and Liquidity Requirements, août pour le rapport intermédiaire et décembre pour le rapport final.
BCBS (2010c), Based III: a Global Regulatory Framework for More Resilient Banks and Banking Systems, décembre.
BCBS (2010d), Results of the Comprehensive Quantitative Impact Study, décembre.
CGFS (Committee on the Global Financial System) (2011), Fixed Income Strategies of Insurance Companies and Pension Funds, juillet.
Cosimano T. et Hakura D. (2011), « Bank Behavior in Response to Basel III: a Cross Country Analysis », International Monetary Fund, Working Paper, no 11/119.
Elliot D. (2010), « A Further Exploration of Bank Capital Requirements: Effects of Competition from other Financial Sectors and Effects of Size of Bank or Borrower and of Loan Type », The Brookings Institution, Working Paper.
FMI (Fonds monétaire international) (2011), « Tax Biases to Debt Finance: Assessing the Problem, Finding Solutions », Staff Discussion Notes, no 2011/11.
Hannoun H. (2010), « The Basel III Capital Framework: a Decisive Breakthrough », Speech at the BOJ-BIS High Level Seminar, Hong Kong, novembre.
Hanson S., Kashyap A. et Stein J. (2010), « An Analysis of “Substantially Heightened” Capital Requirements on Large Financial Institutions », Working Paper, mai.
Hellwig M. (2010), « Capital Regulation after the Crisis: Business as Usual? », Max Planck Institute, Working Paper, juillet.
Hicks J. (1962), « Liquidity », Economic Journal, pp. 787-802.
IFF (Institute of International Finance) (2010), Interim Report on the Cumulative Impact on the Global Economy of Proposed Changes in the Banking Regulatory Framework, juin.
King M. (2010), « Mapping Capital and Liquidity Requirements to Bank Lending Spreads », Bank for International Settlements, Working Paper, no 324.
Majluf N. et Myers S. (1984), « Corporate Finance and Investment Decisions when Firms Have Information that Investors Do Not Have », Journal of Financial Economics, vol. 13, pp. 187-222.
Marcheggiano G., Miles D. et Yang J. (2011), « Optimal Bank Capital », Bank of England, Discussion Paper, no 31.
Miller M. (1995), « Do the M-M Propositions Apply to Banks? », Journal of Banking and Finance, vol. 19, pp. 483-489.
Miller M. et Modigliani F. (1958), « The Cost of Capital, Corporation Finance and the Theory of Investment », American Economic Review, vol. 48, pp. 261-297.
Reifner V. et al. (2011), CRD IV – Impact Assessment of the Different Measures within the Capital Requirements Directive IV, European Parliament, Policy Department, juin.
Roger S. et Vlcek J. (2011), « Macroeconomic Costs of Higher Bank Capital and Liquidity Requirements », International Monetary Fund, Working Paper, no 11/103.