Do not follow this hidden link or you will be blocked from this website !

Régulation financière socialement responsable : le risque de mauvaise régulation

20/07/2015
Introduisant le thème de la matinale, Edouard-François de Lencquesaing rappelait que depuis 5 ans l’on avait donné la priorité à deux critères : solidarité et stabilité des systèmes mais l’on avait oublié un troisième : la croissance. Or il faut parvenir à mettre en place une régulation qui respecte les trois critères. Pour cela, il faut bâtir un univers de confiance entre régulateurs et régulés, et éviter tout processus de « bras de fer », comme ce peut être le cas parfois dans le monde anglo-saxon. Comment alors transposer dans le processus même de la régulation le concept d’économie socialement responsable, de façon à développer une régulation intelligente (« smart regulation ») qui devienne un véritable outil au service de la compétitivité.
 
Christian Walter, actuaire agrégé,  présentait le projet de la chaire « Ethique et Finance », ouverte en octobre 2013 au Collège d’études mondiales de la Fondation de la Maison des sciences de l’homme (FMSH).

Cette chaire doit remettre la finance au service de l’économie qu’elle doit irriguer. Car il y a une responsabilité spécifique des marchés de capitaux dans le financement global de l’économie. Or, dans d’autres secteurs, comme la médecine ou l’environnement, un dialogue institutionnalisé s’est établi entre les parties prenantes, alors qu’en finance on assiste surtout à une dénonciation, une indignation.
La chaire « Ethique et Finance » a pour objectif précisément de contribuer à institutionnaliser le dialogue avec la société sur les questions éthiques en finance, et organiser le débat intellectuel pour alimenter et enrichir le débat public. La chaire « Ethique et Finance » entend contribuer à construire une finance juste, tant au plan de la technique financière qu’au plan économique et social.

La chaire adopte, pour faire émerger une autre pensée financière que la pensée actuelle, un axe particulier : elle associe, dans un cadre pluridisciplinaire, actuariat (modèles mathématiques et ingénierie financière), philosophie (penser les normes et la régulation) et économie (penser la science économique et son histoire).

Pour Christian Walter, les actuaires ont souvent dans leurs travaux de recherche sur la finance été plus proches des phénomènes que les mathématiciens de la finance, fussent-ils excellents.  
 
Qu’entend-on par « finance juste » ?

A l’échelle macroéconomique, sociale ou politique, c’est une éthique générale. Elle consiste à considérer que les pratiques et la régulation financières doivent être abordées du point de vue de la responsabilité sociale.
C’est aussi une finance qui a un sens. On note deux tendances : d’une part une évolution spontanée des pratiques professionnelles (tendances endogènes) et d’autre part des aspirations de la régulation (tendances exogènes).
A l’échelle microéconomique, une finance juste c’est une éthique des pratiques professionnelles.
 
Examinons la façon dont l’ensemble des règles – le  « mur réglementaire » - s’appuie sur une croyance collective au sujet du risque.  Elaborer une règle c’est intégrer un paradigme particulier sur le risque, une croyance collective ou une convention, dont la nature dépend de l’école de pensée à laquelle on se rattache (Keynes, Duhem ou Lewis).

Ces croyances, conventions sur le risque et la façon de le mesurer, de l’appréhender n’auraient-elles pas un effet négatif, imprévu et non souhaité ?  Par exemple, les modèles statistiques financiers exercent des effets procycliques, assure la Banque de France, dans un article de la Revue de la stabilité financière (2009). Les régulations financières ont un impact sur les cycles de l’économie réelle, relève unCahier de l’Institut Louis Bachelier (Opinions et débats, 2014)

Il s’agit donc d’entrer dans ces régulations pour détecter les corps de doctrine qui irriguent ces textes réglementaires. Cela pose la question de fond sur la manière dont l’action collective et l’initiative publique dépendent de nos représentations théoriques au sujet de la nature du hasard et du risque. Ainsi que celle du rôle des théories dans la légitimation de la réglementation que met en place la puissance publique

« Nous sommes là au cœur de l’activité de la Chaire « Ethique et Finance », c’est-à-dire travailler sur l’éthique de la régulation », résumait Christian Walter.

Autre caractéristique de cette chaire, le travail sur l’éthique des instruments financiers.

Aujourd’hui, l’éthique financière se réduit à la déontologie. Autrement dit, les comportements des personnes. Derrière ce discours, il existe un impensé positiviste, estime Christian Walter. Ce discours en effet fait comme si les outillages techniques, scientifiques, mathématiques, normatifs étaient axiologiquement neutres, n’étaient pas porteurs de valeur. Pour la chaire « Ethique et Finance », indépendamment des comportements humains, il est légitime de s’interroger sur les structures du système, du point de vue des outillages techniques et mentaux et des règles qui structurent les décisions. Pour la chaire, il y a une morale embarquée dans la technique. Le travail de la chaire va donc entrer dans la technique financière, le rôle des modèles par exemple et la manière dont ils conditionnent les normes réglementaires et les régulations.

Qu’est-ce que la Finance responsable ?
Le concept est connu : investissement socialement responsable (ISR), responsabilité sociale des entreprises (RSE)… La chaire « Ethique et Finance » propose de l’étendre aux entreprises financières et aux régulateurs, et aux effets produits par les modèles qu’ils utilisent.

On peut s’interroger par exemple sur le modèle CAPM (Capital Asset Pricing Model), couramment utilisé par les gestionnaires et qui est devenu une norme professionnelle. Il y a donc une forme de responsabilité sociale de ceux qui font les modèles et de ceux qui les appliquent.

Autre exemple, dans la crise de 2008, la copule de David Li, copule gaussienne, a eu pour effet de faire exploser les encours de subprimes sur le marché hypothécaire. Or les hypothèses sur lesquelles elle est fondée sont non vérifiées. On peut donc se demander si ce modèle n’a pas eu une responsabilité dans l’émergence de la crise financière.

Concernant la régulation financière, on peut s’interroger sur le fait que des types de modélisation, de représentation et de conception sur l’incertitude ont produit certains types de normes. De nombreux travaux existent  sur le sujet.

Il y a débat : d’un côté les partisans des mathématiques financières affirment que les modèles ne sont pas en faute, mais qu’il faut savoir comprendre leurs limites ; de l’autre côté, ceux qui estiment que ces modèles ont été mal conçus. Un minimum de formation épistémologique permet de dire que le débat est mal posé : lorsqu’on oppose la syntaxe d’un modèle, son écriture mathématique à la pragmatique de son usage, on sait depuis le Cercle de Vienne en 1920 qu’il manque un troisième terme, qui est la sémantique du modèle. Il y a donc là aussi un pan de réflexion intéressant à explorer dans ce que l’on pourrait appeler l’insertion de la théorie dans l’éthique.

Au total, pour la chaire, il s’agit donc de comprendre comment les cadres mentaux, les théories (et leurs prédictions), les pratiques et les instruments (et leur système de décision) tiennent ensemble, de façon à contribuer à faire émerger une autre pensée financière que la pensée actuelle.
 
Christian Walter passait ensuite à l’exposé d’un cas pratique sur la question suivante : "Existe-t-il un risque lié à la régulation lorsque l’on cherche à réduire la volatilité ? Cette réduction ne conduit-elle pas involontairement à une hausse de l’erraticité? " 

Au terme de ce travail de recherche, il a été attesté qu’en réduisant la volatilité d’une série de données il semble que l’on engendre une augmentation de l’instabilité du système. Autrement dit, quand le régulateur dans son action insiste fortement sur la volatilité, considérée comme le principal risque d’importance à réduire, il prépare de fait l’émergence de chocs importants, en augmentant l’erraticité, et donc le risque de cassure.

Dans ce travail, il s’agissait de faire émerger un nouveau type de risque : le risque de régulation, en tant qu’elle agit sur le risque lui-même. Comment des règles prudentielles pouvaient de fait accroître le risque au lieu de le réduire ?

Les auteurs ont cherché à appliquer à la métrologie du risque une démarche par les conventions, selon trois dimensions : une dimension épistémique, pragmatique et politique.
  • L’aspect épistémique d’une convention recouvre tout ce qui concerne le savoir, la connaissance et à la manière de traiter ces connaissances : « on est d’avis que le ratio Sharpe, c’est bien »….
  • L’aspect pragmatique d’une convention renvoie à ses usages : comment on met en place, dans les logiciels, les organisations, les manières de procéder, le savoir.
  • La dimension politique – et l’on est là au cœur du sujet de la régulation – va opérer directement sur les pratiques, via les normes réglementaires.

Pour rendre leur exemple pédagogique, les auteurs ont opposé dans leur simulation une convention de type « continuiste » et une autre de type « discontinuiste ». La première remontant à Bachelier, avec le mouvement brownien. La seconde à Mandelbrot. Donc, deux manières de quantifier l’incertitude.

En fait, ce débat remonte à Newton et à la célèbre formule de Leibnitz : « natura non facit saltus » (la nature ne fait pas de saut), qui définit ensuite un principe de continuité. Ce principe de continuité en philosophie naturelle a ensuite irrigué l’économie avec Marchal. Il a été abandonné au début du XXe siècle par la physique et la génétique pour passer dans une logique de discontinuité avec la mécanique quantique et en génétique dans les théories de la sélection. Mais l’économie, avec Marchal, a maintenu et durci ce principe, ce qui aboutira à la théorie financière des années 50 et 60.

Les auteurs ont donc imaginé une réglementation qui s’appuie sur chacune des deux conventions puis en ont comparé les effets. Dans le cas de la première convention (continuité), le seul risque à mesurer est la volatilité. Dans l’autre cas de convention (discontinuité), le risque de saut étant important, la mesure de la volatilité n’est pas suffisante pour mesurer le risque. Au terme de leurs simulations, les auteurs montrent que lorsque la volatilité diminue, la capacité du marché à « casser » augmente. On obtient simultanément la réduction de la volatilité et l’augmentation de la fragilité du système.

En conclusion, un ensemble de règles qui stabilisent la volatilité, en faisant l’impasse sur l’erraticité, peut contribuer à augmenter le risque, par le biais de la hausse des queues de distribution des fluctuations. Le choix d’une convention a donc un effet sur le risque global.

En définitive, les leçons de cette simulation sont de trois ordres :
  • En matière de données et de modèles, il est temps d’abandonner le « positivisme » qui irrigue à la fois les modélisateurs et les régulateurs. Ce positivisme consiste à croire qu’il existerait un monde complexe et face à lui des modèles trop simples. Il s’agirait donc de connaître leurs limites pour savoir comment les utiliser. Lorsqu’on examine en sociologie des sciences la production des marchés financiers et la fabrication des outils, on voit que les données financières sont construites. Il y a une interaction entre le modèle et la donnée. Et les institutions (marchés, acteurs de ces marchés) sont parties prenantes de cette construction. Quitter le positivisme, c’est comprendre qu’entre les normes réglementaires, les outillages techniques et les données, il existe une interaction. Ces ensembles co-construisent ce que l’on appelle la réalité financière.
 
  • Construire une règle, réglementaire ou mathématique c’est avoir un effet sur l’environnement financier. C’est là l’aspect politique d’une convention. La boîte à outils pour entrer dans cette démarche est l’épistémologie. La chaire « Ethique et Finance » exprime une idée nouvelle dans le paysage financier : entre l’épistémologie et l’éthique, des ponts doivent être mis en place et les deux domaines doivent être désenclavés. L’épistémologie doit être partie intégrante de l’éthique, parce que les modèles ne sont pas éthiquement neutres. Il y a une morale embarquée dans la technique des modèles.
 
  • En troisième lieu, la simulation illustre un cas particulier de risque de régulation. Mais des cas plus complexes de risque de régulation pourraient être explorés à partir de ces méthodes sociologiques sur les conventions et des simulations mathématiques sur ces conventions.
 
Edouard-François de Lencquesaing souligne la difficulté d’élaborer une régulation qui « fonctionne » sans entraver l’économie, sachant que les politiques, eux aussi, prennent des raccourcis intellectuels ? Quand on évoque les réglementations de Bâle III et Solvabilité II, ce ne sont pas que les modèles qui ont conduit au résultat, ce sont aussi les hypothèses politiques.

Les questions du public :
  • Quel est le niveau de régulation optimal pour traiter les instabilités que le système financier a connu et connaîtra encore ? En outre, qu’en est-il dans le secteur des entreprises ?
Christian Walter : le travail ne fait que commencer. Il est clair qu’il faut étendre les premiers travaux de recherche à différents accidents financiers, pour comprendre de manière fine les modèles, les conventions, les réponses des acteurs dans les différents cas. La recherche, au stade actuel des travaux, ne peut que signaler qu’un champ intéressant d’exploration est ouvert. Et la chaire propose d’y entrer par la double clé de la sociologie des conventions et des modèles mathématiques. Par ailleurs, la question est peut-être moins celle d’un trop-plein de régulation que celle de sa bonne adéquation. Il faut davantage sensibiliser les porteurs de règles à l’importance de l’épistémologie. Il faut d’ailleurs aussi que les dirigeants des entreprises soient davantage informés des enjeux liés à la mise en œuvre de modèles. On constate donc aussi du côté des acteurs financiers un déficit d’épistémologie.
  • Le régulateur n’impose pas un type d’outil de gestion des risques. Il impose seulement d’avoir un dispositif de maîtrise des risques solide. Il laisse aux dirigeants le soin de choisir le dispositif le plus ad hoc. Naturellement, les superviseurs peuvent émettre des appréciations sur la qualité de ces dispositifs... la régulation impose aussi de pouvoir répondre aux conséquences de risques devenus effectifs.
Christian Walter : le préambule de la directive MIF par exemple, fait ressortir une forme de convention sur la façon de considérer comment les marchés fonctionnent. Il s’agit d’étudier comment les règles sont conditionnées, conformées par une convention. Il ne s’agit  pas de juger de la validité ou non de telle convention, mais bien de les identifier et de les comparer.
 
En conclusion
Edouard-François de Lencquesaing faisait observer que, dans le processus de lobby, on utilise souvent pour défendre telle ou telle position les résultats de calculs d’un certain nombre de modèles. Si les modèles dominants qui vont nourrir le débat entre l’industrie et le régulateur sont fondés sur une convention dominante, en oubliant d’autres conventions, la réglementation va s’en trouver orientée.

L’autre contradiction tient aux résultats du modèle de financement des économies dans le monde après la crise : on est parti d’une explosion des marchés pour aboutir à un développement des marchés pour financer l’économie. Il est donc légitime de s’interroger sur ce phénomène, qui a de multiples causes d’ailleurs. Autre exemple de « convention politique » : la croyance par certains responsables politiques que l’Europe est le mauvais élève du monde, parce que le bilan des banques y est disproportionné par rapport à la taille du PNB. Cette affirmation n’est pas clairement fondée ni contestée d’ailleurs.

Quant aux dérivés, les régulateurs veulent imposer la compensation centrale, alors que la question de la concentration des risques au sein des chambres de compensation n’est pas réglée.

On aboutit donc à un outillage de régulation, dont on peut se demander comment il a pu être mis en place. Sans préjuger de la qualité de la régulation en place actuellement, le processus qui y conduit n’est donc pas évident.

Enfin, dans le débat qui a eu lieu à Paris Europlace autour de la recherche dans les établissements financiers, les quants, qui élaborent les outils, ont considéré, que ces outils sont détournés de leur vocation scientifique. La professeur Nicole El Karoui, experte de ces questions, a affirmé qu’avant la crise ce problème avait été signalé en vain. Elle proposait donc de mettre en place une gouvernance particulière, de façon à ce que les créateurs de ces outils puissent avoir un pouvoir de surveillance et d’alerte sur la manière dont ils sont utilisés. Les établissements financiers ont refusé cette approche, jugée trop compliquée.

Edouard-François de Lencquesaing estime toutefois que - compte tenu du fait que le monde financier utilisera encore longtemps des modèles – il faudrait mettre en place une instance indépendante qui ferait passer des messages sur les limites et les hypothèses de ces modèles et la manière dont ils conditionnent les prises de décision dans l’activité de l’établissement.

Enfin, notons que des problèmes similaires se posent entre normes comptables et techniques d’évaluation des actifs financiers. C’est pourquoi a été créée en France une Association des évaluateurs de produits complexes, dont le rôle est de structurer la profession et faire en sorte que les outils soient compris par ceux qui reçoivent les évaluations et que le processus d’évaluation soit normalisé.