Do not follow this hidden link or you will be blocked from this website !

 Le prix du risque dans l'évaluation des politiques et des investissements publics


Luc BAUMSTARK * Secrétariat général pour l'investissement. Contact : luc.baumstark@pm.gouv.fr.

La question du prix du risque dans l'évaluation des politiques et des investissements publics est abordée ici en partant, d'une part, de la manière dont elle a été discutée dans les travaux menés à France Stratégie pour alimenter les cadres de référence des évaluations socioéconomiques préalables des grands projets d'investissement d'État et, d'autre part, de la manière dont ces outils sont de fait mobilisés dans les évaluations socioéconomiques qui ont été notamment contre-expertisées en France ces dernières années au Secrétariat général pour l'investissement. L'article évoque ensuite les principaux défis qu'il convient de relever pour améliorer la pratique des études sur les grands projets et pour faire en sorte que les évaluations mobilisées traitent de manière satisfaisante les risques et les incertitudes qui entourent les bénéfices et les coûts et qu'elles puissent ainsi être réellement utiles dans le débat public et la prise de décision.

Tout projet d'investissement est un pari sur l'avenir, cela est vrai dans le domaine privé comme dans le domaine public. Un pari comporte par nature des incertitudes. L'outil du calcul économique qui a pour objet d'éclairer le décideur au moment où il doit engager des dépenses devrait donc se focaliser essentiellement autour de la question du risque. Or quelle part donne-t-on véritablement à ces réalités dans les évaluations des politiques publiques au moment où les décisions sont prises ?

Plusieurs entrées sont possibles pour traiter un tel sujet : il est possible de l'aborder du point de vue normatif et théorique – la littérature est foisonnante sur le sujet, il est possible de l'aborder du point de vue positif –, les pratiques concrètes offrent un terrain d'observation incomparable pour apprécier la manière dont la question du risque est réellement intégrée lorsque ces études sont réalisées ; on peut l'aborder également par le volet prescriptif – ce dernier peut se repérer dans les manuels élaborant des boîtes à outils clé en main pour les évaluateurs, mais aussi et surtout dans les nombreux guidelines plus officiels élaborés au sein des administrations qui cherchent à relever le défi d'une pratique robuste du point de vue théorique, tout en étant réaliste dans la mise en œuvre opérationnelle.

C'est sur la base de cette dernière entrée que cet article reprend donc la question de l'analyse du risque. La réflexion s'appuie sur une expérience particulière, sans doute assez originale, qui prend naissance dans des groupes de travail qui se sont échelonnés pendant plus de vingt ans au Commissariat général du plan, puis à France Stratégie. C'est dans ce creuset qu'une doctrine s'est progressivement construite sous, d'une part, les aléas des commandes politiques et, d'autre part, des pratiques plus opérationnelles qui se sont très fortement renforcées depuis qu'une loi en France a établi en 2012 l'obligation d'une évaluation socioéconomique préalable à l'approbation de tout investissement public1. Les questions de méthode sont devenues ces dernières années l'occasion de débats d'autant plus importants que la loi instaure pour tout projet de plus de 100 M€ une contre-expertise indépendante visant justement à apprécier la robustesse et la pertinence des outils mobilisés dans ces évaluations. Les choix de méthodes ne sont bien évidemment pas sans conséquence sur les résultats des analyses.

Cet ensemble de travaux, qui se sont multipliés dans les administrations étrangères (OCDE, 2018) constitue donc un observatoire tout à fait exceptionnel pour traiter de la question de l'intégration du risque dans l'évaluation ex ante des grands projets d'investissement. Il permet notamment de percevoir comment les réflexions théoriques viennent bousculer les pratiques et comment en retour la réalité de la pratique peut interroger la théorie et sa capacité à construire des outils opératoires compréhensibles et in fine utiles dans le débat public. Les lignes qui suivent sont bien entendu marquées par l'usage de l'analyse coût avantage dans les évaluations des investissements publics. Ceux-ci ne représentent qu'un aspect très particulier de la décision publique. Mais les éléments qui sont décrits ici concerneraient tout autant l'évaluation ex ante de politiques publiques (réglementation, subventions, normes, etc.), si celles-ci venaient à faire l'objet d'obligations d'évaluation socioéconomique larges comme cela est pratiqué aux États-Unis, par exemple. Mais ce n'est clairement pas le cas encore aujourd'hui en France.

L'évaluation socioéconomique des projets d'investissement

La pratique du calcul économique public trouve son origine dans un cadre théorique traditionnel depuis les premières réflexions de Jules Dupuit qui deviendront les bases de l'économie publique. Elle consiste à poser que la valeur d'un bien public est constituée de la somme des variations d'utilité qu'en retire l'ensemble de la collectivité au cours du temps. Pour apprécier la valeur collective d'un tel investissement, on considérera la somme des variations d'utilité impactant tous les agents économiques : les coûts – notamment d'investissement ou d'entretien – constituent des variations négatives d'utilité, les avantages des variations positives. Le calcul économique s'attachera alors à vérifier que la somme de toutes ces variations est bien positive. Le projet crée de la richesse sociale si cette différence est au total positive ; dans le cas contraire, elle en détruit.

L'indicateur synthétique de ces calculs qu'est la VAN2 (valeur actuelle nette) est donc, par nature, une grandeur incertaine. Il s'agit bien de « mettre en balance des gains possibles ou probables avec des pertes probables ou improbables, mais possibles » (Centre d'analyse stratégique, 2011).

La mise en œuvre de cet outil dans la sphère publique se différencie des pratiques observées dans le privé essentiellement du fait que l'analyse se place du point de vue la collectivité et non du seul porteur de projet et que sont intégrés dans l'analyse tous les impacts associés à la réalisation d'un projet, y compris ceux qui n'ont pas de traduction marchande immédiate, mais qui impactent le bilan social. Par ailleurs, bien souvent le calcul économique public se décline sur des horizons temporels très longs. Le Commissariat général du plan, puis France Stratégie ont rappelé à maintes reprises l'importance du calcul économique pour optimiser les dépenses publiques. Plusieurs rapports ont proposé de moderniser les outils d'évaluation socioéconomique en les élargissant à des domaines où il n'est pas facile de produire des valeurs monétaires à comparer aux euros dépensés ou gagnés : le temps, la vie humaine, l'environnement, le climat, voire la biodiversité (France Stratégie, 2013). La question du risque se pose à de nombreux titres.

La prise en compte du risque3 dans l'évaluation
et la pratique du taux d'actualisation
4

Le rapport Lebègue (Commissariat général du plan, 2005) s'était alarmé de la pauvreté de la prise en compte du risque dans les évaluations socioéconomiques des investissements publics, alors que les pratiques existent dans le secteur privé, « lequel développe des pratiques et des « standards » souvent très sévères ». Et cela conduit malheureusement à une sous-estimation des risques, ce qui est fortement préjudiciable pour la collectivité.

Alors que cette Commission avait pour mission à l'origine non de traiter le risque en tant que tel, mais de refondre le taux d'actualisation public, le basculement théorique et méthodologique décisif qu'elle engage sur le taux d'actualisation va favoriser une intégration plus forte du risque dans les évaluations socioéconomiques.

Jusque-là en effet, la collectivité pensait se protéger des multiples risques associés à un projet, et notamment de la tendance naturelle de leurs promoteurs à surestimer les avantages et à minimiser les coûts, en exigeant un taux de rendement élevé sur les fonds qu'elle engageait. Cette méthode consistait à réduire les VAN de tous les projets en augmentant uniformément le taux d'actualisation. Une telle pratique, qui avait pour elle la simplicité, revenait à supposer que tous les projets d'investissement public en concurrence de financement avaient des risques comparables. Cette pratique d'un taux uniforme de 8 % avait pour conséquence immédiate de pénaliser systématiquement les projets les moins risqués en incluant implicitement une prime de risque forfaitaire et globale.

Le rapport Lebègue, en proposant de réduire le taux d'actualisation public qui était alors de 8 % pour le ramener à un taux d'actualisation de 4 % défini comme étant clairement un taux sans risque, affichait là clairement l'ambition de dissocier, théoriquement et pratiquement mais en les articulant, la question de l'actualisation (le prix du temps) de celle des risques pris par la collectivité projet par projet (le prix du risque pour lui-même). Ce faisant, en baissant le taux d'actualisation pour un taux sans risque, il devenait crucial de bien prendre en compte simultanément les risques. Ce fut l'ambition du rapport de la Commission présidée par Christian Gollier (Centre d'analyse stratégique, 2011) que de décliner plus précisément le minimum à réaliser dans les études et surtout d'offrir un cadre général robuste pour intégrer le risque de manière systématique et cohérente dans les évaluations.

Entre risque propre au projet et risque
systémique : le théorème d'
Arrow-Lind revisité

Prendre en compte le risque, c’est considérer que pour chacune des années à venir du projet, ni la valeur des avantages, ni celles des coûts ne peuvent être déterminées avec certitude, mais qu’elles sont susceptibles de prendre diverses valeurs pondérées par une probabilité plus ou moins forte. À une valeur certaine illusoire, il faut donc substituer une moyenne (espérance mathématique) qu’il s’agit s’estimer.

Le cadre théorique et le formalisme précis mobilisé dans ce débat (voir pour une présentation pédagogique complète : Gollier, 2007 ; Centre d'analyse stratégique, 2011 ; France Stratégie, 2013) permettent de distinguer clairement les risques propres aux projets eux-mêmes et le risque particulier associé à la sensibilité que chaque projet a avec la croissance économique future. Les débats à la suite de ces deux rapports portent moins sur les méthodologies permettant de mieux traiter les risques et les incertitudes associés aux attendus des différents projets et au calcul nécessaire de leur moyenne que sur la question d'éventuelles primes de risque à associer à certains projets, compte tenu des corrélations qui existent entre l'évolution des flux économiques de ces projets et la croissance économique. Le cadre théorique permet ainsi de légitimer l'ajout d'une prime de risque venant augmenter le taux d'actualisation public de référence sans risque, mais cette fois-ci en introduisant différents systèmes d'actualisation selon les types de projets.

Dans le cas où l'aléa macroéconomique et l'aléa sur les flux engendrés par le projet sont gaussiens et constants dans le temps, la formule initiale, caractérisant le taux d'actualisation, se modifie d'un paramètre supplémentaire (prime de risque) qui tend à accroître le taux d'actualisation. Reste alors à en définir le calibrage.

Le plus important à retenir ici, au-delà des calibrages proposés5, c'est que la prime de risque précisée, si elle intègre une aversion de la collectivité au risque dont on peut discuter l'intensité, renvoie également à la manière dont le projet lui-même réagit à l'aléa macroéconomique (ce qui revient concrètement à mesurer la sensibilité des bénéfices attendus du projet aux variations du PIB/habitant). Or, s'il est incontestable que ces réactions diffèrent fondamentalement d'un projet à l'autre, d'un secteur économique à l'autre (réseau fibre optique, structure hospitalière, établissement pénitentiaire, aménagements urbains, etc), il n'en demeure pas moins qu'il également difficile de les apprécier projet par projet. Ces paramètres, spécifiques à chaque projet, peuvent être nuls si les projets ne sont pas corrélés à la croissance économique, voire négatifs si les projets sont au contraire contracycliques.

L'enjeu des débats de cette méthode appelée méthode du « bêta socioéconomique » (par analogie avec le modèle MEDAF utilisé pour valoriser les actifs financiers), très controversée au sein de ces commissions de travail, ne se trouve pas vraiment dans les considérations de praticabilité et de complexité qui ont pu être mobilisées, mais bien sûr des questions centrales d'économie publique. Cet enjeu est double. Il s'agit de savoir, d'une part, s'il est légitime d'introduire une prime de risque dans le calcul économique public (ce qui traditionnellement n'est pas recommandé) et, d'autre part, si les projets doivent être actualisés avec un système d'actualisation qui diffère selon les projets (ou tout du moins par grande catégorie de projets).

Sur le premier point, le théorème d'Arrow-Lind (1970), bien connu en économie publique, conduit à considérer effectivement que dans le cadre d'un projet public, si le coût du risque est partagé par un grand nombre de membres de la population, si le coût du projet est relativement petit par rapport au PIB et s'il existe peu de corrélations entre les bénéfices attendus du projet et l'évolution du PIB, alors le coût total du risque pour la société devient très petit. Dans le cas standard, on retient alors que lorsque le risque sur les flux économiques du projet (réels ou issus de la monétarisation des effets environnementaux) est à la fois faible en lui-même et indépendant du risque macroéconomique, il est légitime de considérer que la collectivité soit neutre au risque et qu'il convient dès lors d'actualiser les bénéfices et les coûts des projets au seul taux d'actualisation sans risque.

Les débats engagés dans les derniers rapports évoqués supra ont conduit à interroger les pratiques qui admettaient, par principe, l'absence de prime de risque dans le calcul économique public, et à rappeler au contraire qu'il était important du point de vue de la collectivité de s'inquiéter (Baumstark et Gollier, 2014) d'une aversion pour le risque macroéconomique contre lequel la collectivité ne peut pas se prémunir. Cette mise en garde se traduit de manière concrète à promouvoir un mécanisme permettant de favoriser les projets peu corrélés avec la croissance économique (qui font office d'assurance) par rapport à ceux dont les avantages sont au contraire très sensibles à la croissance économique. Dit autrement et simplement, à VAN égale, il est toujours préférable pour la collectivité de retenir un projet qui minimise ce risque systémique. Retenir la même prime de risque quel que soit le projet conduit l'État à sous-investir dans tout ce qui constitue une assurance pour l'avenir, et à privilégier des projets qui viendront accroître la volatilité de l'économie française.

Si les référents théoriques de cette approche peuvent être contestés et si la transposition dans la sphère publique des pratiques d'évaluation observées dans la sphère privée peut être discutée, cette approche offre malgré tout un cadre cohérent, elle transpose à la création de valeur dans la sphère publique un cadre reconnu comme robuste pour l'évaluation de la création de valeur dans la sphère privée.

Au-delà de l'aspect purement calculatoire, l'analyse des corrélations des attendus du projet à la croissance économique constitue, même en n'en restant qu'à une analyse qualitative, un élément très riche et instructif d'une évaluation, utile pour questionner la robustesse d'un projet à des perspectives contrastées.

Pour l'instant, ces éléments ne sont pas systématiquement mis en œuvre dans les études, mais des travaux sont en cours à France Stratégie sous l'égide du comité d'experts6 permanent pour proposer des référents. De fait, dans les contre-expertises des grands projets d'investissement engagés en 2018, ce cadre a été mobilisé notamment sur les investissements dont les enjeux sociaux ou santé sont importants pour proposer modestement des simulations de calcul de VAN avec des taux d'actualisation plus faible que le taux de référence. Proposer des calculs de VAN avec un système d'actualisation plus faible que le taux moyen (actuellement de 4,5 %), c'est supposer implicitement des bêtas inférieurs à 17 et donc de fait, une prime de risque moindre pour ces projets que pour les autres projets.

La pratique de l'analyse des risques reste assez
pauvre et doit être développée et améliorée

De manière générale, au-delà des discours quelque peu convenus sur le principe de précaution, la prise en compte effective des risques dans les études et les évaluations qui alimentent le processus de décision restent insuffisantes au regard des enjeux. L'absence de réflexion sérieuse sur ce point impose a posteriori à la collectivité des coûts supplémentaires importants qui auraient pu être évités. Elle donne lieu à des arbitrages déraisonnables en évinçant, à bénéfices identiques, des projets moins risqués ou en surestimant, par une prudence excessive, les risques de certains projets.

Les pratiques actuelles sur ce point, comme on le perçoit nettement dans les contre-expertises indépendantes organisées par le SGPI (ex CGI), restent assez limitées et les conclusions des rapports évoqués supra restent malheureusement toujours d'actualité :

  • les incertitudes affectant les variables sont généralement omises (incertitudes de mesure et des modélisations mobilisées, imprécision des modèles et des données), le porteur de projet se contentant de raisonner sur des valeurs déterministes, au mieux considérées comme les valeurs les plus probables, et éventuellement affectées d'un abattement forfaitaire pris à dire d'expert ;

  • les incertitudes radicales (rupture possible par rapport aux modèles utilisés) sont traitées au mieux via des scénarios quand elles ne sont pas tout simplement ignorées.

Dans le meilleur des cas, l'analyse du risque se résume à l'évaluation de quelques scénarios distincts, relativement contrastés, et à la réalisation de tests de sensibilité de résultat par rapport à quelques variables jugées déterminantes. Mais si ces tests de sensibilité et ces scénarios sont mobilisés dans les travaux, ils sont bien souvent peu articulés aux conclusions de l'évaluation et ils présentent bien des faiblesses :

  • l'approche par les scénarios ne permet pas l'exploration exhaustive du domaine des possibles, des scénarios dont la probabilité d'occurrence est faible et ceux dont la probabilité est au contraire élevée peuvent être mis sur le même plan, les scénarios alternatifs au scénario central ne précisent pas suffisamment les plages d'incertitude associées ;

  • si les tests de sensibilité effectués sur les variables peuvent mettre en évidence les variables sensibles dont le poids peut faire basculer la conclusion sur le bilan du projet, s'ils sont faciles à mettre en œuvre et à comprendre pour le décideur, ils présentent aussi plusieurs limites qui ne sont pas toujours bien intégrées : les tests n'explicitent pas la probabilité d'occurrence des risques considérés des variables dont certaines peuvent être de plus corrélées entre elles, etc.

L'ensemble de ces développements lorsqu'ils existent sont souvent mal articulés et éclairent in fine très peu la décision.

Face à ces multiples difficultés, il apparaît nécessaire et utile de cadrer un minimum la démarche prospective au risque de voir celle-ci s'embourber dans un maquis des possibles. Cela doit se traduire par la mise en œuvre systématique de principes opérationnels très simples et standardisés avant d'envisager des outils plus sophistiqués. C'est également sur la base des pratiques réellement mises en œuvre qu'il convient de progresser en capitalisant les bonnes pratiques. C'est le processus en cours aujourd'hui dans la réalisation des guidelines internes aux administrations qui se mettent progressivement en place. Il se décline selon les principales préoccupations suivantes :

  • la démarche doit rester proportionnée aux enjeux. Des outils sophistiqués ne remplaceront jamais la réflexion qualitative multidimensionnelle préalable. L'analyse des risques par nature consiste à identifier, puis à caractériser tous les risques envisageables et ce sur la totalité de la durée de vie du projet ; elle doit anticiper l'impact de ces risques sur les coûts, mais aussi sur les bénéfices attendus, rechercher et qualifier, lorsque cela est possible et a du sens, leur probabilité d'occurrence, voire, dans certains cas, les quantifier ;

  • les variables clés du projet (les plus sensibles et les plus pertinentes) doivent pouvoir être identifiées, appréhendées par des indicateurs et des tests de sensibilité au résultat final qui doivent faire ensuite l'objet d'un commentaire ;

  • plus encore, l'analyse ne saurait être complète si elle n'envisageait pas systématiquement, d'une part, les mesures pouvant être mises en place pour diminuer ces risques et, d'autre part, si le risque survient, les mesures qui pourraient être mises en place pour en limiter les impacts en s'attachant à chaque fois à donner des ordres de grandeur des montants des coûts associés : les coûts à engager pour diminuer un risque, les coûts à supporter lorsque le risque n'a pu être évité, la perte sociale subie par la collectivité du fait d'un événement défavorable, etc. sont autant d'éléments décisifs pour adapter le niveau d'investissement et éventuellement y renoncer ;

  • enfin, ces approches doivent cadrées en amont des études des projets pour ne pas laisser aux porteurs de projet une totale initiative, au risque de limiter la transparence des études et faciliter les manipulations des résultats, d'une part, mais surtout pour faciliter la vie des évaluateurs, diminuer le coût des approches en favorisant des routines, d'autre part, et pour faciliter enfin les comparaisons entre les projets et les différentes options des projets.

Malgré tout, l'analyse du risque ne doit pas s'enfermer dans des analyses trop standardisées ou dans des routines ; même s'il reste essentiel de s'y astreindre, elle doit être engagée en renouvelant l'analyse par des questionnements critiques adaptés au projet considéré.

L'ensemble de ces éléments peuvent être rassemblés dans des présentations de synthèse que l'on nomme généralement dans le langage opérationnel « matrice des risques ou cartographie des risques ». Ces présentations de synthèse structurées sur la base d'une typologie simplifiée devraient être systématiquement jointes dans les évaluations et faire l'objet d'un développement spécifique dans le corps des évaluations et non dans les annexes. Cet élément constitue un document constitutif du dossier d'évaluation socioéconomique, comme le rappelle le décret 2013-1211 qui encadre la procédure de contre-expertise indépendante. De fait, dans les dossiers à de rares exceptions près, ces éléments ne sont pas proposés, ou s'ils le sont, ils restent très attachés à la seule analyse des risques sur les travaux et les délais des travaux. Les typologies commencent à évoluer.

Des typologies qui se précisent
de manière systématique

Les outils d'analyse mobilisés comme les modes de présentation des principaux résultats sont nombreux et peuvent être adaptés à chaque projet, mais, dans tous les cas, ils devraient faire apparaître systématiquement les points suivants que l'on retire des enjeux abordés et qui sont mobilisés dans les nombreuses contre-expertises engagées au SGPI8 depuis cinq ans.

L'analyse du risque (risques, mais aussi opportunités)
est d'abord qualitative

Il s'agit d'identifier et de décrire les risques et les incertitudes associés à toutes les dimensions du projet. Cela concerne :

  • les éléments relatifs aux investissements (délais et coût des travaux, aléas techniques juridiques et réglementaires, risque financier, risque environnementaux, risque sur l'évolution du projet, les contraintes de toutes natures associées à la conception du projet, sa réalisation) ;

  • les éléments relatifs à la fréquentation de l'infrastructure (évolution des comportements des usages, des dynamiques démographiques en intégrant la dimension locale, régionale, nationale et internationale, éléments relatifs à la tarification des services, aux contraintes et aux normes qui peuvent évoluer), surtout si cette fréquentation impacte la soutenabilité du projet ;

  • les éléments relatifs à l'offre elle-même (nature des services et leurs évolutions, évolutions de la concurrence dans le secteur et les stratégies des acteurs traditionnels ou émergents, modifications structurelles de l'offre associées à des innovations technologiques) ;

  • et enfin, les risques associés à l'évaluation elle-même (indicateurs retenus, qualité des données, qualité des modèles utilisés).

Cette analyse doit être la plus exhaustive possible quitte, sur la base d'une argumentation claire, à resserrer ensuite l'analyse pour engager des approches plus quantitatives autour des éléments qui apparaissent les plus déterminants, l'efficacité de ce type d'analyse dépendant de la qualité de la description du risque et des commentaires qui justifient l'exclusion ou non des risques identifiés. Elle doit également s'attacher à traiter les interdépendances entre les différents risques. Par ailleurs, elle doit également préciser les acteurs qui sont concernés par le risque.

Pousser l'analyse, risque par risque, autour de questionnements systématiques

L'analyse qualitative précédente ayant permis d'isoler les éléments les plus décisifs doit ensuite être déclinée risque par risque, lorsque cela est possible, en précisant avec soin :

  • les impacts sur le projet. Ceux-ci peuvent, lorsque c'est possible, renvoyer à un ou à des indicateurs susceptibles de mesurer ces impacts. En dernier recours, il peut être utilisé des marqueurs discrets reprenant des métriques simples de type : « Impact positif, négatif, indéterminé » « Impact fort, faible, indéterminé », etc. selon des échelles plus ou moins détaillées ;

  • la prise en compte dans l'évaluation. Les commentaires précisent comment ces risques ont été pris en compte dans l'évaluation (ou pas et pourquoi) ;

  • la description des conséquences associées au risque identifié. Cette identification doit être poussée, le cas échéant, jusqu'au chiffrage du coût des conséquences ou du coût des mesures correctrices qu'il faudrait engager si le risque se réalise et si des mesures correctrices sont possibles ;

  • la définition des actions préventives (en amont du projet, au cours du projet) qui pourraient permettre de diminuer le risque identifié (chiffrer le coût de ces actions lorsque cela est possible).

Ces éléments permettent d'alimenter des matrices croisant plusieurs critères : ceux relatifs à la criticité du risque (niveau d'acceptabilité du risque), la vraisemblance (niveau de risque exprimé en probabilité le cas échéant), importances des impacts (de négligeable à très fort).

Lorsqu'une VAN est disponible dans l'évaluation, l'analyse du risque devrait systématiquement simuler l'impact des principaux risques sur celle-ci. En théorie, dans le calcul de la VAN, chaque avantage et chaque coût devraient être estimés à sa valeur moyenne (somme des valeurs alternatives pondérées par la probabilité d’occurrence) ; à défaut, il est au minimum nécessaire d’effectuer des tests de sensibilité sur la VAN pour les paramètres qui apparaissent les plus sensibles.

Garder un principe de subsidiarité dans l'analyse
pour saisir les enjeux particuliers des projets

Il apparaît nécessaire de bien distinguer les risques qui sont directement liés au projet lui-même (l'anticipation de la demande par exemple, les coûts de construction, a fortiori les risques techniques ou technologiques) des risques plus globaux qui concernent le contexte dans lequel le projet s'inscrit (incertitude sur l'évolution future de la croissance économique, besoin en termes de formation, etc.) et qui affecteront le contexte dans lequel tous les projets retenus auront à être réalisés. Ces différents types de risques nécessitent des traitements différenciés.

Certains de ces éléments doivent être impérativement définis au niveau national ou laissé au contraire à la libre appréciation du porteur de projet. Ces points doivent être précisés dans le référentiel qui encadre les évaluations.

S'organiser pour assurer la nécessaire capitalisation des informations
(articulation des études ex ante, ex post)

Il convient d'avoir à l'esprit que ces matrices ont un intérêt pour l'appréciation du projet lui-même, mais aussi à plus longue échéance pour aider, étude après étude, à capitaliser des informations qui portent souvent sur des risques récurrents et qui peuvent donc par la suite faire l'objet d'études beaucoup plus approfondies utiles en retour pour améliorer les études futures. Elles constituent des socles utiles pour engager des recherches plus fondamentales.

Ces éléments sont aussi susceptibles d'évoluer en faisant le bilan des pratiques en cherchant à concilier la faisabilité des calculs et la pertinence des conclusions que l'on peut en tirer.

Conclusion

Le sentiment que l'on retire des travaux engagés depuis quinze ans, c'est que le cadre théorique à mobiliser est relativement bien établi et qu'au-delà des estimations de tel ou tels paramètres, le problème est aujourd'hui davantage dans la mise en œuvre des recommandations – sachant que ces dernières se heurtent bien souvent à des problèmes méthodologiques redoutables (définition d'une option de référence de qualité : ce qui se passerait de manière la plus raisonnable si le projet envisagé ne se faisait pas ; construction d'une prospective à long terme sur les principaux paramètres de la demande, etc.). Paradoxalement, c'est moins l'approche économique qui fait la difficulté que la capacité à mener une analyse prospective mobilisant des savoirs de nature parfois très différente (ingénierie, sciences du comportement, sociologie, etc.).

Les rapports fréquemment cités dans les développements qui précèdent au-delà de certains développements techniques incontournables pour les calculs insistent sur le fait que l'évaluation du risque ne se résumait pas à la définition d'un indicateur unique. Cela est vrai du risque systématique (non diversifiable) comme de tous les autres risques propres au projet, en particulier lorsque ces derniers sont portés par des communautés restreintes et vulnérables au lieu d'être disséminés dans la société comme la théorie en fait l'hypothèse. Les calculs doivent s'appuyer sur une analyse d'impacts très fouillée. On ne peut que regretter que cela soit rarement fait par le porteur de projet.

Ces méthodes présentent l'avantage incomparable de mettre le porteur de projet en situation de mieux appréhender les variables les plus influentes pour la réussite ou l'échec du projet, et lui procure donc les éléments à utiliser en vue d'une meilleure gestion des risques. L'intérêt du calcul économique n'est donc pas de résumer la valeur sociale d'une décision collective à un indicateur ou à un autre, mais bien, en forçant les agents à les produire, à les contester, voire à les enrichir, de favoriser le déroulement et la clarification des débats dans un cadre de référence partagé. Cela est vrai du calcul économique en général, mais cela l'est d'autant plus de l'analyse du risque qui en est le centre.


Notes

1 Ce processus, son histoire, les outils mis en œuvre, les textes officiels se trouvent sur les pages dédiées au calcul économique public et à l'évaluation socioéconomique des investissements des deux sites du SGPI et de France Stratégie, respectivement : https://www.strategie.gouv.fr/chantiers/calcul-socioeconomique ; https://www.gouvernement.fr/ESE.
2 Aujourd'hui, l'administration cherche à faciliter l'appropriation de ces outils (voir le récent Livre vert), à capitaliser les pratiques et à les faire évoluer (voir travaux du comité d'experts permanent de France Stratégie).
3 Il n'est pas le lieu ici de reprendre l'ensemble de la démarche et des éléments théoriques complexes qui permettent d'appréhender le risque. On peut se rapporter utilement aux rapports Lebègue (Commissariat général du plan, 2005), Gollier (Centre d'analyse stratégique, 2011) et Quinet (France Stratégie, 2013) pour des premières présentations synthétiques et pédagogiques pour mesurer comment on passe des cadres théoriques à une mise en œuvre opérationnelle. Ces rapports renvoient ensuite à la littérature scientifique spécifique.
4 Le taux d'actualisation est un taux de substitution entre le présent et le futur, qui rend commensurables des sommes perçues ou dépensées à des moments différents. Même sans érosion monétaire, 1 euro aujourd'hui a généralement une valeur supérieure à celle de 1 euro dans un an. Ce taux qui peut se rapporter à des préférences individuelles et finalement sociales intervient dans la décision de l'investissement : quel effort la collectivité (ou un individu) est-elle (est-il) prête (prêt) à faire pour améliorer l'avenir. Ce taux traduit la valeur que l'on attribue au temps qui nous sépare de la disposition d'un bien futur, d'une consommation future. On parle de taux d'escompte social. La valeur de ce paramètre se trouve au dénominateur de la formule de la valeur actuelle nette d'un investissement. Ce taux a été précisé dans le cadre de travaux interministériels menés à France Stratégie (nouveau nom de l'ancien Commissariat général du plan).
5 Le rapport Quinet (France Stratégie, 2013) propose un système d'actualisation a priori qui varie avec l'horizon de temps considéré. Le rapport propose un taux sans risque et une prime de risque passant respectivement de 2,5 % et 2 % à 1,5 % et 3 % à l'horizon de 2070, ce qui conduit naturellement à prendre comme hypothèse initiale un taux constant de 4,5 %.
6 En 2016, France Stratégie et le SGPI (ex-CGI) ont décidé d'installer le Comité d'experts des méthodes d'évaluation socioéconomique des projets d'investissements publics. Ce Comité permanent a pour mission de créer une culture commune de l'évaluation des projets d'investissement en veillant à associer les différents acteurs de l'évaluation et en discutant notamment les méthodes mobilisées dans les évaluations.
7 Un projet qui a un béta unitaire est un projet dont les bénéfices socioéconomiques croissent en moyenne de 1 % quand le PIB par habitant croît de 1 %.
8 Les contre-expertises pour les projets d'investissement de plus de 100 M€ engagés depuis 2013 ont indéniablement bousculé les acteurs. Plusieurs ministères depuis se sont engagés dans des réflexions sur les procédures d'évaluation et la mise en place des méthodes. On peut rappeler par ailleurs que depuis 2013, ce sont près de 60 contre-expertises qui auront été réalisées pour un montant cumulé des projets qui approchent les 50 Md€.