Do not follow this hidden link or you will be blocked from this website !

Qualité des données dans le cadre réglementaire : les enjeux de conformité et de performance - Compte-rendu du 15 septembre 201

23/09/2015

Propos introductifs : Edouard de Lenquesaing


L’affaire dite de « la baleine de Londres » est instructive : à quelques jours d’intervalle, Jamie Dimon, le directeur général de JP Morgan, a nié, puis reconnu, les pertes enregistrées par la filiale britannique de la banque américaine. Les données sensibles n’avaient-elles pas pu être réunies à temps ? Il en a en tout cas résulté une énième perte de crédibilité des établissements bancaires de premier rang, suspectés d’être trop grands pour maîtriser correctement les masses d’informations et de données qu’ils génèrent. Cet épisode, parmi d’autres, a probablement contribué à la multiplication des initiatives politiques (rapport Liikanen pour l’Union européenne, règle Volcker aux Etats-Unis, commission Vickers au Royaume-Uni) visant à réduire la taille des banques ou à séparer les activités bancaires.

La qualité des données est ainsi devenue en enjeu de premier plan, qui ne doit plus être laissé aux seules mains des informaticiens, au moment où s’accroit la masse d’informations à fournir aux autorités de contrôle et où les reportings – jusqu’au conseil d’administration – se multiplient. En matière de gestion des données, la tendance est d’ailleurs à la recentralisation, gage d’un meilleur contrôle. Si la tâche est immense, les outils mis à la disposition des spécialistes de la donnée (le XBRL ou Extensible business reporting langage par exemple) sont de plus en plus sophistiqués.

Frédéric Martin, Franck Coisnon

Les exigences prudentielles
 
Bâle 2 et 3 et Solvabilité 2 fixent un cadre normatif en matière de qualité des données, définissent les risques et indiquent comment les gérer.

On trouve dans ces textes les mots clés relatifs à la gestion et à l’organisation des données : exhaustivité, pertinence, précision, accessibilité.
 
Explicites ou implicites, ces exigences portent sur la qualité des données, mais aussi sur l’organisation du système d’information (notamment : sécurité et disponibilité des données).
 
Ces textes sont utilement complétés par la norme BCBS 239 du Comité de Bâle sur le contrôle bancaire, publiée le 9 janvier 2013 : il s’agit d’un cadre général permettant de définir des principes à suivre en termes d’agrégation des données et de reporting.
 
Le cadre réglementaire est mouvant :
  • plusieurs textes traitent de la question des données 
  • de nouveaux textes peuvent être publiés
  • trois niveaux de référence : instances internationales (par exemple Comité de Bâle), Union européenne (directives, règlements…), transcription en droit national
 
Les projets « données » lancés dans les établissements financiers ne sauraient se limiter aux systèmes d’information et au cadre réglementaire : il s’agit d’en faire des projets d’entreprise.
 
En l’absence de texte spécifique sur la qualité des données, il est nécessaire de se référer aux règles relatives à la mise en œuvre et aux usages des modèles internes (directives 2006-48, 2006-49 et 2013-36). On y trouve des indications en matière de systèmes d’information (exhaustivité), d’organisation (dispositif de contrôle pérenne) et desprincipes clés (exactitude, exhaustivité, cohérence, caractère approprié, contrôle).

Exemple : exactitude

            La directive 2013-36 indique :
« lorsqu’un établissement de crédit utilise un modèle statistique ou une autre méthode mécanique pour affecter ses expositions aux différents échelons ou catégories de débiteurs ou facilités de crédit (…) il doit démontrer que les données utilisées pour construire le modèle sont effectivement représentatives de l’ensemble de ses débiteurs ou expositions »
 
Dans le monde de l’assurance, la directive Solvabilité 2 et ses actes délégués donnent de nombreuses indications sur la notion de qualité des données, notamment dans les développements ayant trait aux provisions techniques, aux modèles internes, ou encore au reporting réglementaire.
 
En synthèse, dans le monde bancaire comme dans celui de l’assurance, les exigences prudentielles se déploient selon quatre axes :

            . qualité des données 
. conséquences opérationnelles : mettre en place des critères d’appréciation et de mesure de la qualité
            . processus, outils et dispositif d’évaluation des données
. conséquences opérationnelles : formaliser l’organisation visant au contrôle des données
            . auditabilité et traçabilité des données
. conséquences opérationnelles : les données doivent pouvoir faire l’objet d’audits externes
            . correction et ajustement des données
. conséquences opérationnelles : distinguer entre ajustements autorisés et corrections
 
Le déploiement des chantiers
 
Trois types de chantiers : gouvernance, contrôle interne, infrastructure et système d’information
 
Gouvernance : rôles et responsabilités, moyens (procédures…), dictionnaire de données, critères de qualité, charte qualité
 
Contrôle interne : process map, retraitements, pistes d’audit, contrôles clés
 
Infrastructure et système d’information : stockage, accessibilité, migration, droits et habilitations…
 
Le retour sur investissement de tels projets ne sont pas mesurables. On peut cependant s’attendre à ce que les retombées à long terme soient fortes, dans la mesure où toutes les couches de l’entreprise ont été concernées et sollicitées.
Par expérience, il ressort que le dialogue avec les opérationnels n’a pas été suffisamment approfondi ; d’où, par exemple, des dictionnaires de données incomplets et comprenant des inexactitudes
 

Jean-Michel Rondeau

 
Big data et qualité des données
 
Quelque 6 milliards d’appareils mobiles sur le globe produisent des données.
 
En quinze minutes sont produits 5 exaoctets (1018 octets) de données.
 
En France, 74 % des entreprises sont convaincues de l’intérêt du big data.
            . l’intégration de ses données par une entreprise augmente ses performances et sa valeur sur le marché.
 
Quatre bénéfices du big data : créer de nouveaux modèles économiques ; acquérir et fidéliser la clientèle ; améliorer les opération et réduire les coûts, ; optimiser le système d’information et garantir la confiance.
 
Enjeux : stocker des données de différentes sources ; les valoriser (être capable d’en extraire les connaissances cachées pour augmenter la performance économique de l’entreprise).
 
Le Big Data aide à améliorer la Qualité des données en permettant traçabilité, corrélation, intégration du risque et valorisation pour de meilleurs usages. La Qualité des données grâce au chantier de  gouvernance en particulier, aide à tirer parti du Big Data.