Do not follow this hidden link or you will be blocked from this website !

Enjeux éthiques et systémiques des IA, individuelles et collectives in VARIANCE

24/02/2020 AEFR

Une IA omnipotente (ou encore « générale »), autonome, capable de raisonnement déductif innovant n’est pas encore à l’ordre du jour. L’humain augmenté encore moins. Les questions juridiques, nouvelles, de la responsabilité, d’un robot, IA ou homme hybridé, appelant à légiférer en anticipation via une réponse ad hoc, sui generis, ne sont, à mon sens, pas opérationnellement les plus urgentes à se poser.

En revanche, la diffusion progressive des « IA actuelles » à tous les secteurs, pour des tâches variées, suscite déjà des inquiétudes légitimes. Avant de faire confiance sans réserve à des mécanismes de prises de décision dont les règles sont difficilement accessibles, et changeantes selon les données utilisées en entrée lors des apprentissages, tout un chacun se pose confusément les questions : est-ce une bonne chose ? Les IA agissent-elles équitablement, avec justice ? Est-ce bien légal ?

Le défi posé ici est donc que les algorithmes d’IA n’échappent pas au contrôle humain.

Or l’Histoire est riche d’exemples pour lesquels ces catégories du bien, du juste, et du légal ont impérativement dû être distinguées. L’Europe, particulièrement sensible à ces questionnements, a déjà posé de premiers jalons légaux (le RGPD notamment), obligeant les acteurs privés à exposer la finalité des traitements des données personnelles, reflétant ainsi dans le droit les inquiétudes publiques quant aux intentions et au niveau de contrôle des utilisateurs des données. A l’origine de ces questionnements est donc l’idée de la finalité, de la volonté des acteurs : de leur éthique. Revenons tout d’abord sur ce terme.

Ethique de l’IA, plus qu’IA éthique, et IA responsable 

S’il semble prématuré de parler d’« IA éthique », actuellement, comme l’on parlerait d’un individu éthique[1] il apparaît indispensable de parler, dès à présent, d’« éthique des IA », et des nouveaux enjeux sociétaux qu’elles soulèvent.

Le rêve d’une IA éthique universelle, la réalité d’une éthique des IA

L’éthique est étymologiquement le « caractère habituel ». Elle prit le sens de « morale » dès lors qu’on se référa à la posture platonicienne visant à accorder ses actions habituelles à ce que l’on perçoit de l’harmonie du monde.

L’approche littérale nous aide ainsi à tirer des conséquences de l’expérience planétaire de la Moral Machine du MIT. Celle-ci consistait à répondre à un questionnaire pour savoir qui vous choisiriez d’épargner si vous étiez une voiture autonome contrainte de trancher entre plusieurs manœuvres toutes fatales. Les résultats furent étonnants, et séparaient le globe en trois grandes géographies de résultats[2], fruit des habitudes et valeurs locales des populations.

De la même façon, parler d’éthique pour des processus de décision en entreprises (« personnes morales »…), dans toute leur diversité, n’a de sens précis que dans la recherche, pour chacune, de mise en conformité de ses décisions opérationnelles quotidiennes au regard de sa raison d’être proclamée, de ses valeurs d’entreprise. La récente loi PACTE va dans un sens favorable à cet éclaircissement, invitant chaque entreprise à définir formellement une raison d’être, et un objectif d’intérêt social.

Au vu de la diversité des cultures pour les hommes, ou des missions et valeurs pour les entreprises, viser une éthique universelle apparaît ainsi comme un beau rêve, mais hors sol.

Comment alors penser une éthique des IA ? La principale caractéristique nouvelle est que ces intelligences ou « intuitions artificielles » reflètent justement une quintessence des caractères habituels des hommes ou des phénomènes qu’elles singent. Si les données d’apprentissage reflètent des biais cognitifs, affectifs, culturels, alors les comportements des IA seront tout autant biaisés, discriminants.[3] Elles n’ont aucunement, comme préalable à leur construction de définir une équité, éthique particulière, mais reflètent le comportement et donc l’éthique tacite d’un groupe, ou de sous-groupes d’humains.

Charge donc aux responsables des déploiements des « IA » de veiller activement à réaliser des automatisations non discriminantes, exemptes de biais, tout au long des cycles de vie de ces IA. Ainsi nous faut-il veiller à une éthique de l’IA, pour chacun des usages, et dès sa conception. Quitte à en demander à présent plus aux machines que nous ne le faisions des hommes qu’elles secondent, ou remplacent.

Ethique des IA : aller au-delà de la transparence, vers une IA responsable

Pour ces raisons, apporter la plus parfaite transparence sur les traitements ne suffit pas. On retrouve, certes exacerbés, les termes d’une problématique déjà bien connue de manque de transparence des traitements classiques, déterministes, rendus insuffisamment publics (type : GAFAM et Cambridge Analytica). Celle-ci se résoudrait aisément suivant des mécanismes et processus classiques : référencer et tracer les données d’apprentissage et les algorithmes utilisés ; adopter une charte éthique à laquelle les développeurs ne peuvent déroger, pour se prémunir des biais humains lors des phases de construction ; veiller à l’absence de dérive dans le temps ; tester l’absence de biais ; documenter les finalités de chaque traitement et les algorithmes associés, et les faire avaliser par un comité d’éthique interne, composé de l’ensemble des parties prenantes ; enfin, auditer les processus, les données utilisées, et finalement les modèles statistiques par des tiers de confiance[4]

Tout ceci correspond à la mise en place ou l’adaptation de « gouvernance » classique.

Mais deux problématiques radicalement nouvelles, et probablement d’égale importance, se font jour.

Enjeux nouveaux : expliquer les modèles et préserver la diversité

Expliquer les modèles d’IA : bâtir la confiance

La première est que la transparence unitaire, algorithme par algorithme, même totale, ne suffit pas à comprendre le comportement des modèles entraînés. Celle-ci se pose dans des termes d’explicabilité, d’interprétabilité finale des traitements. Quand les enjeux des prises de décision sont vitaux, un comportement trop probabiliste est à proscrire (par ex : diagnostic médical, véhicules autonomes). L’euphorie des débuts a ainsi amené à utiliser les algorithmes aux meilleures performances prédictives, au détriment de l’explicabilité de leur fonctionnement. Et si le phénomène à prédire est complexe, alors le modèle prédictif devra l’être également.

Tout un pan de recherche est ainsi à mener pour, tout d’abord, développer les nouveaux outils d’explication/interprétation des modèles[5] ; mais également afin de faire évoluer ces algorithmes vers plus de sobriété, et de mettre au point, à terme, de nouveaux algorithmes, les plus parcimonieux possibles, là où l’explicabilité est clef. Et quand il est d’ores et déjà impératif de devoir expliquer afin de donner des garanties de fonctionnement (par exemple, suite à la crise financière de 2008, dans le cadre du Model Risk Management imposé par les régulateurs pour certains modèles financiers), un compromis entre performance et explicabilité doit être trouvé[6].

Ceci passera certainement à terme par un souci de ré-introduction de plus de rationalisme dans ces modèles statistiques, et notamment probablement d’hybridation entre des modèles peu explicables sur des sous-tâches non critiques, et d’autres très explicables dans les tâches explicites de prise de décision.

Plus généralement, quantifier cette sobriété maximale des IA, tant en données d’apprentissage qu’en puissance de calcul nécessaire, et quelle que soit leur « nature », appelle l’équivalent ni plus ni moins d’une théorie de Shannon des modèles, comme celui-ci la développa pour l’information. Et notamment sa notion d’entropie, – mesure de la quantité irréductible d’informations contenue dans une image, un son -, mais pour les modèles eux-mêmes, qu’il sera certainement nécessaire de développer. Beau défi pour une prochaine vague d’IA : pour celle-ci, la qualité des mathématiciens et ingénieurs système devrait compter au moins autant que la disponibilité des données abondantes et des super-calculateurs. Réjouissant, finalement, « quand on n’a pas de (ce nouveau) pétrole… »

Se prémunir des effets pervers du panoptique, l’uniformisation

La deuxième problématique réside dans la résultante systémique de la transparence. Elle se pose dans les termes d’un panoptique numérique. C’est l’utilisation de techniques algorithmiques poussées qui dote acteurs privés et agences de renseignement d’outils puissants pour connaître continûment, et de façon ubiquitaire, des caractéristiques intimes de chaque client ou citoyen[7].

Reprenant les travaux des frères Bentham du XVIIIème siècle sur les structures carcérales « panoptiques » permettant une transparence de tous les instants, Michel Foucault soutenait que la problématique majeure ne venait pas tant de la possibilité de « voir sans être vu », que de celle d’« imposer une conduite quelconque à une multiplicité humaine quelconque »[8].

Les mécanismes d’IA basés sur l’analogie poussent effectivement par nature à la prolongation du passé, et à l’uniformisation des prédictions, à la réduction des atypies, tant par les acteurs privés que publics. Une prime est donc accordée aux comportements moutonniers. Ces algorithmes exacerbent donc de façon systémique les tendances sociales, politiques que Tocqueville[9] ou Bernanos[10] anticipaient, et qui devaient déboucher sur une sorte de molle tyrannie, où prédomineraient progressivement « l’Etat sur la Patrie », la Technique (et la bureaucratie) sur l’Etre, et les rivalités mimétiques entre tous[11]. Y sommes-nous déjà ?

Préserver la diversité : impératif éthique autant que facteur-clef de succès des IA collectives

Les Intelligences Artificielles performantes actuelles sont collectives

Si les promesses de véritable intelligence artificielle individuelle renvoient à un horizon encore lointain, ce sont de façon encore assez méconnue les formes d’intelligence artificielle collective qui portent d’ores et déjà le plus de fruits.

Paul Valéry, dans « Regards sur le monde actuel » dès 1931, traduit dans une préface visionnaire nombre de ces enjeux actuels, sa méthodologie[12] (ici appliquée à l’étude historique, évoluant d’une analyse événementielle à l’étude des grandes tendances structurelles) dépassant le recours à de simples similitudes. Ces grandes tendances « porteuses d’avenir », façonnant le monde à long terme ont pu être ainsi matérielles, tel l’avènement de l’électricité, ou plus conceptuelle, telle la diffusion mondiale d’une singularité européenne des Lumières. Il les résume ainsi au début du XXème siècle : « Accroissement de netteté et de précision, accroissement de puissance, voilà les faits essentiels de l’histoire des temps modernes ».

En quoi l’IA prolonge-t-elle cette tendance ? L’accroissement de précision de l’IA individuelle via la prise en compte de beaucoup plus de facteurs prédictifs que ne peut le faire un cerveau humain contribue à renforcer la qualité des prédictions. Mais paradoxalement, dans le même temps, cela réduit de façon systémique la variété des prévisions possibles (par exemple l’amplification des emballements mimétiques, conséquences de la généralisation des algorithmes de recommandation).

Or, cette réduction de diversité a également pour effet d’amoindrir la qualité des intelligences collectives. Emile Servan-Schreiber[13] souligne par exemple que le phénomène de sagesse des foules ne fonctionne que si la diversité des biais de chacun est suffisante pour que l’effet de moyenne sur le grand nombre permette une prédiction efficace. Et les formes les plus efficaces d’intelligence collective actuelle (moteurs de recherche[14], graphes de causalité,…) tirent leur force précisément de l’exploitation bien au-delà des capacités humaines individuelles ou collectives, de cette diversité d’avis humains. Jusqu’aux algorithmes d’IA eux-mêmes, de types Random Forest ou Boosting trees ou Bootstrap qui génèrent un foisonnement d’algorithmes ou d’échantillons et en moyennent les prédictions, pour éviter le surapprentissage… et qui s’appuient de plus, très souvent, sur un intense travail humain préalable (notamment pour l’apprentissage profond)[15].

L’IA porte donc intrinsèquement les deux tendances, systémiquement opposées, d’amélioration de la précision individuelle (IA individuelle), mais en retour d’une perte de diversité des points de vue, limitant à terme ses performances (IA collective).

L’enjeu sociétal principal ne serait-il pas finalement plus encore que dans l’éthique des IA (une IA entraînée sur des données chinoises par exemple et utilisée en France reflèterait des mœurs chinoises) dans l’uniformisation croissante du savoir, des actions humaines ?

L’usage des IA mimétiques actuelles renforce ainsi finalement une autre tendance majeure que percevait Claude Lévi-Strauss dès 1955 : « L’humanité s’installe dans la monoculture ; elle s’apprête à produire la civilisation en masse, comme la betterave. Son ordinaire ne comportera plus que ce plat. » [16]

IA éthique, légale, juste ?

Résumons-nous. Une IA éthique ne pourra être approchée qu’en veillant à définir des éthiques de l’IA. Une IA reposant sur des technologies d’apprentissage automatique reflétera par défaut les biais et discriminations qu’elle aura observées. Une IA sera donc juste si on travaille à s’affranchir activement des biais et discriminations existantes, et donc si l’on se définit explicitement des objectifs éthiques : d’équité, de non-discriminations.

Quel sens donner à une IA légale ? Ce dernier point est finalement presque le plus simple : les régulateurs de chaque secteur y travaillent actuellement, et les acteurs politiques s’attellent sérieusement à définir en Europe le prolongement du RGPD : un groupe de 40 experts travaillent actuellement auprès de la Commission Européenne pour définir « une IA digne de confiance » pour l’Union Européenne. Le CEPEJ y travaille également. L’IEEE[17] travaille par exemple également à des éléments normatifs de process de développement : une possible norme type ISO sur ces sujets est envisagée.

Les acteurs travaillant sur ces sujets d’éthique des IA parviennent finalement à une conclusion commune, face aux difficultés et aux connexions nombreuses entre les aspects certes éthiques, mais également opérationnels et juridiques, et convergent vers la nécessité de faire que ces IA soient « responsables » [18], que l’on puisse leur « poser la question : pourquoi ? » et qu’elles puissent répondre. Besoin humain de ne faire confiance que lorsque l’histoire explicative qu’on lui délivre se formule en relation de causalité… et non comme le résultat d’une coïncidence, corrélation possiblement fortuite.

Et tout comme on ne saurait définir une éthique universelle acceptable par tous, expliquer des IA s’avère un exercice sensiblement différent en fonction du public et des buts poursuivis. Cette démarche est cependant indispensable, et … bienvenue pour tous.

Quels enjeux revêt cette responsabilisation nécessaire de l’IA en fonction des acteurs ?

On pourra déjà brièvement citer ici qu’expliquer à un régulateur ou un législateur, c’est s’assurer des garanties de fonctionnement des algorithmes. Et c’est nécessaire pour assurer la stabilité, la robustesse et la résilience d’un écosystème. Expliquer à des collaborateurs ce que fait leur nouvel outil d’IA, défini idéalement avec eux tout au long de son élaboration, c’est un facteur-clef de succès d’acceptation et de déploiement réussi en entreprise. Enfin, expliquer aux clients finaux et aux citoyens est indispensable aux succès commerciaux des nouveaux produits et services, ainsi que pour éviter les pièges tendus d’un horizon de panoptique[19].
Pour ces derniers en effet, les traitements des données poussés par les Etats eux-mêmes entraîneraient pour les meilleures intentions de sécurité des citoyens, une tendance croissante à identifier tout comportement déviant, statistiquement, et sans possibilité de rendre public les critères de sélection retenus. Se pose donc de façon cruciale pour un avenir démocratique la question de la responsabilité publique des acteurs privés détenteurs de données, certes mais également de la responsabilité citoyenne des acteurs publics.

Réussir une automatisation intelligente ubiquitaire et responsable

A l’heure donc où les technologies d’apprentissage statistique machine se généralisent, que retenir donc des enjeux individuels et sociétaux majeurs ?

Si le terme d’Intelligence Artificielle est ancien, et encore abusivement employé pour désigner les systèmes d’apprentissage statistique actuels, le retour en force de la notion d’apprentissage automatique a permis de réaliser des percées opérationnelles et conceptuelles majeures (« apprentissage profond »). Ces systèmes prolongent cependant d’autres technologies parfois plus performantes sur certaines tâches et plus explicables, tels les systèmes experts, ou des modèles de recherche opérationnelle, moins mises en valeur actuellement. Charge aux responsables d’enseignement de ne pas céder à la mode exclusive de l’apprentissage statistique, mais de veiller à maintenir vives ces technologies, généralement plus explicables et parfois plus efficaces.

Encore insuffisamment soulignée, c’est également l’intelligence artificielle collective qui apporte les avancées majeures, utilisant les possibilités informatiques afin de démultiplier notre capacité d’analyse et de synthèse des savoirs humains[20]. L’efficience sidérante des moteurs de recherche en témoignent.

Qu’ils soient « individuels » ou « collectifs », ces mécanismes d’IA reposant sur l’analogie posent principalement deux nouveaux défis majeurs : leur opacité (par nature), et leur capacité normative à tendanciellement renforcer l’uniformisation globale. La question de l’éthique de ces IA appelle une vigilance nouvelle de la part de toutes les parties prenantes : citoyens, collaborateurs en entreprises, clients comme régulateurs et législateurs.

Vigilance à maintenir, au regard de la célérité d’avènement de ruptures majeures : qu’attendre éthiquement, concrètement, par exemple de futurs systèmes massivement multi-agents, des groupements d’intelligences autonomes, communiquant entre elles, créant ainsi une intelligence collective distribuée, multicorporelle, matérialisée par exemple dans un essaim de drones interconnectés ?

Quelles que soient les caractéristiques des futurs systèmes d’IA, “super intelligence humaine”, ou toute autre forme plus originale encore, un contrôle humain sera nécessaire. L’enjeu alors sera de doter ces systèmes d’une capacité à toujours pouvoir répondre de leurs décisions, et s’expliquer. Il est impératif donc d’œuvrer dès à présent à une IA Responsable.

Mots-clefs : Intelligence artificielle –  IA – éthique – IA régulation – IA responsable – Intelligence collective

 

 

 

 

Intelligence ou Intuition Artificielle ? Les enjeux de l’automatisation

Publié par David Cortés | 13/02/2020 | Intelligence artificielle, Nos Dossiers | 0

 

A l’heure où le plus fort du hype[1] récent sur l’IA semble enfin passer, il apparaît opportun de s’interroger avec un peu de recul sur ce que les succès indéniables des techniques avancées d’apprentissage machine représentent conceptuellement et ont vraiment changé concrètement. Le parti pris ici choisi est de brasser les axes d’analyse multidisciplinaires afin de saisir les principaux enjeux, de nature diverse, posés par ces mécanismes d’apprentissage et de prises de décisions autonomes.

Revenons seulement vingt ans en arrière. Pierre-Gilles de Gennes présentait ses travaux novateurs sur les cristaux liquides à travers toute la France, et conseillait à son public, souvent notoirement réfractaire à l’étude de la chimie (dont j’étais), de s’essayer à la lecture du système périodique de Primo Levi[2], collection de récits, chacun inspiré d’un épisode autobiographique et d’un élément de la table de Mendeleïev.

Incitation didactique bienvenue, tant la chimie, ingrate au premier abord, pouvait rebuter ses publics très divers, les non scientifiques comme les étudiants en taupe, qui n’y décelaient parfois que peu de grâce au regard d’autres sciences réputées plus « dures ».

Ce conseil me revient à la mémoire, en ces temps où l’expression d’Intelligence Artificielle sature les ondes. Cette invitation à faire se croiser différents regards, et à éclairer les uns par les autres vaut plus que jamais : convier littérature, sciences mathématiques et physique, sociologie me semble bienvenu pour mieux saisir, et ressentir, les enjeux de l’IA.

L’IA actuelle est celle de l’apprentissage machine (machine learning), plus Intuition Artificielle qu’Intelligence ?

Reculons encore le curseur historique jusqu’aux années cinquante. Il est à présent généralement admis que l’officialisation d’un champ de recherche concernant l’Intelligence Artificielle (IA) trouve son origine dans la conférence de Dartmouth en 1956, organisée principalement par John McCarthy et Marvin Minsky, avec la participation notable d’Herbert Simon et de Claude Shannon. Elle est le prolongement direct de mouvements plus anciens, tels que la cybernétique[3] (du grec ancien signifiant « gouverner, piloter ») de Norbert Wiener, développée dès 1947, nommée ainsi en l’honneur de… Platon.

A l’origine (1956), logique formelle et apprentissage machine

Les technologies présentées lors de la conférence ont fait date : dès 1956, l’algorithme de preuve formelle, permettant à des machines de démontrer certains résultats mathématiques[4] ; et l’embryon algorithmique de machines expertes au jeu des échecs. Puis en 1957, le perceptron de Frank Rosenblatt, élément constitutif des, à présent fameux, réseaux de neurones artificiels. Ce dernier introduit en pionnier un concept majeur, car si les premiers algorithmes partaient classiquement d’une approche déductive (= partir de règles, et prédire) celui-ci appelle une approche inductive (= partir des résultats, et bâtir un système de prédiction…), rendue possible par un système d’inspiration bio-mimétique. Et pour cela, la machine doit donc apprendre mais, fait déroutant, même sans… comprendre, ni pouvoir expliciter, dans des règles, son cheminement final.

C’est le règne de l’analogie, de la prédiction du futur en fonction des corrélations apprises dans le passé, et ceci sans explicitation de lien causal[5].

Les deux approches sont ainsi en opposition conceptuelle frontale et ce sont successivement les espoirs, les déconvenues et les récents succès de l’approche inductive qui occupent depuis quelques années le devant de la scène. Ces systèmes d’apprentissage statistique par les machines ont en effet connu depuis les années 2010 des succès remarquables dans les tâches liées aux perceptions sensorielles (vision, langage), celles précisément dans lesquelles le cerveau humain excelle.

L’IA serait ainsi une impulsion donnée à la fois aux sciences cognitives et à certains systèmes informatiques afin d’émuler les capacités mentales humaines. L’IA n’est donc pas une technologie, mais un champ de recherche qui vise en asymptote, lointaine, la recréation d’une véritable intelligence humaine sur des substrats artificiels variés. Les systèmes actuels, s’ils excellent depuis peu sur certaines applications de perception, sont loin d’atteindre encore cet objectif.

Intelligence Humaine ? Géométrie et finesse pascaliennes

Si l’on se propose d’illustrer l’intelligence humaine, telle qu’elle était vue par les informaticiens et mathématiciens de Dartmouth, convoquons Pascal un moment, qui distingue les esprits de géométrie (déductif) et ceux de finesse (plus inductif, intuitif). C’est en fait, de façon ramassée, l’évocation de tout un continuum de pensée entre rationalisme et empirisme. Stéphane Mallat rappelle dans ses séries d’exposés au Collège de France[6] que les approches de l’intelligence (inter-legere, choisir entre) évoluent sans chronologie depuis la pure spéculation abstraite jusqu’à l’apprentissage au plus près de l’expérience, reliant ainsi Platon, Leibnitz, Descartes, Kant, Wittgenstein, Hume, à Locke, Aristote…. Il n’y a pas ici comme ailleurs de sens de l’Histoire ou de déterminisme, progrès irréversible de la compréhension humaine dans un sens unique, mais bien plutôt pléthore d’approches théoriques différentes. Fait nouveau, toutefois : le formidable défi pour considérer l’intelligence humaine non seulement comme innée, structurelle et purement logique, mais également largement construite, définie par un long processus d’apprentissages successifs nourri des corrélations et causalités observées lors de multiples expériences comparables.

Que retirer de ces mises en perspective ?

L’IA actuelle est davantage une « Intuition Artificielle »

Tout d’abord que l’engouement médiatique récent sur ce sujet repose finalement sur un concept technique ancien, l’apprentissage machine, et sur les succès concrets récents d’algorithmes d’apprentissage statistique, rendus enfin utilisables par la conjonction de la numérisation récente des comportements humains dans un premier temps, puis dans un second temps par la mise à disposition de machines assez puissantes pour apprendre de ces traces numériques, massives et variées. Et ce, bien que les concepts initiaux aient leurs racines dans les années 40-50.

Ensuite que le terme d’Intelligence est actuellement ambigu et souvent abusif.
Ambigu, car en France, pays au cartésianisme encore triomphant, l’intelligence est vue principalement comme mathématique, déductive et causale beaucoup plus que dans des cultures, anglo-saxonnes par exemple, privilégiant l’empirisme, l’intuition.

Abusif, car comme le rappelle Yann Le Cun par exemple, le champ cognitif couvert par les intelligences artificielles actuelles reste extrêmement étroit : le plus puissant des supercalculateurs couplé aux algorithmes les plus innovants est très loin de savoir traiter « autant de problèmes que ne le fait le cerveau, même d’un rat ».

Enfin, que ces intelligences nouvelles apprennent des données, mais sans nous donner en retour de règles explicites. Dans les années 90, les systèmes experts traduisaient explicitement en algorithmes les règles métier des experts humains. Les systèmes de réseaux de neurones, supports de nombreuses IA actuelles, sont constitués de gigantesques matrices de chiffres. A la manière des hologrammes, les règles apprises par les systèmes neuronaux sont distribuées dans l’ensemble des nœuds du système neuronal, et ses… millions de paramètres[7]. Ils sont donc opaques par construction : de même que ce n’est pas en étudiant une image d’IRM cérébrale, fût-elle prise à la granularité des neurones activés ou inhibés (~80 milliards dans un cerveau humain), que nous accèderons à l’instantané d’un raisonnement, ou à la personnalité explicite d’un patient.

Ces intelligences sont ainsi largement des intuitions, et leur demander de nous expliquer leur fonctionnement supposerait d’elles, à l’heure actuelle, un effort… d’introspection ! que leur principe de construction rend particulièrement difficile à réaliser.

L’IA, nouvel « or noir » : parachèvement d’une tendance bi-séculaire d’automatisation

Conséquence de cet engouement, sont apparues de très nombreuses études anxiogènes liées à l’automatisation : quelles professions sont les plus menacées, en fonction du secteur, ou de la plus ou moindre grande répétitivité des tâches? D’où une sorte de sidération généralisée : « Serai-je touché moi aussi ? La société sera-t-elle divisée entre les experts des IA et les autres …? ». Si ces refrains lancinants sont en fait connus et récurrents depuis plus de deux siècles, et les fameux luddites de 1811 en Angleterre ou les canuts lyonnais, l’IA me semble toutefois porter en soi, conceptuellement, de quoi mener le phénomène d’automatisation à son terme. Comment reprendre un cheminement éclairant sur ce sujet ?

Automatisation et hiérarchisation des tâches humaines

En 1958, soit deux ans après la conférence de Dartmouth, Hannah Arendt propose dans « Condition de l’Homme Moderne » un regard philosophico-historique, notamment sur le travail, qui fait date. Elle rappelle tout d’abord la hiérarchie des valeurs tacitement admise par l’Occident depuis Aristote, plaçant tout en haut les actions non nécessaires à la survie : action politique, philosophie, contemplation (theoria) ; et au second plan, les tâches que l’on définirait actuellement comme celles du bas de la pyramide de Maslow. Les deux siècles précédents ont vu l’automatisation croissante de ces dernières (agriculture, commerce, …) grâce à l’exploitation conjuguée des ressources naturelles, les matières premières et les énergies.

L’IA se propose d’achever le mouvement, et de nous débarrasser, également, à terme, du souci des tâches cognitives.

Certes, mais que nous restera-t-il, à nous individus ou sociétés ? Quelle réponse individuelle à cette nouvelle condition de l’existentialisme, de l’absurde ? Quelle cohésion collective nouvelle faire advenir en ciment des groupements humains ?

Quêtes de sens : collective ? individuelle ?

Hannah Arendt anticipait les conséquences de ce mouvement sur deux plans.

Collectivement d’abord, deux siècles d’industrialisation progressive ont construit une société de travailleurs. Si l’on reprend sa formule, l’automatisation continûment croissante des tâches manuelles, amenuisant toujours plus la part de travail réalisée par les humains, consacrerait donc, in fine, l’avènement d’une société de « travailleurs sans travail ». L’IA pousse à parachever largement ce mouvement et à défaire aussi progressivement les hommes du souci des tâches plus cognitives encore préservées dans l’échelle de valeur aristotélicienne. Et par là, à effacer la dernière barrière sociale induite par l’opposition entre travail manuel/répétitif/automatisable, et travail intellectuel/original/créatif. C’est donc à terme le dernier clivage social qui est amené à tomber, l’automatisation touchant alors l’ensemble des groupements sociaux.

Individuellement ensuite, quel impact ? Poncif du management, appel est fait à tous les managers de donner envie à chacun dans leurs équipes « de se lever tous les matins » et, fait nouveau, en « donnant du sens à ses actions ». Apparaît alors un paradoxe structurel : l’automatisation a retiré la nécessité d’employer son temps à des tâches nécessaires quand, dans le même temps, la société valorisait des tâches dont l’utilité pratique est beaucoup moins immédiatement perceptible, et qui elles-mêmes, s’automatisant, se dévaloriseront. Je me risque donc à l’hypothèse qu’une large partie de l’inconfort individuel confusément ressenti par beaucoup aujourd’hui tire ses racines profondes de cette vacance de sens toujours croissante des tâches humaines, finalement confusément perçues comme majoritairement inutiles[8]. Intuition décrite par Hannah Arendt dès 1958, base aussi de l’absurde camusien « né à mi-distance de la misère et du soleil »[9], écartelé entre la contemplation de la beauté éternelle du monde et l’absurde en contraste de nombre d’activités humaines.

Quels enjeux principaux, individuels et sociétaux, retenir de l’automatisation par l’IA ?

Impact en retour sur l’Intelligence Humaine ?

Enfin, poussons encore un cran plus loin. Georges Bernanos (dans La France contre les Robots, 1947, notamment) anticipe les effets du machinisme sur la « matière humaine » même, et par là, les organisations politiques et économiques. C’est une préoccupation proche des intuitions de Marshall MacLuhan (développées dans La Galaxie Gutenberg, 1962), qui soutenait que le média lui-même influençait l’homme, parfois plus encore que le message qu’il véhiculait. Ainsi l’homme de tradition orale sur-développe une hypermnésie, des capacités de mémorisation[10]. L’homme de tradition écrite développera plus ses capacités déductives, et beaucoup moins ses capacités mémorielles. Dit autrement : si l’apprentissage manuel s’amenuise par l’automatisation, puis l’apprentissage cognitif est réduit par l’IA, quel pourrait être l’impact sur la formation de l’Intelligence Humaine ?[11] Quel sera « l’Homme de l’IA ? »

Hannah Arendt, poursuivant son raisonnement, et s’appuyant sur la difficulté de compréhension, même par les experts, de découvertes scientifiques telles la mécanique quantique ou les théories de relativité, souligne que la condition humaine était également changée par ce fait que, nous les hommes n’étions dès lors intrinsèquement « plus capables de comprendre, c’est-à-dire de penser et d’exprimer des choses que nous sommes cependant capables de faire ».  Elle risque alors, dès 1958, qu’il faudra certainement s’adjoindre des outils capables de nous aider à penser cette complexité. Sans parler de transhumanisme, il est cependant dès à présent indispensable de se doter des outils permettant de mieux comprendre le comportement des modèles d’IA que nous avons entraînés.

Quels impacts sociétaux principaux ?

Tout d’abord une bonne nouvelle : les prophètes d’apocalypse faisant leur fond de commerce d’une séparation entre élite maîtrisant et utilisant les IA et le reste de l’humanité ont certainement tort, pour deux raisons[12].

D’une part, l’automatisation des tâches touchera à terme toute la population, quelle que soit donc la noblesse perçue des tâches qui lui incombaient auparavant (tertiaire inclus).
D’autre part, même les plus experts en IA, leurs concepteurs, sont et seront toujours plus incapables de comprendre eux-mêmes les systèmes qu’ils auront créés, du fait de la complexité conjuguée des données et des algorithmes (ex : 15 millions d’image d’apprentissage[13] et de l’ordre de 100 millions de paramètres pour les systèmes de reconnaissance d’images), et de l’empilement algorithmique (système de systèmes).

Ensuite, la sobriété nécessaire en temps de raréfaction des ressources amènera certainement également une sobriété… d’automatisation. Car tout comme les vagues précédentes d’automatisation, l’IA est énergivore : ce nouvel « or noir » tant vanté est lui-même fort consommateur d’énergie et de ressources rares. Les deux tendances d’automatisation matérielles et cognitives reposent sur les mêmes prérequis, d’hyperabondance d’énergie et de ressources naturelles. Le Shift Project, par exemple, évalue à 10 % la part des technologies de l’information dans la consommation d’énergie mondiale. Là encore, pas de sens, unique, de l’Histoire.

Enfin, l’effort d’éducation est d’ores et déjà de premier ordre afin qu’une part croissante de la population connaisse ces mécanismes statistiques (cursus de Data Science en généralisation ; formation continue au sein des entreprises à ces nouveaux outils et enjeux) à défaut de vraiment les comprendre. L’effort de recherche est également nécessaire[14], afin de les faire évoluer vers des mécanismes plus explicables, et de les doter nativement d’interfaces explicatives.

Ces efforts devront être poursuivis, afin de garder un contrôle humain, et de veiller à ce que les mécanismes d’IA demeurent « responsables », quelque complexes qu’ils soient : les enjeux de déploiement avec succès, d’acceptation par les régulateurs, mais aussi et surtout les enjeux éthiques le commandent. Enjeux très différents selon que l’IA est individuelle ou collective, et selon l’acception précise que l’on donnera au mot « éthique ».

***