Do not follow this hidden link or you will be blocked from this website !

 L'économie de l'intelligence artificielle


Jean-Bernard MATEU * Président, Arenium Consulting ; secrétaire général, Cercle Turgot.Contact : jbmateu@cercle-turgot.org.
Jean-Jacques PLUCHART ** Professeur émérite, Université Paris 1 Panthéon-Sorbonne ; administrateur, Cercle Turgot.

L'intelligence artificielle (IA) fait l'objet d'un nombre croissant de publications qui ont contribué à forger dans l'opinion publique une nouvelle « mythologie digitale » suscitant à la fois des espoirs (tech for good) et des craintes (tech for worst). Les progrès de l'IA font espérer une relance de la consommation, une croissance de la productivité dans la plupart des métiers, une meilleure gestion des risques, mais font parallèlement craindre la destruction massive d'emplois dans les pays développés, une large reconversion des compétences, un creusement de la fracture numérique au sein du corps social et, plus largement, une transhumanisation de la société (Bostrom, 2017). La plupart des observateurs – praticiens, universitaires, usagers – conviennent que l'IA est le levier de la « 3e transformation de l'histoire économique » après celle de l'industrie au xixe siècle et celle de l'informatique au xxe siècle (Baldwin, 2019). L'IA est considérée comme l'un des moteurs de la révolution des technologies, des organisations et de la société du début du xxie siècle, mais elle est de plus en plus affectée par une crise de confiance dans ses modèles et ses algorithmes, parfois considérés comme étant des « boîtes noires » et manquant de robustesse, bien que de nouvelles avancées tirant parti des principes de l'« intelligence collective » (Servan Schreiber, 2018) commencent à infléchir cette vision.

Cet article vise à construire une représentation exploratoire des effets économiques attendus du développement de l'IA, grâce à l'analyse des dernières publications et notamment des articles et des rapports émis par des universitaires, des cabinets de conseil et des think tanks. Il est difficile d'identifier et a fortiori de mesurer ces effets, dans la mesure où ils diffèrent selon les types d'activités, les niveaux de développement économique et les horizons explorés. Ils sont également variables en fonction des synergies pouvant être dégagées entre l'IA et d'autres technologies, comme le big data, la blockchain, l'internet-des-objets (IoT, internet of things), etc. Ils sont conditionnés par les rythmes d'innovations plus ou moins disruptives et les délais plus ou moins prévisibles de mise en marché des nouvelles solutions d'IA. Les projections de ces effets peuvent être enfin biaisées par les modèles et/ou les algorithmes d'IA appliqués par les économistes.

Cette réflexion liminaire souligne l'importance des choix méthodologiques adoptés dans les études des impacts économiques de l'IA. En première analyse, ces derniers peuvent être classés en fonction des trois types de leviers de création de valeur les plus mentionnés, que sont les effets sur la productivité, sur la consommation et sur la maîtrise des risques.

L'IA : UNE TECHNOLOGIE GÉNÉRIQUE COMPLEXE

On peut considérer que le concept d'IA est né en 1950, avec le test qu'Alan Turing a décrit dans Computing Machinery and Intelligence : si une personne qui discute avec plusieurs interlocuteurs n'est pas capable de discerner lequel est un ordinateur, alors celui-ci a réussi le test.

L'IA a ensuite été définie par Marvin Lee Minsky en 1956, comme étant « la construction de programmes informatiques qui s'adonnent à des tâches pour l'instant accomplies de façon non satisfaisante par des êtres humains, car elles demandent des processus mentaux de haut niveau tels que l'apprentissage perceptuel, l'organisation de la mémoire et le raisonnement critique ». Cette définition est reprise dans la plupart des rapports sur l'IA et notamment dans le « rapport Villani » (Villani, 2018) et dans le dernier livre blanc de Finance Innovation (2019). L'IA repose sur des solutions composites organisées en briques de logiciels ou d'algorithmes traitant des données massives ou big data.

Le concept de big data fait référence non seulement au volume de données stockées supérieures de plusieurs ordres de grandeur aux bases de données traditionnelles, mais aussi à la nature de ces données : des connaissances structurées ou non structurées, des langages, des perceptions de sens, des reconnaissances d'objets, des informations géographiques, etc. Les technologies classiques de traitement de l'information sont alors dépassées. Il faut avoir recours à des technologies d'IA pour les analyser et donc les valoriser.

L'IA recouvre une rationalité artificielle qui optimise la résolution de problèmes plus ou moins complexes, sur un mode logico-déductif et dans des champs spécifiques. Elle s'inscrit dans le cadre des sciences cognitives et dans l'écosystème de l'internet, qui comprend également l'IoT, le big data, le cloud computing et la blockchain, dont les interactions démultiplient les effets. La diffusion de l'IA ne peut donc pas être aussi inclusive et systématique que celle des ordinateurs ou de l'internet, car l'IA recouvre un ensemble de modèles et de méthodes dont les champs et les modes d'application sont hétérogènes. La reconnaissance d'images en 3D est, par exemple, utilisée pour faire des diagnostics médicaux et pour diriger des voitures autonomes.

L'IA est aujourd'hui segmentée en deux principaux courants dont les maturités sont différentes : l'« IA symbolique » où l'on programme l'ordinateur pour qu'il puisse manipuler des connaissances (les systèmes experts restent aujourd'hui l'une des techniques omniprésentes et incontournables des outils d'IA quoi que l'on en dise), l'« apprentissage automatique » couvrant des modèles statistiques évolués et dans lequel on retrouve notamment les réseaux de neurones (Le Cun, 1987). Ces derniers, qui apprennent seuls par itérations en traitant des données plus ou moins qualifiées de mégadonnées (big data), deviennent l'une des techniques majeures de l'IA grâce à la puissance de calcul des ordinateurs actuels. Malheureusement, les algorithmes apprenants ne savent pas expliquer ce qu'ils ont appris, ce qui limite souvent leur acceptabilité. Une troisième vague est en train de naître qui combine IA symbolique, apprentissage automatique et langage naturel, capable de fusionner les connaissances d'origines diverses et surtout pour laquelle explication et transparence sont des propriétés principales (Pearl et Mackenzie, 2018).

Mais si l'IA peut résoudre des problèmes complexes, elle ne peut se substituer à toutes les formes de l'intelligence humaine, incluant l'intuition et l'émotion (Houdé, 2019). « L'IA faible » où un algorithme est toujours limité à la tâche qui lui a été dévolue par le concepteur est maintenant omniprésente et opérationnelle. L'« IA forte » dotée de volonté, de conscience et d'émotions reste un fantasme. Si l'IA a des effets tangibles sur l'économie réelle et sur l'économie financière, elle ne peut à elle seule en bouleverser les paradigmes.

L'IA : UNE RÉVOLUTION TECHNOLOGIQUE

Les évolutions des technologies du traitement de l'information ont déjà largement impacté le champ des activités économiques. La mécanographie inventée à la fin du xixe siècle suivie par l'informatique née au milieu des années 1960 et l'avènement des télécommunications numériques (le protocole TCP/IP date de 1973) ont permis des gains de productivité majeurs. La robotique industrielle, l'automatisation de tâches répétitives plus ou moins compliquées sont à l'origine d'une transformation des métiers aussi variés que ceux de la maintenance industrielle, des architectes et des ingénieurs, de la grande distribution, de la banque, etc. Dans de nombreux cas, la miniaturisation et l'accroissement des performances des composants et des logiciels accélèrent encore la digitalisation en permettant aux clients (self care) d'intervenir eux-mêmes dans les actes de gestion comme, par exemple, dans la consultation des comptes bancaires ou la réalisation de transactions de paiement.

L'automatisation des processus par RPA (robotic automatisation process) élimine des tâches fastidieuses, réduit les coûts et le nombre d'erreurs. Robotisation et digitalisation en tant que telles sont donc porteuses de gains même si elles n'intègrent pas d'IA.

L'IA est une véritable révolution car elle permet d'aller beaucoup plus loin que les technologies déjà mentionnées dans la complexité des tâches réalisées. Elle apprend, s'entraîne, détecte des corrélations de manière infiniment plus complète que n'importe quel humain. Les algorithmes produits par l'IA sont donc potentiellement plus performants que n'importe quel programme informatique codé par un humain.

L'automatisation faisant recours à l'IA améliore la productivité, non parce que des informaticiens l'ont codée ainsi, mais parce qu'elle a elle-même appris ce qu'il fallait faire ou décider, sur une couverture fonctionnelle aussi large que celle des échantillons d'apprentissages utilisés et avec une instantanéité de réaction.

C'est en ce sens que l'IA peut faire peur parce qu'elle échappe à la capacité de maîtrise totale par l'homme. Le pendant de la puissance de l'IA est sa propension à se tromper, et surtout à se tromper d'une manière totalement différente des humains. Les questions d'éthiques qui en découlent sont nombreuses : si l'IA décide de la sélection de candidats, comment se prémunir contre les discriminations ? Si l'IA d'un véhicule autonome provoque un accident, qui en est responsable ?

L'IA : UN NOUVEAU LEVIER DE PRODUCTIVITÉ

L'IA contribue à modifier la relation entre la machine et l'homme (ainsi « augmenté »). Les avancées de l'IA favorisent l'automatisation et l'autonomisation des systèmes de production et des supply chains. Le programme allemand « industrie 4.0 » repose sur la « cobotique », alliant robotique et collaboration (Kohler et Weisz, 2014). Il vise le développement d'un « système cyber-physique » conjuguant des acteurs agiles et des facteurs hybrides relevant de l'IoT (régulation à distance ou autonome des chaînes productives et logistiques, interopérabilité entre machines) et de l'internet des services (cloud computing, software as a service, process virtuels, etc.). L'IA contribue ainsi à réduire les coûts des processus opératoires, mais elle permet dans le même temps de renforcer l'ergonomie et la sécurité des postes de travail. Grâce à l'IA, les coûts marginaux de production, de livraison, de maintenance (à distance), de contrôle et de communication « tendent vers 0 » (Rifkin, 2013). Le cabinet McKinsey (2018) prévoit ainsi que les technologies basées sur l'IA devraient permettre à moyen terme d'augmenter l'efficacité du travail de 20 % à 40 % selon les pays industriels. Il estime que la réduction des coûts devrait entraîner un surcroît de croissance économique annuelle d'au moins 0,5 % dans les pays industriels, mais qu'il pourrait atteindre 1,5 % si l'automatisation était accompagnée de dispositifs innovants en faveur du bien-être au travail.

Malgré ces apports attendus de l'IA, une augmentation significative de la productivité du travail n'a pu encore être observée, confirmant ainsi le paradoxe de Solow. Selon Gantz et Michaels (2015), les secteurs regroupés sous le terme « robotique » n'auraient majoré que de 0,4 % par an le PIB des dix-sept premiers pays industriels, entre 1993 et 2007. Selon Brynjolfsson et McAfee (2014), l'IA n'apporterait pas, à court ou moyen terme, de gain significatif de productivité (sauf dans quelques activités spécifiques), mais elle entraînerait de vastes changements dans le monde de l'emploi.

Cette prédiction est dans l'ensemble confirmée par les travaux récents de Furman et Seamans (2018), chercheurs au MIT.

Mais si les effets de la « cobotique » sur l'emploi demeurent encore incertains, ceux de la « globotique » (ou globalisation des ressources dues à l'IA) sont déjà observés. Selon Baldwin (2019), l'IA accélérerait le phénomène de délocalisation des emplois (dans des centres d'appel et des usines offshore) vers les pays à faible coût du travail. Elle intensifierait les phénomènes de dématérialisation et de désintermédiation des processus productifs et des échanges commerciaux. Elle permettrait de raccourcir les chaînes de création de valeur et les circuits de prise de décision au sein des organisations et de leurs écosystèmes. Elle favoriserait l'émergence de nouvelles formes d'open innovation et de co-working, en principe plus agiles et moins coûteuses, qui s'étendent de la recherche-développement (living labs, fablabs, etc.) et de la production coopérative (microfabrication numérique, do-it-yourself, makerspace, etc.) à la consommation collaborative (hébergement peer-to-peer, covoiturage, etc.).

L'IA : NOUVEAU MOTEUR DE LA CONSOMMATION

L'IA est également considérée comme étant un moteur de création de nouveaux modèles d'affaires dans de nombreux secteurs d'activité. L'étude « Sizing the Prize  » publiée par le cabinet d'audit PWC en 2017 identifie huit principaux secteurs d'activité directement impactés par l'IA :

  • la santé : assistance au diagnostic permise par la donnée, identification des pandémies, diagnostic par imagerie, prédiction des maladies par le génome humain, robots chirurgicaux, etc. ;

  • l'automobile : flottes autonomes pour le covoiturage, voitures intelligentes et assistance à la conduite, maintenance prédictive et autonome, etc. ;

  • les services financiers (banques et assurances) : automatisation de la relation avec la clientèle et des transactions (notamment grâce aux robo-advisors), offre financière personnalisée, détection des fraudes et lutte contre le blanchiment d'argent, etc. ;

  • la distribution : conception personnalisée des produits, génération de données clients, gestion automatisée des stocks et des livraisons, etc. ;

  • la communication et le divertissement : archivage et recherche de médias, création de contenus (films, musiques, etc.), assistants personnels, etc. ;

  • la production manufacturière (« industrie 4.0 ») : contrôle renforcé et autocorrection des process, optimisation de la supply chain et de la fabrication, production à la demande, etc. ;

  • l'énergie : compteurs intelligents, fonctionnement optimisé du réseau et du stockage, maintenance intelligente des infrastructures, etc. ;

  • la logistique : livraisons autonomes (par camions, drones, etc.), contrôle de la circulation et réduction des embouteillages, sécurité routière renforcée, etc.

Dans les activités de distribution, l'IA contribue à stimuler la consommation, car ses solutions permettent de mieux connaître les besoins des clients (BtoC, BtoB, AtoC), d'améliorer la qualité des produits et de personnaliser leur offre. Cette démarche fondée sur l'expérience-client (ou UX) passe par une perception des signaux émis par l'usager, notamment à partir des données massives issues des réseaux sociaux et professionnels (big data). La pratique de l'UX vise à fidéliser l'usager par des transactions plus rapides, plus fiables et mieux adaptées à son profil « à toute heure et en tout lieu ». La démarche est d'autant plus complexe que la demande du client évolue dans le temps et dans l'espace, car, sous l'effet des réseaux internet, elle est sensible à la conjoncture et aux offres de la concurrence (Pine et Gilmore, 1998).

L'IA favorise la construction de plateformes digitales de transactions de produits et de services de plus en plus complexes. La plateforme constitue la « brique élémentaire de la révolution numérique » (Rifkin, 2013). L'intermédiation par une plateforme permet de réduire les asymétries d'information entre les parties et de mieux apparier leurs demandes et leurs offres. La rémunération de ses promoteurs et exploitants prend la forme d'une commission sur les transactions entre les « deux faces » du marché. Cette structure désintermédiée de « marché à deux faces » (two-sided market) introduit une nouvelle forme de coopétition (ou de coopération-concurrence) entre les entreprises (Rochet et Tirole, 2003).

L'IA : UN FACTEUR DE GESTION DES RISQUES

L'IA permet d'améliorer les outils conventionnels de gestion des risques utilisés par les banquiers, les assureurs, les courtiers, les experts-comptables, les managers, etc. : scoring de crédit, détection de fraude, optimisation des stratégies de recouvrement de créance, détection et interprétation rapides des signaux faibles, construction de modèles économiques, etc. Certaines applications d'IA contribuent à analyser et à sécuriser les flux de données rendus de plus en plus massifs par les nouvelles réglementations imposées aux entreprises. Elles permettent, par exemple, de mieux « probabiliser les risques judiciaires ». Les start-up dites de « justice prédictive » permettent d'« apprendre à comprendre » les critères de décision des juges et ainsi de choisir entre l'engagement d'un contentieux ou d'une procédure de règlement amiable d'un litige, de préparer une plaidoirie ou une négociation, et de provisionner les pénalités éventuelles. Certains logiciels d'IA permettent de mieux protéger les organisations contre des piratages informatiques et de renforcer la lutte contre la fraude comptable (non collaborative entre membres d'un réseau). Toutefois, plusieurs observateurs (Bahuon et Pluchart, 2018) révèlent a contrario que la cybercriminalité et certaines manipulations comptables peuvent être favorisées par les progrès de l'IA. La conjugaison des nouvelles technologies et la difficile conformité aux nouvelles réglementations sur la protection des données personnelles démultiplient les risques pénaux, financiers, fiscaux et sociaux encourus par les entreprises et leurs dirigeants.

L'IA associée à la technologie de la blockchain permet de créer de la valeur en favorisant la gestion du risque et la lutte contre la fraude. Elle se présente comme un nouveau tiers de confiance entre une organisation et ses parties prenantes (Leloup, 2017). Elle symbolise la « 2e révolution numérique » fondée sur une « IA éthique ».

La technologie blockchain (ou distributer ledger technology) recouvre un système automatisé permettant de valider des transactions par des communautés dites « de minage ». Elle permet de vérifier, réaliser et enregistrer en temps réel divers types de transactions (paiements, transferts d'argent, de documents, etc.), à de faibles coûts et dans de courts délais, parce que sans intermédiaires. Les flux échangés sur le web (à moyen terme, « tous les types d'actes » selon les experts) sont cryptés (donc confidentiels), non modifiables, ni falsifiables. La blockchain contribue ainsi à éliminer les tiers de confiance conventionnels et à introduire le paradigme de la « confiance numérique », fondée sur des algorithmes plutôt que sur des institutions. Pour ces raisons, Andersen (2016) considère que le développement de la blockchain constitue à la fois une opportunité et une menace pour les métiers à l'interface des différents maillons des chaînes de création de valeur, représentés notamment par les courtiers, les mandataires, les auditeurs, les huissiers, etc.

Les systèmes de la blockchain et de l'IA permettent de rendre plus « transparents, infalsifiables et décentralisés » la conservation (dans un registre général) et les échanges de documents (pièces comptables, contrats, etc.) au sein de l'entreprise et entre cette dernière et ses parties prenantes. Ils permettent d'authentifier les transactions grâce à leurs signatures électroniques horodatées. Ils transforment des systèmes d'information cloisonnés et centralisés en systèmes partagés et autocertifiés. De nouvelles plateformes numériques associant des applications de blockchain et d'IA sont ainsi expérimentées afin d'assurer le transit, la traçabilité et la conformité des marchandises dans le cadre des transactions transfrontalières.

L'IA : UN FACTEUR DE TRANSFORMATION
DES COMPÉTENCES

Les études sur la mutation des compétences engendrée par l'IA débouchent sur des résultats incertains ou contradictoires.

Le cabinet McKinsey (2018) considère que 90 % des emplois seront transformés par l'IA. Seulement 1 % d'entre eux pourraient être intégralement automatisés, mais 60 % pourraient l'être pour au moins un tiers des tâches. Il a dressé une liste des vingt-cinq compétences clés d'une économie et a projeté leur évolution à l'horizon 2030. Il estime que les tâches répétitives en interaction avec les clients, les manipulations standards et certaines fonctions support d'administration, de comptabilité, etc. sont menacées, tandis que les activités de manager, d'expert et de technicien (notamment du numérique) devraient prospérer.

Le cabinet Boston Consulting Group (2018) estime que 32 % des entreprises en Chine ont déjà adopté l'IA dans leur processus quotidien, contre 22 % aux États-Unis et 20 % en France et en Allemagne. Cette adaptation est opérée suivant des cycles d'innovation généralement courts, avec des équipes pluridisciplinaires et un management agile pratiquant le design thinking. La rapidité du processus d'adaptation dépendrait de facteurs difficilement pondérables : l'ampleur et la rapidité des gains de productivité apportés par l'IA, l'élasticité de la demande engendrée par les baisses de prix consécutives à ces gains, la pénétration du marché par les nouveaux services apportés par l'IA (les data-scientists ont notamment pour rôle de rendre les applications plus accessibles aux utilisateurs et de personnaliser les services apportés).

L'OCDE (2019) considère que l'impact de l'IA sur les emplois et les compétences au sein des pays développés devrait être profondément différent d'un secteur d'activité à l'autre. Plus de la moitié des activités ne seraient pas ou peu affectées par l'IA. L'OCDE rejette l'hypothèse d'un « chômage technologique de masse » et souligne l'urgence d'une reconversion partielle et progressive des agents exerçant des métiers robotisables à faibles compétences vers des métiers phygitalisables à plus fortes compétences. Les emplois les plus concernés seraient ceux de la grande industrie manufacturière, de la logistique, du commerce, de la banque (de détail) et de l'assurance. L'OCDE plaide en faveur d'une réduction de la fracture numérique au sein des populations, notamment grâce à une meilleure intégration de l'IA dans les programmes d'enseignement sous l'effet de l'edtech.

L'IA : UN FACTEUR DE CROISSANCE ÉCONOMIQUE

Si la conjugaison de ces facteurs engendrés par l'IA devrait contribuer à stimuler la croissance économique mondiale, peu d'économistes se hasardent à mesurer les effets de l'IA sur les PIB futurs.

Dans son étude de 2017, le cabinet PWC estime à 15 700 Md$ l'apport spécifique de l'IA au PIB mondial entre 2018 et 2030, soit une augmentation de 14 %. La création de valeur devrait être supérieure en Asie Pacifique (26 %) et en Amérique du Nord (14,5 %) à celle de l'Europe (de 9,9 % à 11,5 %) et des pays en développement. Elle serait principalement due à des gains de productivité (55 %) et à une relance de la consommation (45 %) jusqu'en 2030, mais ce rapport devrait s'inverser au-delà, en raison d'un plafonnement de la productivité.

Le cabinet d'audit Accenture (2017) soutient que l'IA pourrait multiplier par deux les taux de croissance de douze principaux pays occidentaux à l'horizon 2035, grâce à de « nouvelles relations entre le vendeur et le client et entre l'homme et la machine ». L'impact des technologies basées sur l'IA devrait notamment améliorer l'efficacité du travail de près de 40 % dans certains pays (20 % en France).

Selon l'économiste Philippe Aghion, l'IA devrait toutefois avoir également des effets négatifs sur la croissance économique, en raison des freins (ou des coûts cachés) qui pèsent sur le développement de l'IA. Ces freins sont principalement de nature :

  • technologique : certaines technologies ont atteint un stade insuffisant de maturité pour en évaluer les retombées économiques, comme pour le véhicule autonome qui est au stade expérimental ou pour l'ordinateur quantique qui est au stade exploratoire ;

  • juridique : la protection des données personnelles, la cybersécurité, l'environnement concurrentiel de l'écosystème de l'IA demeurent insuffisamment encadrés ;

  • socioprofessionnelle : les effets des déficits de compétences et des résistances au changement organisationnel sont difficilement mesurables ;

  • organisationnelle : les modèles d'IA dans les systèmes actuels de gestion des entreprises et des administrations sont encore insuffisamment intégrés ;

  • institutionnelle : l'action publique sur la formation (initiale et continue) à l'IA, afin de réduire la fracture numérique et de favoriser la reconversion des métiers, est inégale selon les pays et les régions.

Les freins potentiels peuvent être également de nature concurrentielle. Les marchés de l'IA sont contrôlés par des « oligopoles à franges », avec quelques leaders en situation de quasi-monopole sur leurs segments de marché (les GAFA – Google, Amazon, Facebook et Apple) et une galaxie de petits acteurs (les start-up et les pépites). Afin de conquérir des avantages concurrentiels pionniers, les grands acteurs absorbent ou contrôlent les start-up les plus innovantes, renforçant ainsi leurs positions dominantes et le contrôle de leurs marchés. Les GAFA contrôlaient ainsi plus des deux tiers du trafic mondial d'internet en 2018.

L'économie de l'IA : entre vision
prospective et prédictive

Les réflexions précédentes laissent apparaître que la mesure des effets économiques de l'IA se heurte aux paradoxes attachés à l'IA et aux limites des modèles actuels de recherche.

L'économie de l'IA est essentiellement immatérielle. La technologie de l'IA accélère le mouvement de dématérialisation des processus et des produits. Elle entraîne une augmentation de la part des actifs immatériels (compétences, brevets et marques, fonds de commerce, images de marque, etc.) dans les bilans des entreprises. Les actifs immatériels (incorporels ou intangibles) représentent une part de plus en plus importante du capital productif de l'entreprise. Cette part ne cesse de s'accroître sous l'effet de la digitalisation des processus et de la multiplication des brevets et des marques. Elle représente près de 99 % des actifs totaux des GAFAM (Google, Amazon, Facebook, Apple et Microsoft) et des start-up internet. La valorisation économique de ces dernières par des méthodes classiques (à partir de prix de marché, de projections de cashflow, de comparaison d'indicateurs, etc.) est rendue difficile par le caractère disruptif de certains nouveaux modèles d'affaires, par la gratuité de certains modèles (accessibles en open source) et services en ligne, par la volatilité des cours sur les nouveaux marchés. Les investissements intangibles sont classés en trois catégories (selon Haskel et Westlake, 2017) : les données informatiques, la propriété de l'innovation et les compétences économiques. La rentabilité d'un investissement dans un actif immatériel est difficilement prévisible en raison de ses spécificités : il peut être facilement répliqué à grande échelle (scalibility) ; il tend à être un coût irrécupérable (sunk cost) ; il comporte des externalités positives et négatives pour l'environnement (spillover) et bénéficie de fortes synergies avec d'autres technologies. La valeur engendrée par l'IA ne repose pas que sur l'utilité et la rareté, ainsi que sur le travail et le marché, selon les paradigmes néoclassiques. Elle est un « bien commun » au service de la production collective et du bien-être. Elle résulte d'un processus d'apprentissage collectif basé sur la confiance, dont l'étude implique de convoquer des théories et des méthodologies à la fois économiques et sociologiques (Orléan, 2011).

L'économie de l'IA porte essentiellement sur des données (Agrawal et al., 2016). Les résultats des études économiques sur l'IA sont hétérogènes par manque de « données sur les flux de données » générés par l'IA. Les méthodologies de recherche appliquées à l'écosystème de l'IA reposent sur des approches de type soit top-down (à partir d'hypothèses de création de valeur), soit bottum-up (par la consultation d'usagers et d'experts). Ils dépendent de la notion d'IA (plus ou moins précise) retenue, des secteurs d'activité (plus ou moins larges) observés, des zones géographiques (plus ou moins cadrées) et de l'horizon de projection (plus ou moins lisible). Les méthodologies classiques de recherche sont soit quantitatives (basées sur des données réelles d'observation), soit qualitatives (étayées par des représentations mentales de phénomènes). Les premières ne disposent pas de données sur des échelles de temps suffisantes, tandis que les secondes engendrent des représentations parfois floues ou fantasmatiques.

La protection des données à caractère personnel soulève de nouvelles problématiques qui révèlent la nature de « science morale » (Sen, 2003) présentée par l'économie de l'IA. Le vote du Règlement général de protection des données à caractère personnel (RGPD) voté par le Parlement européen le 27 avril 2016 a soulevé des questionnements de nature à la fois économique et philosophique : le contrôle de leurs données personnelles par les salariés et les consommateurs constitue-t-il un frein à la recherche scientifique, à l'innovation, à la vente en ligne et/ou à la gestion des risques ? Les systèmes d'autorégulation et de protection des données mis en place par les GAFA préservent-ils suffisamment la dignité des personnes et l'intégrité de leurs identités ? Leur consentement à l'exploitation de leurs données personnelles répond-il toujours à leur libre volonté, face aux progrès des techniques de nudging (ou de management incitatif) ?

L'économie de l'IA est une économie analytique. Elle fait appel à des analyses à la fois prospectives et prédictives (Vayre, 2016). Les données issues des algorithmes projettent des futurs qui traduisent des réalités déclinées à partir de méga-données (big data) sur le passé. Les projections sont ainsi déclinées suivant les logiques dictées par leurs développeurs (les data-scientists) et leurs utilisateurs (les économistes). Du croisement des logiques de prospection et de prédiction qui sous-tendent l'IA émerge une contradiction : certains algorithmes prédisent des futurs largement autodéterminés et émettent donc des prophéties autoréalisatrices (Krivine, 2018).

L'économie de l'IA exige une IA éthique. La validité de certaines analyses prédictives est de plus en plus contestée en raison de certains biais méthodologiques qui affectent le génie algorithmique (biais de sur-échantillonnage, d'histoire, de confirmation, d'ancrage, de prophétie autoréalisatrice, de « pensée magique »). Le caractère « apprenant » de certains logiciels peut par ailleurs être détourné au profit d'intérêts marchands ou de visées partisanes, par des questions orientées, des segmentations spécieuses d'enquêtés, des tarifications discriminatoires, etc. Ces biais rendent contestable le qualitatif de « prédictif » parfois attribué au traitement insuffisamment robuste de bases de données juridiques (la justice prédictive), commerciales (le marketing prédictif), économiques (l'économie prédictive), financières (la finance prédictive). C'est pourquoi les algorithmes font de plus en plus l'objet d'une surveillance accrue de la part d'administrations, d'universités (notamment celle de Columbia) et d'associations de défense des consommateurs. Le principe d'opt-in impose aux plateformes de soumettre aux utilisateurs le droit d'exploiter leurs données personnelles. Le CNIL en France et le système Marktwachter en Allemagne assurent une veille algorithmique. Le projet Transalgo (Inria) vise à partager les expériences en matière de génie algorithmique. La plateforme Opal (Orange) organise le partage des capacités d'analyse des plateformes au service du bien commun. Un écosystème apprenant dédié au machine learning est en voie de constitution.

L'économie de l'IA est un nouveau modèle économique. Elle requiert l'application de méthodes novatrices de recherche qui pourraient s'inspirer de l'approche design thinking. Cette méthode pratiquée par les chercheurs en IA pourrait être appliquée non seulement à ses composantes technologiques, mais également à sa dimension économique. Le design thinking –  inspiré des travaux de Simon et de Row – recouvre un nouveau type d'intelligence collective. C'est une forme de pensée collective et d'organisation du travail – héritée du brain storming – qui s'efforce de concevoir des solutions innovantes aux besoins des utilisateurs, tout en stimulant leurs motivations et donnant un sens à leurs comportements. La démarche repose sur cinq principes :

  • les comportements des acteurs sont observés et analysés grâce au big data et à l'IA ;

  • toutes les parties prenantes (chercheurs, praticiens, usagers, etc.) sont impliquées dans la recherche de solutions aux questionnements soulevés ;

  • les concepts et les méthodes sont compris par toutes les parties prenantes à l'étude ;

  • toutes les hypothèses et options possibles sont étudiées et croisées ;

  • la validité, la viabilité et l'acceptabilité de chaque solution envisagée sont systématiquement testées.

L'application de cette méthode enchaîne trois types d'actions : l'observation empathique des acteurs impliqués ; la fertilisation croisée de méthodes différentes de traitement des données quantitatives et qualitatives (par des techniques de machine learning et/ou deep learning) ; l'itération des solutions en fonction des jeux d'hypothèses ; le feedback des chercheurs (effet-miroir) impliqués dans la construction des solutions.

Conclusion

Les études économiques appliquées à l'IA appliquent des méthodologies de recherche plus adaptées à l'économie physique qu'à l'économie digitale. Elles demeurent ancrées dans les paradigmes de la microéconomie et macroéconomie néoclassiques. Malgré leur hétérogénéité et leur précarité, ces études mettent en lumière plusieurs tendances.

La valeur ajoutée de l'IA repose principalement sur des effets sur la consommation, sur des gains de productivité et sur une meilleure gestion des risques. Ces leviers de création de valeur varient selon les métiers (plus ou moins automatisables), mais aussi dans le temps (selon les durées des cycles technologiques) et dans l'espace (selon les zones géographiques). Plus que destructrice d'emplois, l'IA se révèle plutôt être transformatrice des métiers et des tâches. Ce phénomène est difficilement extrapolable au-delà d'un horizon à court terme et moyen terme, en raison des incertitudes pesant sur l'avenir de certaines technologies (notamment quantiques). Les effets de l'IA intègrent insuffisamment les synergies dégageables entre l'IA, la blockchain et l'internet, mais sous-estiment également les apports des nouveaux modèles d'apprentissage et d'organisation (relevant notamment de la gestion de projet et du co-working). À l'inverse, les impacts positifs de l'IA sont en partie compensés par des effets négatifs (ou retardateurs) parfois diffus, résultant d'obstacles technologiques, de freins institutionnels et de résistances sociales.

L'économie de l'IA qui émerge au début du xxie siècle se présente donc moins comme un ensemble cohérent de modèles et de systèmes que comme une construction improbable d'idéologies et de technologies. Les idéologies recouvrent « des utopies, des normes et des savoirs, à fonction polémique, qui déterminent les représentations des activités humaines » (Canguilhem, 1977). Les technologies englobent les actifs matériels et immatériels – les équipements, les compétences et les savoirs – nécessaires à ces activités (Foucault, 1976). Les représentations actuelles de l'économie de l'IA reposent essentiellement sur des paradigmes néoclassiques – fondés sur la notion d'homo economicus – qui sont de plus en plus contestés : dans le champ de l'économie, l'individualisme méthodologique, la concurrence pure et parfaite, les coûts de transaction, etc. ; dans le champ financier, l'efficience des marchés, le modèle brownien de fluctuation des cours, la théorie du portefeuille, etc. De nouveaux paradigmes émergent, mais peinent à s'imposer dans la communauté scientifique, le monde de l'entreprise et la société civile : le holisme méthodologique, l'économie immatérielle, le bien commun, la confiance, la performance globale, etc.

Le discours économique et social est à la fois une convention scientifique et un acte social. Il est « explicitement descriptif et implicitement performatif » (Geerolf et Zucman, 2012). Il « performe » (agit sur) la réalité socioéconomique, seulement si les théories, les modèles et les dispositifs sont validés par des théoriciens reconnus et appliqués par des gouvernants légitimes. Des grilles de lecture adaptées aux dimensions économiques et socioculturelles de l'IA sont donc nécessaires pour accompagner le passage de logiques d'accumulation et de répartition de la valeur économique à des logiques d'interaction des compétences et de régulation des comportements. L'adoption de telles grilles implique le dépassement de certains paradigmes fondateurs de l'économie du xxe siècle.