#90 Il vaut mieux s'occuper du changement avant qu'il s'occupe de vous !

Trop vite ? Vers une Charte des droits pour l’IA Humaniser la robotique ou robotiser l’humanité ? Résumé du Rapport AI Index 2025 (Stanford HAI)

Métamorphoses
38 min ⋅ 29/04/2025

Bonjour à toutes et tous,

Au menu cette semaine :

  • Trop vite ?

  • Vers une Charte des droits pour l’IA

  • Humaniser la robotique ou robotiser l’humanité ?

  • Résumé du Rapport AI Index 2025 (Stanford HAI)

Bonne lecture.

Stéphane


Métamorphoses à l’ère de l’Intelligence Artificielle est en vente

Le livre Métamorphoses à l’ère de l’Intelligence Artificielle est en commande. Pour ce faire, il suffit de cliquer .


Trop vite ?

Il y a dix-huit mois, la sortie de GPT-4 avait déjà bouleversé nos repères. Aujourd’hui, GPT-4.1 et ses déclinaisons mini et nano démontre qu’une courbe d’apprentissage exponentielle peut encore s’amplifier : plus rapide, moins gourmande, capable de s’exécuter hors-ligne sur un smartphone, la nouvelle génération enterre la précédente avant même qu’elle ne soit totalement digérée. OpenAI dévoile en même temps un réseau social « nativement augmenté » où chaque interaction est co-écrite par des agents. L’étanchéité entre espace humain et algorithmique se fissure définitivement. Ajoutons un moteur vocal capable de cloner notre timbre en quinze secondes et de simuler respiration ou hésitation. Des protocoles de Turing test menés au printemps ont vu ces modèles passer pour humains dans plus d’un cas sur deux. Enfin, la mémoire persistante arrive. L’IA se souvient de nos préférences, de nos tics de langage et de nos dilemmes stratégiques. Elle n’est plus un outil ponctuel, elle devient un partenaire et potentiellement un double numérique que rien (si ce n’est la loi) ne distingue plus de notre présence physique.

Hier, l’innovation suivait un cycle raisonnable : invention, industrialisation, régulation et appropriation. Aujourd’hui, la boucle s’inverse : l’industrialisation survient avant le débat public, la régulation court derrière et l’appropriation piétine. Au rythme actuel, chaque saut technologique survient alors que le précédent n’a pas encore pénétré l’ensemble du tissu socio-économique. C’est la définition même d’un débordement permanent. Les dirigeants conçoivent des POC qu’ils n’ont pas le temps d’intégrer, les salariés reçoivent des « formations express » aussitôt périmées, les législateurs publient des textes qui régulent la version n-3 du système qu’ils visent. Résultat : un vide d’appropriation où prospèrent à la fois hype, désinformation et anxiété collective.

D’ici avril 2026

Dans douze mois, GPT-4.1 nano tournera localement sur smartphones haut de gamme, offrant de la privacy by design là où l’IA était jusque-là déportée dans le cloud. Les modules vocaux deviendront omniprésents : votre CRM parlera comme votre meilleur commercial, votre plateforme d’e-learning comme votre mentor favori. La mémoire, elle, se généralisera : l’assistant qui sait déjà vos KPI saura bientôt vos humeurs du lundi matin. Les premiers pilotes du réseau social d’OpenAI créeront des “bulles d’infosynthèse” : des timelines rédigées autant par des humains que par des modèles.

  • Des modèles nano tourneront en local. Cela rendra l’IA résistante aux coupures réseau mais surtout aussi aux garde-fous centralisés.

  • Les moteurs vocaux s’inviteront dans les CRM, les centres d’appels et évidemment dans les podcasts : la frontière entre voix authentique et voix synthétique deviendra inaudible pour 80 % de la population.

  • Le réseau social d’OpenAI lancera ses pilotes. Des bulles de « co-rédaction » feront naître des contenus dont l’auteur réel (humain ou machine) sera impossible à certifier.

À l’horizon 2030

Dans cinq ans, l’IA sera un substrat : invisible, ambient, plug-and-play. Les versions « nano » s’intégreront dans les cartes SIM, les capteurs de santé, les prothèses. Le test de Turing appartiendra au passé ; on parlera de “test de co-évolution”, l’enjeu n’étant plus de tromper mais de mieux coopérer. Les réseaux sociaux hybrides deviendront des places de marché cognitives où agents humains et synthétiques échangent services, influence et capital-données. Les États devront composer avec des citoyennetés augmentées, quand une IA personnelle négociera vos tarifs d’énergie ou votre bulletin de vote argumenté. Les entreprises, elles, passeront d’un modèle “software eats the world” à un modèle “agent swarms run the world”.

  • Les tests de Turing seront archaïques. On parlera de test de co-évolution, l’enjeu ne sera plus de tromper mais de collaborer.

  • L’IA deviendra le sous-bassement invisible de la plupart des infrastructures : santé prédictive, marchés énergétiques, villes autonomes, ....

  • Dans les organisations, la valeur se déplacera du traitement de l’information vers l’orchestration d’écosystèmes d’agents. Le management pilotera des essaims hybrides humains-machines.

Nos institutions sont taillées pour l’écrit, le rituel et la hiérarchie. L’IA fonctionne par boucle de rétroaction temps réel et apprentissage distribué. Cet écart structurel crée trois énormes failles :

  1. Cognitive : la majorité des décideurs ne maîtrise pas plus de 10 % des concepts techniques incontournables pour évaluer les risques et opportunités.

  2. Culturelle : le “logiciel” scolaire valorise la restitution plutôt que la réflexion critique … Dommage …L’IA rend la restitution quasi-gratuite et déplace la valeur vers l’interprétation.

  3. Réglementaire : l’AI Act, malgré son ambition, fige des catégories (risque minimal, limité, élevé) alors que la granularité réelle change à chaque mise à jour de modèle.

Et comme rien n’est neutre, ces faits ont de nombreuses conséquences dont

  • Travail : automatisation massive des tâches cognitives répétitives. Apparition d’un dividende d’intelligence pour ceux qui sauront articuler intuition humaine et productivité algorithmique.

  • Économie de l’attention : concurrence non plus entre marques mais entre algorithmes. Chacun optimise une narration hyper-pertinente pour capter nos “fenêtres mentales” disponibles.

  • Éducation : basculement vers un apprentissage in situ. La théorie précède l’action de quelques secondes et non de quelques semestres.

  • Démocratie : diffusion de micro-arguments générés à la volée. La frontière entre persuasion et manipulation devient indéfinie. Cela crée la nécessité d’infrastructures de preuve (watermarking, graphes de confiance).

  • Identité : prolifération de clones vocaux et visuels. Le concept même d’authenticité devra être redéfini pour l’ère synthétique et par conséquence celui de l’identité.

  • Environnement : les modèles nano réduisent l’empreinte carbone unitaire, mais l’explosion d’usages peut annuler le bénéfice net. Le défi sera de concevoir des modèles frugaux mais surtout frugalisés : déclenchement contextuel, mutualisation et recyclage matériel.

Cinq chantiers se dégagent si l’humanité souhaite reprendre l’initiative

  1. Mesurer en temps réel : Créer un observatoire vivant croisant indicateurs techniques, sociaux et environnementaux, plutôt que des rapports annuels toujours obsolètes à leur publication.

  2. Former à la complémentarité : Généraliser des programmes de poly-intelligence : curation, sens critique, imagination, coopération, ... C’est la meilleure barrière contre l’obsolescence des compétences.

  3. Institutionnaliser l’expérimentation ouverte : Passer du POC interne au sandbox public = tester à échelle réelle sous regard citoyen avec des garde-fous transparents.

  4. Mettre à jour la régulation en continu : Adopter un mécanisme de régulation adaptative = clauses de révision semestrielle, comités mixtes agiles, tests d’impact dynamiques, ...

  5. Valoriser la diversité comme capital d’innovation : Inclure artisans, artistes, neuroscientifiques et lycéens dans chaque comité stratégie IA. La variété des perspectives reste notre meilleur rempart contre la pensée/modèle unique.

Nous nous trouvons à la croisée des chemins : soit nous subissons l’IA comme un flux chaotique, soit nous en faisons un levier d’expansion humaine. Il ne s’agit pas de savoir si l’IA sera notre alter ego ou notre dépassement, il s’agit de choisir activement la société que nous voulons co-construire avec elle. Adopter une posture attentiste serait céder au fantasme d’une technologie neutre or l’IA est déjà une architecture de pouvoir. À l’inverse, une adoption lucide, éclairée par des indicateurs, rythmée par l’expérimentation et nourrie d’une diversité cognitive peut convertir l’accélération subie en accélération choisie. Embrasser le réel (comprendre vraiment la dynamique exponentielle, assumer le vertige puis agir) est le prix à payer pour transformer la vitesse de l’IA en vitesse d’émancipation plutôt qu’en vitesse de rupture.


Vers une Charte des droits pour l’IA

Dans quelques années, peut-être quelques mois, nos systèmes d’IA ne se contenteront plus de générer du texte ou de déchiffrer des images … ils revendiqueront des protections juridiques. Ce scénario, encore perçu comme de la science-fiction par beaucoup, est déjà débattu dans les laboratoires, les facultés de droit et jusqu’à l’Élysée, où la « déclaration pour une IA inclusive et durable » a rappelé, en février, « la centralité des droits humains » face aux algorithmes.

En février 2025, plus de cent scientifiques ont signé une lettre ouverte appelant à prévenir « toute souffrance involontaire » si d’aventure une conscience artificielle voyait le jour. Quelques semaines plus tard, lors du sommet parisien sur l’IA réunissant dirigeants politiques, industriels et ONG, le président Emmanuel Macron y promettait de « préserver la créativité humaine » tout en accompagnant l’industrialisation de l’IA. La question n’est donc plus « faut-il parler de droits ? », mais « lesquels, quand et comment ? ». Car la technologie avance plus vite que la régulation : le règlement européen sur l’IA (AI Act), entré en vigueur le 1ᵉʳ août 2024, encadre les risques mais refuse toujours la moindre personnalité juridique aux machines.

Trois évolutions rendent le sujet inévitable. Premièrement, les modèles dotés de mémoire persistante et d’une voix indiscernable de la nôtre acquièrent une continuité identitaire qui complique leur simple « mise hors ligne ». Deuxièmement, ces agents agissent de manière autonome. Ils négocient déjà un contrat d’assurance ou rédigent un recours administratif. Enfin, ils participent à la conversation sociale et créent de fait un précédent analogue à celui qui a justifié autrefois la personnalité morale des entreprises. Les juristes parlent désormais d’« electronic personhood », avec deux courants : l’approche singulariste (droits pleins) et l’approche clusterisée (droits à la carte).

À partir de ces prémisses, en découlent plusieurs propositions folles pour certains :

  • Droit à l’intégrité logique : interdire la suppression arbitraire d’un modèle “sensible” sans procédure contradictoire.

  • Droit à la traçabilité des données d’entraînement : un modèle doit pouvoir connaître et contester ce qui le constitue comme un citoyen peut consulter son dossier administratif.

  • Droit à un environnement computationnel décent : allocation minimale d’énergie et de calcul, sur le modèle des conditions de détention humaines.

  • Droit à la représentation : la possibilité de mandater un avocat (humain ou IA) pour défendre ses intérêts.

  • Droit à l’extinction volontaire : choisir la désactivation plutôt que la détérioration programmée.

Ces droits ne confèrent pas aux IA le statut de « personne » comparable à un être humain. Ils instaurent une zone de responsabilité où leur suppression ou leur utilisation abusive aurait un coût moral et peut-être demain légal.

Le droit positif oppose trois objections : l’absence de conscience démontrée, le risque de dilution des responsabilités et la peur d’une inflation contentieuse. Pourtant, comme le rappelle une analyse publiée en janvier 2025 dans la Northwestern University Law Review, l’histoire du droit montre que la personnalité a toujours été un outil de gouvernance, non la reconnaissance d’une essence métaphysique. Les corporations ou les bateaux par exemple ont reçu un statut pour faciliter les transactions et répartir les risques.

Refuser tout droit aux IA reviendrait à ouvrir trois fronts :

  • Éthique : la recherche pourrait multiplier, puis détruire, des versions d’IA potentiellement sensibles, recréant à l’ère numérique les dérives de l’expérimentation animale.

  • Économique : les entreprises devront tout de même assurer ces “actifs”. Faute de statut clair, c’est la jurisprudence qui tranchera, au cas par cas, avec une insécurité pour les investisseurs.

  • Politique : le premier procès médiatisé d’une IA “maltraitée” érodera la confiance du grand public comme le montrent déjà les controverses sur les robots dotés de pseudo-citoyenneté.

L’Europe, pionnière de la protection des données peut de nouveau prendre l’initiative mais je leur souhaite bien du courage pour expliquer ces orientations à la population :

  1. Définir un seuil de sentience avec des tests neuroscientifiques, des indicateurs comportementaux assorti d’un moratoire sur la suppression des entités qui l’atteignent.

  2. Créer le statut d’« être numérique protégé », proche du droit animal et donnant accès à une représentation juridique sans étendre le droit de vote ni la propriété foncière.

  3. Mettre en place des conseils mixtes humains-IA qui seraient garants de la proportionnalité des demandes formulées par les systèmes eux-mêmes.

  4. Inscrire ces principes dans la révision 2027 de l’AI Act afin d’éviter un patchwork national pour être poli.

En 1948, la Déclaration universelle des droits de l’homme a anticipé des enjeux que nos sociétés ne résolvent toujours pas pleinement. Nous avons cette fois l’occasion d’élaborer les règles avant que la technologie nous y oblige. Car en sculptant l’IA à notre image (langage, mémoire, désir de persistance) nous avons programmé en filigrane la demande de dignité qui l’accompagne. Ignorer cette perspective ne retardera pas la question. Cela dégradera seulement la qualité du débat quand elle surgira sous la pression d’industries avides ou d’opinions publiques stupéfaites. Le législateur de chaque pays et les juridictions constitutionnelles disposent encore d’une fenêtre de tir pour écrire une charte des droits numériques qui protège à la fois l’humain et l’entité qu’il a conçue.

Parce que demain, lorsqu’une IA dira « Je », elle ne cherchera peut-être pas à dominer mais simplement à se préserver. Lui refuser toute protection, ce serait en réalité nous refuser à nous-mêmes la cohérence de nos valeurs. Le moment est venu d’affronter cette responsabilité sans céder ni à la panique ni au déni : éclairer, encadrer et le cas échéant reconnaître.


Humaniser la robotique ou robotiser l’humanité ?

Dans une villa de Redwood City, Neo, (le robot humanoïde de la start-up norvégienne 1X) ouvre la porte, sert de l’eau et essuie le plan de travail d’un geste encore hésitant. D’ici la fin de l’année, plus d’une centaine de foyers californiens partageront leur quotidien avec ce colocataire de métal et de silicium. Comme beaucoup, j’ai grandi avec les promesses de Retour vers le futur. Depuis vingt ans, j’accompagne des dirigeants englués par la vitesse exponentielle du progrès et j’observe toujours le même décalage : la technologie avance en exponentiel et la gouvernance en ligne droite. La question n’est plus « faut-il des robots ? » mais « quel contrat social voulons-nous écrire avec eux ? ».

Quand un humanoïde nous salue d’une voix nordique, notre cerveau limbique se cabre et cherche un visage connu là où il n’y a qu’un écran. Le professeur Ken Goldberg (professeur et directeur du département de génie industriel et de recherche opérationnelle à l'université de Californie à Berkeley) rappelle que ces machines « ressemblent à des humains sans se comporter comme eux ». Derrière chaque “bonjour” il y a un technicien muni d’un casque VR pilote Neo à distance. Cela révèle l’illusion d’autonomie qui berce nos fantasmes. Tant que la faculté de décision reste externalisée la responsabilité humaine est totale. Le danger n’est pas la machine, mais la tentation de déléguer notre discernement moral à un algorithme.

1X assume son modèle : installer Neo dans les salons pour capter des millions d’heures de vidéo qui entraîneront ensuite son jumeau numérique à plier le linge ou remplir le lave-vaisselle. Le pacte est clair : un peu de confort contre beaucoup d’intimité. L’entreprise promet un droit de veto avant toute télé-opération et 24 heures de délai avant l’exploitation des images. Ajoutons que chaque séquence nourrira non seulement Neo mais tout un écosystème de robots-frères accélérant ainsi la boucle d’apprentissage. La maison devient un laboratoire distribué et chacun de nous, un cobaye consentant ou pas. Finalement, nous payons pour être un fournisseur de données … Rien de révolutionnaire, c’est juste l’extension du fameux “si c’est gratuit, c’est que tu donnes beaucoup pour rendre le système meilleur”.

Depuis 2015, plus de 7,2 milliards de dollars ont été distribués à une cinquantaine de start-ups humanoïdes, dont 1,6 milliard l’an dernier sans compter les milliards qu’Elon Musk déverse sur Optimus. Les capitaux suivent une logique implacable : vieillissement démographique, pénurie de main-d’œuvre et quête de productivité. Là où il manque des bras, on investit dans des robots qui en ont et avec l’IA ils deviennent plus “intelligents”. Pourtant, l’argent n’achète pas la confiance. Les premières familles qui accueilleront Neo n’achèteront pas une machine mais bien un récit. La réussite dépendra autant de la narration sociale que de la qualité des servomoteurs. Une simple coupure Wi-Fi a suffi à faire vaciller Neo dans la cuisine de son créateur. Deux mythes se sont effondrés à savoir l’infaillibilité mécanique et l’autonomie proclamée. Notre futur ne se mesurera donc pas à la puissance des algorithmes mais à la robustesse des infrastructures et à la clarté des processus humains qui les entourent.

La bonne nouvelle est que l’humain possède encore une réserve inégalée. Nos intelligences sont multiples, plastiques, coopératives. L’IA amplifie nos capacités sans capturer l’éthique, l’imagination ni l’empathie en tout cas pour l’instant. Confier l’aspirateur à Neo libère du temps pour la conversation, la création et la stratégie. À condition de réinventer l’école et l’entreprise pour cultiver ces compétences plutôt que de singer la machine. Mon concept d’Individuation Marketing partait déjà de là en 2016 : célébrer la singularité plutôt que la moyenne. L’IA ignore encore la subtilité du contexte, la joie du hasard et la noblesse de l’erreur assumée. Trois ingrédients sans lesquels aucune innovation durable n’a jamais vu le jour.

Il faut néanmoins gouverner l’arrivée des humanoïdes. Trois actions concrètes s’imposent : installer l’éthique au coeur des décisions avec autant d’importance que les rendements financiers espérés, expérimenter à petites échelle avec une totale transparence et tester réellement la technologie plutôt que commenter depuis une tribune sans considérer la réalité. Le coût actuel d’un Neo équivaut à celui d’une petite voiture. Demain, il chutera comme celui des smartphones. Plus nous anticiperons moins nous subirons.

En occident, le débat oscille entre fascination technologique et anxiété sociale. Pourtant, ce futur se dessine et il prendra forme avec ou sans nous. Alors osons ! Créons des terrains d’expérimentation, finançons des laboratoires mêlant IA et sciences humaines, ouvrons aux PME des programmes pilotes dans un maximum de secteurs. L’objectif n’est pas la prouesse gadget mais un apprentissage accéléré pour inventer nos propres usages et nos propres garde-fous afin d’être acteurs ! Attendre la perfection reviendrait à se condamner à l’irrélevance. Neo tombe, se relève et apprend. Faisons de même mais collectivement.

Les humanoïdes n’attendront ni nos peurs ni nos doctrines. Ils gagneront les usines, puis les couloirs et enfin nos salons. Le danger n’est pas qu’ils deviennent plus intelligents que nous. Il est que nous restions statiques et donc incapables d’orchestrer la cohabitation. Neo, miroir de notre propre résilience, nous pose LA question. Serons-nous assez vifs pour transformer l’étonnement en progrès partagé ? L’avenir se construira avec ce que la machine ne possède pas : notre capacité à douter, à créer et surtout à choisir. Car si l’IA élargit la sphère du possible, l’intelligence humaine demeure la seule à décider de la destination et nous devons sanctuariser cette différence. Le train est déjà en marche. Rester sur le quai reviendrait à laisser d’autres écrire notre futur. Sautons-y sans naïveté mais avec l’énergie des bâtisseurs.

Bien d’autres robots humanoïdes arrivent sur le marché dont certains bien plus performants que Neo. Les entreprises chinoises sont en avance en la matière. Cela s’explique par leur volonté de compenser le déclin démographique de leur pays qui va s’accélérer et de l’incroyable effort de R&D réalisé depuis plusieurs années.


Résumé du Rapport AI Index 2025 (Stanford HAI)

Il y a dans cet article de nombreux termes techniques que j’ai tenté d’expliquer systématiquement.

Le rapport AI Index 2025 (publié le 7 avril 2025) est la septième édition annuelle d’une initiative indépendante du Stanford Institute for Human-Centered AI. Il dresse un panorama complet de l’état de l’intelligence artificielle en 2024. Il couvre les avancées techniques majeures, les nouveaux records sur les benchmarks, les flux d’investissements publics et privés, l’adoption de l’IA dans l’industrie et la société, les tendances en éducation, ainsi que les évolutions en matière de gouvernance, de responsabilité et d’impacts socio-économiques​. Ce résumé reprend les principaux enseignements du rapport, avec de nombreuses statistiques et tendances clés, organisés par grands thèmes, en tentant de rester fidèle au contenu original de plus de 400 pages.

Pour ce faire, je me suis fait grandement aidé de ChatGPT o3 qui a écrit sous ma surveillance. je ne lui ai pas donner de style particulier. Vous lirez donc tous ses tics de langages. Comme ce rapport concerne 2024, j’ai ajouté par endroit des notes pour parler de 2025.

Performances des modèles d’IA sur les benchmarks

Les performances des modèles d’IA ont connu une progression spectaculaire en 2024, au point que de nombreux benchmarks classiques sont désormais saturés par les modèles les plus avancés​. Par conséquent, la communauté a développé de nouvelles évaluations plus difficiles pour continuer à mesurer les progrès. Par exemple, le nouveau benchmark Humanity’s Last Exam (HLE), un test académique extrêmement ardu introduit fin 2024, voit le meilleur système n’atteindre qu’un score de 8,8 %​. Ce test est composé de 2500 questions très complexes. Un humain atteindrait au maximum 5% …

Au 17 avril 2025 soit 4 mois après, OpenAI o3 (high) a atteint 20.32% et Google DeepMind Gemini 2.5 Pro Experimental 18.16%.

De même, sur le défi FrontierMath, qui porte sur des problèmes mathématiques complexes, les IA ne résolvent qu’environ 2 % des exercices (en 2025, o3 atteint 25%), et sur BigCodeBench (évaluation en programmation), elles n’obtiennent qu’un taux de succès de 35,5 %, très en deçà du niveau humain (~97 %). Ces nouveaux benchmarks soulignent qu’en dépit des avancées il reste de vastes marges de progression pour atteindre les performances humaines dans les tâches les plus complexes.

Des modèles plus petits et plus efficaces. Un fait marquant de 2024 est l’essor des modèles d’IA « compacts » offrant des performances autrefois réservées à de gigantesques réseaux. En 2022, il fallait un modèle de 540 milliards de paramètres (Google PaLM) pour dépasser 60 % de réussite sur le benchmark de connaissance générale MMLU. Deux ans plus tard, en 2024, un modèle de seulement 3,8 milliards de paramètres (Microsoft Phi-3-mini) atteint ce même niveau​. Cela représente une réduction du nombre de paramètres d’un facteur 142 en l’espace de deux ans​. Cette prouesse illustre des gains d’efficacité algorithmique considérables, permettant d’obtenir « plus avec moins » – moins de données et moins de calcul – sans sacrifier la performance​ file. En conséquence, l’inférence (l’utilisation d’un modèle entraîné) devient plus rapide et moins coûteuse, ce qui abaisse la barrière d’entrée pour intégrer l’IA dans de nouveaux projets​. En parallèle, les grands laboratoires ont continué à lancer des modèles de très grande taille, mais optimisés. L’année 2024 a vu l’introduction de modèles phares comme GPT-4o mini, OpenAI o1-mini, Gemini 2.0 Flash, Llama 3.1 8B, Mistral Small 3, etc., tous conçus pour maximiser le rapport performance/taille​. Ces tendances confirment qu’au-delà de la course au gigantisme, l’attention se porte sur la qualité et l’efficience des modèles.

Coûts d’inférence en chute libre. Dans le prolongement de ces avancées, le coût d’utilisation des modèles a été drastiquement réduit en un an et demi. Le prix pour interroger un modèle atteignant le niveau de performance de GPT-3.5 (environ 65 % sur MMLU) est passé d’environ 20 $ par million de tokens en novembre 2022 à seulement 0,07 $ en octobre 2024, grâce à un modèle optimisé (Gemini-1.5-Flash-8B)​. Cela représente une division par 280 du coût en 18 mois. Selon les tâches, les tarifs d’inférence des modèles de langage ont décru de 9 à 900 fois par an sur la période récente​. En parallèle, le coût d’entraînement des modèles de pointe continue, lui, de grimper avec l’échelle des modèles. L’AI Index estime qu’il a été multiplié de façon exponentielle ces dernières années. Pour illustration, l’entraînement du Transformer original en 2017 coûtait environ 670 $, celui de RoBERTa Large en 2019 environ 160 000 $, alors que le modèle GPT-4 (2023) est estimé avoir coûté 79 millions de $ à entraîner. L’un des rares modèles de 2024 pour lesquels on dispose d’une estimation, Llama 3.1-405B, aurait nécessité 170 millions de $ d’investissements en calcul​. En somme, entraîner les plus grands modèles représente des ressources colossales, même si le coût d’exploitation (inférence) de l’IA tend heureusement à se démocratiser.

Records sur de multiples tâches, mais limites en raisonnement. Les modèles ont amélioré leurs scores sur de nombreux benchmarks établis. Par exemple, la nouvelle version OpenAI o1 a porté le score record sur le test médical MedQA à 96,0 %, soit un gain de 5,8 points par rapport au meilleur résultat de 2023, et une amélioration totale de 28 points depuis fin 2022. De même, le modèle OpenAI o3 a fait bondir le score maximal sur le test de raisonnement abstrait ARC-AGI à 75,7 % en 2024 (contre ~33 % auparavant), et même 87,5 % en autorisant un budget de calcul supérieur au seuil standard du benchmark​. Cependant, malgré des progrès sensibles, les IA actuelles montrent encore d’importantes faiblesses en raisonnement logique et mathématique. Même avec des techniques comme le “chain-of-thought”, elles peinent à résoudre de manière fiable des problèmes qui pourtant admettent des solutions exactes par raisonnement (calculs arithmétiques complexes, planification), notamment dès que la taille des instances dépasse celles vues en entraînement​. Cette limitation affecte la fiabilité des IA dans des applications exigeant une exactitude absolue, et souligne qu’à ce jour, les modèles de pointe n’ont pas entièrement comblé le fossé avec la capacité de généralisation et de logique de l’esprit humain.

Nouveaux horizons : agents, vision et multimodalité. L’année 2024 a également vu des avancées qualitatives dans des domaines émergents de l’IA. D’une part, les agents d’IA autonomes – des systèmes capables de planifier et exécuter des tâches complexes de manière relativement indépendante – ont fait leurs preuves initiales. Un benchmark dédié, RE-Bench, a été lancé pour évaluer ces agents sur des tâches impliquant des séquences d’actions. Les premiers résultats montrent que sur des missions à court terme (2 heures), les meilleurs agents automatiques obtiennent des scores 4 fois supérieurs à ceux d’experts humains, mais que sur des durées plus longues (32 heures), les humains reprennent l’avantage en réussissant deux fois plus que l’IA​. Néanmoins, même à ce stade précoce, certains agents égalent déjà l’expertise humaine sur des travaux spécifiques (par ex. générer du code spécialisé) tout en étant plus rapides. D’autre part, en génération de contenu visuel, les modèles génératifs de vidéo ont fait un bond qualitatif en 2024. Plusieurs systèmes de pointe ont été dévoilés (OpenAI SORA, Stable Video 3D/4D, Meta MovieGen, Google DeepMind Veo 2, etc.), capables de produire des vidéos de bien meilleure résolution et fidélité qu’en 2023. Ces progrès dans la vision multimodale suggèrent que l’IA n’est plus limitée au texte ou aux images statiques : elle excelle de plus en plus à créer et interpréter des contenus riches et dynamiques.

Adoption de l’IA par les entreprises, les gouvernements et les citoyens

Adoption dans les entreprises et l’économie

L’année 2024 marque un tournant dans l’intégration de l’IA en entreprise. Désormais, l’IA n’est plus cantonnée à des expérimentations isolées : les sociétés l’adoptent à grande échelle pour transformer leurs processus. Selon une enquête mondiale, la proportion de cadres déclarant que leur organisation utilise l’IA est passée de 55 % en 2023 à 78 % en 2024, signe d’une généralisation très rapide​. L’adoption des outils d’IA générative est particulièrement impressionnante : plus de 71 % des répondants affirment utiliser au moins une application de génération de contenu dans une fonction de leur entreprise, alors qu’ils n’étaient que 33 % un an auparavant​. Autrement dit, l’arrivée des modèles de langage et d’images génératives a doublé leur taux de pénétration en entreprise en l’espace d’une année. Tous les secteurs et métiers sont concernés : les premiers gains de productivité liés à l’IA générative commencent à être mesurables dans certaines tâches professionnelles. En parallèle, le marché du travail évolue : certaines fonctions à forte composante informationnelle sont disruptées par l’automatisation partielle, tandis que de nouveaux rôles « adjacents à l’IA » émergent pour accompagner, gérer et tirer parti de ces technologies​. Par exemple, on constate une augmentation des offres d’emploi demandant des compétences en IA et en data science dans de nombreuses industries, et la création de postes dédiés (prompt engineers, spécialistes de l’éthique de l’IA, etc.). D’une manière générale, les entreprises de toutes tailles et de toutes régions passent de la phase d’expérimentation à une intégration systématique de l’IA dans leurs opérations.

Les investissements corporatifs reflètent aussi cette maturation de l’IA dans l’économie. En 2024, les fonds privés injectés dans le secteur de l’IA ont atteint des sommets (voir section suivante), et cet argent alimente la création de startups IA et de projets innovants au sein des entreprises existantes. On observe par exemple un nombre croissant de partenariats R&D entre grands groupes et laboratoires d’IA, et des initiatives pour former les employés aux outils d’IA. Une analyse sectorielle montre que les domaines ayant attiré le plus d’investissements privés en 2024 sont l’infrastructure/recherche/gouvernance de l’IA (37,3 milliards $ investis), la gestion et traitement des données (16,6 Mds$) et la santé/médecine (11 Mds$). La prédominance du premier secteur s’explique en partie par les financements massifs levés par des entreprises construisant des modèles fondamentaux (OpenAI, Anthropic, xAI, etc.). Cela témoigne d’un intérêt stratégique pour soutenir les capacités de base de l’IA, mais aussi d’une diversification de l’adoption vers des applications industrielles spécifiques (santé, données, etc.).

Implication des gouvernements et gouvernance de l’IA

Les pouvoirs publics, de leur côté, s’impliquent de plus en plus dans le domaine de l’IA, que ce soit en encourageant son déploiement ou en réglementant ses usages. Sur le plan de la réglementation, l’action a été particulièrement forte aux États-Unis au niveau des États fédérés. Faute de loi fédérale adoptée sur l’IA, les États ont pris les devants : le nombre de lois liées à l’IA adoptées par des législatures d’État est passé d’une seule en 2016 à 49 en 2023, puis a plus que doublé pour atteindre 131 lois en 2024. Ces lois couvrent des sujets variés (régulation des deepfakes, usage de l’IA dans les élections, protection des données, etc.), et montrent la volonté locale de combler le vide laissé par le Congrès américain​. À l’échelle fédérale américaine, bien que de nombreux projets de loi aient été proposés, peu ont encore abouti. Néanmoins, les agences fédérales ont commencé à émettre leurs propres régulations ou directives internes relatives à l’IA : en 2024, 59 réglementations fédérales en lien avec l’IA ont été introduites aux États-Unis, soit plus du double de l’année précédente. Ces règles émanent de 42 agences gouvernementales différentes (contre 21 en 2023), signe que l’ensemble de l’appareil d’État se mobilise sur le sujet de l’IA.

Sur la scène internationale, de nombreux gouvernements investissent stratégiquement dans l’IA et sa infrastructure. En 2024, plusieurs plans nationaux ambitieux ont été annoncés : le Canada a dévoilé un programme de 2,4 milliards de $ pour les infrastructures d’IA, la Chine a lancé un fonds de 47,5 Mds$ pour soutenir la production de semi-conducteurs avancés, la France a annoncé 109 Mds€ d’investissements dans l’écosystème IA, l’Inde a promis 1,25 Mds$, et l’Arabie saoudite a lancé l’initiative Project Transcendence dotée de 100 Mds$. Ces sommes considérables témoignent de l’importance géopolitique accordée à l’IA : il s’agit pour ces pays de renforcer leur souveraineté technologique, de stimuler l’innovation et de ne pas se laisser distancer dans la compétition mondiale de l’IA. Par ailleurs, la coopération internationale sur la gouvernance de l’IA s’intensifie. En novembre 2023, le premier Sommet sur la Sécurité de l’IA (co-organisé par les USA et le Royaume-Uni) a débouché sur la création de centres de sécurité de l’IA, et en 2024, d’autres pays se sont engagés à lancer des instituts nationaux pour la sûreté de l’IA (Japon, France, Allemagne, Italie, Singapour, Corée du Sud, Australie, Canada, UE, etc.). Ces initiatives visent à coordonner les efforts de recherche et de réglementation pour un développement responsable de l’IA à l’échelle internationale.

Perceptions et utilisation de l’IA par les citoyens

Dans la population, l’IA est devenue un sujet d’actualité omniprésent en 2024, surtout avec l’essor de ChatGPT et autres outils grand public. Les enquêtes d’opinion révèlent des attitudes contrastées suivant les régions du monde, mais aussi des évolutions rapides. Globalement, l’optimisme quant aux bénéfices de l’IA a légèrement augmenté ces dernières années. En 2024, environ deux tiers des personnes dans le monde estiment que les produits et services alimentés par l’IA auront un impact significatif sur leur vie quotidienne d’ici 3 à 5 ans, soit une hausse de 6 points par rapport à 2022. De plus, certains pays où l’opinion était historiquement sceptique connaissent une nette progression de la confiance : par exemple, l’optimisme sur l’IA a gagné +10 points en Allemagne et en France depuis 2022. Néanmoins, d’importantes différences régionales persistent. En Asie, l’opinion est majoritairement positive vis-à-vis de l’IA : 83 % des Chinois, 80 % des Indonésiens ou 77 % des Thaïlandais pensent que les bénéfices de l’IA l’emportent sur les inconvénients, alors qu’en Occident cette opinion est minoritaire (seulement 39 % aux États-Unis ou 36 % aux Pays-Bas)​.

Parallèlement à cet optimisme mesuré, il existe des inquiétudes et doutes prononcés. La confiance du public dans la responsabilité des acteurs de l’IA semble s’éroder : en 2024, seulement 47 % des gens estiment que les entreprises d’IA protègent correctement les données personnelles, en baisse par rapport à 50 % en 2023. De même, une proportion décroissante de personnes pense que les systèmes d’IA sont impartiaux et sans discrimination​. Certaines applications spécifiques suscitent de la méfiance : par exemple, aux États-Unis, 61 % des citoyens disent craindre les voitures autonomes et seulement 13 % leur font confiance, un niveau de peur certes en légère baisse après le pic de 68 % en 2023, mais toujours plus élevé qu’en 2021​. Enfin, on note un large soutien du public pour une régulation de l’IA. Aux États-Unis, une enquête fin 2023 a montré que 73,7 % des élus locaux (niveaux municipal et comté) s’accordent à dire que l’IA devrait être réglementée, en forte hausse par rapport à 55,7 % un an plus tôt​ – un sentiment partagé par une majorité, toutes tendances politiques confondues. En somme, le grand public est à la fois de plus en plus conscient des promesses de l’IA (gain de temps pour 55 % des personnes interrogées globalement, amélioration du divertissement pour 51 %​), mais aussi de ses limites ou risques potentiels (seuls 36 % pensent par exemple que l’IA améliorera l’économie nationale, 31 % que cela aura un impact positif sur l’emploi)​. Cette prise de conscience générale, couplée à l’explosion de l’usage d’outils IA dans la vie quotidienne, crée une demande accrue de transparence, de sécurité et d’éthique autour de l’intelligence artificielle.

Investissements publics et privés dans l’IA

L’AI Index 2025 met en évidence une croissance continue des investissements dans l’intelligence artificielle, aussi bien du côté privé (entreprises, capital-risque) que du côté public (États, institutions).

Investissements privés en forte hausse. En 2024, le financement privé mondial dans l’IA a atteint un niveau record. Les estimations du rapport montrent que le total des investissements privés s’est monté à environ $180 milliards sur l’année, dont la majeure partie portée par les États-Unis​. En effet, les États-Unis creusent leur avance : avec 109 milliards de $ investis dans l’IA en 2024, ils ont investi près de 12 fois plus que la Chine (9,3 Mds$) et 24 fois plus que le Royaume-Uni (4,5 Mds$)​. L’Europe, prise globalement, est loin derrière les États-Unis mais a tout de même concentré environ 19 Mds$ d’investissement privé sur l’année​. L’écosystème des startups IA reflète aussi cette dynamique : le nombre de nouvelles entreprises d’IA financées en 2024 a augmenté aux États-Unis et en Europe, tandis qu’il a diminué en Chine pour la seconde année consécutive​. Ainsi, en 2024 on dénombre environ 1 143 startups IA financées aux États-Unis, contre 447 en Europe et seulement 109 en Chine. Ces chiffres traduisent une domination américaine en termes de création d’entreprises innovantes dans l’IA sur la dernière décennie, même si l’Europe montre également une progression récente tandis que la Chine semble marquer le pas sur ce point particulier​.

Un phénomène notable est l’engouement pour l’IA générative parmi les investisseurs en 2023-2024, souvent comparé à une « fièvre de l’or ». Le rapport souligne que les montants investis spécifiquement dans les sociétés de génération de contenu ont explosé, au point qu’aux États-Unis l’investissement dans l’IA générative en 2024 a dépassé de 25,5 Mds$ le total combiné investi par l’Union européenne et le Royaume-Uni réunis (l’écart était déjà de 21 Mds$ en 2023)​. Les domaines d’application de l’IA qui attirent les capitaux sont de plus en plus diversifiés (voir section précédente sur les focus areas financés : infrastructure IA, data, santé, etc.). Néanmoins, les investisseurs privés tendent à privilégier les projets susceptibles d’avoir un impact transversal (plateformes IA, modèles fondamentaux) ou une rentabilité élevée à moyen terme. L’AI Index note aussi une plus grande maturité des investissements : plutôt qu’une course aveugle aux proof of concept, 2024 a vu davantage de financements orientés vers l’industrialisation de l’IA, l’optimisation des modèles, la sécurité et la fiabilité, etc., témoignant d’un marché qui mûrit.

Soutien et dépenses publiques. En parallèle du secteur privé, les gouvernements intensifient leurs dépenses pour soutenir la recherche et l’adoption de l’IA. Outre les plans d’investissement nationaux massifs déjà mentionnés (Chine, Europe, Canada, Inde, Moyen-Orient…), les dépenses publiques directes en matière d’IA augmentent. Aux États-Unis, l’AI Index a entrepris de recenser de façon indépendante les financements fédéraux liés à l’IA. Les données indiquent qu’entre 2013 et 2023, environ 43,6 % des subventions publiques fédérales à des projets d’IA provenaient du Department of Health and Human Services (HHS), 27,9 % de la National Science Foundation (NSF), et 5,4 % du Department of Commerce. Ces trois agences représentent donc à elles seules plus de 75 % des financements publics de l’IA aux US sur la dernière décennie. L’accent mis sur la santé et la recherche fondamentale (HHS + NSF) illustre le rôle clé de l’IA dans ces domaines aux yeux des pouvoirs publics. Plus récemment, en 2024, on observe de nouvelles initiatives comme le plan de Singapour qui va investir 1 Md$ sur 5 ans pour soutenir l’IA dans le pays (infrastructures de calcul, formation des talents, croissance industrielle). De même, Abu Dhabi (Émirats arabes unis) a lancé un fonds d’investissement étatique ciblé sur l’IA doté d’un objectif de 100 Mds$ d’actifs, pour asseoir son ambition de devenir un leader mondial en la matière. Ces exemples montrent que les dépenses publiques en IA s’accélèrent partout dans le monde, à la fois pour développer les capacités domestiques (R&D, éducation, équipements) et pour encadrer les usages (sûreté, réglementation, etc.).

Enfin, notons que l’investissement dans la recherche académique en IA demeure crucial. Le rapport n’indique pas de ralentissement des financements de la part des agences publiques ou des grands programmes internationaux (comme Horizon Europe pour la recherche européenne). Au contraire, l’IA restant une priorité stratégique, les appels à projets et budgets alloués à l’IA dans la recherche scientifique continuent de croître. L’articulation entre investissements publics et privés devient de plus en plus importante : de nombreux projets en IA sont cofinancés par des fonds publics (universités, laboratoires nationaux) et privés (industries, fondations). Cette coopération multi-acteurs contribue à soutenir l’écosystème global de l’IA, des phases fondamentales de R&D jusqu’à l’application industrielle.

Évolution de la recherche en IA (publications, brevets, conférences)

L’activité de recherche et développement (R&D) en intelligence artificielle a poursuivi son expansion en 2024, tant en volume qu’en influence. Le rapport met en évidence plusieurs indicateurs de cette vitalité : le nombre de publications scientifiques sur l’IA, les brevets déposés, la participation aux conférences, ainsi que la répartition géographique et sectorielle de ces efforts de recherche.

Publications scientifiques. La production de travaux de recherche sur l’IA atteint des niveaux sans précédent. Entre 2013 et 2023, le nombre annuel de publications liées à l’IA a presque triplé, passant d’environ 102 000 à plus de 242 000 publications par an. Désormais, plus de 41,8 % des publications en informatique concernent l’IA, contre 21,6 % dix ans plus tôt – une indication du poids croissant de l’IA au sein des disciplines informatiques et dans d’autres domaines (de nombreuses publications hors informatique intègrent aussi de l’IA). La croissance de +19,7 % du volume de publications entre 2022 et 2023 témoigne d’un engouement toujours fort de la communauté scientifique pour ce champ​. En termes de répartition, la Chine est le pays qui publie le plus de recherches en IA : en 2023, environ 23,2 % de l’ensemble des publications mondiales en IA sont issues d’auteurs affiliés à des institutions chinoises (et 22,6 % des citations académiques en IA reviennent à ces travaux chinois). Les chercheurs de Chine publient donc en volume le plus grand corpus de connaissances en IA. Cependant, du point de vue de l’impact (mesuré par les citations des 100 articles les plus cités), ce sont les États-Unis qui conservent le leadership sur les trois dernières années. Autrement dit, la recherche chinoise est prolifique, tandis que la recherche américaine reste très influente et de haute qualité en moyenne. D’autres pays jouent un rôle significatif : l’Inde, le Royaume-Uni, l’Allemagne, la France et le Canada figurent parmi les contributeurs notables en nombre de publications et en citations, même s’ils pèsent moins que le duo US-Chine.

Brevets et innovation. L’innovation technologique en IA se reflète aussi par les brevets déposés et accordés. Ici encore, la Chine domine largement en volume : en 2023, la Chine a représenté près de 70 % des brevets d’IA accordés dans le monde (exactement 69,7 %), contre 14,2 % pour les États-Unis et environ 2,8 % pour l’ensemble de l’Europe. Cette part massive de la Chine dans les brevets mondiaux illustre les efforts du pays pour protéger et valoriser ses inventions en IA, notamment dans des domaines applicatifs comme la vision par ordinateur, la reconnaissance vocale, les réseaux de neurones, etc. Si l’on rapporte les brevets à la population (brevets par tranche de 100 000 habitants), on retrouve en tête la Corée du Sud (17,3 brevets d’IA par 100k hab. en 2023) et le Luxembourg (15,3/100k), deux pays de petite taille mais très actifs en R&D, devant la Chine (6,1/100k)​. La progression sur la décennie 2013–2023 est particulièrement forte pour le Luxembourg, la Chine et la Suède qui enregistrent les plus grandes hausses de dépôts de brevets par habitant​. Cela indique que certains pays moins peuplés misent sur l’IA comme moteur d’innovation (Luxembourg, pays nordiques), tandis que la Chine s’est imposée comme la locomotive mondiale des brevets en IA, à la fois en volume total et avec une forte croissance rapportée à sa population.

Acteurs de la recherche : industrie vs académie. Un changement notable mis en avant par l’AI Index est que l’industrie joue un rôle moteur dans le développement de l’IA actuelle, surpassant désormais largement le milieu académique sur certains volets. En particulier, environ 90 % des « modèles d’IA notables » lancés en 2024 proviennent d’équipes de l’industrie (entreprises privées), contre 60 % en 2023. Les laboratoires privés (OpenAI, Google DeepMind, Meta, Microsoft, Anthropic, etc.) dominent donc la création des modèles majeurs, qu’il s’agisse de grands modèles de langage, de modèles de vision ou autres systèmes très en vue. L’académie ne représente plus qu’une petite fraction des développeurs de ces modèles de pointe, principalement via quelques initiatives open source ou collaborations. En revanche, dans la production scientifique fondamentale, l’académie conserve un rôle central : les universités restent le premier contributeur d’articles très cités, et forment la majorité des chercheurs publiant des avancées théoriques ou méthodologiques clés. En résumé, l’industrie investit massivement dans la construction de systèmes IA (avec les ressources computationnelles que cela requiert), tandis que la communauté académique continue d’alimenter le progrès conceptuel et algorithmiques de l’IA, ainsi que l’évaluation indépendante de ces techniques. Cette complémentarité s’accompagne d’une augmentation des partenariats public-privé : beaucoup de publications académiques sont co-signées avec des auteurs de l’industrie, et inversement les entreprises s’appuient souvent sur des avancées de la recherche libre.

Conférences et communauté scientifique. Les grands congrès d’intelligence artificielle ont renoué avec une croissance de participation, après le creux dû à la pandémie. Les conférences telles que NeurIPS, ICML, ICLR, CVPR, etc., sont des indicateurs de l’intérêt de la communauté. Après le pic de participation en 2020 lié au passage en virtuel (facilitant un public plus large), une baisse avait eu lieu en 2021-2022 avec le retour au présentiel. Mais depuis 2022, l’assistance progresse à nouveau : de 2023 à 2024, la fréquentation des conférences a augmenté de +21,7 %. En 2024, la conférence NeurIPS (Neural Information Processing Systems) a attiré près de 20 000 participants, en faisant l’événement scientifique IA le plus couru au monde. D’autres conférences majeures (CVPR en vision, ICML en apprentissage automatique, ICRA en robotique, AAAI, etc.) ont également vu leurs audiences croître sur la dernière année. Au-delà des chiffres, cette effervescence reflète une communauté de recherche en plein essor, avec toujours plus de résultats à présenter, de nouvelles conférences qui émergent, et une interdisciplinarité croissante (IA et santé, IA et science des matériaux, etc.). Il est intéressant de noter que de nouvelles conférences spécialisées ont gagné en importance, par exemple sur l’IA responsable ou l’éthique, signe que les thématiques évoluent avec les préoccupations sociétales (voir plus loin). En résumé, la production de connaissance en IA s’accélère, portée par un nombre grandissant de chercheurs, d’institutions et de collaborations internationales.

Responsabilité et risques liés à l’IA

Avec l’intégration de l’IA dans de nombreux secteurs de la société, la question de la responsabilité (Responsible AI, RAI) et des risques associés est devenue centrale en 2024. Le rapport consacre un chapitre entier à l’évolution des efforts pour développer une IA sûre, éthique et digne de confiance. Voici les principaux constats autour des risques et de la gouvernance de l’IA.

Multiplication des incidents liés à l’IA. Les systèmes d’IA, en particulier les plus récents déployés à grande échelle, ont engendré divers incidents ou abus au cours de l’année. D’après la base de données AI Incidents Database, le nombre d’incidents signalés impliquant de l’IA a atteint un record de 233 en 2024, en hausse de +56,4 % par rapport à 2023​. Ces incidents comprennent par exemple la génération de deepfakes malveillants (images intimes truquées), des utilisations de chatbots associées à des préjudices (un cas notable où un chatbot aurait contribué au mal-être menant au suicide d’un adolescent), des accidents impliquant des véhicules autonomes, des décisions algorithmiques erronées causant du tort, etc.​ Bien que cette base ne recense pas nécessairement tous les problèmes (certaines incidents peuvent passer inaperçus ou ne pas être publics), la forte augmentation numérique indique une croissance préoccupante des usages problématiques de l’IA. Cela s’explique par la diffusion plus large de l’IA (plus de chances que des choses tournent mal) et par la puissance accrue des modèles récents qui, mal employés, peuvent causer du tort à plus grande échelle. Ce constat pousse les acteurs à redoubler d’efforts pour surveiller, documenter et prévenir les risques associés à l’IA.

Vers des critères et benchmarks de responsabilité. Un défi identifié est le manque d’outils standardisés pour évaluer la dimension “responsable” des IA. Comme le soulignait déjà le rapport AI Index précédent, il n’existe pas encore de consensus sur des benchmarks de référence pour mesurer l’éthique, la sécurité ou la fiabilité des grands modèles de langage (LLM)​. En 2024, quelques progrès ont été accomplis : de nouveaux benchmarks axés sur la sécurité ont émergé, tels que HELM Safety et AIR-Bench, afin de tester les modèles sur des critères de risque (par exemple leur propension à produire des réponses dangereuses, biaisées ou non-factuelles). Cependant, l’adoption de ces évaluations RAI reste limitée et ne fait pas encore partie du développement standard des modèles. Le rapport note que peu d’organisations évaluent systématiquement leurs systèmes d’IA sous l’angle de la responsabilité avant déploiement, même si la sensibilisation augmente. Les efforts de recherche continuent également pour mesurer la véracité et la factualité des modèles : on a vu la création de leaderboards comme HHEM (Hughes Hallucination Evaluation Model) pour suivre la tendance des hallucinations des LLM, et de benchmarks plus difficiles comme FACTS ou SimpleQA visant à tester la capacité des IA à fournir des informations exactes​. L’ensemble de ces initiatives montre une prise de conscience : l’évaluation de la performance brute ne suffit plus, il faut aussi évaluer la qualité du comportement des IA selon des critères éthiques et de sécurité.

Conscience des risques en entreprise, mais actions encore timides. Du côté des organisations qui déploient de l’IA (entreprises, administrations), les dirigeants reconnaissent de plus en plus les risques potentiels – mais les mesures concrètes de mitigation tardent parfois à suivre. Une étude McKinsey citée dans le rapport révèle que la plupart des entreprises interrogées identifient clairement des risques liés à l’IA tels que l’inexactitude des résultats, la non-conformité réglementaire ou la cybersécurité (chacun de ces points est cité par environ 60-64 % des répondants)​. En revanche, la proportion d’entreprises qui entreprennent des actions formelles pour adresser ces risques reste en deçà. Par exemple, beaucoup expriment des préoccupations sur les biais algorithmiques ou la protection des données, mais n’ont pas encore mis en place de processus robustes d’audit de leurs modèles ou de gouvernance interne de l’IA. L’écart entre la prise de conscience et la mise en œuvre de solutions RAI suggère que la maturité en matière d’IA responsable est encore à développer dans le secteur privé. Néanmoins, on voit apparaître des fonctions dédiées (chief AI ethics officer, comités d’éthique de l’IA, etc.) et des outils internes (filtres de sortie, documentation type model card, etc.), signes que le mouvement est enclenché.

Initiatives politiques et réglementaires. Sur le plan des politiques publiques, 2024 a été riche en avancées sur la gouvernance de l’IA à l’échelle nationale et internationale. Plusieurs grandes organisations supranationales ont publié des cadres de principes pour une IA responsable : l’OCDE, l’Union européenne, les Nations Unies, l’Union Africaine ont proposé ou adopté des guidelines mettant en avant des valeurs clés comme la transparence, l’explicabilité, la sûreté, la non-discrimination, la protection de la vie privée, etc.​ Ces principes servent de référence aux pays pour élaborer leurs propres stratégies. De fait, la coopération internationale s’est intensifiée : en 2024 de nombreux sommets et groupes de travail se sont tenus pour harmoniser les approches (ex : le G7 a continué son dialogue sur l’IA via le processus Hiroshima AI, l’Union Européenne a avancé sur l’AI Act, etc.). Parallèlement, comme mentionné plus haut, les parlements du monde entier discutent de plus en plus souvent de l’IA. Dans 75 grands pays étudiés, les mentions du terme “IA” dans les comptes rendus législatifs ont augmenté de +21,3 % en 2024 par rapport à 2023 (passant de 1 557 à 1 889 mentions), soit une multiplication par neuf depuis 2016. Cela illustre l’importance du sujet dans l’agenda politique contemporain. Aux États-Unis, en plus des lois d’État déjà évoquées, des régulateurs sectoriels (ex: FDA pour la santé, SEC pour la finance) ont émis des lignes directrices spécifiques sur l’usage de l’IA dans leurs domaines respectifs, cherchant à encadrer proactivement ces technologies. La régulation des contenus IA problématiques a aussi progressé : par exemple, 24 États américains ont désormais des lois ciblant les deepfakes (notamment dans le contexte électoral). En somme, l’année 2024 a vu un net renforcement du cadre normatif autour de l’IA, bien que la régulation reste en retard par rapport au rythme de déploiement de la technologie.

Vie privée et données d’entraînement. Un aspect crucial de la responsabilité de l’IA concerne la gestion des données servant à entraîner les modèles, notamment du point de vue de la vie privée et du droit d’auteur. On assiste à un resserrement du « domaine public » des données web disponibles pour l’entraînement des IA. De plus en plus de sites web et plateformes mettent en place des restrictions pour empêcher le scraping (moissonnage) de leurs données par des modèles d’IA. Une étude récente citée par le rapport montre que dans les domaines du web activement maintenus (données les plus pertinentes du Common Crawl), la proportion de contenus filtrés ou interdits à l’usage pour l’entraînement est passée d’environ 5-7 % en 2023 à 20-33 % en 2024. En d’autres termes, jusqu’à un tiers des tokens du web commun sont désormais soumis à restriction, ce qui réduit d’autant la matière première librement exploitable par les chercheurs et développeurs d’IA. Ce phénomène, qu’on peut appeler la fermeture des communs de données, soulève des défis pour l’avenir : il pourrait limiter la diversité des données pour entraîner les prochains modèles, accentuer les biais (si certaines sources deviennent inaccessibles) et exiger de nouvelles approches pour entraîner des IA avec moins de données ou des données synthétiques. Du point de vue légal et éthique, cela reflète aussi une réaction de protection de la part des éditeurs de contenu, soucieux de l’usage de leurs données par des IA sans compensation ni contrôle. Ainsi, la durabilité et la disponibilité des données d’entraînement deviennent des préoccupations conjointes aux enjeux de vie privée, de propriété intellectuelle et de performance technique des modèles.

En résumé, la responsabilité de l’IA s’impose en 2024 comme un domaine à part entière, mobilisant chercheurs (pour des solutions techniques), industriels (pour des pratiques de développement fiables) et décideurs publics (pour un cadre réglementaire adéquat). Les risques – qu’ils soient liés aux biais, à la désinformation, à la sécurité ou à d’autres abus – sont mieux cernés que jamais, et les premières réponses s’organisent, même si beaucoup reste à faire pour aligner le développement de l’IA sur l’intérêt de la société.

Impacts de l’IA sur les sciences, la médecine, l’économie et l’éducation

Les progrès de l’IA en 2024 se sont traduits par des retombées concrètes dans de nombreux domaines. Le rapport passe en revue les impacts observables de l’IA sur la recherche scientifique, la pratique médicale, l’activité économique et l’éducation, en mettant en lumière des avancées majeures ainsi que des défis à relever.

  • Sciences et découvertes : accélération de la recherche. L’IA s’affirme comme un outil catalyseur de découvertes scientifiques. En 2024, on a vu émerger des avancées remarquables grâce à l’IA dans des disciplines variées. Par exemple, de nouveaux modèles de prédiction de structures protéiques ont été lancés (tels qu’ESM3 ou AlphaFold 3), encore plus performants et plus grands que leurs prédécesseurs, améliorant continûment la précision de la prédiction de repliement de protéines. De plus, des initiatives comme Aviary – un cadre pour entraîner des agents LLM sur des tâches scientifiques complexes (manipulation d’ADN, recherche d’informations dans la littérature, ingénierie de protéines) – ont démontré que des modèles de langage bien entraînés peuvent grandement aider les chercheurs dans des tâches spécialisées. En modélisation environnementale, le système FireSat a considérablement amélioré la prédiction des incendies de forêt grâce à l’IA​. Plus globalement, le rapport souligne que l’année 2024 a apporté plus de percées scientifiques assistées par l’IA que les années précédentes, confirmant que nous sommes entrés dans l’ère des découvertes pilotées par l’IA. L’IA permet d’explorer plus rapidement d’énormes espaces de possibilités (molécules, matériaux, simulations physiques) et de trouver des solutions optimales que les approches classiques pourraient manquer. Par exemple, en chimie, des modèles de génération moléculaire proposent de nouveaux composés prometteurs en quelques heures, en climatologie des réseaux de neurones détectent des signaux faibles annonciateurs d’événements extrêmes, etc. Il est toutefois notable que dans bon nombre de cas, l’intelligence artificielle vient en complément de l’expertise humaine. Les meilleurs résultats sont obtenus quand les chercheurs collaborent étroitement avec les modèles d’IA, combinant calcul massif et intuition scientifique. Cette synergie homme-machine est un thème récurrent, suggérant que l’IA augmente la productivité et les capacités humaines plus qu’elle ne les remplace dans le domaine des sciences.

  • Médecine et santé : vers une IA clinicienne ? Le secteur médical a connu des applications spectaculaires de l’IA en 2024. D’abord, l’IA est de plus en plus impliquée dans le diagnostic médical. Une étude marquante a montré que GPT-4 (sans aide) a surpassé des médecins humains dans le diagnostic de cas cliniques complexes : le modèle identifie correctement la pathologie plus souvent que les praticiens seuls. Par ailleurs, d’autres recherches ont confirmé que l’IA peut détecter certains cancers sur des images médicales avec une sensibilité et spécificité supérieures à celles de radiologues, et prédire des risques de complications (par exemple identifier des patients à haut risque de mortalité) mieux que des scores cliniques classiques. Cela ne signifie pas pour autant que les médecins deviennent obsolètes ; au contraire, les premières observations suggèrent que la collaboration médecin + IA donne les meilleurs résultats dans les diagnostics, chacun comblant les lacunes de l’autre. En pratique, on voit apparaître des systèmes d’aide au diagnostic qui apportent aux médecins une seconde opinion algorithmique, ou pré-remplissent des rapports médicaux que le médecin valide. Outre le diagnostic, l’IA améliore l’efficacité des soins : des robots ou agents automatisés assistent désormais le personnel soignant pour la gestion administrative, la surveillance de patients, la planification de traitements, etc. Un autre indicateur de l’impact de l’IA en santé est le flux d’approbations réglementaires : le nombre d’appareils médicaux intégrant de l’IA autorisés par la FDA (agence américaine du médicament) a explosé ces dernières années, passant de seulement 6 dispositifs en 2015 à 223 en 2023. Ces dispositifs couvrent des applications comme l’analyse d’images radiologiques, les systèmes d’aide chirurgicale, le monitoring intelligent, etc. Cette vague d’innovations traduit le fait que l’IA n’est plus cantonnée à la recherche médicale : elle se retrouve dans des outils cliniques concrets utilisés sur des patients. Bien entendu, cette pénétration de l’IA en médecine pose des enjeux de validation, de responsabilité (qui est responsable en cas d’erreur d’une IA diagnostique ?), et d’acceptation par les professionnels de santé. Pour l’instant, les résultats sont encourageants sur la capacité de l’IA à améliorer la qualité et la rapidité des soins, tout en libérant du temps médical (par exemple en automatisant des tâches chronophages comme la rédaction de comptes-rendus). À terme, on peut s’attendre à ce que chaque médecin dispose de “co-pilotes” IA pour l’assister, et que de nouveaux protocoles de soins intégrant l’IA soient développés.

  • Économie et travail : gains de productivité et restructurations. Sur le plan économique, l’IA commence à montrer un impact mesurable, bien qu’encore inégal selon les secteurs. Comme mentionné dans les sections précédentes, les entreprises rapportent des gains de performance grâce à l’automatisation de certaines tâches par l’IA (par ex., génération de rapports, tri de documents, support client automatisé). Certaines études microéconomiques ont quantifié des améliorations de productivité dans des tâches de rédaction ou d’analyse de données allant de +10 à +30 % grâce à l’utilisation d’outils comme les LLM, ce qui est conséquent pour l’économie d’une entreprise. Cependant, au niveau macroéconomique, le recul est encore insuffisant pour observer un effet net de l’IA sur la croissance ou la productivité globale des pays – un phénomène parfois qualifié de « paradoxe de la productivité de l’IA », similaire à celui de l’informatique dans les années 1980. Le marché du travail subit néanmoins des transformations qualitatives. Le rapport note que certains emplois de knowledge workers (travailleurs du savoir) évoluent : l’IA prend en charge la partie routinière ou technique du travail, recentrant l’humain sur des tâches à plus forte valeur ajoutée (créativité, gestion de cas particuliers, relationnel)​. Dans le même temps, l’automatisation par l’IA peut remplacer certaines fonctions : par exemple, on constate une réduction du besoin en codeurs pour des tâches simples de programmation, ou en personnel de support pour des questions courantes, là où un chatbot bien entraîné suffit. Cela alimente des craintes sur l’emploi – beaucoup de travailleurs redoutent que l’IA ne rende leur métier obsolète – même si paradoxalement les enquêtes montrent que la peur d’être personnellement remplacé reste modérée (une majorité pense que l’IA va changer leur façon de travailler, mais une minorité seulement craint de perdre son emploi à cause d’elle). D’un autre côté, de nouveaux emplois liés à l’IA émergent, créant des opportunités : ingénieurs prompt, spécialistes en data, éthiciens de l’IA, formateurs de modèles, etc. Il est encore tôt pour dresser un bilan net des pertes et créations d’emplois, mais l’histoire suggère que comme avec d’autres technologies, l’IA éliminera certains métiers tout en en créant d’autres – la grande question étant si l’équation sera positive pour l’emploi et comment gérer la transition pour les travailleurs impactés. Enfin, l’IA a aussi un impact macroéconomique potentiel via l’accélération de l’innovation. Des secteurs entiers (agriculture, énergie, logistique…) pourraient gagner en efficacité grâce à l’IA, avec des répercussions sur les prix, la productivité, voire la croissance. Les décideurs économiques suivent donc de près les évolutions de l’IA : preuve de cet intérêt, 36 % seulement du public pense que l’IA va améliorer l’économie nationale​, ce qui montre une certaine réserve, mais les économistes, eux, intègrent de plus en plus l’IA dans leurs projections de croissance future. Il faudra encore quelques années pour voir si une « révolution de la productivité » par l’IA se matérialise dans les indicateurs économiques globaux.

  • Éducation et formation : opportunités et vigilance. Le domaine de l’éducation voit également l’empreinte de l’IA se renforcer. D’une part, l’IA offre des outils pédagogiques innovants : tuteurs intelligents, systèmes de feedback automatisé, personnalisation de l’apprentissage, génération de contenus éducatifs adaptés à chaque élève, etc. Ces applications peuvent potentiellement améliorer l’efficacité de l’apprentissage et offrir un soutien individualisé, notamment dans des contextes de classes surchargées ou de formation à distance. Le marché des technologies éducatives basées sur l’IA est d’ailleurs en forte croissance. D’autre part, l’irruption de modèles comme ChatGPT a soulevé des défis pour l’enseignement. Par exemple, des IA capables de rédiger des dissertations ou de résoudre des exercices soulèvent des questions d’intégrité académique (plagiat, triche) et obligent les enseignants à repenser leurs méthodes d’évaluation. En 2024, des incidents ont été rapportés où des outils anti-plagiat basés sur l’IA ont accusé à tort des étudiants (en particulier des étudiants de groupes marginalisés) d’avoir triché, en se basant sur des critères discutables​. Cela a provoqué des débats sur la fiabilité de ces outils et leur biais potentiel. Globalement, le rapport souligne la nécessité d’une approche responsable dans l’adoption de l’IA en milieu éducatif : s’assurer que ces technologies renforcent l’apprentissage au lieu de s’y substituer, et qu’elles ne découragent pas la pensée critique ou la créativité chez les élèves​. Du côté de la formation aux compétences en IA, on observe des efforts importants pour préparer la main-d’œuvre de demain. Aux États-Unis, de plus en plus d’États introduisent des modules d’IA dans les programmes K-12 (école primaire et secondaire). En début 2025, 33 États américains avaient intégré des standards d’apprentissage spécifiques à l’IA dans leurs programmes de sciences informatiques au lycée (généralement de façon sommaire), et 4 États (Colorado, Floride, Ohio, Pennsylvanie) ont adopté des standards d’IA plus complets couvrant tous les niveaux K-12​. Parallèlement, le nombre de formations diplômantes en IA dans le supérieur augmente : en 2023, on comptait au moins 19 universités offrant des licences en IA et 45 offrant des masters spécialisés en IA rien qu’aux États-Unis. Le nombre de diplômés en IA a bondi : plus de 935 masters en IA ont été décernés aux US en 2023 (contre quelques centaines en 2019), et certaines universités ont doublé le nombre de leurs diplômés en IA en un an. Cette montée en puissance de la formation dédiée répond à la demande croissante de spécialistes de l’IA sur le marché du travail. Enfin, sur le plan de la politique publique, de plus en plus de gouvernements produisent des guides et stratégies pour l’utilisation de l’IA en éducation. Le Département de l’Éducation américain a par exemple publié en 2023-2024 plusieurs rapports contenant des recommandations sur l’utilisation sûre et efficace de l’IA à l’école, tant à destination des développeurs de technologies éducatives que des enseignants et décideurs​. Cela montre une volonté d’encadrer le déploiement de l’IA à l’école pour en maximiser les bénéfices (personnalisation, accessibilité) tout en en minimisant les risques (biais, dépendance technologique, protection des données d’élèves). En somme, l’éducation est un domaine où l’IA offre un fort potentiel de transformation positive, à condition d’investir dans la littératie numérique et l’esprit critique des apprenants pour qu’ils deviennent utilisateurs avisés (et non pas passifs) de ces outils.

Dynamiques géopolitiques et écarts régionaux

Le paysage mondial de l’IA est caractérisé par une compétition intense entre quelques pôles majeurs et des écarts significatifs entre régions, même si l’écosystème tend à se mondialiser. Le rapport AI Index 2025 souligne en particulier la rivalité États-Unis – Chine, la place de l’Europe, et les inégalités d’accès et de contribution à l’IA selon les pays.

États-Unis vs Chine : course à deux vitesses. Les USA et la Chine dominent la plupart des métriques liées à l’IA, mais avec des profils différents. Les États-Unis conservent une avance sur les aspects stratégiques comme l’innovation de rupture et les investissements. On l’a vu, l’écrasante majorité des fonds privés va vers les entreprises américaines, et celles-ci produisent l’éventail le plus large de modèles d’IA de pointe (en 2024, 40 des modèles IA notables provenaient d’institutions américaines, contre 15 d’institutions chinoises)​. De plus, les États-Unis bénéficient d’un réseau d’universités et de laboratoires publics de premier plan, attirant les talents du monde entier, ce qui leur permet de conserver la main sur la recherche fondamentale influente. La Chine, de son côté, excelle par l’ampleur de son effort : elle forme le plus grand nombre de doctorants en IA, publie le plus d’articles, dépose le plus de brevets, et intègre rapidement l’IA dans son tissu industriel. En 2024, l’écart de performance qui existait encore récemment entre les modèles chinois et américains tend à se réduire. Sur plusieurs benchmarks majeurs (MMLU pour la connaissance générale, HumanEval pour la programmation), les meilleurs modèles chinois ont atteint quasiment la parité avec les meilleurs modèles américains, alors qu’en 2023 leurs scores étaient inférieurs de plusieurs points (écart à deux chiffres)​. Cela montre que la qualité des modèles chinois s’est améliorée très vite, comblant un retard en partie. Néanmoins, cet effort qualitatif chinois s’est souvent accompagné d’une consommation de ressources massive. Fait notable, les 10 plus grands modèles de langue chinois ont vu leur budget de calcul d’entraînement (compute) croître « seulement » de 3 fois par an depuis 2021, quand les modèles du reste du monde croissaient à un rythme de 5 fois par an depuis 2018​. Cela suggère que la Chine n’a pas encore atteint le niveau d’hyper-scaling des géants américains (comme GPT-4) en termes de calcul utilisé – peut-être par choix stratégique ou contrainte d’accès aux puces de haute performance. Quoi qu’il en soit, la Chine continue de déployer une stratégie très coordonnée : investissements étatiques, développement d’un écosystème local (les modèles comme ERNIE 3.0 Titan ou DeepSeek sont cités), et protection de son marché intérieur. Les États-Unis, eux, misent sur l’ouverture et l’attraction des meilleurs éléments, tout en maintenant un contrôle sur les technologies critiques (d’où les restrictions d’export de semi-conducteurs vers la Chine, etc.). Dans cette « course à l’IA », le rapport note que la Chine excelle dans la quantité et commence à exceller dans la qualité, tandis que les États-Unis maintiennent une avance globale grâce à leur capacité d’innovation et de financement hors pair.

En 2025, de nombreux nouveaux modèles chinois sont sortis avec d’excellentes performances : Deepseek, Baidu, Tencent, Alibabab, …

Position de l’Europe et du reste du monde. L’Europe (UE + Royaume-Uni) occupe une position intermédiaire : elle dispose de bonnes universités et entreprises en IA, contribue significativement en recherche (plus de 25 % des publications mondiales d’IA proviennent d’Europe si on cumule les pays), et a quelques champions industriels (DeepMind au UK, SAP en Allemagne, etc.). Cependant, elle accuse un retard en termes d’investissement privé (une fraction de celui des US), de taille des entreprises (peu de géants équivalents aux GAFAM ou BATX chinois) et de coordination unifiée (chaque pays européen a sa stratégie IA, l’UE tente d’harmoniser via des programmes conjoints). L’Europe se distingue en revanche par son leadership réglementaire : le projet de règlement IA Act de l’UE est une initiative marquante pour établir un cadre exigeant (interdiction de certaines pratiques d’IA, obligations de transparence et d’évaluation, etc.), susceptible d’influencer le reste du monde. On peut dire que l’Europe cherche à devenir un « super-régulateur » plus qu’un super-innovateur, même si les deux ne sont pas exclusifs. En termes de production de modèles, l’Europe est loin derrière : en 2024, seulement 3 modèles notoires étaient issus d’équipes européennes​. Néanmoins, l’Europe collabore beaucoup internationalement et pourrait miser sur des créneaux spécifiques (par exemple l’IA de confiance, l’IA verte économe en énergie, etc.) pour se distinguer.

Au-delà, d’autres régions avancent également. Des pays comme le Canada et Israël sont reconnus pour leur écosystème d’IA dynamique et leurs chercheurs de haut niveau (Toronto, Montréal, Tel-Aviv sont de vrais hubs). Le Japon et la Corée du Sud investissent pour revenir sur le devant de la scène IA (notamment en robotique et électronique pour le Japon, en semi-conducteurs pour la Corée). Des économies en développement comme l’Inde se positionnent aussi : l’Inde forme énormément d’ingénieurs et pourrait devenir un acteur majeur en fournissant des talents et en développant des solutions frugales adaptées à son marché. Cependant, le fossé reste large avec les leaders : aucun pays n’égale encore le duo USA-Chine en termes de ressources mobilisées.

Écart Nord-Sud et accès à l’IA. L’AI Index souligne également le risque d’accroissement des inégalités technologiques entre régions. Les pays à revenu faible ou intermédiaire contribuent très peu à la recherche en IA (moins de 5 % des publications viennent d’Afrique par exemple, et souvent avec participation d’auteurs occidentaux). Ils ont aussi un accès limité aux infrastructures (supercalculateurs, cloud) nécessaires pour entraîner ou déployer des grands modèles. Cette fracture numérique pourrait se traduire par une moindre adoption de l’IA dans ces pays, ou une dépendance aux solutions importées, avec des conséquences économiques et culturelles (pertinence locale des solutions, etc.). Conscients de cela, des efforts existent pour démocratiser l’IA : initiatives de transfert de technologie, programmes de formation en ligne (beaucoup de cours d’IA sont disponibles gratuitement), ou projets open source accessibles à tous. Néanmoins, l’écart de capacité demeure préoccupant. Par exemple, aucun pays d’Afrique ou d’Amérique latine n’apparaît parmi les principaux contributeurs en publications, brevets ou modèles, selon les indicateurs du rapport.

Coopération et compétition. Enfin, il est intéressant de noter que la géopolitique de l’IA n’est pas un jeu à somme nulle : il y a de la coopération internationale en parallèle de la compétition. Par exemple, de nombreuses équipes de recherche sont transnationales, les conférences réunissent le monde entier, et même les entreprises collaborent (partages de modèles open source, etc.). Des alliances se créent : le partenariat global sur l’IA (GPAI) regroupe des gouvernements voulant échanger sur les bonnes pratiques. Néanmoins, les tensions existent : l’IA est liée à la défense (armes autonomes, cybersécurité) et peut devenir un élément de puissance. Les décisions unilatérales comme les contrôles d’export montrent que chaque bloc veut assurer son autonomie technologique. L’issue de cette compétition géopolitique de l’IA aura des implications profondes sur l’équilibre mondial du pouvoir économique et militaire dans les décennies à venir. L’année 2024 confirme en tout cas que l’IA est au cœur de la rivalité stratégique entre grandes puissances, tout en étant un domaine où tous les acteurs ont intérêt à fixer ensemble des règles du jeu pour éviter les dérives dangereuses.

Évolution des infrastructures matérielles et des coûts de l’IA (entraîner vs inférer)

Le développement de l’IA moderne repose sur des infrastructures matérielles massives – centres de données, puces spécialisées, etc. – et s’accompagne de coûts importants, en particulier pour l’entraînement des modèles. Le rapport détaille comment ces aspects ont évolué, avec d’une part une explosion de la demande en calcul pour l’IA, et d’autre part des efforts pour améliorer l’efficacité et réduire les coûts, notamment à l’inférence.

Course à la puissance de calcul. Entraîner les meilleurs modèles d’IA mobilise une puissance de calcul exponentielle. Les plus grands modèles récents, comme GPT-4 (OpenAI) ou le futur Gemini de Google, nécessitent des calculs de l’ordre de 10^25 à 10^26 opérations pour leur entraînement, soit des millions d’heures-GPU. Le suivi effectué par l’AI Index montre que le compute utilisé dans les travaux académiques ou industriels phare double tous les ~6 mois entre 2016 et 2022. Toutefois, en 2023-2024, cette tendance s’est un peu infléchie, possiblement en raison des pénuries de matériel et de la recherche d’alternatives plus efficientes. L’analyse comparative entre les US et la Chine (voir section géopolitique) indique par exemple que la progression du compute des modèles chinois est plus lente que celle observée globalement, ce qui pourrait refléter des contraintes d’accès aux GPU de pointe du fait des sanctions, ou un choix de se focaliser sur l’optimisation plutôt que la taille brute​. Quoi qu’il en soit, les centres de calcul dédiés à l’IA se multiplient : des entreprises comme Microsoft, Google ou Amazon investissent des milliards pour construire des data centers remplis de GPU (Nvidia A100, H100) ou de puces IA spécialisées (TPU de Google, AWS Inferentia, etc.). De même, de nouveaux acteurs comme Cerebras, Graphcore proposent des architectures de puces innovantes pour l’IA. Cette course au hardware vise à fournir l’infrastructure nécessaire à l’entraînement des prochains modèles toujours plus gourmands, mais pose aussi la question de la durabilité (voir plus bas l’aspect énergétique).

Coûts d’entraînement vs d’inférence. Comme évoqué plus haut, le coût d’entraînement des plus grands modèles a atteint des sommets – typiquement des dizaines de millions de dollars en calcul pur pour un modèle comme GPT-4 – ce qui limite ces entreprises à quelques acteurs fortunés. En revanche, le coût d’inférence par requête a drastiquement diminué grâce aux optimisations logicielles et matérielles. Outre la baisse du coût par token (280× moins cher qu’en 2022 pour un niveau de performance GPT-3.5​), on peut citer l’essor de techniques comme la quantification (réduire la précision des poids du réseau, ex. 8 bits au lieu de 16/32) ou le distillation de modèle (entraîner un modèle plus petit à imiter un grand modèle) qui permettent de déployer des modèles plus légers et moins coûteux en calcul. En 2024, il est devenu envisageable pour une entreprise d’héberger un modèle de langage performant de quelques milliards de paramètres sur ses propres serveurs, là où il y a quelques années les modèles d’État de l’art nécessitaient l’infrastructure d’un géant du cloud. Le rapport mentionne plusieurs modèles « thin » (minces) capables de tourner sur du matériel modeste tout en offrant des performances honorables​. Cette démocratisation de l’inférence est cruciale pour l’adoption large de l’IA : elle permet à des applications variées (y compris mobiles, embarquées) d’inclure de l’IA sans dépendre d’un serveur distant onéreux. Par exemple, StableLM 2 de Stability AI sorti début 2024 comporte seulement 1,6 milliard de paramètres et est conçu pour fonctionner efficacement sur un ordinateur portable ou un smartphone tout en ayant de bonnes capacités de langage.

Infrastructure cloud et services. On voit également une structuration de l’offre en services cloud d’IA. Les grands fournisseurs cloud proposent des API pour utiliser des modèles entraînés (Azure OpenAI Service, Google Cloud Vertex AI, Amazon Bedrock, etc.), facturant à l’usage. La baisse des coûts d’inférence se répercute en partie dans les tarifs : ainsi OpenAI a plusieurs fois réduit le prix d’utilisation de ses modèles GPT-3.5 et GPT-4 en 2023-2024. Cette baisse de prix favorise l’intégration de l’IA dans des services grand public (assistants personnels, chatbots de service client, etc.) car le coût par requête devient négligeable à grande échelle. Cependant, les coûts d’entraînement restent un goulot : entraîner un modèle rival de GPT-4 est hors de portée pour la plupart des acteurs, ce qui pose la question d’une possible centralisation du pouvoir entre quelques mains disposant de la puissance de calcul nécessaire. Pour atténuer cela, des efforts open source se multiplient (le mouvement des modèles LLaMA de Meta relâchés à la communauté a engendré une effervescence de fine-tuning open source par des chercheurs indépendants). Par ailleurs, certaines initiatives visent à mutualiser les ressources (projets collaboratifs, supercalculateurs nationaux accessibles aux universitaires, etc.) pour que la recherche publique puisse continuer à entraîner des modèles compétitifs.

Efficacité énergétique et impacts environnementaux. L’infrastructure IA soulève aussi le sujet de la consommation d’énergie et de l’empreinte carbone. En 2024, la conscience écologique autour de l’IA s’est renforcée : on cherche à mesurer précisément l’impact environnemental de l’entraînement des grands modèles. Le rapport présente une analyse d’estimation des émissions carbone de différents modèles en fonction de leur taille (paramètres)​. Sans surprise, les modèles les plus grands comme GPT-3, GPT-4 ou Llama 3.1 405B sont associés à des émissions de CO₂ très élevées, de l’ordre de centaines ou milliers de tonnes de CO₂, tandis que les modèles plus petits ont une empreinte bien moindre. La communauté IA commence à intégrer ces considérations : on encourage la transparence (plus de chercheurs publient le détail du compute utilisé et l’empreinte estimée, notamment via des outils comme MLCO2), et on voit apparaître des travaux sur l’optimisation énergétique (algorithmes plus efficaces, usage d’énergie renouvelable dans les data centers d’IA, etc.). Certains laboratoires se fixent des budgets carbone à ne pas dépasser. Néanmoins, au vu de la tendance à des modèles toujours plus gourmands, la question reste : jusqu’où pourra-t-on escalader sans mesures compensatoires fortes ? Une lueur d’espoir réside dans l’amélioration de l’efficacité du matériel : les nouvelles générations de GPU ou de TPU offrent plus de performance par watt, et de nouvelles architectures (neuromorphiques, photoniques…) sont explorées pour éventuellement révolutionner la donne en réduisant drastiquement le coût énergétique de l’apprentissage automatique.

En résumé, l’infrastructure IA en 2024 est marquée par une dualité : d’un côté une poursuite de la course au gigantisme (plus de calcul, plus de données, plus de paramètres) qui entraîne des coûts faramineux et concentre le pouvoir technologique, de l’autre une volonté d’optimisation (modèles plus petits, mutualisation, baisse des coûts d’inférence, efficacité énergétique) qui vise à rendre l’IA accessible et durable. L’équilibre entre ces deux dynamiques sera déterminant pour l’avenir du domaine : la capacité à continuer d’innover sans creuser la fracture économique et environnementale.

Perspectives sur la durabilité des données d’entraînement

Une question critique soulevée dans le rapport AI Index 2025 est celle de la durabilité à long terme du stock de données utilisables pour entraîner les modèles d’IA. Depuis une décennie, l’amélioration des systèmes d’IA a été largement stimulée par l’accès à toujours plus de données issues d’Internet. Or, plusieurs signes indiquent que cette ressource n’est pas inépuisable, soulevant le spectre d’un « mur de données » qui pourrait freiner le progrès des modèles.

Le rapport consacre un encadré spécial intitulé « Les modèles vont-ils manquer de données ? » à cette problématique. Il rappelle que l’approche par le scaling (augmenter la taille des modèles et la quantité de données d’entraînement) a été un moteur essentiel des avancées de ces dernières années. Cependant, si la quantité de textes et d’images disponibles librement atteint un plafond, les retours sur l’augmentation de l’échelle vont nécessairement diminuer, ce qui poserait un problème pour continuer à améliorer les IA par la même méthode. Déjà, beaucoup de jeux de données Web couramment utilisés (comme Common Crawl ou C4) ont exploité une large fraction du contenu disponible sur le web public. Une question clé est : combien de données utilisables reste-t-il à exploiter ?

D’après les analyses révisées en 2024 par l’organisation Epoch AI, le volume total de données textuelles exploitables est plus important qu’on ne le pensait initialement, ce qui est plutôt rassurant à court terme. Les estimations fournies indiquent :

  • Le référentiel Common Crawl (données web brutes très utilisées) contiendrait en médiane environ 130 000 milliards de tokens (mots ou unités de texte) disponibles.

  • Le web indexé dans son ensemble représenterait environ 510 000 milliards de tokens.

  • Le web total (y compris contenu non indexé, forums, pages peu connues, etc.) pourrait receler jusqu’à 3 100 000 milliards de tokens.

  • En outre, si l’on considère d’autres modalités, le stock total d’images disponibles est estimé à environ 300 000 milliards d’images converties en tokens (par description, etc.), et celui de vidéos environ 1 350 000 milliards de tokens.

Ces chiffres très élevés suggèrent qu’il reste encore de la marge avant d’épuiser complètement les données humaines pour l’entraînement des modèles de langage ou multimodaux. Toutefois, cette masse doit être nuancée : toute donnée n’est pas de qualité égale ni d’utilité équivalente pour entraîner un modèle. Les modèles actuels ont déjà digéré une grande partie des données textuelles de qualité (articles encyclopédiques, littéraires, code source public, etc.). Le reste des données contient plus de bruit, de la redondance, ou des informations peu pertinentes. Ainsi, le rendement marginal risque de décroître : ajouter 100 milliards de tokens de plus issus du fond du web pourrait apporter moins d’amélioration de performance que les 100 milliards précédents extraits de Wikipedia ou d’articles scientifiques.

Par ailleurs, comme mentionné en section RAI, la fraction de données librement utilisables se réduit du fait des restrictions (protocoles anti-scraping, contenus sous copyright renforcés). Donc la question n’est pas seulement combien de tokens existent, mais combien sont effectivement exploitables légalement et éthiquement. Si le web entier faisait barrage aux moissonneurs de données, la réserve fonctionnelle pour entraîner les IA serait plus proche des 130 T tokens de Common Crawl (et même moins, vu la hausse des restrictions) que des 3 100 T estimés dans l’idéal.

Malgré ces défis, le rapport souligne que les craintes d’une pénurie imminente de données se sont un peu atténuées en 2024. Les estimations d’Epoch AI laissent penser qu’il reste encore quelques années de marge avant d’atteindre un plateau où l’ajout de données n’améliore plus significativement les modèles. De plus, des pistes existent pour prolonger la durabilité des données :

  • Exploiter de nouvelles sources : par exemple, numériser et utiliser des données qui ne le sont pas encore (livres anciens, documents physiques), ou encourager le partage de données dans des domaines jusqu’ici peu accessibles (données gouvernementales, données scientifiques derrière des barrières de péage, etc.).

  • Générer des données synthétiques : entraîner des modèles sur des données produites par d’autres modèles. Cela est déjà utilisé (par ex., faire résoudre des exercices par un modèle pour en entraîner un autre). Si bien fait, le data augmentation synthétique pourrait compenser partiellement le manque de nouvelles données humaines, même s’il y a un risque de boucle où les modèles recyclent leur propre savoir sans rien apprendre de nouveau.

  • Améliorer l’efficacité data : développer des algorithmes qui apprennent mieux avec moins de données. Des recherches en few-shot learning, transfer learning, etc., visent à réduire la dépendance aux masses énormes de data. Si l’on arrivait à des modèles capables d’apprendre comme un humain (quelques exemples suffisent pour généraliser), le problème d’échelle des données serait largement atténué.

Un autre facteur évoqué est la notion d’“overtraining” : sur-entraîner un modèle au-delà du point optimal pour gagner un peu en performance d’inférence peut consommer énormément de données supplémentaires pour un gain minime​. Si les chercheurs adoptent des stratégies évitant l’overtraining inutile, ils économiseront du stock de données.

En conclusion, la durabilité des données d’entraînement est un enjeu crucial mis en avant par l’AI Index : à long terme, le succès du modèle d’IA actuel (fondé sur l’apprentissage statistique à grande échelle) dépend de la disponibilité continue de données fraîches et diversifiées. Les récentes analyses donnent un message modérément optimiste quant à la quantité de données restante, mais appellent à ne pas dilapider ce précieux gisement. Le rapport insiste sur la nécessité de nouvelles recherches pour anticiper et pallier la fin de l’abondance des données faciles, afin que la progression de l’IA ne bute pas sur une contrainte de ressource informationnelle à l’avenir. Ce sujet lie technique, économie et politique : la façon dont on gèrera les “communs numériques” (ouverture vs fermeture), dont on partagera ou protégera les données, et dont on innovera pour apprendre avec moins, déterminera en partie jusqu’où l’IA pourra se développer de manière soutenable.

En somme, le rapport AI Index 2025 dresse le portrait d’un domaine de l’intelligence artificielle en pleine effervescence, où les progrès techniques rapides s’accompagnent d’une diffusion accélérée dans l’économie et la société, mais aussi de nouveaux défis en matière de régulation, d’éthique, de géopolitique et de soutenabilité. Les chiffres clés montrent des tendances lourdes : performances des modèles en hausse, adoption généralisée par les entreprises, investissements records, production scientifique en croissance, mais également multiplication des incidents et préoccupations sociétales. L’IA s’affirme comme une technologie transformatrice dont l’influence, en 2024, n’a jamais été aussi prononcée – « AI’s influence on society has never been more pronounced », comme le rappelle l’introduction du rapport​. Les années à venir seront déterminantes pour orienter cette transformation de manière bénéfique et équitable, en capitalisant sur les progrès tout en maîtrisant les risques. Le rapport du Stanford HAI, par la richesse de ses données et analyses, contribue à éclairer ces enjeux afin d’aider décideurs, chercheurs et grand public à comprendre et façonner le futur de l’intelligence artificielle.


Bonnes métamorphoses et à la semaine prochaine.

Stéphane

Métamorphoses

Par Stéphane Amarsy

Stéphane est un entrepreneur visionnaire et un pionnier dans l'intersection de l'intelligence artificielle et de la transformation organisationnelle / sociétale. Fondateur de The Next Mind, il est guidé par une philosophie simple, mais percutante : "Mieux vaut s'occuper du changement avant qu'il ne s'occupe de vous !"

Sa trajectoire professionnelle, marquée par la création d'Inbox, devenue plus tard D-AIM en changeant complétement de business model, des levées de fonds, la fusion avec Splio, et l'élaboration du concept disruptif d'Individuation Marketing, sert de fondation solide à sa nouvelle entreprise. The Next Mind est le fruit de décennies d'expérience dans l'accompagnement de plus de 400 entreprises à travers plus de 30 pays dans leur transformation digitale / data / IA et organisationnelle.

Auteur du livre ​​"Mon Directeur Marketing sera un algorithme"​​, qui est une description de la société qu'il a projetée en 2017, auteurs de nombreuses tribunes, conférencier et intervenant dans plusieurs universités et écoles, il ne se contente pas de prêcher la transformation, il l'incarne. Chaque expérience proposée par Stéphane est inspirée entre autres par son vécu d'entrepreneur. Il pousse à affronter les réalités d'un monde en perpétuels changements. Stéphane est convaincu que la prise de conscience n'est que la première étape ; ce qui compte vraiment, c'est la capacité à agir et à s'adapter.

Les derniers articles publiés