#108 Il vaut mieux s'occuper du changement avant qu'il s'occupe de vous !

Superintelligence : l’ivresse des apprentis sorciers / Entraineuses et entraineurs d’IA / Données synthétiques : ce que nous gagnons, ce que nous risquons / Les navigateurs internet sont morts, vive les navigateurs IA ! mais …

Métamorphoses
15 min ⋅ 28/10/2025

Bonjour à toutes et tous,

Dans cette newsletter, vous trouverez les articles suivants :

  • Superintelligence : l’ivresse des apprentis sorciers

  • Entraineuses et entraineurs d’IA

  • Données synthétiques : ce que nous gagnons, ce que nous risquons

  • Les navigateurs internet sont morts, vive les navigateurs IA ! mais …

Bonne lecture.

Stéphane


Super intelligence : l’ivresse des apprentis sorciers

Discussion audio sur la base de cet article réalisée avec NotebookLM

Nous avons franchi une ligne sans la voir. Les pionniers de l’IA ne parlent plus seulement d’assistants numériques ou d’automatisation. Ils posent désormais la question factuelle d’une intelligence qui nous dépasserait. Et la salle applaudit. Mauvais réflexe. Mercredi 22 octobre 2025, une coalition disparate a demandé l’arrêt des travaux vers la super intelligence artificielle. Des chercheurs reconnus, des responsables politiques, des artistes, des croyants, même des ex-stratèges du pouvoir américain et des figures médiatiques que tout oppose, réunies par un même froid dans le dos. L’initiative émane du Future of Life Institute et réclame un moratoire sur la super intelligence tant qu’aucun consensus scientifique n’atteste de la maîtrise de non échappement et tant que le public n’adhère pas (pour ce point, ce n’est qu’une question de temps malheureusement).

Geoffrey Hinton est un des leaders de cette initiative. Pour mémoire, Il reçoit avec Yoshua Bengio (très inquiet sur le futur aussi) et Yann Le Cun (qui ne voit aucun danger) le prix Turing 2018 pour ses travaux sur l'apprentissage profond. En mai 2023, Geoffrey Hinton démissionne de Google afin de pouvoir « s'exprimer librement sur les risques de l'IA ». Il a alors exprimé des préoccupations concernant l'utilisation délibérée de l'IA par des acteurs malveillants, le chômage technologique et les risques existentiels liés à l'intelligence artificielle générale. En 2024, après avoir co-reçu le prix Nobel il appelle à des recherches urgentes en sécurité de l'IA afin de déterminer comment contrôler des systèmes plus intelligents que les humains. Sa signature compte quand même, avec d’autres, dans l’alerte récurrente sur le risque existentiel. En 2023 déjà, un texte sobre du Center for AI Safety mettait l’extinction humaine au même rang que la bombe et les pandémies. C’était court. C’était clair. Et nous avons continué tête baissée. Pourquoi ce retour du mot interdiction ? Parce que la vitesse a changé de nature. Sam Altman, invité fin septembre à Berlin, ne parle plus de décennies brumeuses. Il projette la super intelligence d’ici 2030. L’hypothèse sort du laboratoire pour entrer dans le calendrier. Quand ceux qui tiennent le volant promettent d’appuyer encore, on compte les virages restants et plus les promesses.

Je réfute la fable du progrès neutre. Les transformations actuelles naissent d’entreprises cotées qui poursuivent une équation simple : capter l’attention, consolider la position, satisfaire les marchés. Le bien commun passe après. La course à l’infrastructure l’illustre sans fard. L’Agence internationale de l’énergie annonce un choc électrique. L’IA tire la demande des data centers vers des niveaux qui bousculent réseaux, mix énergétique, territoires. Et ce n’est qu’un début. On nous vend des gains d’efficacité. On oublie l’effet rebond et la géographie des nuisances. Les chiffres ne respirent pas. Les vivant, si.

Objection classique ? L’Europe a une loi, la Californie aussi. L’AI Act existe et c’est un progrès. Entre autres, il classe les risques, interdit des usages indignes et impose de la transparence. Très bien pour l’IA qui ressemble à nos systèmes actuels. Nettement insuffisant pour une dynamique qui prétend dépasser l’humain. Réguler une trottinette n’apprend pas à freiner une fusée. Dramaturgie ? Non, responsabilité. Les dirigeants de la tech s’autoproclament bienfaiteurs quand leurs modèles économiques imposent un rythme qui déstabilise l’école, la recherche, les médias, l’énergie, la démocratie, le vivant, ... Ils testent en grandeur nature, corrigent à la volée, s’excusent quand ça casse. Ils avancent comme des apprentis sorciers qui cherchent la formule dans la potion, au lieu de la chercher dans la délibération. Nous n’avons pas signé pour servir de cobayes et pourtant nous l’acceptons docilement.

Que faire alors ? D’abord entériner l’idée la plus simple et la plus impopulaire du moment : un moratoire ciblé sur la super intelligence. Il met fin à la fuite en avant. Il nous rend du temps pour penser les protocoles, inventer les contre-pouvoirs, outiller la société civile, ... Les scientifiques qui réclament cette pause n’appellent pas à brûler la bibliothèque. Ils demandent que l’on installe des portes et des gardiens. La nuance importe.

Ensuite, déplacer l’ambition. L’IA utile existe déjà. Diagnostics médicaux, réduction du gaspillage, maintenance prédictive des réseaux, outils pour les personnes en situation de handicap, ... Cette IA-là mérite des investissements massifs et des garde-fous sérieux. La super intelligence n’ajoute rien de moralement souhaitable à ces objectifs. Elle ajoute un risque de perte de contrôle. Cette addition est mauvaise.

Enfin et surtout, remettre l’humain au gouvernail. Pas sous forme d’un comité décoratif. Sous forme d’une gouvernance qui lie la recherche, l’énergie, la souveraineté numérique, l’école, le droit du travail, la santé mentale, ... Un pacte qui protège les communs de la connaissance au lieu de les privatiser. Un pacte qui conditionne l’accès aux marchés à des preuves d’alignement et à des audits indépendants. Un pacte qui finance l’open source et la science ouverte pour briser l’oligopole des compute-barons.

Un exemple simple ? Un hôpital de province veut des modèles d’aide au diagnostic. Aujourd’hui, il dépend de clouds lointains, d’APIs opaques, de prix variables. Demain, il doit pouvoir faire tourner des modèles vérifiables, économes, entraînés sur des données locales validées par les soignants, contrôlés par une autorité sanitaire. Pas de boîte noire au chevet d’un enfant.

Le progrès partagé n’est pas un tapis roulant. C’est une marche en montagne. Par moments, on s’encorde. Parfois, on rebrousse chemin. Les apprentis sorciers confondent vitesse et horizon. Ils cassent pour apprendre. Nous, nous apprenons pour ne pas casser. La différence est là.

Agissons !


Entraineuses et entraineurs d’IA

Discussion audio sur la base de cet article réalisée avec NotebookLM

Il y a un malentendu entêté autour de l’« entraînement » des IA. On imagine des algorithmes qui s’éduquent entre eux grâce à une chorégraphie de neurones où l’humain n’apparaît qu’en spectateur. C’est faux. Derrière chaque prouesse se tient une armée d’entraîneurs et entraîneuses qui sont le socle d’une pyramide de valeur. En haut, les chercheurs stars, rémunérés à coups de packages à six, parfois sept chiffres. En bas, des foules de travailleurs précaires qui trient, corrigent, étiquettent, absorbent le choc toxique des contenus pour quelques dollars de l’heure. Le futur n’a jamais été aussi sophistiqué. La chaîne de valeur, elle, reste terriblement classique.

Commençons par le métier. L’entraîneur d’IA est un médiateur. Il transforme le monde en données utilisables. Il nettoie, annote, labellise des textes, des images, des voix, des capteurs, ... Il fabrique des jeux d’exemples, met le modèle au défi, pointe ses erreurs et recommence. Il ne cherche pas la perfection, il cherche la cohérence. Une IA ne “comprend” rien : elle ajuste. L’entraîneur cadre cet ajustement, tranche les ambiguïtés, détecte les biais et renvoie l’algorithme à ses angles morts. Dans l’alignement, il s’allie aux experts éthiques, il monte des scénarios de “red teaming” (Le red teaming IA est un processus de test structuré et contradictoire conçu pour détecter les vulnérabilités des systèmes d'IA avant les attaquants. Il simule des menaces réelles pour identifier les failles des modèles, des données d'entraînement ou des résultats. Cela permet aux organisations de renforcer la sécurité de l'IA, de réduire les risques et d'améliorer la résilience des systèmes.), il documente pour que la machine demeure responsable et auditable. Sa compétence rare : savoir quand une réponse “sonne juste” et quand elle met en danger. Son outil préféré : l’exemple bien choisi qui remet tout le système sur des rails.

À quoi cela sert ? À tout. Aux assistants de conversation qui déraillent sans consignes fines. Aux véhicules qui confondent un sac plastique et un cycliste. Aux systèmes de reconnaissance vocale qui trébuchent sur un accent. On entraîne des LLM, des modèles de vision, des robots, des classifieurs antifraude, ... On apprend à des IA médicales la nuance entre un grain de beauté et un mélanome. On apprend à des IA financières le parfum d’une fraude dans un flot de transactions. Le travail est patient. Le résultat est net : chaque point de donnée bien jugé élève le modèle d’un cran et parfois d’un bond.

Le cœur du débat se situe ailleurs : qui réalise ce travail, à quel prix et avec quelles protections ? La pyramide de valeur ne se cache même plus. Les rémunérations au sommet claquent comme des titres de presse : des données publiques et agrégées montrent une médiane de rémunération totale autour de 500 000 $ chez OpenAI, avec des sommets qui tutoient ou dépassent le million selon l’ancienneté et l’equity. Anthropic se hisse dans les mêmes eaux et la Silicon Valley normalise des packages mirobolants pour les profils capables de former les modèles les plus puissants. Au pied de la pyramide, le tableau change de couleur. Des enquêtes établies ont documenté des chaînes d’externalisation en Afrique de l’Est et aux Philippines, avec des rémunérations proches de 2 $ de l’heure pour trier des contenus violents, sexualisés ou traumatisants. Au Kenya, des travailleurs sous-traitants recrutés par un prestataire ont été payés à ces niveaux pour dépolluer de grands modèles de langage. Des reportages récents confirment l’écart choquant entre la valeur créée et la paie versée et décrivent l’impact psychique durable de cette exposition. Aux Philippines, la massification de micro-tâches sur des plateformes a nourri une course vers le bas : délais de paiement, faibles recours et modération émotionnelle à la charge du travailleur. L’IA brille mais le labeur demeure fantôme. Rien de tout cela n’a surpris les chercheurs qui, dès 2019, parlaient de « ghost work » : un travail humain invisible, fragmenté et indispensable qui fait tenir la promesse du numérique. La littérature l’a raconté avant la vague générative et le constat s’applique encore : les systèmes dits « intelligents » s’appuient sur un capital humain disséminé, rarement protégé et quasi jamais reconnu.

Faut-il s’y résigner ? Non. Une première réponse arrive par le droit. L’AI Act européen a été adopté et le calendrier d’application s’étale maintenant sur plusieurs années et la Californie suit. Les obligations spécifiques pour les modèles généralistes et les systèmes à haut risque arrivent par paliers avec un durcissement graduel des exigences de transparence, de gestion des risques et de gouvernance des données. Bruxelles a confirmé l’intention de tenir ce cap malgré la pression des acteurs économiques dont les géants américains. Ce n’est certes pas une panacée mais cela reste un levier pour rendre visibles les coulisses. Ensuite, il y a la pratique. L’entraîneur d’IA n’est pas condamné au rôle de fordiste du clic. Les outils évoluent. La pré-annotation automatique accélère, l’apprentissage actif économise des heures, la donnée synthétique soulage des jeux trop sensibles ; l’humain se déplace vers la supervision des cas limites, la définition des standards de qualité, la gouvernance des pipelines. Des centres de recherche ont décrit l’éthique concrète de ce travail : transparence sur les tâches, soutien psychologique, protocoles de protection face aux contenus dangereux. Sans garde-fous, l’industrie brûle ses propres ressources humaines. Avec eux, elle gagne en précision et en confiance. Reste l’économie. Le marché de l’annotation grossit à un rythme d’hypercroissance. Les estimations 2024–2031 oscillent entre le haut de la fourchette et l’apesanteur mais toutes racontent la même trajectoire : plus d’applications, plus de données, plus d’annotation. Même si le chiffre varie selon les cabinets, la pente reste raide. Tant que les modèles auront besoin d’exemples bien jugés, la demande se maintiendra. Tant que le calcul ne saura pas décider du sens, l’humain restera le gardien du contexte.

Alors, comment l’utilise-t-on bien, ce métier ? Par la conception, d’abord : on définit des ontologies claires, des consignes non ambivalentes, des boucles courtes entre entraîneurs, ingénieurs et experts du domaine. Par la qualité, ensuite : on mesure l’accord inter-annotateurs, on audite les dérives et on ferme les robinets toxiques avant qu’ils ne cassent des vies. Par l’éthique, surtout : on paie correctement, on contractualise la santé mentale et on donne des voies de progression. Un entraîneur d’IA doit pouvoir devenir lead qualité, puis owner d’un corpus, puis chef de produit IA. Le travail qui nourrit l’intelligence d’un modèle doit nourrir une carrière et non pas juste user un corps et un esprit.

La pyramide mérite une redistribution. Les salaires stratosphériques des chercheurs ne sont pas le problème en soi car ils signalent la rareté d’une compétence. Le problème, c’est l’écart abyssal avec les bases qui rendent ces compétences efficaces. Puisque l’entraînement fait la performance, la base doit capturer une part décente de la valeur créée. À défaut, l’industrie érode son propre avantage : moins de qualité, plus de biais, plus de risques. Les entreprises qui l’ont compris s’en sortent mieux : l’alignement fin repose sur une main-d’œuvre expérimentée et l’expérience ne se retient pas à 2 $ de l’heure.

Une équipe santé entraîne un modèle de tri d’images dermatologiques. Si l’annotation est confiée à bas prix sans formation au diagnostic, l’IA confondra systématiquement des lésions rares. Le taux de faux négatifs grimpe, le produit devient inutilisable. Inverse : on mobilise des infirmiers formés, on paie au niveau de l’expertise, on tient une boucle hebdomadaire de calibration avec un dermatologue et un ingénieur. Le dataset gagne en finesse (phototypes, éclairages, stades précoces), le modèle progresse, la mise sur le marché se sécurise. L’économie réelle rattrape la rhétorique.

Certains avanceront que l’automatisation finira par remplacer ces tâches. Elle en absorbera une partie. Elle ne remplacera pas l’arbitrage humain sur la frontière du sens pendant quelques années. Les modèles génératifs produisent des données utiles, mais ils génèrent aussi beaucoup d’illusions fidèles. Sans arbitres, on entraîne des erreurs avec une efficacité redoutable. Le risque systémique est là : une reproduction industrielle du faux. D’où l’exigence de métiers hybrides : entraîneurs-qualiticiens, entraîneurs-éthiciens, entraîneurs-domaines. C’est la nouvelle aristocratie du sens, modeste et indispensable.

L’exploitation non pérenne des compétences humaines fragilise tout l’édifice. Exposer des milliers de personnes à des contenus traumatiques sans soutien robuste crée des dégâts sociaux qui dépassent la ligne de coût d’un tableur. Laisser des experts locaux former des IA sans perspective de carrière fabrique du ressentiment, puis de la fuite. Continuer à externaliser au plus bas sans garanties de qualité, c’est casser le ressort même de l’intelligence artificielle qui est l’intelligence collective. Les travaux récents le rappellent avec force : sans transparence, sans santé au travail, sans dignité, le coût réel de l’IA explose ailleurs (psychique, politique, réputationnel). Ouvrons la voie. Les acheteurs d’annotation doivent intégrer des clauses plancher : rémunération décente indexée localement, accès à des psychologues qualifiés, rotation sur les tâches toxiques, droit d’alerte, ... Les laboratoires et plateformes doivent publier des rapports de chaîne d’approvisionnement des données comme on le fait déjà pour l’environnement. Ensuite, alignons la valeur : bonus qualité reversés jusqu’aux équipes terrain, formations certifiantes, passerelles vers des rôles de produit et de gouvernance. La pyramide tiendra si sa base devient un socle.

La question n’est pas de savoir si l’entraîneur d’IA survivra. Il évoluera. Il gagnera en autorité là où la machine trébuche : la nuance, l’éthique, la responsabilité. Il perdra là où la machine accélère : la répétition, la routine, l’évidence. Ce n’est pas une mauvaise nouvelle. C’est une chance à condition d’aligner l’économie sur la réalité morale du métier. L’intelligence du futur ne se fabrique pas contre l’humain, ni même à côté. Elle se construit avec. Ce « avec » a un prix, des règles et des visages. À nous de décider si la prochaine décennie fera de ces visages une force reconnue ou des ombres jetables sous un projecteur de silicium.



Données synthétiques : ce que nous gagnons, ce que nous risquons

Discussion audio sur la base de cet article réalisée avec NotebookLM

“Données synthétiques.”, le terme sonne chimique. On imagine un liquide translucide étiqueté “à manipuler avec précaution”. Le réflexe est bon. Parlons-en franchement.

De quoi s’agit-il. De données fabriquées par des algorithmes pour entraîner, tester ou auditer d’autres algorithmes. Du texte qui imite des forums. Des images qui singent des rues de nuit. Des tableaux qui ressemblent à des bases clients sans dévoiler de vraies personnes. L’idée court depuis des années en statistiques et en vision par ordinateur. Mais l’explosion des modèles génératifs l’a propulsée au centre du jeu car il n’y a plus assez de données humaines neuves, plus assez de données partageables, donc on en crée de nouvelles à la chaîne. Les praticiens l’utilisent pour combler les trous, pour préserver la vie privée et aussi pour fabriquer des cas extrêmes introuvables dans la nature. C’est utile, c’est tentant et la frontière avance vite, bien plus vite que les règles qui devraient l’escorter. Pourquoi cette ruée ? Parce que la demande en “bon” carburant dépasse l’offre. Les entreprises veulent des corpus propres, riches et au passage juridiquement tranquilles. Les régulateurs serrent la vis. Les sites se barricadent. Les datasets historiques se fatiguent. Résultat : le monde de l’IA pivote vers des pipelines industriels de génération, labellisation et filtrage synthétiques. Nvidia documente même des recettes clef en main pour produire cet or factice avant d’affiner des modèles Llama ‘LLM weight source de Meta). Chez d’autres, on rachète des spécialistes du domaine pour internaliser la fabrique. La synthèse devient une brique d’infrastructure valorisable.

La promesse est claire. Doper la performance en zones pauvres en exemples comme la détection de fraudes rares, des scénarios de conduite presque impossibles, du jargon médical introuvable en open data, des mathématiques, ... Ces données permettent de réduire l’exposition aux données sensibles (on remplace des dossiers réalistes par des doubles anonymes), d’augmenter la diversité (on invente des accents, des dialectes, des conditions météo, des lumières) et quand l’étiquetage coûte un bras, on le fait faire par un modèle professeur, puis on boucle avec un modèle élève. Dans la vraie vie, cela se voit déjà dans les modèles de raisonnement. Qwen2.5-Math annonce des progrès après avoir synthétisé des milliers de questions-réponses et trié automatiquement les meilleures trajectoires. Les familles o3/o4-mini d’OpenAI exhibent des scores très élevés sur des concours comme AIME. Le nerf de la guerre se déplace du volume pure vers plus de qualité et de l’auto-génération.

Venons-en au nerf sensible à savoir les maths. C’est l’exemple qui met tout le monde d’accord. Apprendre à raisonner en mathématiques ne ressemble pas à apprendre l’anglais. Les preuves ne foisonnent pas dans la nature. Les énoncés proprement rédigés, les pas de raisonnement bien granuleux, les erreurs instructives suivies de corrections patientes sont rares. Le web déborde au contraire d’échanges vagues, de bouts de calculs sans justification, de solutions finales jetées comme un résultat de cuisine. Le modèle se gave donc d’une langue où la forme prime la structure alors que la démonstration réclame une charpente logique. Dilemme. Sans données synthétiques conçues comme des parcours d’apprentissage, on reste à la surface. Le tournant récent, on le doit à des approches mêlant code et maths, puis à des boucles professeur-élève où le “prof” fabrique des pas intermédiaires, classe, durcit les exos, corrige les biais. DeepSeekMath a mis la pression dès 2024, Google avait ouvert la route avec Minerva et d’autres affinent l’ingénierie des jeux d’exemples. L’amélioration n’est pas magique : elle suit la qualité et la progressivité des données réelles et synthétiques. Pourquoi le code informatique est “plus facile”. Parce que c’est une langue vivante… avec un oracle. Le compilateur tranche, la suite de tests juge, GitHub et d’autres débordent d’exemples nets, de corrections publiques, de revues serrées. La boucle de rétroaction est presque immédiate : la machine dit “ça passe” ou “ça casse”. Un modèle peut explorer, se tromper, recevoir une note, repartir. L’écosystème entier forme une académie gratuite. Les maths n’offrent pas cette abondance de professeurs sévères mais justes. Les correcteurs de concours ne publient pas leurs annotations. Les carnets de brouillon ne se moissonnent pas. Le gain par données synthétiques bien architecturées y devient décisif : on injecte des décompositions pas à pas, on fabrique des contre-exemples et on impose des “preuves-échelles” qui obligent le modèle à poser chaque marche. L’écart se voit ensuite dans les compétitions de type AIME ou MATH (tests pour les IA), où les modèles recentrés sur des curricula synthétiques ciblés progressent plus vite.

Faut-il se jeter dedans les yeux fermés. Non. Le risque a un nom qui claque comme un avertissement : “model collapse”. Entraîner des modèles sur des contenus qu’eux-mêmes ou leurs cousins ont générés, encore et encore, fait disparaître les “queues” statistiques, ces cas rares qui donnent de la vie et de la précision. À la dixième génération, on parle lapins de garenne en plein gothique flamboyant (exemple réel d’une dégénérescence documentée). La littérature scientifique s’étoffe. Les études décrivent la boucle autophage, les effets sur l’équité et la perte de diversité. Bonne nouvelle. Mélanger soigneusement synthétique et réel, accumuler plutôt que remplacer et contrôler les proportions, atténue le phénomène. Il faut du métier et des garde-fous.

Dernière tentation : croire que “privé = sûr”. Non. Une base synthétique mal générée peut trahir des individus ou créer des profils fantômes crédibles pour attaquer des systèmes. La “privacy” n’est pas un label déco. Elle se mesure, s’audite, se prouve. Des équipes proposent des métriques de divulgation et des cadres d’usage responsable. D’autres rappellent que la synthèse n’excuse pas le pillage initial. Si un modèle imite des styles protégés pour fabriquer des faux neutres, la question juridique reste entière. Ici encore, pas de baguette magique. De la méthode, des preuves, des limites.

À quoi ressemble une politique saine des données synthétiques. D’abord, une définition publique de leurs usages : correction des déséquilibres, génération d’edge cases (une situation inhabituelle ou imprévue dans laquelle quelque chose peut ne pas fonctionner correctement ou comme prévu), tests de robustesse, red teaming de sécurité et surtout pas de “remplacement paresseux” du réel. Ensuite, une chaîne de production explicite : modèles générateurs documentés, filtres, détox, critères d’acceptation, provenance signée, parts de mix imposées. Enfin, une évaluation qui ne se résume pas à un benchmark. On mesure le surajustement narratif, la dérive de style, la perte de disparité, l’équité inter-groupes au fil des itérations, .... Les plus avancés publient déjà des playbooks et des retours d’expérience. Les instituts publics et les médias traitent le sujet avec un mélange salutaire de prudence et d’enthousiasme rationnel. Nous avons de quoi écrire sans difficulté des règles qui tiennent.

Revenons aux maths pour donner un exemple. Une académie régionale veut aider ses élèves à réussir les démonstrations. Elle dispose de sujets corrigés, mais peu de brouillons annotés. Elle construit donc un pipeline de données modeste : un modèle-prof génère pour chaque exercice trois explications valides et une fausse plausible puis un juge entraîné sur des solutions humaines tranche. Un petit comité d’enseignants audite un échantillon chaque semaine et on rejoue ensuite les mêmes items en “mode oral” pour forcer la justification d’étape puis on retient enfin un seul chemin par exercice (le plus pédagogique) et on l’ajoute au canon. Un mix 30 % synthétique / 70 % réel, ajusté tous les deux mois. Les progrès s’observent au-delà des scores : moins d’erreurs de logique triviales, plus de rappels de définitions au bon moment. La méthode respire. Le modèle aussi.

La donnée synthétique est un levain. Une pincée transforme la pâte. Une louche sabote la fournée. Les champions du moment l’ont compris sur le terrain des mathématiques : la clé n’est pas “plus” mais “mieux au bon endroit”. Ceux qui confondent abondance et intelligence font monter le soufflé pour la photo. Puis il retombe.

Utilisons la synthèse pour ce qu’elle sait faire à savoir étirer l’espace des situations, protéger des personnes, fabriquer des escaliers là où le réel n’offre que des murs. Refusons la paresse qui remplace le réel par son ombre. Et, surtout, n’oublions pas l’essentiel. Sans profs, sans juges, sans garde-fous, la donnée synthétique devient une machine à recycler nos erreurs. Avec une gouvernance nette et des métriques publiques, elle nous donne au contraire cette chose de plus en plus rare : du temps pour apprendre vraiment. Les mathématiques, d’abord. Le reste suivra.


Les navigateurs internet sont morts, vive les navigateurs IA ! mais …

Discussion audio sur la base de cet article réalisée avec NotebookLM

OpenAI sort Atlas qui est un navigateur à part entière, pensé autour de ChatGPT, d’abord sur macOS, avec un mode agent capable de faire des courses sur le web à votre place. Sam Altman parle d’“assistant super-intégré”. La presse sérieuse confirme le virage : Atlas rivalise frontalement avec Chrome et s’installe comme porte d’entrée du web pour les usages quotidiens. Trois jours à peine et la concurrence pivote ses plans. L’humeur du moment tient en une phrase : chaque clic a désormais un chaperon IA.

Perplexity n’attendait que ça. Son navigateur Comet, d’abord réservé aux abonnés, s’est ouvert à tout le monde. L’IA ne reste plus dans une boîte de dialogue, elle colonise la barre d’adresse et les onglets. Le modèle économique s’esquisse sans pudeur : capter la requête en amont, capter la réponse en aval et garder au milieu la valeur qui s’évaporait vers les moteurs, les comparateurs, la presse. Comet jure qu’il restera gratuit. On connaît la musique, certes gratuit mais pas neutre.

Google ne joue plus l’innocent. Chrome embarque Gemini : bouton dédié, résumé multi-onglets, passage à l’“agentique” annoncé avec demain des actions automatisées dans la page. Le navigateur cède sa sobriété historique en devenant un opérateur. C’est la bascule la plus lourde depuis l’invention de l’omnibox. Les sources alignent les mêmes signaux : disponibilité d’abord aux États-Unis sur Mac et Windows, puis extension et une intégration profonde avec l’écosystème Google. La promesse officielle repose sur la vitesse, la simplicité et une sécurité immuables. La réalité est un Chrome qui décide, suggère, agit. Une IA qui s’invite dans la micro-mécanique de nos tâches.

Microsoft embraye. Edge ajoute un “Copilot Mode” qui lit tous vos onglets, compare, résume, puis passe à l’étape suivante. La machine prend des actions du désabonnement aux réservations. Cerise sur le gâteau, “Journeys” réorganise l’historique par thèmes et propose la suite logique. Le navigateur devient un conseiller zélé assis à vos côtés avec mémoire et initiatives et des paramètres qui sollicitent vos données de navigation “pour mieux répondre”. Politesse de façade, enjeu massif derrière.

Le film, maintenant. Trois plateformes géantes cochent les cases “navigateur-assistant” : OpenAI, Google, Microsoft. Demain, Meta poussera plus fort encore son agent maison partout où vit votre attention : WhatsApp, Instagram, Facebook ont déjà leur bouton bleu en Europe et l’entreprise verrouille son terrain en écartant les concurrents de ses canaux au nom de la fiabilité, dit-elle. TikTok se concentre sur la création publicitaire assistée. Sa suite Symphony inonde déjà les équipes marketing d’outils qui produisent des spots clef en main. À ce stade, personne n’a besoin d’un navigateur dédié car l’IA s’incruste dans l’application où vous passez votre temps puis négocie la suite depuis là.

Pourquoi cette ruée. Parce que la porte d’entrée du web vaut de l’or. Qui contrôle la requête contrôle l’allocation publicitaire, l’affiliation, une part des paiements et au passage l’index des intentions humaines. Hier, un lien bleu formait la frontière. Aujourd’hui, une réponse générée saute l’escale. Les perdants se bousculent : comparateurs, médias, forums, SEO-shops, petites boutiques qui vivaient du trafic organique, apps utilitaires cannibalisées par des “actions” natives. La liste s’allonge chaque jour. C’est de la mécanique industrielle.

On nous vend la facilité et le confort. Le piège s’appelle “préemption”. Le navigateur-IA devine votre besoin, ouvre la bonne page, extrait l’essentiel, puis propose de cliquer “là”. Le “là” vient d’où ? D’un modèle entraîné sur des corpus qui hiérarchisent le monde selon des critères parfois opaques. D’accords commerciaux qui ne s’affichent pas à l’écran. D’une logique d’alignement produit-recette qui a toujours fini par façonner la présentation de l’information. Dans Chrome, Gemini jouera de pair avec Maps, YouTube, Calendar. Dans Edge, Copilot privilégiera l’écosystème Microsoft 365. Dans Atlas, ChatGPT pilotera la navigation, avec mémoire optionnelle, “agent mode”, bientôt des profils et même un bloqueur de pubs piloté par IA. Au-dessus du contenu, une couche d’intention. C’est là que se forme l’influence.

Prenons un exemple terre à terre. Vous préparez un voyage à Lisbonne. Hier, vous lisiez trois articles, deux fils Reddit, un blog, un guide. Demain, l’agent assemble un itinéraire “efficace”, réserve des créneaux, présente des hôtels “pertinents”. Vous gagnez une heure. Vous perdez quoi ? La possibilité de croiser une voix minoritaire qui vous aurait convaincu d’éviter l’Alfama un samedi soir pour une balade au bord du Tage à l’aube. Le web, c’était la déambulation. Les assistants préfèrent la diagonale. À l’échelle d’un individu, ce n’est pas grave. À l’échelle d’une ville, d’un secteur, d’un vote même, l’effet de masse devient une houlette. Côté modèles d’affaires, la migration se lit déjà : abonnements “Pro/Ultra” qui débloquent des agents plus puissants, partages de revenus avec sites partenaires, nouvelles formes de publicité intégrée aux réponses, coupons injectés au bon moment. Google pousse des formules premium, Edge verrouille côté entreprise, Perplexity teste ses packs, OpenAI cherche sa rente navigateur. La distribution de la valeur change de mains. Le site source devient fournisseur de matière première. On paiera moins pour être cliqué. On paiera plus pour être choisi.

Les risques ne se résument pas aux hallucinations. L’architecture même crée des leviers de manipulation : par défaut, l’agent voit ce que vous consultez, mémorise des fragments, infère des préférences. Les éditeurs s’inquiètent à juste titre : qui résume qui, avec quels droits ? Les utilisateurs découvrent des réglages “opt-out” pour la mémoire, promis jurés sans avoir ni le temps ni l’expertise pour auditer le reste. Et quand un navigateur commence à “agir”, la surface d’attaque explose (prompt injection, scripts piégés, prises de contrôle de sessions, redirections “bienveillantes”). Des experts en sécurité pointent déjà ces failles côté Atlas et il serait naïf d’imaginer que Chrome, Edge ou Comet y échappent. La commodité a toujours servi de cheval de Troie.

Qui va gagner ? Google part avec Chrome et Android. Microsoft tient Windows et l’entreprise. OpenAI cherche la brèche en misant sur l’expérience “assistée-de-bout-en-bout” et une image de marque forgée par ChatGPT. Perplexity occupe le flanc rapide et source-first. Meta et TikTok disposent d’un autre avantage car ils n’ont pas besoin de conquérir la navigation si leur IA tient le fil de votre journée à l’intérieur de leurs apps. Le podium se jouera sur trois variables : puissance d’agent, confiance perçue et deals de distribution. Les perdants doivent se regrouperont. Des coalitions de presse naîtront pour exiger partage de valeur ou blocage du scraping. Des régulateurs demanderont des murs de verre et des rapports d’impact. Nous ne parlons pas d’une lutte “moteur contre moteur”, mais d’un théâtre où un agent agit à notre place. Le navigateur cesse d’être une fenêtre. Il devient un majordome qui fait les courses, choisit les fournisseurs, gère l’agenda, suggère la lecture, range l’historique. Un majordome payé par la publicité et par des partenariats, logé dans la maison, discret et serviable. Quand l’intendance décide de l’ameublement, on ne vit plus chez soi.

Que faire sans attendre ? Énoncer la provenance claire des réponses, une séparation nette rédaction-pub, une priorité aux sources originales, un réglages de mémoire “off” par défaut, un journal d’actions consultable, un bouton “montrer les alternatives” au même niveau que “faire pour moi”. On sait écrire ces garde-fous. La question n’est pas technique. Elle est politique.

Dans cinq ans

Horizontale, l’IA se dissout dans l’usage. Verticale, elle s’impose dans les navigateurs-OS : Atlas, Chrome-Gemini, Edge-Copilot. Les agents accompliront des chaînes d’actions complètes comme gérer un déménagement, plaider un remboursement, négocier une assurance, ... Les interfaces se feront plus orales, plus contextuelles et presque invisibles. Trois scénarios se disputent la suite.

Premier : victoire des plateformes intégrées, web réduit à un sous-sol de données, médias sous perfusion de licences, commerce captif.

Deuxième : contre-offensive réglementaire en Europe et en Californie ; obligations de transparence, API d’audit, parts de trafic garanties aux sources.

Troisième : renaissance “open” – navigateurs agents open-source, bases de connaissances signées, micro-paiements aux éditeurs par défaut.

Mon pari ? Un mix rugueux des trois, avec une ligne rouge où l’agent devra rendre des comptes. Au-delà du confort, la démocratie réclamera des preuves en tout cas, je l’espère. Celui qui acceptera d’ouvrir la boîte, pas seulement les bras, raflera la mise. Les autres gagneront des parts de marché puis des procès.


Bonnes métamorphoses et à la semaine prochaine

Stéphane

Métamorphoses

Par Stéphane Amarsy

Stéphane est un entrepreneur visionnaire et un pionnier dans l'intersection de l'intelligence artificielle et de la transformation organisationnelle / sociétale. Fondateur de The Next Mind, il est guidé par une philosophie simple, mais percutante : "Mieux vaut s'occuper du changement avant qu'il ne s'occupe de vous !"

Sa trajectoire professionnelle, marquée par la création d'Inbox, devenue plus tard D-AIM en changeant complétement de business model, des levées de fonds, la fusion avec Splio, et l'élaboration du concept disruptif d'Individuation Marketing, sert de fondation solide à sa nouvelle entreprise. The Next Mind est le fruit de décennies d'expérience dans l'accompagnement de plus de 400 entreprises à travers plus de 30 pays dans leur transformation digitale / data / IA et organisationnelle.

Auteur du livre ​​"Mon Directeur Marketing sera un algorithme"​​, qui est une description de la société qu'il a projetée en 2017, auteurs de nombreuses tribunes, conférencier et intervenant dans plusieurs universités et écoles, il ne se contente pas de prêcher la transformation, il l'incarne. Chaque expérience proposée par Stéphane est inspirée entre autres par son vécu d'entrepreneur. Il pousse à affronter les réalités d'un monde en perpétuels changements. Stéphane est convaincu que la prise de conscience n'est que la première étape ; ce qui compte vraiment, c'est la capacité à agir et à s'adapter.

Les derniers articles publiés