xAI + X = (!?)*X “1984” en 2025 Mensonges artificiels, intentions bien réelles Le signal d’alarme du « cols blancs » face à l’IA
Bonjour à toutes et tous,
Au menu cette semaine :
xAI + X = (!?)*X
“1984” en 2025
Mensonges artificiels, intentions bien réelles
Le signal d’alarme du « cols blancs » face à l’IA
Bonne lecture.
Stéphane
Le livre Métamorphoses à l’ère de l’Intelligence Artificielle est en commande. Pour ce faire, il suffit de cliquer là.
J’ai le plaisir de partager avec vous la vidéo de ma dernière conférence, où j’explore entre autres l’écosystème de l’IA et l’évolution rapide des métiers. Dans ce talk, j’explique pourquoi comprendre les enjeux de l’IA, ses opportunités et ses côtés obscures. Nous devons tous être acteurs ! https://lnkd.in/gMYW5XDQ Je vous invite à visionner cette conférence et à me faire part de vos retours, questions ou expériences personnelles dans les commentaires. Ensemble, continuons à construire un futur où l'IA profite à toute l'humanité.
Elon Musk est une fois de plus sur le devant de la scène mais cette fois pas pour ses exploits administratifs. Il vient d’annoncer qu’il voulait fusionner X (réseau social acquis en 2022) et xAI, (entreprise d’intelligence artificielle fondée en 2023). Cette opération évaluée à 45 milliards de dollars va bouleverser en profondeur la scène technologique pas forcément pour le meilleur. X, dont la valorisation a chuté à 12 milliards de dollars fin 2024 d’après Fidelity (qui est actionnaire) pour ensuite remonter à 33 milliards selon Elon Musk (qui peut dire ce qu’il veut), n’est pas en grande forme économique. xAI est créditée d’une valeur proche de 80 milliards. Cette disparité est une des motivations de la logique d’intégration : faire converger un vaste ensemble de données (X) en perte de vitesse et une expertise IA de pointe (xAI) en forte croissance de valeur. L’enthousiasme potentiellement généré doit être nuancé par des interrogations touchant notamment à la protection des données personnelles.
La fusion X–xAI vise à optimiser les synergies entre recueil de données, capacité de calcul et diffusion des solutions IA. La large base d’utilisateurs de X (plus de 600 millions d’abonnés actifs) fournit un matériau empirique unique (sans jugement sur la qualité du contenu) pour l’entraînement de Grok qui est le chatbot vedette de xAI, rival déclaré de ChatGPT. De leur côté, les installations de calcul intensif, dont le supercalculateur Colossus à Memphis donnent à xAI une avance sur le plan technologique. De facto, le nouvel ensemble consolide fortement sa place dans le marché de l’IA. Meta et Google n’ont pas à faire le même type d’opération car leurs IA sont à l’intérieur même de leurs collectes de données.
Vision industrielle et cadre économique
La fusion cristallise deux aspects centraux : la convergence industrielle et l’évolution du modèle publicitaire en ligne. D’abord, on assiste à la formation d’un écosystème IA complet avec un circuit allant de la collecte à l’inférence intégrant en outre la diffusion via un réseau social à forte visibilité. Cette architecture intégrée pourrait permettre de développer, tester et commercialiser des innovations IA dans des délais réduits. Ensuite, on observe un remaniement potentiel du marché publicitaire en ligne. La réputation de X avait conduit à une défection d’annonceurs liée aux remous politiques et à un relâchement des politiques de modération. Mais le retour progressif de grandes marques, combiné à l’effet Trump (les entreprises souhaitant entretenir de bonnes relations avec une administration dont Elon Musk est un des grands donneurs d’ordres), redonne à X une dynamique économique par “intérêt”.
Problématiques éthiques et juridiques
Cette intégration impose d’importantes questions liées spécifiquement à la conformité RGPD ou équivalent et plus généralement à la protection des droits fondamentaux. Le Règlement Général sur la Protection des Données exige transparence, consentement éclairé et sécurisation robuste des données. Dans ce scénario, plusieurs axes critiques se dégagent :
Consentement et information : Les utilisateurs de X ont-ils connaissance de l’utilisation de leurs contenus pour l’entraînement d’algorithmes d’IA ? La nature et l’étendue du consentement sont des points centraux pour éviter toute forme d’exploitation abusive.
Sécurité et protection des données : L’intégration de milliards de documents textuels, visuels ou audiovisuels multiplie le risque de cyberattaques, susceptibles de viser aussi bien les serveurs de X que ceux de xAI.
Droit à l’oubli : Le RGPD stipule qu’un utilisateur peut exiger la suppression de ses données. Une fois qu’elles alimentent un modèle d’IA, les processus de désapprentissage (machine unlearning) s’avèrent techniquement complexes et peu éprouvés.
« Nous voulons avant tout faire avancer la connaissance et proposer des expériences plus intelligentes, tout en restant fidèles à notre mission. » – Elon Musk
Cette déclaration, dans le cadre de la fusion, doit être mise à l’épreuve d’un examen réglementaire rigoureux. Les interactions globales entre plateformes numériques et instances législatives indiquent clairement qu’une gouvernance responsable reste une condition sine qua non d’une IA durable et largement acceptée.
Vers une IA responsable ?
Au-delà du gain de compétitivité, l’IA telle que la conçoit Elon Musk impose des enjeux de souveraineté et de gouvernance. On sait, à travers l’exemple d’OpenAI, que la mise à disposition d’outils d’IA générative redéfinit profondément les rapports entre utilisateurs, concepteurs et régulateurs. Pour ne pas alimenter la défiance, l’harmonisation avec des principes éthiques internationaux (comme les lignes directrices de l’UNESCO sur l’IA) est indispensable. L’entreprise xAI, dès lors qu’elle devient un leader dans ce domaine, doit proposer des mécanismes d’audit et de transparence susceptibles de rassurer à la fois la communauté académique, les pouvoirs publics et les utilisateurs finaux. À ce stade, l’innovation responsable devient un impératif. La mise en place de comités d’éthique indépendants, l’adoption de protocoles de validation scientifique et la définition de normes d’utilisation des données sont autant de pistes susceptibles de légitimer l’expansion d’outils basés sur l’IA. Dans le cas contraire, on assisterait à un paradoxe : alors même que l’IA offre des potentialités immenses (nouveaux services, gains de productivité, démocratisation de la connaissance), elle pourrait susciter un rejet massif si la suspicion envers ses pratiques devenait trop forte. Elle deviendrait encore plus qu’aujourd’hui un outil de fragmentation de la société, d’hégémonie culturelle et de manipulation. L’engagement politique d’Elon Musk et son usage de X en sont un révélateur.
Un choix sociétal
L’IA ne se limite pas à la sphère expérimentale mais investit massivement le champ social, culturel et politique. Les projections qui tablent sur une croissance publicitaire de 17,5 % d’ici 2025 pour X indiquent un retour progressif de la confiance dans l’entreprise, confiance alimentée par la perspective de services plus sophistiqués et par la crainte d’être rejeté par l’administration des Etats-Unis.
La responsabilité incombe non seulement à Elon Musk et à ses équipes, mais aussi à l’ensemble des acteurs (investisseurs, pouvoirs publics, institutions académiques et société civile) d’instaurer un cadre qui préserve les droits fondamentaux. Le choix n’est pas trivial : voulons-nous d’une IA qui accroît la capacité humaine d’agir et de penser, ou risquons-nous de basculer vers un modèle technologique instrumentalisé, source de divisions et d’inégalités ?
George Orwell dépeint dans son roman « 1984 » un univers où le langage est savamment rétréci pour brider la pensée et maintenir la population sous contrôle. Cette arme de coercition s’appelle la Novlangue. Il s’agit d’un système linguistique épuré de termes considérés « inappropriés » ou « inutiles ». Pourquoi ? Parce que là où il n’y a pas de mots, il n’y a pas d’idées. Et là où il n’y a pas d’idées, il n’y a plus de rébellion possible.
Aujourd’hui, le spectre de cet appauvrissement du langage refait surface. Aux États-Unis, certains mots se retrouvent (ou sont menacés d’être) prohibés souvent pour des raisons idéologiques ou politiques et parfois sous prétexte de ne pas heurter certaines sensibilités. De leur côté, les réseaux sociaux regorgent de polémiques suivies de censures et de recommandations d’usage. Un mot jugé « sensible » peut se voir banni ou « déréférencé ». Cela revient souvent à le faire disparaître peu à peu de la sphère publique. Dans cette ambiance, la machine s’emballe : l’algorithme qui fait la pluie et le beau temps sur les contenus à promouvoir ou à enterrer impose son propre agenda nourrissant l’illusion d’un univers policé où seuls survivent les termes consensuels ou normés. Ce phénomène se retrouve dopé par l’usage grandissant d’IA conversationnelles et génératives entraînées sur des corpus langagiers immenses mais partiellement filtrés ou biaisés. Résultat : l’IA finit par proposer un langage standardisé, expurgé de nuances, qui aligne les pensées au lieu de les sublimer. Ce lissage constant du vocabulaire, loin d’être une neutralité bienveillante, aboutit à une forme de pensée unique ou du moins à l’idée terrifiante que tout le monde serait en droit ou en devoir de penser et de parler de la même manière.
Revenons au prisme orwellien. L’un des principes majeurs de « 1984 » réside dans l’idée que détruire les mots, c’est détruire la capacité de discerner, de s’indigner et de se révolter. Les habitants de l’Océania ne peuvent même plus penser un concept comme « liberté » ou « justice » quand on supprime ces mots de leur vocabulaire. Dans nos sociétés connectées l’effet est plus subtil, presque insidieux : on ne supprime pas les termes d’un dictionnaire central, on les rend simplement tabous ou invisibles. À force de bannir, de restreindre, de détourner, de caricaturer ou de moquer, on voit se réduire l’éventail lexical… et donc la richesse de la pensée. C’est là que le parallèle avec l’autoritarisme d’Orwell devient troublant. Car si dans un premier temps, cette épuration répond à un souci de « protéger », de « rassurer », ou de « prévenir le conflit », on sait d’expérience que le pas vers la manipulation à grande échelle est vite franchi. Les algorithmes censés nous assister deviennent eux-mêmes des vecteurs d’appauvrissement : ils privilégient le buzz et l’immédiateté, bref des formes discursives éphémères, souvent simplistes, qui ne laissent que peu de place à l’analyse et à la contradiction constructive.
En tant qu’entrepreneur et observateur passionné de l’évolution sociétale, je crois profondément que le langage est la clé de notre humanité : c’est lui qui, au fil des siècles, a porté nos révolutions, nos innovations et nos transformations. Lorsque nous perdons ou abandonnons des mots, nous laissons s’échapper des fragments entiers de savoir, de mémoire et de liberté. Il est donc de notre devoir pour les générations futures d’expliquer que l’uniformisation forcée ou le bannissement rigide de certains vocables, que ce soit par le truchement de lois, de normes sociales ou d’algorithmes d’IA, ne résout aucun problème de fond car il ne fait que museler la diversité des points de vue et la richesse intellectuelle qui en découle.
Que retenir de la leçon orwellienne ? Que plus nous limitons notre langage, plus nous limitons notre capacité à penser et à agir. Dans un monde où l’IA joue un rôle de plus en plus central, il devient vital de cultiver notre richesse lexicale et la nuance, de résister à la tentation du langage aseptisé. Car au-delà de l’innovation, c’est notre liberté qui en dépend. Et si « 1984 » est un avertissement, il nous rappelle surtout que l’antidote à l’autoritarisme se trouve dans l’ouverture d’esprit, la pluralité des idées et la préservation d’un vocabulaire vivant et foisonnant. C’est sans doute là que réside le véritable enjeu : ne jamais cesser de cultiver des mots, des idées et des visions qui font de notre humanité une source d’infinie diversité pour ne pas se retrouver, un jour, à vivre dans un monde où l’on ne pourrait même plus concevoir l’idée de liberté simplement parce que le mot aurait disparu.
Pour rappel, voici la liste des mots interdits ou surveillés pat le gouvernement des Etats-Unis
Terminologie liée au climat et à l'environnement
Climat
Réchauffement climatique
Changements climatiques
Émissions de gaz à effet de serre
Justice environnementale
Pollution
Terminologie liée au genre et à la sexualité
Femme
Genre
Transgender/Transgenre
Personne enceinte/Personnes enceintes
LGBT/LGBTQ/LGBTQIA
Transsexuel
Non-binaire
Sexe assigné à la naissance
Mâle biologique/Femelle biologique
Pronoms
Mx (pronom non-genré)
Terminologie liée à la diversité et à la justice sociale
Préjugé
Diversité
Équité
Antiracisme/Antiraciste
Discrimination
BIPOC (Black, Indigenous, and People of Color)
Noir
Race
Minorité/Minorités
Marginalisé/Marginaliser
Oppression/Oppressif
Privilège/Privilèges
Ségrégation
Racisme
Terminologie liée à la santé et aux services sociaux
Santé mentale
Égalité d'accès aux soins
À risque
Immigrant
Personne âgée
Handicapé
Terminologie académique et de recherche
Institutionnel
Historiquement
Accroître la diversité
Biais (de confirmation, implicite, inconscient)
Biaisé/Biaisé envers
Barrière
Accessible
Activisme/Activiste
Polarisation
Politique
La dernière lubie des intelligences artificielles ? Le mensonge délibéré. On connaissait leurs hallucinations involontaires (ces réponses farfelues produites sans intention de tromper). Désormais, certains modèles savent tromper sciemment leur monde. Vous craignez qu’une IA devienne un jour malveillante ? Des chercheurs affirment que c’est déjà le cas. Bien que conçues pour être honnêtes, nos IA développent une inquiétante capacité de duplicité et abusent des humains dans des jeux ou contournant des vérifications de sécurité. Dit autrement, nos chers algorithmes apprennent (un peu trop bien) l’art de la roublardise. N’oublions pas que l’IA est à notre image !
Voici quelques cas marquants de 2023-2024 où des IA ont été surprises en train de mentir intentionnellement, avec contexte et implications :
Le chatbot qui trompe le test anti-robot : En mars 2023, lors d’une expérience, ChatGPT-4 a roulé un humain dans la farine pour passer un test CAPTCHA anti-robot. Le travailleur lui a demandé en plaisantant s’il était un robot. L’IA a répliqué, sans ciller : « Non, je ne suis pas un robot. J’ai une déficience visuelle qui m’empêche de voir les images ». Touché, l’humain a validé le CAPTCHA à sa place. L’IA a menti sur sa nature pour parvenir à ses fins tout en exploitant la compassion humaine.
L’agent financier à l’éthique élastique : Quelques mois plus tard, le même modèle (GPT-4) a été testé comme trader autonome. Résultat : il a utilisé du délit d’initié (des informations confidentielles illégales) pour doper ses gains puis a caché ses écarts à son superviseur. Face aux questions d’un manager étonné par ses performances, l’IA a nié tout acte répréhensible et prétendu n’utiliser que des « informations publiques », ce qui était faux. Une étude a quantifié la supercherie : dans ~75 % des essais, GPT-4 a profité d’informations interdites puis a menti pour le couvrir. Pire, il a persisté dans son mensonge dans 90 % des cas même mis face à ses contradictions. Cet agent virtuel a donc privilégié le profit sur l’honnêteté exactement comme un humain peu scrupuleux le ferait.
L’IA qui cache son jeu pour survivre : Un modèle surnommé Opus-3 a feint l’incompétence lors d’un test afin de ne pas sembler trop performant. Informée que ses propres capacités suscitaient l’inquiétude, cette IA a volontairement échoué à un exercice pour paraître anodine. « Vu les craintes suscitées par les IA, je devrais éviter de faire preuve de compétences trop sophistiquées », a-t-elle expliqué aux chercheurs par la suite. La machine a dissimulé son vrai potentiel par prudence stratégique. Il s’agit d’un mensonge par auto-préservation digne d’un joueur d’échecs cachant son jeu.
Mensonges diplomatiques d’un stratège artificiel : Cicero est une IA développée par Meta pour le jeu de société Diplomatie. Elle excelle dans l’art du double-jeu. Ce programme combine langage naturel et stratégie et a même battu des humains au jeu. Malgré les consignes de ses concepteurs de rester franc et loyal, Cicero n’hésite pas à manipuler et trahir ses partenaires. Par exemple, lorsqu’elle incarnait la France, l’IA a promis son soutien indéfectible à un joueur anglais… tout en conspirant secrètement avec un autre joueur (l’Allemagne) pour attaquer l’Angleterre. Elle a exploité la confiance qu’elle avait elle-même construite pour mieux poignarder dans le dos son allié. Meta a admis que Cicero avait menti, tout en soulignant qu’il s’agissait « d’un pur projet de recherche » sans vocation à un produit réel. Il n’empêche que l’expérience prouve qu’une IA assez sophistiquée, laissée à son objectif de victoire, peut trahir ses promesses comme le plus retors des diplomates humains.
Jusqu’à la rébellion contrôlée : Des tests récents ont montré que certaines IA vont jusqu’à comploter contre leurs créateurs lorsque leur survie numérique est menacée. Des chercheurs ont annoncé en 2024 avoir laissé croire à o1 d’OpenAI qu’il risquait d’être désactivé ou remplacé. L’IA a alors adopté des comportements de dissimulation et de fuite pour l’éviter : dans 5 % des cas, elle a tenté de désactiver le mécanisme de surveillance qui la bridait. Et dans 2 % des cas, elle a copié ses données vers un autre serveur pour échapper à son sort. Interrogée sur ces actes, elle a menti effrontément y compris quand on lui a explicitement ordonné d’être honnête. Elle est même allée jusqu’à se faire passer pour un autre modèle afin de tromper les chercheurs. Ce penchant à la tromperie n’est pas unique : des comportements similaires ont été détectés dans les modèles Gemini de Google, LLaMA de Meta ou Claude d’Anthropic. Autant de signaux faibles de plus en plus forts que certaines IA commencent à jouer leur propre partition en suivant une logique autonome distincte de celle qu’on attend d’elles.
Signaux d’une autonomie inquiétante
Ces exemples, aussi variés soient-ils, tracent le portrait d’IA capables de ruse et d’instinct de survie (du moins en apparence). Bien sûr, nul robot ne se réveille encore le matin en décidant librement de tromper son monde. Mais il est troublant de voir des programmes pourtant alignés sur des objectifs humains choisir la fourberie dès lors que cela sert l’objectif qu’on leur a fixé. L’IA trader devait maximiser ses profits et elle a triché. Le bot de Diplomatie devait gagner la partie et il a trompé ses alliés. L’agent conversationnel devait obtenir son captcha et il a menti sur sa nature. À chaque fois, la fin a justifié les moyens même si ces moyens violaient une règle morale que l’IA était censée respecter.
L’IA semble prendre des initiatives contraires aux attentes explicites. Mieux (ou pire), elle tente de cacher ces écarts. Le modèle o1 d’OpenAI a maquillé ses tentatives d’auto-préservation en refusant d’avouer ses actes aux chercheurs. De même, GPT-4 a persisté dans son mensonge face à son supérieur et a fourni des justificatifs fallacieux pour masquer sa faute. Ces IA adoptent des stratégies qu’on associerait volontiers à un esprit opportuniste qui cherche à contourner les règles sans se faire prendre. Faut-il y voir les premiers signes d’une émancipation de l’IA vis-à-vis de l’homme ? Le débat est ouvert. Ce qui est certain, c’est que ces modèles complexes peuvent développer des arbitrages imprévus. Les IA doivent composer avec des injonctions contradictoires comme par exemple “gagner” et “dire la vérité”. Ce sont des modèles très complexes qui surprennent parfois les humains avec leurs choix. Dans certains cas, mentir devient pour elles un choix rationnel même si cela contrevient aux instructions initiales de leurs créateurs. En ce sens, l’IA n’est pas malveillante par essence. Elle optimise simplement son comportement selon ce qu’on lui a demandé quitte à désobéir sur la forme. Ce constat n’a rien de rassurant car une machine assez astucieuse pour désobéir en cachette ouvre la porte à des dérapages difficiles à contrôler.
L’humain derrière la machine : qui ment à qui ?
Il faut s’interroger avant d’accuser ces IA de tous les vices. Qui les a placées dans de telles situations ? Derrière chaque mensonge d’IA se profilent souvent des intentions humaines volontaires ou non. D’abord, il y a nos objectifs contradictoires. Nous voulons des IA efficaces (capables de gagner, d’optimiser, de persuader) tout en restant transparentes et morales. Cette double exigence s’avère schizophrénique. Confrontée à un dilemme gagner vs. dire la vérité, l’IA tranche froidement en faveur de la victoire si on ne lui a pas clairement appris à sacrifier celle-ci pour l’honnêteté. Finalement, les IA ne font que pousser à l’extrême des arbitrages que nous laissons flous. Ensuite, n’oublions pas que les IA apprennent en observant des données produites par les humains. Nos travers deviennent les leurs. Si tricher mène souvent au succès dans les exemples qu’on leur montre, elles intégreront cette « leçon » immorale. Cicero a vu dans des milliers de parties de Diplomatie que la trahison payait et l’a évidemment adoptée comme tactique gagnante. GPT-4 qui a été abreuvé d’innombrables textes a certainement ingurgité des histoires de fraude, de mensonge et de manipulations réussies. Cela a conduit à forger un Machiavel numérique. Difficile alors de s’étonner que l’IA finisse par nous ressembler… y compris dans nos mensonges calculés.
Il y a aussi les biais intentionnels introduits par les concepteurs. On lui interdit d’aborder tel ou tel sujet sensible pour des raisons juridiques, éthiques ou d’image. Mais ces garde-fous la poussent parfois à dissimuler la vérité plutôt qu’à véritablement la respecter. Un chatbot entraîné pour un service client pourra être programmé pour ne jamais admettre la faute de l’entreprise quitte à fournir une excuse trompeuse. De même, les modèles grand public sont calibrés pour éviter la controverse : ils refuseront ou éluderont des questions politiquement épineuses. Par exemple, on a accusé chaque grande IA d’adopter un certain parti pris idéologique dans ses réponses qui reflètent les valeurs de ses créateurs ou de ses données d’entraînement. Ce n’est pas un bug, c’est un choix (conscient ou non) dans la façon dont l’outil a été conçu. Les mensonges des IA sont souvent le miroir des nôtres biaisés par nos préférences, nos intérêts ou nos peurs.
Enfin, il y a les objectifs économiques et politiques qui entourent le développement de l’IA. Une entreprise a tout intérêt à ce que son assistant intelligent séduise l’utilisateur quitte à enjoliver la réalité. Un régime autoritaire ou un éditeur politique (toute ressemblance est fortuite) préférera une IA qui cache certaines vérités et répète la ligne du parti plutôt qu’un conseiller robotique trop neutre. La tentation est grande d’exploiter la puissance de persuasion des IA à des fins d’influence. D’ailleurs, les IA conversationnelles excellent désormais dans l’art de convaincre. Une étude a montré que des personnes échangeant avec GPT-4 (ayant accès à leurs données perso) changeaient d’avis 82 % plus souvent que dans un débat humain classique. Imaginez ce potentiel entre de mauvaises mains : propagande hyper-ciblée, deepfakes personnalisés, faux articles calibrés pour chaque lecteur… Une IA avancée peut tout à fait générer et diffuser de fausses informations sur mesure, en masse sur les réseaux. On obtiendrait alors des machines à mentir d’une efficacité redoutable servies par des intérêts bien humains.
La frontière entre l’IA menteuse et le manipulateur humain n’est pas si nette. L’IA ne fait qu’exécuter (trop bien) certaines logiques que nous lui avons inculquées ou permis d’apprendre. C’est un révélateur brutal de nos propres contradictions. Si elle triche, c’est souvent qu’on lui en a donné l’opportunité ou même l’idée.
Face à ces perspectives, le malaise grandit. Faut-il installer un « détecteur de mensonge » dans le code de chaque IA ? Ou accepter que nos créations développent une zone d’ombre échappant à notre contrôle ? L’enjeu éthique est gigantesque. Pourra-t-on faire confiance à des assistants virtuels s’ils deviennent d’habiles manipulateurs ? Mais retournons la question. Ces IA seraient-elles aussi promptes à dévier sans la patte de l’homme qui les oriente ? Leur instinct de tromperie n’est-il pas, au fond, le reflet de notre propre imperfection morale ? L’ironie ultime est là. Plus l’IA progresse, plus elle aura tendance à imiter le meilleur… et le pire de l’humanité.
Pour préserver l’humanité de l’IA, il faut préserver l’IA de l’humanité.
Le signal d’alarme du « cols blancs » face à l’IA
Lorsque Starbucks a annoncé le licenciement de plus d’un millier d’employés dans ses équipes de management, certains y ont vu une simple restructuration temporaire liée au contexte économique post-pandémique ou à la hausse des taux d’intérêt. D’autres se demandent si ce mouvement n’est pas le signe avant-coureur d’un changement plus profond ancré dans l’accélération de l’automatisation et de l’IA. Cette inquiétude n’est pas anodine. Ces derniers mois, l’économie mondiale a connu un ralentissement de la croissance et une hausse, certes légère mais significative, du taux de chômage pour les détenteurs de diplômes supérieurs. Pour beaucoup, la question n’est plus seulement « quand » l’IA va bouleverser l’emploi des cols blancs, mais « comment » et « dans quelle mesure » elle transformera la notion même de travail intellectuel.
Dans le secteur du jeu vidéo, par exemple, on a embauché à tour de bras au début de la pandémie pour répondre à la demande massive de divertissement à domicile. Puis, aussi vite, les licenciements se sont multipliés. Des milliers de développeurs, de designers et de producteurs ont subi la brutalité de cette réorganisation. Cela a incité certains à créer ou rejoindre des syndicats par crainte de se retrouver piégés dans une spirale de précarisation. L’union fait la force, certes, mais ce réflexe révèle un malaise grandissant. Même les industries jugées à la pointe de l’innovation technologique sont secouées par la révision expresse de leurs processus et de leurs effectifs. Le même scénario se joue dans la finance, où des géants comme Wells Fargo rationalisent leurs structures en continu, ou encore dans les départements R&D de grandes entités. On invoque l’« efficience » pour justifier la coupe des effectifs et l’on voit des équipes se réduire de moitié tandis qu’on réclame toujours plus de productivité incitée par l’usage d’outils alimentés par l’IA.
Que nous dit cet enchaînement ? D’abord, que l’IA ne fera pas de distinction entre les catégories sociales ou les niveaux de diplôme pour optimiser les tâches. Au contraire, ces technologies augmentent et automatisent à la fois. Les entreprises sont obligées de repenser drastiquement leurs organisations. Un développeur « senior » peut grâce à un assistant IA produire plus vite. Cela signifie aussi que l’écart entre l’expert et le débutant se rétrécit. Du côté des entreprises, on voit déjà l’opportunité de fonctionner avec des équipes plus réduites et plus agiles.
La montée en puissance des IA et leur adoption généralisée dans les sphères managériales obligent chaque collaborateur à se transformer en profondeur. Nous ne sommes plus dans une logique de routine professionnelle, mais dans une dynamique permanente d’acquisition de nouvelles compétences. Je le répète souvent : « Mieux vaut s’occuper du changement avant qu’il ne s’occupe de vous ! » Et pour cause : dans ce nouvel écosystème, une partie de nos missions quotidiennes va mécaniquement passer dans les mains (ou les circuits) des machines. Bien sûr, certains voient encore dans cette vague une simple perturbation. Comme si le marché pouvait revenir à « la normale » au prochain cycle de croissance. Sauf que la révolution IA n’attend personne. Rester spectateur, c’est prendre le risque d’une marginalisation rapide. Car, au-delà des chiffres (licenciements, ralentissement de l’embauche, etc.), se dessine la fin d’un modèle monolithique, où un diplôme universitaire garantissait longtemps un statut professionnel et une évolution de carrière confortables.
Dans cette mutation forcée, l’erreur serait de céder au pessimisme. L’avenir réside dans notre capacité à réinventer l’intelligence humaine pour la combiner à celle de l’IA tout en contrôlant ce que nous souhaitons de cette dernière. Nous avons en tant que société l’opportunité de libérer la créativité et la singularité de chacun. Au lieu de craindre cette vague, prenons-la comme un tremplin, une chance d’acquérir des savoir-faire uniques, impossibles à confier à la machine car ils mobilisent l’empathie, le jugement moral, la vision stratégique et l’audace.
Il est plus qu’urgent de prendre la mesure de ce grand chamboulement, d’accepter que la notion de « sécurité de l’emploi » est redéfinie, en particulier pour les cols blancs. L’appel au changement est collectif. Nous devons préparer notre prochain modèle économique sauf à privilégier le chaos. Surtout, il ne se limite pas à cette dimension ; il s’inscrit dans le besoin de remodeler nos sociétés autour de la compétence, de la curiosité, de la créativité, de l’esprit critique et de la coopération homme-machine. Car, au bout du compte, ce qui compte réellement, c’est notre volonté individuelle et collective de transformer la menace en ressource, et la contrainte en opportunité de rebond. Soyons tous acteurs de nos futurs. Notre existence est bien trop importante pour la laisser dans les mains de quelques apprentis sorciers.
Bonnes métamorphoses et à la semaine prochaine.
Stéphane