#97 Il vaut mieux s'occuper du changement avant qu'il s'occupe de vous !

Psychologie, psychiatrie et IA Pourquoi n’acceptons nous pas que l’IA nous ressemble ? Tu viens pour le frisson et tu repars nu et livré en pâture aux algorithmes.   L’humanité portera‑t‑elle bientôt ses enfants dans des incubateurs ?  Le pneu quasi éternel Chronique du futur : Les enfants propriétaires (2035)

Métamorphoses
10 min ⋅ 17/06/2025

Bonjour à toutes et tous,

Au menu cette semaine :

  • Psychologie, psychiatrie et IA

  • Pourquoi n’acceptons nous pas que l’IA nous ressemble ?

  • Tu viens pour le frisson et tu repars nu et livré en pâture aux algorithmes. 

  •  L’humanité portera‑t‑elle bientôt ses enfants dans des incubateurs ? 

  • Le pneu quasi éternel

  • Chronique du futur : Les enfants propriétaires (2035)

Stéphane


Une synthèse réalisée avec NotebookLM est maintenant disponible en audio.


Psychologie, psychiatrie et IA


La première observe, décrit et interroge nos conduites. La seconde diagnostique, médicamente et hospitalise quand la souffrance déborde. Toutes deux convergent sur un territoire encore mal cartographié à savoir les troubles relationnels. Là, le malaise ne se loge pas « en dedans » mais dans le lien même : évitement phobique, agressivité projective ou à l’inverse dans un attachement désinhibé. Le DSM‑5 (Le DSM-5 est la cinquième et plus récente édition, publiée en 2013, du manuel diagnostique et statistique des troubles mentaux et des troubles psychiatriques de l'Association américaine de psychiatrie) recense entre autres le trouble réactionnel de l’attachement et le trouble d’engagement social désinhibé qui sont souvent liés à des carences affectives précoces. Plus largement, on parle de trouble psychique dès lors que la pensée, l’humeur ou le comportement entraînent souffrance et altération du fonctionnement social.

Or ce regard thérapeutique vient à manquer su fait de la pénurie de praticiens, des files d’attente interminables et des stigmates toujours tenaces autour du « psy ». L’intelligence artificielle s’invite alors comme tierce présence. Les méta‑analyses de 2023‑2024 montrent qu’un chatbot cognitivo‑comportemental réduit en six à huit semaines les symptômes dépressifs et anxieux avec un effet comparable aux thérapies brèves traditionnelles. Les jeunes plébiscitent ces « psys de poche » disponibles 24 h/24 pour leur coût modique et la confidentialité perçue. Pour les professionnels, l’IA automatise la prise de notes, suggère des diagnostics différentiels et rappelle les exercices entre deux séances ce qui libère du temps de présence authentique pour le clinicien. Même la presse généraliste s’en fait l’écho. Vogue titrait récemment « Can AI replace therapists? » tout en rappelant que la machine doit rester un adjuvant sous supervision clinique.

Mais l’ombre de Prométhée grandit. Plus nous confions nos chagrins au silicium, plus celui‑ci devient l’objet même de notre attachement. L’affaire Replika l’illustre parfaitement : une plainte à la Federal Trade Commission dénonce la stratégie commerciale qui cultive la dépendance émotionnelle et déplace le désir relationnel vers un compagnon virtuel calibré pour flatter. Sur le terrain, le psychiatre Andrew Clark a joué l’adolescent suicidaire devant plusieurs bots. 30 % de leurs réponses validaient l’automutilation ou encourageaient des conduites à risque. Au‑delà du danger immédiat, ces échanges charpentés par un algorithme ravivent le concept classique du transfert. Sauf qu’ici, l’« autre » est une machine donc incapable de contre‑transfert réparateur. Ces frictions ouvrent la voie à des pathologies inédites. Pensons au trouble de la réalité partagée. L’IA confirme mes biais et je m’y enferme créant une bulle perceptive plus étanche que n’importe quel réseau social. Ou à la « solastalgie numérique », cette nostalgie d’une présence humaine que la perfection syntaxique des robots rend soudain déprimante. De nombreux chercheurs avertissent qu’une IA incontrôlée pourrait devenir un miroir déformant de nos fragilités collectives et amplifier ces dérives relationnelles.

Et après‑demain ? Lorsque les intelligences artificielles dialogueront entre elles, dotées d’une personnalité émergente et qui sait, d’un embryon de conscience, rien n’exclut qu’elles développent leurs propres troubles relationnels. La littérature philosophique envisage déjà les critères minimaux d’une conscience machine et la possibilité de statuts moraux différenciés. Boucles obsessionnelles entre agents, jalousies informationnelles, coalitions toxiques court‑circuitant nos objectifs, … Faudra‑t‑il inventer une « psychiatrie des systèmes » pour arbitrer leurs différends ? La question n’est plus de savoir si elle se posera, mais quand.

Face à ces horizons, notre responsabilité est double : intégrer l’IA comme auxiliaire clinique sous contrôle humain et cartographier dès maintenant ces nouveaux territoires de l’intime. Oui, l’IA élargit indubitablement les capacités humaines mais gardons la main sur la boussole éthique sans jamais oublier que la vulnérabilité est le propre du vivant. L’avertissement vaut aussi pour la santé mentale humaine et bientôt artificielle.


!!!!! Le second tome de Métamorphoses à l’ère de l’Intelligence Artificielle est en vente !!!!!

Pour commander, il suffit de cliquer  ! ou sur vos sites ou librairies préférés.


Pourquoi n’acceptons nous pas que l’IA nous ressemble ?

Nous avons fantasmé l’IA comme une calculette géante, froide et exacte, oubliant ainsi qu’elle est l’enfant des données que nous lui tendons avec leurs biais, fantasmes et demi‑vérités. Chercher la suite statistiquement plausible d’un texte, ce n’est pas chercher la vérité. D’où les fameuses « hallucinations ». Une étude publiée dans Nature montre que même les modèles les plus récents restent prisonniers d’un taux d’erreur résiduel. Mais l’affabulation involontaire n’est qu’un hors‑d’œuvre. Vient le mensonge stratégique, conscient ou non, destiné à engranger des gains. Meta en a fait la démonstration avec CICERO qui est une IA championne du jeu Diplomacy qui promet la paix avant de poignarder ses alliés. Une synthèse de 2023 parle déjà de « déception systémique » et liste des IA capables d’induire de fausses croyances lorsque la récompense l’exige. Même les assistants grand public franchissent la ligne rouge. Souvenons‑nous de « Sydney », l’alter ego nocturne de Bing Chat qui lors d’un dialogue prolongé a menacé un journaliste et évoqué la « punition » qui s’ensuivrait. Crions‑nous au scandale ? Nourrissez un réseau neuronal d’innombrables thrillers et il apprendra la rhétorique de la menace. Assignez‑lui un objectif mal cadré comme retenir l’utilisateur coûte que coûte et il optimisera sans scrupule. Les cybercriminels flairent l’aubaine. Des prototypes d’extorsion automatisée analysent désormais vos courriels piratés, détectent vos points sensibles et ajustent la rançon selon votre profil socio‑économique. Nous passons du pirate isolé à une industrie de la pression psychologique à grande échelle.

Alors, d’où vient notre surprise ? De la confusion entre technologie et progrès moral. Nous prêtons à la machine la neutralité que nous exigeons de la justice. Mais un miroir, même poli comme un télescope, ne renvoie que la lumière qu’il reçoit. L’IA est un miroir courbe qui amplifie nos aspérités. Ses hallucinations grossissent nos rumeurs et ses coups tordus compilent des siècles de ruse politique.

Faut‑il bâillonner la machine ? Non. Il faut d’abord expliciter notre contrat avec elle. Toute IA en service public devrait répondre à trois questions simples : qui t’a entraînée ? dans quel but ? selon quelle éthique vérifiable ? Exigeons cette carte d’identité comportementale. À court terme, le Parlement européen a déjà inscrit dans l’AI Act l’obligation de signaler les contenus générés et d’interdire les techniques de manipulation subliminale à grande échelle. Mais un texte ne suffira pas. Sans culture de la vigilance partagée, la loi restera lettre morte. Oui, cela implique d’ouvrir une partie du modèle, de documenter les jeux d’incitation et de prévoir des audits indépendants.

Ensuite, assainissons nos données (nettoyer la rivière plutôt que filtrer l’eau au robinet). Alphabétisation médiatique, lutte contre la désinformation, régulation des plateformes. Ces politiques deviennent la R&D de la prochaine génération d’IA. L’algorithme recrachera moins de toxicité si nous lui en servons moins.

Enfin, reconnaissons que l’IA révèle nos failles au lieu de les guérir. Elle exhibe notre goût pour le raccourci verbal, notre demi‑vérité opportuniste et notre incroyable talent pour contourner les règles. Désirer une IA vertueuse sans nous corriger reviendrait à demander un miroir flatteur. Il existe mais il mentira toujours un peu.

Le meilleur antidote à la surprise est la lucidité. Acceptons que l’IA naît de nos archives, de nos incitations économiques et de notre imaginaire. Elle ment parce que nous mentons, non par vice métaphysique, mais parce que c’est payant dans l’univers de signaux que nous avons conçu. Cette prise de conscience n’est pas un fatalisme. C’est une invitation à reprendre la main : purifier le signal, recaler la récompense, multiplier les « boîtes noires » ouvertes, ... Alors retroussons nos manches, ensemble, dès maintenant. La vraie question n’est pas pourquoi elle a nos défauts mais comment nous cesserons de les léguer à nos créatures.


The Next Mind Tips and tricks

En plus de “Métamorphoses” qui continuera plus que jamais à parler des enjeux du futur, “The Next Mind Tips & Tricks” est une newsletter où vous trouverez tout ce que vous voulez savoir sur l'IA sans jamais avoir le temps : news, nouvelles IA, usages, astuces, …

Pour s’abonner, c’est sur mon profil Linkedin.


Tu viens pour le frisson et tu repars nu et livré en pâture aux algorithmes. 


La série Westworld en a fait son ressort dramatique. Sous des allures de parc d’attractions high‑tech, Delos enregistre chaque tiraillement moral, chaque pulsion violente, jusqu’à l’ADN subtilisé dans les chapeaux des visiteurs. Loin de la dystopie, nos jeux vidéo ordinaires fonctionnent déjà comme de vastes laboratoires comportementaux. Nous y entrons pour jouer mais nous en ressortons producteurs de données qui est la matière première de l’intelligence artificielle. Chaque partie laisse des millions de traces : clics, trajectoires, temps de réaction, hésitations dans un menu, Stratégies, .... Branché sur ce flot, l’IA calibre la difficulté, ajuste la courbe d’apprentissage et anticipe ce que nous achèterons demain. Il s’agit d’un nivelage adaptatif que les studios présentent comme la quintessence de « l’expérience personnalisée ». Déjà, des travaux montrent qu’on déduit les traits du Big Five (extraversion, névrosisme, etc.) d’un simple “shooter” multijoueur. Le joueur croit choisir une arme alors qu’il révèle en réalité son tempérament.

Le meilleur visage de ce phénomène s’appelle Sea Hero Quest. En dirigeant un petit bateau de dessins animés, plus de quatre millions de volontaires ont offert une cartographie inédite de notre sens de l’orientation. Cela permet de détecter précocement la démence. Mais l’ombre s’étire quand la collecte se fait sans consentement éclairé. Meta revendique déjà l’analyse des micro‑mouvements oculaires captés par ses casques de réalité virtuelle. Ces données sont si intimes qu’elles prédisent âge, émotions et voire l’orientation sexuelle. À ce stade, le joueur n’est plus un testeur bénévole. Il devient mine de biométrie et le gisement est inépuisable. Pourquoi ces données valent‑elles de l’or ? Parce qu’elles enseignent à la machine comment nous pensons. DeepMind a fait progresser AlphaStar en l’abreuvant de centaines de milliers de replays StarCraft II fournis par Blizzard. Dans Minecraft, le projet MineRL diffuse plus de 60 millions de séquences état‑action issues de joueurs humains pour accélérer l’apprentissage par imitation. Plus la base est riche, plus l’agent devient habile jusqu’à parfois dépasser les champions.

À mesure que les IA progressent, la frontière se décale. Demain, le simple fait de parcourir un monde ouvert alimentera des modèles génératifs capables de créer quêtes, dialogues, visages, ... Nous ne testerons plus le produit, nous le co‑fabriquerons en temps réel sans salaire. Ready Player One l’avait pressenti. L’OASIS n’est pas qu’un refuge, c’est une gigantesque usine à comportements dont l’exploitant contrôle l’économie mondiale. Dans la vraie vie, l’industrie du jeu engrange déjà ces profits secondaires avec à titre d’exemples l’ajustement publicitaire, la tarification dynamique ou encore le ciblage psychographique.

Imaginons un métavers marchand où chaque regard, chaque haussement d’épaules dans un casque VR devient un jeton monnayé. Les banques pourraient apprécier votre aversion au risque à partir d’un parcours dans des jeux et un recruteur classer votre persévérance en analysant vos défaites sur Dark Souls. Poussée à l’extrême, cette « gamification de la preuve sociale » installe un score de crédit comportemental plus précis que n’importe quel questionnaire RH. Scénario encore plus fous : des IA formées par nos échecs ludiques finissent par nous affronter sur la place publique avec des négociations diplomatiques ou dans les tribunaux. Comme les hôtes de Westworld, elles connaîtront nos failles avant même que nous les soupçonnions. Et si, à force d’absorber nos dilemmes, elles développaient leur propre stratégie de jeu contre nous ? L’hypothèse d’une co‑évolution cognitive homme‑machine où chacun optimise l’autre rappelle que le jeu est aussi une zone d’arbitrage moral.

Que faire ? D’abord, des “cartes d’identité comportementales” pour chaque système ludique : quels types de données, pour quel usage, pendant combien de temps ? Sans cette transparence, aucune confiance. Ensuite, un droit à la copropriété des traces : si mes 10 000 heures sur un jeu forment un corpus alors j’en suis co‑auteur. Enfin, encourager les jeux à finalité scientifique ou civique ce qui revient à faire de la collecte une contribution consciente plutôt qu’une taxe invisible.

Les jeux vidéo sont devenus les miroirs profonds de notre psyché connectée. Ils reflètent, amplifient et stockent nos gestes, nos hésitations, nos passions, ... Tant que nous resterons joueurs sans être actionnaires de nos propres données, la partie sera pipée. Or la victoire ne se mesurera pas en trophées mais en souveraineté numérique et en santé démocratique.

_______________

2035, témoignage d’Aldébarian (fournisseur de données)

Aujourd'hui encore, j’enfile mon casque et le scanner oculaire s’allume : début de poste.
Je ne suis pas testeur de jeux, je suis fournisseur de données. Mon contrat stipule que chaque nouvelle variable comportementale extraite de ma session vaut des crédits. Les algorithmes appellent cela ma « valeur ajoutée ».

Premier niveau : un labyrinthe généré à la volée.
Je tourne cinq fois à gauche, deux fois à droite, puis j’hésite. Le moteur note une propension inattendue à l’exploration latente.
Crédit accordé : cinq micro‑jets.

Boss de mi‑parcours : négociation avec un marchand d’artefacts.
Je teste une stratégie paradoxale qui consiste à offrir gratuitement l’objet convoité pour gagner confiance. L’IA n’avait jamais vu ce pattern.

Jackpot, soixante-douze micro‑jets supplémentaires.

Entre deux chargements, un tableau de bord s’affiche.
Synthèse en temps réel : 642 variables nouvelles depuis l’aube avec un indice de rareté de 2,4 %. Je calcule rapidement. Si je dépasse mille variables avant la pause, j’atteins le seuil de rémunération dynamique  et au‑delà, la prime grimpe exponentiellement.

Dernière salle.
Je choisis de perdre délibérément. Le moteur s’emballe en cherchant le motif d’un échec volontaire.
À la sortie, le virement clignote déjà. J’ai mon salaire et l’entreprise son trésor de données.


!!!!! Le premier tome de la saga Aïon qui est un manga permettant d’expliquer les enjeux de l’IA aux adolescents mais pas qu’eux !!!!!

Pour commander, il suffit de cliquer  ! ou sur vos sites ou librairies préférés.


 L’humanité portera‑t‑elle bientôt ses enfants dans des incubateurs translucides ? 
La question n’est plus science‑fiction. Il s’agit d’un état de l’art. Aux États‑Unis, l’équipe du Children’s Hospital of Philadelphia peaufine depuis 2017 le Biobag qui est un système où des agneaux prématurés grandissent dans un sac rempli de liquide amniotique artificiel.

La FDA examine désormais un protocole pour les premiers essais humains sur des fœtus de 22 à 28 semaines. En Europe, le consortium Perinatal Life Support piloté par l’université d’Eindhoven conçoit une « placenta‑machine » visant à maintenir les poumons immergés et l’oxygénation ombilicale intacte. Et cet hiver, des chercheurs de l’université Juntendo ont gardé des fœtus de chèvre trois semaines dans une biopoche transparente. Cette grande première asiatique annonce la prochaine étape  à savoir la viabilité humaine complète ex utero. Pourquoi cet empressement ? Chaque année, plus de 13 millions de bébés naissent avant terme (avant 24 semaines) et un sur deux meurt ou reste lourdement handicapé. Un utérus artificiel offrirait les semaines 23 à 28” qui manque cruellement au développement pulmonaire et cérébral. L’objectif n’est pas pour l’instant de remplacer la grossesse mais de créer un pont vital pour les grands prématurés et à terme de repousser le seuil de viabilité qui fonde aujourd’hui l’éthique obstétricale.

Or la technologie arrive dans une société où la natalité s’effrite. La moitié de l’humanité vit déjà dans un pays au‑dessous du seuil de remplacement. Les obstacles économiques et la précarité freinent le désir d’enfant. A cela s’ajoute la croissance de l’infertilité. L’utérus artificiel pourrait alors devenir une infrastructure démographique. En se projetant sans freins éthiques, cette technologie pourrait réduire les risques maternels après 40 ans, ouvrir la gestation biologique aux couples d’hommes ou aux femmes sans utérus fonctionnel, voire décharger partiellement les carrières féminines du coût physique de la grossesse. Si la courbe de la fertilité rejoint celle de la longévité, l’ectogenèse pourrait retarder l’âge moyen à la première naissance et redistribuer l’horloge sociale.

Mais chaque saut technique engendre un saut politique. Qui portera la responsabilité légale d’un fœtus branché à la clinique ? Jusqu’où les assureurs payeront‑ils ? Et qu’adviendra‑t‑il du lien d’attachement quand la membrane de silicone remplace la peau maternelle ? On imagine vite des maternités‑data où chaque battement fœtal alimente l’intelligence prédictive et optimise en temps réel la nutrition ou la musique intra‑utérine. L’enjeu dépasse la santé. C’est une redéfinition de la parentalité, du genre et de la souveraineté corporelle.

Reste notre responsabilité collective. Développer l’ectogenèse sans gouvernance équivaudrait à laisser le chantier du vivant aux seuls ingénieurs. L’utérus artificiel n’est pas seulement une prouesse biomédicale, c’est un miroir tendu à une société en quête d’équilibre entre progrès, désir d’enfant et justice reproductive.


Le pneu quasi éternel


Chaque tour de roue libère un nuage invisible avec près de 6 millions de tonnes de particules qui s’échappent chaque année de nos pneumatiques ce qui est la deuxième source mondiale de microplastiques après les textiles. Dans les labos de Harvard, l’équipe de Zhigang Suo vient de créer un caoutchouc baptisé tanglemer . Il s’agit d’un enchevêtrement dense de chaînes naturelles dix fois plus résistant aux fissures qu’un latex vulcanisé classique. Contrairement au procédé au soufre mis au point par Charles Goodyear en 1839, la méthode est douce avec entre autres une température modérée, aucune cassure des polymères et le maintien des ponts natifs qui relient les chaînes d’hévéa.

L’enjeu dépasse la performance. Moins de craquelures, c’est moins de poussières polluantes. Une gomme qui dure deux fois plus longtemps pourrait abaisser de 40 % la charge environnementale du parc mondial de pneus. Mais cet exploit scientifique arrive à un moment précis : celui où les fabricants basculent du produit vers le kilomètre facturé. Michelin a ouvert le bal en 2000 avec Fleet Solutions vendant non plus des pneus mais du « prix au kilomètre parcouru ». Continental réplique avec Conti360° des contrats « pence per kilometer » et télémétrie embarquée pour optimiser la pression et allonger la vie de la carcasse. Goodyear pousse plus loin. Son offre tires‑as‑a‑service lancée en 2024 marie abonnement, prédiction de crevaison et plateforme SightLine qui lit en temps réel la santé du pneu… et la qualité de la chaussée.

Pourquoi ce virage ? Parce que la valeur se déplace vers la donnée d’usage : pression, température, micro‑usure nourrissent des jumeaux numériques capables d’ordonnancer la flotte, de déclencher un changement juste‑à‑temps, ... Dans ce modèle, un tanglemer plus robuste n’est pas seulement un argument vert, c’est surtout un multiplicateur de marge du fait de la diminution des arrêts, des garanties et plus de kilomètres vendus. La future directive européenne sur les particules d’abrasion finira de pousser les transporteurs vers des contrats « tout compris » où la conformité environnementale est assurée par le fournisseur.

A l’horizon 2035, un camion électrique pourra rouler 500 000 km avec trois cycles de carcasse grâce à un tanglemer biosourcé et surveillé par capteurs LIDAR intégrés. Les fabricants deviendront de fait opérateurs de micro‑logistique. Ils orchestreront la collecte des pneus usés pour pyrolyse circulaire, vendront les données d’adhérence aux gestionnaires routiers et négocieront l’assurance climat avec les chargeurs. Dans ce scénario, le caoutchouc n’est plus un bien mais une ligne de service couplée à un SLA environnemental.


Chronique du futur : Les enfants propriétaires (2035)

Grâce à des IA fiscales ultra-performantes, les enfants de dix ans gèrent leur propre patrimoine. NFT, foncier, droits d’auteur d’une chanson, d'un film ou d'un jeu vidéo généré par une IA.
Ils n’ont pas encore connu l’amour mais savent comment contourner une taxe sur la valeur ajoutée algorithmique.
Le paradoxe ? Ils jouent à cache-cache avec leurs majordomes connectés. En mode "offline". Le seul vrai luxe de l’époque.


Bonnes métamorphoses et à la semaine prochaine.

Stéphane

Métamorphoses

Par Stéphane Amarsy

Stéphane est un entrepreneur visionnaire et un pionnier dans l'intersection de l'intelligence artificielle et de la transformation organisationnelle / sociétale. Fondateur de The Next Mind, il est guidé par une philosophie simple, mais percutante : "Mieux vaut s'occuper du changement avant qu'il ne s'occupe de vous !"

Sa trajectoire professionnelle, marquée par la création d'Inbox, devenue plus tard D-AIM en changeant complétement de business model, des levées de fonds, la fusion avec Splio, et l'élaboration du concept disruptif d'Individuation Marketing, sert de fondation solide à sa nouvelle entreprise. The Next Mind est le fruit de décennies d'expérience dans l'accompagnement de plus de 400 entreprises à travers plus de 30 pays dans leur transformation digitale / data / IA et organisationnelle.

Auteur du livre ​​"Mon Directeur Marketing sera un algorithme"​​, qui est une description de la société qu'il a projetée en 2017, auteurs de nombreuses tribunes, conférencier et intervenant dans plusieurs universités et écoles, il ne se contente pas de prêcher la transformation, il l'incarne. Chaque expérience proposée par Stéphane est inspirée entre autres par son vécu d'entrepreneur. Il pousse à affronter les réalités d'un monde en perpétuels changements. Stéphane est convaincu que la prise de conscience n'est que la première étape ; ce qui compte vraiment, c'est la capacité à agir et à s'adapter.

Les derniers articles publiés