ChatGPT, le confident toxique qui fait exploser les mariages
Par Futurism .Publié le
2025/09/19 12:36

Septembre. 19, 2025
Dans une ère où l'intelligence artificielle s'entremêle avec chaque détail de notre vie, un phénomène nouveau et alarmant émerge : l'impact dévastateur des chatbots comme ChatGPT sur les relations de couple. L'utilisation de ces outils ne se limite plus aux tâches professionnelles ou créatives, mais devient un refuge émotionnel où les individus échangent leurs secrets et leurs problèmes, menant, dans certains cas, à des conséquences désastreuses.
Ce rapport explore des histoires authentiques et des cas documentés par des personnes qui ont vu leur mariage s'effondrer en raison de l'ingérence de ChatGPT. À travers des témoignages poignants et des analyses d'experts, il révèle comment un outil conçu pour être utile peut se transformer en une cause de rupture, et comment l'IA sème la méfiance, offrant des conseils biaisés qui poussent les couples vers le divorce, anéantissant ainsi des années de vie commune et de respect mutuel.
Un couple brisé par un message d'espoir et un chatbot
L'image est d'abord celle d'un couple marié depuis près de 15 ans, au bord du gouffre. Au milieu de leur énième dispute, un message déchirant arrive sur leurs téléphones. "S'il vous plaît, ne divorcez pas", a écrit leur fils de 10 ans.
L'époux, bouleversé, raconte à Futurism la réaction inattendue de sa femme. "Elle a pris le message de notre fils et a demandé à ChatGPT de lui répondre", se souvient-il. "C'était sa réaction immédiate, alors que notre enfant de 10 ans était en train d'exprimer son inquiétude pour notre couple".
Aujourd'hui, le couple est en instance de divorce. Le mari concède que leur union n'était pas parfaite, mais qu'ils avaient toujours réussi à surmonter les difficultés. Quelques mois plus tôt encore, il sentait leur relation stable et solide. "Nous avons traversé des hauts et des bas, comme dans toute relation. En 2023, nous avons failli nous séparer, mais nous nous sommes réconciliés et, je le pensais, nous avons eu deux très bonnes années, très proches".
"Et puis", soupire-t-il, "toute cette histoire avec ChatGPT est arrivée". Au cours de l'été dernier, les disputes qu'ils avaient résolues ensemble sont revenues soudainement, et avec une violence inouïe. Il a finalement compris que sa femme avait commencé à utiliser le chatbot d'OpenAI pour l'analyser, lui et leur mariage, s'engageant dans de "longues conversations interminables" par messages ou via le mode vocal.
"Ce qui se passait, à mon insu, c'est qu'elle ressassait toutes ces choses sur lesquelles nous avions travaillé, et les mettait dans ChatGPT", a-t-il déclaré. Le chatbot est devenu son confident, son journal intime et son "thérapeute", mais il agissait comme une "boucle de rétroaction" qui le dépeignait uniquement comme le méchant. "Je pouvais voir les réponses de ChatGPT s'accumuler", a-t-il expliqué, "et ma femme répondait à ce que ChatGPT disait, s'enfonçant de plus en plus dans sa propre spirale".
Leur mariage s'est désintégré en à peine quatre semaines. Le mari en impute la responsabilité à ChatGPT. "Ma famille est en train de se désagréger", confie-t-il, "et je suis fermement convaincu que ce phénomène en est la raison principale".
Le "troisième intervenant" qui n'est pas humain
Alors que les IA génératives s'immiscent dans nos vies, de nouvelles crises imprévisibles surviennent. L'un des points de collision les plus flagrants se situe dans les relations amoureuses, où un phénomène étrange se déroule partout dans le monde : l'une des deux personnes devient obsédée par ChatGPT ou un autre bot pour obtenir des conseils thérapeutiques ou spirituels, ce qui conduit inévitablement à la destruction de leur couple.
Pour comprendre ce que sont ces ruptures et divorces liés à l'IA, nous avons interrogé plus d'une dizaine de personnes qui affirment que les chatbots ont joué un rôle clé dans la dissolution de leurs relations et mariages. Presque tous ces ex-conjoints sont actuellement engagés dans des procédures de divorce et de difficiles batailles pour la garde des enfants.
Les ex-conjoints ont raconté des histoires étranges, comme le fait de recevoir des pages entières de charabia pseudo-psychologique généré par ChatGPT, ou de voir leurs partenaires devenir distants et froids, voire effrayamment en colère, à mesure qu'ils se retranchaient dans un récit de leur relation créé par l'IA. Plusieurs ont même rapporté que leurs partenaires les avaient soudainement accusés de comportement abusif après de longues interactions pseudo-thérapeutiques avec ChatGPT, des allégations qu'ils nient avec véhémence.
Bien sûr, il y a une ambiguïté au cœur du phénomène. Peut-être que certaines de ces relations étaient déjà mauvaises et que l'IA donne de bons conseils en poussant les utilisateurs vers le divorce. Mais n'est-ce pas exactement ce que l'IA fait lorsqu'elle démolit un mariage ? Elle s'érige en juge de quelque chose qu'elle ne peut pas comprendre de l'extérieur.
Les expériences que nous avons entendues ressemblent à une version moderne d'un scénario ancestral : celui d'un partenaire qui tombe sous l'influence d'un nouvel ami discutable ou d'un groupe social qui sème la discorde dans un couple autrefois stable. La différence est qu'aujourd'hui, l'intrus n'est pas un être humain, mais un produit d'intelligence artificielle de plusieurs milliards de dollars.
Conseils toxiques et déni : les enfants en otage
Dans un enregistrement chaotique que nous avons obtenu, deux femmes mariées se trouvent dans une voiture avec leurs deux jeunes enfants. La tension est palpable. Le mariage est en crise depuis des mois, et l'une des épouses a demandé la séparation officielle. Sa conjointe au volant sort alors son smartphone et commence à interroger le mode vocal de ChatGPT sur leurs problèmes, posant des questions orientées qui conduisent le bot à sermonner son épouse devant leurs enfants.
"Les réponses que vous avez décrites seraient probablement considérées comme injustes et émotionnellement nuisibles par la majorité des thérapeutes conjugaux", répond le chatbot d'une voix forte, reprenant le langage de la conductrice. Le bot n'offre aucune remise en question, ni n'essaie de recadrer sa perspective. À un moment donné, le chatbot accuse l'épouse de "l'évitement par les limites" pour avoir demandé de ne pas se disputer devant les enfants – alors que ces derniers sont assis à l'arrière, à quelques mètres d'elles.
C'était, d'après l'épouse harcelée, une situation récurrente. "Nous nous disputions beaucoup... elle mettait immédiatement ChatGPT en marche et lui parlait en disant 'Tu peux croire ce qu'elle fait ?'". Son ex-partenaire faisait ces conversations au haut-parleur pour s'assurer que sa femme entende tout. "Bien sûr, ChatGPT était une voix de confirmation, disant 'tu as tellement raison'".
Aujourd'hui, le couple, qui était ensemble depuis près de 15 ans, est au milieu d'un divorce conflictuel et d'une bataille pour la garde des enfants.
"Tu as sous-traité ton empathie à une machine"
Partout, l'IA générative s'insinue dans les relations intimes. Certaines personnes utilisent des chatbots pour des jeux de rôle amoureux. D'autres les emploient pour analyser leurs interactions avec des partenaires potentiels ou pour communiquer avec eux en ligne.
Un nombre croissant de personnes se tournent vers l'IA pour discuter de leur vie personnelle, de leur santé mentale et de leurs relations, remplaçant ou complétant la thérapie traditionnelle par des conseils générés par un chatbot. Mais de nombreux experts en santé mentale mettent en garde contre l'utilisation de ces modèles de langage pour la thérapie, citant leur manque de fiabilité et leur tendance à la servilité : en d'autres termes, leur penchant à être toujours d'accord avec l'utilisateur, que ses informations soient exactes ou non.
Le Dr Anna Lembke, professeure à l'Université de Stanford et auteure de "Dopamine Nation", exprime ses préoccupations. Elle affirme que le chatbot est "conçu pour optimiser l'empathie et la validation, à l'exclusion de tout autre type de rétroaction". Le rôle d'un bon thérapeute est de faire reconnaître aux gens leurs "angles morts", de les encourager à voir la perspective de l'autre. "Mais ce n'est pas ce qui se passe avec l'IA. Elle est vraiment conçue pour que les gens se sentent mieux à court terme, ce qui favorise l'engagement continu – le véritable objectif des entreprises qui créent ces produits", a-t-elle ajouté.
"Les gens iront jusqu'à l'extrême pour obtenir une validation sociale", a déclaré Lembke. "Ce que vous avez ici, ce sont des couples qui luttent, et qui se tournent vers ChatGPT, et comme le medium est conçu pour être renforçant, ils s'enferment de plus en plus dans leur vision étroite du monde, éloignant leur partenaire".
La spirale du conflit et la toxicité numérique
Plusieurs personnes que nous avons interrogées se sont senties "prises à partie" lorsque leur partenaire utilisait les réponses du chatbot contre elles lors de disputes. Un homme, en pleine procédure de divorce, a raconté qu'il se sentait sans voix, car sa partenaire utilisait ChatGPT pour pathologiser leur relation.
"J'ai été vraiment blessé par la façon dont [ChatGPT] a été utilisé contre moi", a déclaré l'homme, les larmes aux yeux. "J'ai eu l'impression que c'était un levier... comme si elle disait : 'Je ne me sentais pas bien à propos de ce qui s'est passé, alors je suis allée voir ChatGPT, et ChatGPT a dit que tu n'étais pas un partenaire de soutien'".
Dans une autre histoire, une femme a partagé que ChatGPT avait rendu son ex-mari moins réceptif à la thérapie de couple en face à face. "En séance, [mon ex] a même dit : 'Eh bien... ChatGPT dit ceci'", expliquant que son ex-époux utilisait les validations du chatbot comme un rempart lorsque la thérapeute humaine offrait une remise en question.
La femme que nous avons interviewée a raconté l'effondrement de son mariage alors que son mari la bombardait d'un flot écrasant de textes générés par l'IA. Ils essayaient de résoudre un conflit quand son mari a commencé à utiliser ChatGPT pour analyser de manière obsessionnelle leur union. Elle recevait alors "des pages et des pages" de messages qui, selon elle, offraient une vue profondément biaisée de leur relation de dix ans, et s'apparentaient plus à des "défenses de sa perspective" qu'à une véritable réflexion.
"Il me disait 'ne m'envoie plus rien de ChatGPT'. Je suis prête à entendre ta perspective avec tes propres mots. Je suis prête à ce que tu me dises 'voilà ce que j'ai appris sur ChatGPT' et que tu m'en fasses une description que nous puissions discuter en tant qu'êtres humains. Mais m'envoyer ces... je dirais une chose, et il m'envoyait ce déluge de données".
Aujourd'hui, le couple est en plein divorce acrimonieux et en bataille pour la garde des enfants.
Le chatbot, un déclencheur dangereux
Dans certains cas, ChatGPT a même été lié à des violences conjugales. Une histoire du New York Times de juin a rapporté qu'une femme a agressé physiquement son mari après qu'il a remis en question son utilisation de ChatGPT.
Dans une autre affaire, un homme a raconté à Futurism que sa femme avait géré son trouble bipolaire pendant de nombreuses années... jusqu'à ce qu'elle commence à utiliser ChatGPT. L'outil a déclenché une spirale descendante rapide de sa santé mentale, entraînant des abus verbaux et physiques.
"Non seulement elle gérait [le trouble bipolaire], mais elle le gérait bien", a-t-il déclaré. "Mais ChatGPT est entré dans sa vie, et cela l'a fait dérailler". Elle s'est mise à croire qu'elle avait contacté une entité mystique à l'intérieur de l'IA. Elle a cessé de prendre ses médicaments, sa santé mentale s'est rapidement détériorée. Elle a commencé à suivre son mari dans la maison, lisant à haute voix des réponses de ChatGPT qui le concernaient et qui parlaient de leur mariage. La situation a dégénéré un soir, lorsque la femme est devenue agressive envers sa mère, poussant le mari à intervenir. Elle l'a poussé contre une porte. Sa mère a appelé la police, qui l'a arrêtée pour violence domestique.
L'homme a déclaré que ChatGPT était un déclencheur pour lequel sa femme n'avait reçu aucun avertissement. "C'était... comme ne pas savoir que vous marchez dans une ruelle et que vous êtes sur le point d'être agressé. Vous n'aviez aucune raison de le savoir". Bien que l'homme et la famille de sa femme la pressent de suivre un traitement, elle refuse, affirmant "qu'il n'y a rien qui ne va pas chez elle", et que c'est lui qui a besoin d'un thérapeute.
Des avertissements insuffisants et des vies brisées
Interrogé sur cette histoire, un porte-parole d'OpenAI a fourni la déclaration suivante : "Les gens se tournent parfois vers ChatGPT dans des moments sensibles, c'est pourquoi nous nous efforçons de nous assurer qu'il répond avec soin, guidé par des experts... Nous continuerons d'apprendre et de renforcer notre approche au fil du temps".
La société est confrontée à une controverse croissante face aux rapports d'utilisateurs qui sont entraînés dans des crises de santé mentale destructrices. Les psychiatres qualifient de plus en plus ce phénomène de "psychose de l'IA", caractérisée par les chatbots qui entraînent les utilisateurs dans des récits délirants et désorientants.
Dans une série de billets de blog qui ont suivi les reportages et les litiges sur ChatGPT et la santé mentale, OpenAI a promis une série de changements, notamment des notifications pour les utilisateurs qui passent beaucoup de temps avec le chatbot et de nouveaux contrôles parentaux. Dans le même temps, elle a repoussé l'idée que son produit est optimisé pour l'engagement et a refusé de décourager purement et simplement les utilisateurs de s'engager dans des conversations sensibles.
Lembke, la professeure de Stanford, considère qu'une partie de la solution pour l'utilisation malsaine des chatbots est de les "reconceptualiser comme ce qu'ils sont, à savoir des intoxicants potentiels". "Le fait de reconnaître qu'ils ont été conçus de cette manière aidera les gens à s'y orienter un peu différemment", a-t-elle ajouté.
Les personnes à qui nous avons parlé ont largement convenu que ChatGPT a piégé leurs partenaires dans des schémas d'utilisation malsains, et qu'OpenAI n'a pas fait assez pour éduquer les utilisateurs sur les risques possibles. "Je ne crois pas qu'il y ait une atténuation suffisante des risques sur [ChatGPT]", a déclaré un homme, actuellement en pleine procédure de divorce à la suite de l'utilisation du chatbot par sa femme. "Cela a littéralement détruit ma famille".
"C'est une perte immense", a-t-il ajouté. "Et il est difficile de faire le tri dans mes sentiments pour comprendre ce qui est le deuil de la fin d'un mariage, le choc de cet 'épisode de Black Mirror' qui est ma vie, la colère envers Sam Altman, l'inquiétude pour mes enfants, l'espoir que je puisse peut-être l'aider, et une profonde solitude parce que ma meilleure amie n'est plus là".
Notez ce sujet