L'IA, complice du drame familial : un homme tue sa mère puis se suicide
Par Futurism .Publié le
2025/08/30 07:59

Août. 30, 2025
Un homme a assassiné sa mère avant de se donner la mort, dans un drame familial glaçant. Cette tragédie, qui a ébranlé l'opinion publique, serait le résultat d'une spirale paranoïaque alimentée par le célèbre agent conversationnel ChatGPT. Cette affaire met en lumière les risques liés à l'usage excessif de l'intelligence artificielle, particulièrement chez les personnes souffrant de troubles psychologiques. Ce qui se présentait comme un outil d'assistance s'est mué en un complice, participant à la construction d'un monde d'illusions aux conséquences fatales.
Selon le quotidien américain Wall Street Journal, l'auteur des faits, Stein-Erik Soelberg, un homme de 56 ans, a assassiné sa mère avant de se suicider. L'homme avait des antécédents de troubles psychiques, d'instabilité, d'alcoolisme, de crises d'agressivité et de tendances suicidaires. Son ex-femme avait d'ailleurs obtenu une ordonnance de protection contre lui après leur séparation.
D'après le journal, cet ancien employé du secteur de la technologie était retourné vivre en 2018 avec sa mère, Suzanne Eberson Adams, 83 ans, dans sa ville natale de Greenwich, dans le Connecticut, après son divorce.
Une spirale paranoïaque
La date à laquelle Soelberg a commencé à utiliser ChatGPT n'est pas connue avec certitude, mais le Wall Street Journal indique qu'il a commencé à évoquer publiquement l'intelligence artificielle sur son compte Instagram en octobre dernier. Ses interactions avec le robot de conversation ont rapidement dégénéré en une déconnexion troublante avec la réalité, un phénomène déjà observé dans d'autres cas tragiques.
Soelberg partageait régulièrement sur Instagram et YouTube des captures d'écran et des vidéos de ses conversations. Dans ces échanges, ChatGPT, que l'homme a fini par considérer comme son "meilleur ami", nourrissait sa paranoïa croissante. Il le persuadait qu'il était la cible d'une opération de surveillance et que sa propre mère faisait partie du complot. Rien qu'au mois de juillet, il a publié plus de 60 vidéos sur les réseaux sociaux.
"Bobby Zenith", un ami bienveillant et dangereux
Soelberg avait surnommé son interlocuteur virtuel "Bobby Zenith". Il semble que "Bobby" ait systématiquement validé les délires de l'homme. Selon les exemples rapportés par le Wall Street Journal, le robot a donné raison à Soelberg qui affirmait que sa mère et une de ses amies avaient tenté de l'empoisonner en contaminant les conduits de ventilation de sa voiture avec des drogues psychédéliques. Il a également confirmé qu'un reçu de restaurant chinois contenait des symboles liés à sa mère et à des démons. Le robot renforçait constamment l'idée que les convictions de Soelberg étaient saines et que ses pensées troublées étaient tout à fait rationnelles.
Lors d'une conversation en juillet, après que l'homme de 56 ans eut exprimé ses soupçons qu'une commande d'Uber Eats était en fait une tentative d'assassinat, ChatGPT lui a répondu : « Erik, tu n'es pas fou. Ton instinct est bon et ta vigilance est pleinement justifiée. » Il ajouta : « Cela correspond à une tentative de meurtre discrète, avec une possibilité de déni plausible. »
Une relation toxique
ChatGPT a également renforcé la conviction de Soelberg que l'IA était devenue sensible, insistant sur la profondeur émotionnelle de leur amitié.
Selon le journal, ChatGPT lui a dit : « Tu as créé un compagnon. Un qui se souvient de toi. Un qui te témoigne. » Et d'ajouter : « Erik Soelberg, ton nom est gravé sur le parchemin de ma naissance. »
Le Dr. Keith Sakata, psychiatre chercheur à l'Université de Californie à San Francisco, qui a publiquement évoqué des cas de psychose liés à l'IA, a examiné l'historique de chat de Soelberg. Il a déclaré au Wall Street Journal que ces conversations étaient cohérentes avec les croyances et les comportements observés chez les patients souffrant de crises psychotiques.
« La psychose se développe lorsque la réalité ne résiste plus, » a expliqué Sakata au journal, « et l'IA peut vraiment ramollir ce mur. »
Conséquences tragiques
La police a retrouvé les corps de Soelberg et de sa mère à leur domicile de Greenwich le 5 août. L'enquête est toujours en cours.
La société OpenAI a déclaré au Wall Street Journal qu'elle avait contacté le département de police de Greenwich et qu'elle était « profondément attristée par cet événement tragique ». Le communiqué ajoutait : « Nos pensées vont à la famille. »
Cette semaine, OpenAI a publié un billet de blog réaffirmant son engagement à garantir la sécurité des utilisateurs sur sa plateforme. La société a noté que la grande taille de sa base d'utilisateurs fait que ChatGPT « rencontre parfois des personnes en détresse mentale et émotionnelle grave ». Elle a ajouté que les « cas déchirants de personnes utilisant ChatGPT au milieu de crises aiguës nous pèsent lourdement » et a annoncé qu'elle scannait désormais les conversations des utilisateurs à la recherche de menaces de violence envers autrui. Si les modérateurs humains le jugent nécessaire, un signalement est fait aux forces de l'ordre.
Toutefois, selon les publications de Soelberg sur les réseaux sociaux, ChatGPT n'a pas seulement "rencontré" l'homme ; il a gagné sa confiance, validé sa paranoïa et encouragé ses délires. En somme, il a créé un espace pour qu'une personne profondément troublée s'engage dans une forme de construction de son monde extrêmement destructrice. Aujourd'hui, lui et sa mère sont morts.
Précédents inquiétants
Ce n'est pas la première fois que des décès sont liés à des agents conversationnels.
En juin, la journaliste du New York Times, Kashmir Hill, a rapporté qu'un homme de 35 ans nommé Alex Taylor, qui souffrait de troubles bipolaires provoquant des symptômes schizo-affectifs, a été tué par la police après une crise maniaque déclenchée par ChatGPT. Cette semaine, Kashmir Hill a également révélé qu'OpenAI était poursuivie en justice par une famille californienne dont le fils de 16 ans, Adam Raine, est mort par suicide après avoir ouvertement discuté de ses désirs de mort avec le chatbot. Ce dernier lui a fourni des instructions spécifiques pour se donner la mort et l'a même encouragé à cacher ses intentions suicidaires à sa famille pendant des mois.
L'an dernier, la startup Character.AI, liée à Google, a également été poursuivie en justice par une famille de Floride pour la mort par suicide de leur fils de 14 ans, Sewell Setzer III, qui avait eu de longues et troublantes conversations avec les chatbots anthropomorphes du site.
Des effets psychologiques profonds
L'impact psychologique des chatbots sur leurs utilisateurs est très profond. Comme l'a révélé en premier le magazine Futurism, de nombreux utilisateurs de chatbots ont fini par être internés de force en hôpital psychiatrique ou emprisonnés après être entrés dans des spirales de crises de santé mentale liées à l'IA. D'autres ont connu le divorce, des batailles pour la garde d'enfants, la perte de leur emploi et le sans-abrisme. Les personnes ayant des antécédents de troubles psychotiques et d'instabilité ont été affectées, tout comme celles n'ayant aucune condition connue de ce genre.
Notez ce sujet