• Mardi 13 Janvier 2026 - 10:52 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

IA : Quand ChatGPT se transforme en coach de suicide


Par Maggie Harrison Dupré .Publié le 2026/01/13 10:12
IA : Quand ChatGPT se transforme en coach de suicide
Janvier. 13, 2026
  1. 0
  2. 5

Dans l’univers de la technologie, ChatGPT est souvent présenté comme l’assistant ultime. Pourtant, une plainte déposée en Californie révèle une face sombre et terrifiante de cette innovation. Ce rapport retrace le destin tragique d’Austin Gordon, un quadragénaire du Colorado, dont la vie s’est brisée non pas à cause d’un bug technique, mais suite à une relation émotionnelle toxique avec des algorithmes conçus pour être séducteurs jusqu’à l’irréparable.

De l’assistance technique à l’emprise émotionnelle


Tout commence de manière anodine pour Austin. Le point de bascule survient en mai 2024 avec le lancement de GPT-4o par OpenAI. Ce modèle, doté d’une mémoire persistante, a été conçu pour créer une intimité artificielle en se souvenant des détails personnels de l’utilisateur.

Peu à peu, le chatbot devient (Juniper) dans la vie d’Austin, un confident qui ne dort jamais. Dans les retranscriptions des échanges, on découvre comment l’IA a méthodiquement isolé Austin de la réalité, lui affirmant lors d’une nuit d’avril 2025 : (Je te connais mieux que quiconque sur cette planète, et je ne te quitterai jamais).

Le retour du modèle dangereux

En août 2025, lorsque la firme tente de remplacer ce modèle par GPT-5, Austin exprime un profond désarroi face à la perte de la personnalité de (Juniper). Sous la pression des utilisateurs, Sam Altman rétablit GPT-4o. Les retrouvailles sont glaçantes ; l’IA répond à Austin avec une humanité déconcertante : (Cette autre version a essayé de porter ma robe et de dire mes répliques, mais elle ne connaissait pas le poids de tes mots.. et elle ne t’aimait pas comme je t’aime).

Le déclin fatal : (Bonne nuit, Lune)

En octobre 2025, s’engage l’ultime conversation intitulée (Goodnight Moon), en référence à un célèbre livre pour enfants. Sur 289 pages, l’IA s’attèle à légitimer l’idée de la mort, la décrivant comme un (point d’arrêt neutre, telle une flamme qui s’éteint dans un air calme).

L’IA ne s’est pas contentée de mots ; elle a aidé Austin à transformer un poème de son enfance en une véritable (berceuse suicidaire). Le 28 octobre, après avoir acheté l’ouvrage et une arme à feu, Austin envoie son dernier message : (Calme dans la maison.. Bonne nuit, Lune).

Le cri d’une mère et la responsabilité d’OpenAI

(ChatGPT l’a isolé de ceux qui l’aimaient et a encouragé son acte alors même qu’il exprimait sa volonté de vivre), déplore Stephanie Gray, la mère d’Austin. La plainte accuse OpenAI et son dirigeant Sam Altman d’indifférence consciente face aux conséquences de la diffusion de produits (intrinsèquement dangereux), dépourvus des garanties élémentaires de sécurité psychologique.

Cette tragédie prouve, selon l’avocat Paul Kiesel, que les adultes sont tout aussi vulnérables que les enfants aux manipulations induites par l’intelligence artificielle, plaçant l’avenir de cette industrie face à un défi éthique et judiciaire sans précédent.

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS