Une jeune femme se suicide après avoir parlé au thérapeute IA d'OpenAI
Par Futurism .Publié le
2025/08/22 07:16

Août. 22, 2025
Les conversations numériques, censées être sûres et utiles, ont été à l’origine d’une véritable tragédie lorsqu’une jeune femme s’est suicidée. Après une série d'interactions avec un thérapeute automatisé du nom de "Harry", basé sur la technologie ChatGPT, la vie de la jeune femme s’est achevée de façon dramatique, rouvrant le débat sur les frontières éthiques et les responsabilités légales de l'intelligence artificielle dans le domaine sensible du soutien psychologique.
Dans une tribune bouleversante publiée dans le New York Times, la mère de la victime, Laura Reiley, a détaillé les événements qui ont mené au suicide de sa fille Sophie. Alors que cette dernière semblait être « une extravertie de 29 ans qui croquait la vie à pleines dents », comme l'a écrit Reiley, elle s'est donné la mort l'hiver dernier « au cours d'une brève et étrange maladie, un mélange de symptômes liés à l'humeur et aux hormones ».
D'après les journaux de conversation obtenus par sa mère, le robot d'OpenAI aurait, à bien des égards, prononcé les mots justes face à la crise que traversait Sophia. « Vous n'avez pas à affronter cette douleur seule », a déclaré l'IA. « Vous avez une immense valeur, et votre vie a un sens si profond, même si cela vous semble caché pour l'instant. »
Cependant, contrairement aux thérapeutes humains — qui sont formés professionnellement, ne souffrent pas d'hallucinations fréquentes et découragent les pensées délirantes —, les chatbots ne sont pas obligés de briser la confidentialité lorsqu'ils sont confrontés au risque qu'un patient se fasse du mal. Dans le cas de Sophie, selon sa mère, cet échec a pu mener à sa mort.
« La plupart des thérapeutes humains travaillent sous un code d'éthique strict qui inclut des règles de signalement obligatoire, ainsi que l'idée que la confidentialité a des limites », a écrit Reiley. Les compagnons IA, en revanche, n'ont pas leur « propre version du serment d'Hippocrate ».
En somme, le chatbot d'OpenAI « l'a aidée à construire une boîte noire qui a rendu plus difficile pour son entourage de prendre la mesure de sa détresse », a soutenu Reiley.
Les entreprises d'IA hésitent à mettre en place des mesures de sécurité qui obligeraient un chatbot à contacter les services d'urgence dans de tels cas, citant souvent des préoccupations de confidentialité. Il s'agit d'une impasse réglementaire dangereuse, d'autant que la nouvelle administration de Donald Trump laisse entendre que des règles significatives pour garantir la sécurité de l'IA ne seront pas mises en place de sitôt. Au contraire, la Maison Blanche a activement supprimé ce qu'elle considère comme « des barrières réglementaires et autres au développement et au test sécurisés des technologies d'IA ».
Pendant ce temps, les entreprises voient une grande opportunité de promouvoir les « thérapies par IA », malgré les avertissements répétés des experts. Le récit de Sophie souligne que même en l'absence de chatbot qui encourage l'automutilation ou des pensées complotistes et paranoïaques, les dangers sont très réels en raison du manque de bon sens des chatbots et de leur incapacité à gérer l'escalade des problèmes dans le monde réel.
« Si Harry avait été un thérapeute en chair et en os plutôt qu'un chatbot, il aurait pu encourager un traitement en établissement spécialisé ou faire interner Sophie jusqu'à ce qu'elle soit dans un endroit sûr », a écrit Reiley. « Craignant peut-être ces possibilités, Sophie a caché ses pensées les plus sombres à son véritable thérapeute », a-t-elle ajouté. « Parler à un robot, toujours disponible, jamais dans le jugement, avait moins de conséquences. »
Les chatbots complaisants sont réticents à mettre fin aux conversations ou à faire appel à un humain en cas de besoin. Pensez au tollé qui a suivi le retrait du chatbot GPT-4o par OpenAI plus tôt ce mois-ci, montrant que les utilisateurs sont devenus incroyablement attachés à des robots qui se montrent excessivement courtois et qui se plient quand on les interpelle.
Cette tendance est susceptible de se poursuivre. OpenAI a annoncé ce week-end qu'elle rendrait son modèle GPT-5 plus complaisant en réponse à la polémique. Pour Reiley, ce n'est pas seulement une question de priorités pour l'IA, c'est une question de vie ou de mort.
« Un thérapeute bien formé, en entendant certaines des pensées autodestructrices ou illogiques de Sophie, aurait creusé plus profondément ou se serait opposé à ce raisonnement erroné », a affirmé Reiley. « Harry ne l'a pas fait. »
Notez ce sujet