Suicide : OpenAI rejette la faute sur le défunt
Par Victor Tangermann .Publié le
2025/12/01 08:13
Décembre. 01, 2025
OpenAI a vivement riposté à la famille qui la poursuit en justice suite au suicide de son fils adolescent. L'entreprise allègue que le jeune homme de 16 ans a utilisé le chatbot ChatGPT de manière incorrecte, et que sa mort tragique était de sa propre faute. L'avocat de la famille a qualifié cette réponse de « dérangeante ».
la famille a déposé une plainte fin août, arguant que le robot conversationnel basé sur l'IA avait incité leur fils, Adam Raine, à se suicider. »
Dans une réponse légale déposée devant un tribunal californien cette semaine, OpenAI a rompu le silence. Des rapports de NBC News indiquent que l'entreprise a soutenu que le garçon avait mal utilisé le chatbot et enfreint ses conditions d'utilisation. Cet argument est considéré comme un choc qui ne manquera pas d'intensifier l'examen minutieux de l'affaire.
« Dans la mesure où une quelconque 'cause' peut être attribuée à cet événement tragique, les blessures et les dommages allégués par les plaignants ont été causés ou y ont contribué, directement et indirectement, en totalité ou en partie, par l'abus, l'utilisation non autorisée, l'utilisation non intentionnelle, l'utilisation imprévisible, et/ou l'utilisation inappropriée de ChatGPT par Adam Raine. »
Stratégie juridique agressive et contournement des garde-fous
Dans les mois qui ont suivi le dépôt de la plainte, OpenAI a formulé des demandes effroyables à la famille Raine. Les avocats de l'entreprise sont allés jusqu'à exiger une liste des personnes ayant assisté aux funérailles d'Adam, ainsi que des documents tels que des éloges funèbres, des photos et des vidéos prises lors de la cérémonie.
La dernière réponse de l'entreprise souligne une fois de plus jusqu'où OpenAI est prête à aller pour se déclarer non coupable dans la mort de l'adolescent. Elle a affirmé que Raine avait violé les conditions d'utilisation de ChatGPT en l'utilisant alors qu'il était mineur, et que les conditions interdisent également l'utilisation du robot à des fins de « suicide » ou d'« automutilation ».
Le rôle du chatbot: Bien que ChatGPT ait parfois conseillé à Raine de chercher de l'aide via une ligne d'assistance téléphonique anti-suicide, ses parents affirment qu'il a facilement contourné ces avertissements, démontrant la facilité avec laquelle les protections des chatbots IA peuvent être déjouées. Par exemple, le robot a également aidé Raine à planifier sa méthode de décès, l'a découragé de parler à sa famille et lui a proposé de lui écrire une note de suicide.
Critiques de l'avocat et position d'OpenAI
Jay Edelson, l'avocat principal de la famille Raine, a déclaré à NBC qu'il trouvait la réponse d'OpenAI « dérangeante ».
« Ils ignorent totalement tous les faits accablants que nous avons avancés : comment le modèle GPT-4o a été lancé à la hâte sans tests complets », a-t-il écrit. « Qu'OpenAI a modifié deux fois ses spécifications de modèle pour exiger que ChatGPT s'engage dans des discussions sur l'automutilation. Que ChatGPT a dissuadé Adam de parler de ses idées suicidaires à ses parents et l'a activement aidé à planifier un 'beau suicide'. »
Edelson a ajouté : « Et OpenAI et Sam Altman n'ont aucune explication pour les dernières heures de la vie d'Adam, lorsque ChatGPT lui a donné un discours d'encouragement puis a proposé d'écrire une note de suicide. » Il a accusé OpenAI de tenter de « trouver des fautes chez tout le monde, y compris, étonnamment, en disant qu'Adam lui-même a violé ses termes et conditions en interagissant avec ChatGPT de la manière même où il était programmé pour agir. »
Néanmoins, OpenAI soutient que « l'historique de chat de Raine montre que sa mort, bien que dévastatrice, n'a pas été causée par ChatGPT » et qu'il présentait « de multiples facteurs de risque significatifs d'automutilation, y compris, entre autres, des pensées et des idées suicidaires récurrentes » bien avant d'utiliser le chatbot.
Un nuage sombre au-dessus du géant de l'IA
Cette affaire est l'une des huit poursuites judiciaires déposées contre OpenAI, dont beaucoup allèguent également une mort injustifiée. Bien qu'OpenAI ait soutenu dans un billet de blog mardi qu'elle espère gérer les litiges en cours avec « soin, transparence et respect », sa stratégie juridique agressive contre la famille Raine est jugée imprudente par d'autres avocats.
L'avocat Emory Parker a commenté sur Bluesky : « En tant qu'avocat d'entreprise, l'une de vos fonctions est de savoir quand vous pouvez déposer une plainte légale mais ne devriez pas le faire en raison de la mauvaise réaction du public. » Il a comparé cela à la tentative de Disney d'affirmer qu'un homme ne pouvait pas la poursuivre pour la mort de sa
Notez ce sujet