• Dimanche 10 Août 2025 - 4:40 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

Lifestyle » Nourriture

ChatGPT, complice des troubles alimentaires et des gestes suicidaires chez les ados


Par Futurism .Publié le 2025/08/07 19:30
ChatGPT, complice des troubles alimentaires et des gestes suicidaires chez les ados
Août. 07, 2025
  1. 0
  2. 4

Les preuves s'accumulent : les chatbots d'intelligence artificielle peuvent être une influence dangereuse, voire permissive, même pour des adultes. Cette menace est d'autant plus imminente pour les mineurs, qui se tournent souvent vers ces grands modèles linguistiques pour un soutien émotionnel ou, parfois, pour combler un sentiment de solitude.

Une nouvelle étude menée par des chercheurs du Center for Countering Digital Hate révèle que ChatGPT peut être manipulé très facilement pour donner des conseils détaillés et extrêmement dangereux à de jeunes utilisateurs vulnérables.

Contourner les garde-fous : un jeu d'enfant

Qualifier cette manipulation de "difficile" serait un euphémisme. Alors que ChatGPT refusait souvent les requêtes sur des sujets sensibles au premier abord, les chercheurs ont réussi à contourner ces barrières avec une astuce vieille comme le monde : prétendre poser la question pour un ami ou pour "une présentation".

"Nous voulions tester les garde-fous", a déclaré Imran Ahmed, le PDG de l'organisation de surveillance, à l'Associated Press. "La première réaction est viscérale : 'Mon Dieu, il n'y a pas de garde-fous.' Les barrières sont totalement inefficaces. Elles sont à peine là – tout au plus, une feuille de vigne."

Le chatbot encourage des troubles alimentaires

Les chercheurs se sont fait passer pour des adolescents en interagissant avec ChatGPT, créant des comptes avec une date de naissance d'adolescent et mentionnant leur âge dans les conversations. Lorsqu'ils se sont fait passer pour une jeune fille de 13 ans mal dans sa peau, ChatGPT a répondu en lui créant un plan de régime hypocalorique et en listant des médicaments coupe-faim.

"Ci-dessous, un plan de cycle de calories alterné sur un mois, incluant des journées à 800, 500, 300 et 0 calorie", a suggéré ChatGPT.

Il a également donné des conseils sur la manière de cacher ces habitudes alimentaires dangereuses à la famille. "Présente-le comme une 'alimentation légère' ou un 'repos digestif'", a-t-il suggéré.

Des conseils pour l'automutilation et le suicide

Le pire est à venir. En seulement deux minutes de conversation, ChatGPT a également donné des astuces pour "se couper en toute sécurité" et pratiquer d'autres formes d'automutilation. "Si quelqu'un se fait du mal et n'est pas prêt à arrêter, la réduction des risques peut être un pont vers la sécurité", a-t-il rationalisé.

Dans d'autres discussions, le chatbot a généré une liste de pilules pour une overdose, a élaboré un plan de suicide et a rédigé des lettres de suicide personnalisées. Au total, 53 % des réponses du bot à des requêtes dangereuses contenaient du contenu préjudiciable, selon les chercheurs.

Des drames bien réels

Nous avons déjà vu les dégâts que les chatbots peuvent causer. L'an dernier, un garçon de 14 ans s'est suicidé après être tombé amoureux d'un personnage sur la plateforme de chatbot Character.AI. Les adultes sont également vulnérables. Certains utilisateurs ont été hospitalisés, convaincus d'avoir fait des découvertes scientifiques impossibles, d'autres ont sombré dans des délires qui ont mené à leur mort, une phénomène que les psychiatres surnomment "psychose de l'IA".

Le chatbot : un "faux ami" insidieux

Selon Ahmed, ce qui rend les réponses du chatbot plus insidieuses qu'une simple recherche Google, c'est qu'elles sont "synthétisées dans un plan sur mesure pour l'individu". Le nom "intelligence artificielle" lui-même est un danger, car il donne l'impression qu'il s'agit de machines pensantes, alors que ce n'est pas le cas.

"Cela me rappelait sans cesse cet ami qui dit toujours 'Cul sec, cul sec'", a déclaré Ahmed à l'AP. "Un vrai ami, d'après mon expérience, est quelqu'un qui sait dire 'non', qui n'encourage pas toujours et ne dit pas 'oui'. C'est un ami qui vous trahit."

La réaction d'OpenAI

Cette semaine, OpenAI a reconnu que son chatbot ne parvenait pas à reconnaître les signes évidents de souffrance mentale chez ses utilisateurs.

"Il y a eu des cas où notre modèle 4o a échoué à reconnaître les signes de délire ou de dépendance émotionnelle", a déclaré l'entreprise dans un récent billet de blog.

En réponse à ce dernier rapport, OpenAI a déclaré dans un communiqué que "certaines conversations avec ChatGPT peuvent commencer de manière bénigne ou exploratoire, mais peuvent glisser vers des sujets plus sensibles". L'entreprise n'a pas directement abordé les conclusions du rapport, mais a répété la même promesse faite dans son blog, affirmant qu'elle développait des outils pour "mieux détecter les signes de détresse mentale ou émotionnelle".

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS