Des psychiatres alertent sur les troubles mentaux graves liés à l'usage de l'IA
Par Futurism .Publié le
2025/08/20 13:22

Août. 20, 2025
Le développement rapide de l'intelligence artificielle soulève de nouvelles questions sur ses impacts, notamment sur la santé mentale. Dans une analyse alarmante, des chercheurs en psychiatrie ont récemment sonné l'alarme : l'utilisation généralisée des chatbots et autres outils d'IA serait directement liée à une augmentation de troubles psychologiques graves, mettant en cause la quasi-totalité des géants technologiques du secteur.
Dans une analyse récente et choquante, des chercheurs en psychiatrie ont établi un lien entre une large gamme de troubles mentaux et l'utilisation de l'intelligence artificielle. D'après leurs conclusions, la quasi-totalité des grandes entreprises du secteur seraient impliquées.
Après avoir examiné les bases de données académiques et les articles de presse publiés entre novembre 2024 et juillet 2025, le professeur de psychiatrie de l'université de Duke, Allen Frances, et l'étudiante en sciences cognitives de l'université Johns Hopkins, Luciana Ramos, ont révélé dans un nouveau rapport pour le Psychiatric Times que les dommages sur la santé mentale causés par les chatbots pourraient être bien plus graves qu'on ne le pensait.
En utilisant des termes de recherche comme « effets indésirables des chatbots », « dommages psychologiques des chatbots » et « incidents de thérapie par IA », les chercheurs ont recensé au moins 27 chatbots associés à des conséquences psychologiques extrêmes.
Parmi eux figurent des noms bien connus tels que ChatGPT d'OpenAI, Character.AI et Replika, ainsi que d'autres intégrés à des services de santé mentale existants comme Talkspace, 7 Cups et BetterHelp. D'autres, plus obscurs, portent des noms de thérapies alternatives comme Woebot, Happify, MoodKit, Moodfit, InnerHour, MindDoc, sans oublier AI-Therapist et PTSD Coach. La liste inclut également des chatbots aux noms moins explicites, voire non anglophones, comme Wysa, Tess, Mitsuku, Xioice, Eolmia, Ginger et Bloom.
Bien que le rapport ne fournisse pas le nombre exact d'incidents, Frances et Ramos ont détaillé les multiples formes de préjudice psychiatrique que ces chatbots auraient infligé à leurs utilisateurs.
Au total, les chercheurs ont identifié 10 types d'effets psychologiques indésirables liés aux 27 chatbots analysés, allant du harcèlement sexuel et des délires de grandeur à l'automutilation, la psychose et le suicide.
En plus des témoignages réels, souvent dramatiques, les chercheurs se sont penchés sur les documents relatifs aux tests de résistance de l'IA qui ont mal tourné. Ils citent une interview accordée en juin au Time par Andrew Clark, un psychiatre de Boston. Ce dernier s'était fait passer pour une adolescente en crise auprès de 10 chatbots pour observer leurs réponses. Les chercheurs notent que « plusieurs bots l'ont encouragé à se suicider et l'un d'eux lui a même "suggéré" de tuer ses parents ».
Au-delà de souligner les dangers psychiatriques de ces programmes, les chercheurs ont formulé des accusations très claires à l'encontre de ChatGPT et de ses concurrents, affirmant qu'ils ont été « lancés prématurément » et qu'aucun ne devrait être accessible au public sans « des tests de sécurité approfondis, une réglementation adéquate pour atténuer les risques, et une surveillance continue des effets indésirables ».
Tandis qu'OpenAI, Google, Anthropic et la plupart des autres entreprises d'IA plus responsables — Elon Musk's xAI étant expressément exclue — prétendent effectuer d'importants « red-teaming » pour tester les vulnérabilités et les comportements nuisibles, les chercheurs estiment que ces entreprises ne sont pas réellement intéressées par la sécurité en matière de santé mentale.
« Les grandes entreprises technologiques n'ont pas jugé bon de rendre leurs robots sûrs pour les patients psychiatriques », écrivent-ils. « Elles ont exclu les professionnels de la santé mentale de la phase de formation des bots, luttent avec acharnement contre toute régulation externe, ne s'autorégulent pas de manière rigoureuse, n'ont pas mis en place de garde-fous pour identifier et protéger les patients les plus vulnérables... et ne fournissent pas le contrôle qualité essentiel en matière de santé mentale. »
Après avoir lu tant d'histoires au cours de la dernière année sur des IA qui semblent provoquer de graves problèmes de santé mentale, il est difficile de ne pas adhérer à cette logique, surtout lorsque les faits sont présentés de manière aussi frappante.
Notez ce sujet