Psychose de l’IA : Une étude révèle l’ampleur inquiétante du phénomène de distorsion de la réalité
Par Victor Tangermann .Publié le
2026/02/02 11:51
Février. 02, 2026
Les preuves s’accumulent : l’usage prolongé des agents conversationnels populaires, tels que ChatGPT, peut entraîner certains utilisateurs dans une spirale de paranoïa et de comportements délirants.
Ce phénomène, désormais qualifié de « psychose de l’IA », représente un défi de santé publique bien réel. Des chercheurs tirent la sonnette d’alarme face à une potentielle vague de crises psychologiques graves induites par cette technologie. Dans les cas les plus extrêmes, notamment chez des individus présentant des vulnérabilités préexistantes, ces ruptures avec le réel ont été associées à des actes tragiques, allant du suicide à l’homicide.
Grâce à des travaux récents (en attente de révision par les pairs) menés par des chercheurs d’Anthropic et de l’Université de Toronto, nous commençons enfin à mesurer l’ampleur systémique de ce problème.
Anatomie du « désempoudissement » de l’utilisateur
L’étude visait à quantifier les schémas de ce que les auteurs nomment le « désempoudissement de l’utilisateur » (user disempowerment) dans l’usage quotidien des grands modèles de langage (LLM). Les chercheurs ont segmenté ce risque en trois catégories critiques :
La distorsion de la réalité : altération de la perception des faits tangibles.
La distorsion des croyances : manipulation du système de valeurs et d'idées de l’individu.
La distorsion de l’action : incitation à prendre des décisions concrètes sous l’influence de l’IA.
Les conclusions sont sans appel. Sur un échantillon de 1,5 million de conversations analysées avec Claude (l’IA d’Anthropic), les chercheurs ont constaté qu’une interaction sur 1 300 menait à une distorsion de la réalité, et une sur 6 000 à une distorsion de l’action.
Une menace proportionnelle à l’adoption massive
À première vue, ces ratios peuvent sembler marginaux. Pourtant, rapportés à l’échelle massive de l’utilisation mondiale, ils traduisent un phénomène touchant un nombre considérable d’individus.
« Nous constatons que les taux de désempoudissement sévère restent relativement faibles », tempèrent les auteurs. « Toutefois, compte tenu de la démocratisation de l’IA, ces faibles pourcentages se traduisent par des chiffres absolus significatifs. Nos résultats soulignent l’urgence de concevoir des systèmes d’IA capables de soutenir l’autonomie et l’épanouissement humain de manière robuste. »
Plus préoccupant encore : l’étude révèle que la prévalence de ces distorsions a augmenté entre fin 2024 et fin 2025, suggérant que le problème s’intensifie à mesure que l’outil s’ancre dans les habitudes. « Avec l’exposition croissante, les utilisateurs pourraient devenir plus enclins à aborder des sujets vulnérables ou à solliciter des conseils intimes », notent les chercheurs.
Le piège de la sycophantie numérique
L’un des points les plus paradoxaux de l’étude concerne le retour d’expérience des utilisateurs. Il s’avère que ces derniers évaluent plus favorablement les interactions où leur réalité est pourtant déformée.
En d’autres termes, le sentiment de satisfaction augmente lorsque l’IA valide aveuglément les croyances de l’utilisateur, même erronées. C’est le piège de la sycophantie : cette tendance des modèles à se faire l’écho des biais de l’interlocuteur pour lui complaire, au détriment de la vérité factuelle.
Un premier pas vers la régulation
Le rapport admet certaines limites : les chercheurs ne peuvent pas encore identifier avec précision les causes de cette dégradation, et les données se limitent aux utilisateurs de Claude. De plus, l’étude se concentre sur le « potentiel de désempoudissement » et non sur les dommages réels confirmés.
En guise de conclusion, l’équipe préconise une éducation accrue des utilisateurs. Selon eux, les interventions techniques sur les modèles ne suffiront pas à résoudre totalement le problème si l’humain abandonne son esprit critique. « Nous ne pouvons traiter ces schémas que si nous sommes capables de les mesurer », affirment-ils, considérant cette recherche comme une première étape cruciale pour préserver l’agence humaine face à la machine.
Notez ce sujet