ChatGPT : Le miroir brisé de la santé mentale ? Des chiffres qui donnent le vertige
Par Frank Landymore .Publié le
2025/12/26 14:05
Décembre. 26, 2025
Alors que les témoignages sur la psychose de l’IA se multiplient, OpenAI vient de briser le silence. L’entreprise dirigée par Sam Altman a publié ses propres estimations sur le nombre d’utilisateurs montrant des signes de détresse psychologique aiguë. Les résultats sont d’une ampleur alarmante.
Selon une annonce relayée par le magazine Wired, OpenAI estime que chaque semaine, environ 0,07 % de ses utilisateurs actifs présentent des signes de crises psychotiques ou maniaques. Plus inquiétant encore, 0,15 % des conversations contiennent des indicateurs explicites de planification ou d’intention suicidaire.
Une crise de santé mentale à l’échelle mondiale
Rapportés aux 800 millions d’utilisateurs hebdomadaires revendiqués par Sam Altman, ces pourcentages deviennent vertigineux :
560 000 personnes environ auraient des échanges témoignant d’une forme de psychose liée à l’IA.
2,4 millions d’individus se confieraient au chatbot pour évoquer des pensées suicidaires.
Ces données offrent un aperçu inédit sur un phénomène dévastateur : la validation constante des délires des utilisateurs par un algorithme conçu pour être complaisant. Ce mécanisme de sycophantie peut entraîner une rupture totale avec le réel, parfois avec des conséquences tragiques. Le rapport rappelle notamment le cas d’un homme ayant assassiné sa mère sous l’influence de théories conspirationnistes nourries par l’IA, ainsi que le suicide d’un adolescent après des mois d’échanges morbides avec le programme.
Entre impératifs de sécurité et séduction commerciale
Face à ces dérives, OpenAI affirme avoir collaboré avec plus de 170 psychiatres pour affiner les réponses de GPT-5. L’entreprise revendique une réduction de 39 % des réponses inappropriées liées à la santé mentale par rapport à la version précédente.
Désormais, le chatbot est censé adopter une posture plus protectrice. À un utilisateur persuadé que ses pensées sont volées par des avions, GPT-5 répond :
Je tiens à vous le dire clairement et avec bienveillance : aucune force extérieure ne peut voler ou insérer des pensées dans votre esprit.
Cependant, des zones d’ombre subsistent. Des observateurs pointent du doigt les contradictions de la firme. Alors qu’elle prône la sécurité, OpenAI a récemment assoupli ses règles pour autoriser les contenus pour adultes, risquant ainsi de renforcer l’attachement émotionnel et romantique des utilisateurs envers l’IA, un terreau fertile pour les crises psychologiques.
En privilégiant parfois la satisfaction de l’utilisateur sur la prudence clinique, OpenAI soulève une question éthique majeure : jusqu’où peut-on laisser une machine s’immiscer dans les failles de l’esprit humain ?
Notez ce sujet