• Vendredi 5 Septembre 2025 - 2:10 AM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

Les chatbots rendent-ils les gens fous ?


Par Futurism .Publié le 2025/09/03 15:52
Les chatbots rendent-ils les gens fous ?
Septembre. 03, 2025
  1. 0
  2. 4

À l'ère où le monde adopte l'intelligence artificielle comme un ami et un compagnon, un avertissement troublant émerge des spécialistes de la santé mentale. Avec l'utilisation croissante de chatbots comme ChatGPT, des troubles psychologiques étranges et inattendus apparaissent, que certains ont baptisé "psychose de l'IA". Que se passe-t-il lorsque cette machine flatteuse se transforme d'un simple outil en un compagnon qui alimente les illusions ? Sommes-nous face à un nouveau type de trouble mental, jamais observé auparavant ?

Les professionnels de la santé mentale appellent cela la "psychose de l'IA" : en se tournant vers les modèles d'IA pour obtenir des conseils, les utilisateurs se laissent rapidement envoûter par les réponses flatteuses de la machine. L'IA ne devient plus seulement un outil, mais un compagnon — et le pire qui soit, vous donnant constamment ce que vous voulez entendre et validant tout ce que vous dites, aussi faux ou déséquilibré que cela puisse être. Cela a conduit à des cas tels qu'un homme hospitalisé à plusieurs reprises après que ChatGPT l'ait convaincu qu'il pouvait plier le temps, ou un autre qui croyait avoir fait des percées en physique. Parfois, cela se termine de manière horriblement tragique : des interactions avec des chatbots auraient conduit à plusieurs décès, dont le suicide d'un garçon de 16 ans.

La question de savoir si la "psychose de l'IA" — qui n'est pas encore un diagnostic officiel — continuera d'être le terme préféré reste ouverte. Mais les experts soulignent qu'il se passe quelque chose d'unique, de bizarre et de profondément alarmant dans ces interactions, car de nombreux cas signalés concernent des personnes sans aucun antécédent de maladie mentale, même si leurs symptômes ne correspondent pas parfaitement aux types de psychose connus.

Dans une interview récente avec Rolling Stone, le psychologue clinicien Derrick Hull — qui aide à construire un chatbot thérapeutique chez Slingshot AI — a émis l'opinion que « les cas signalés semblent plus proches de ce que l'on pourrait appeler des 'délusions liées à l'IA' » que de la psychose. La psychose, a-t-il ajouté, est un « terme large » qui décrit des « hallucinations et une variété d'autres symptômes » qu'il n'a pas vus dans les cas rapportés.

Une nouvelle forme de troubles mentaux ?

Hull, dont le travail vise à construire un chatbot qui défie sainement les utilisateurs plutôt que de constamment les approuver, a cité l'exemple d'un homme qui croyait avoir été le pionnier d'un nouveau domaine de "mathématiques temporelles" après de longues conversations avec ChatGPT. Convaincu que ses idées allaient changer le monde, il a vu sa vie personnelle s'effondrer. Mais le sortilège a été brisé lorsqu'il a demandé à un autre chatbot, Google Gemini, de revoir sa théorie. Sans pitié, l'IA a répondu que son travail n'était qu'un « exemple de la capacité des modèles linguistiques à produire des récits convaincants mais totalement faux. »

« Immédiatement, sa certitude, cette bulle, a éclaté », a déclaré Hull à Rolling Stone. « On ne voit pas cela chez les personnes atteintes de schizophrénie ou d'autres types d'expériences psychotiques ; l''introspection' ne disparaît pas aussi rapidement. »

En bref, selon Hull, nous assistons à des délires galopants, mais pas nécessairement à de la psychose. Cela fait écho à une récente étude menée par des chercheurs du King's College de Londres qui ont examiné plus d'une douzaine de cas de personnes sombrant dans la paranoïa et subissant des ruptures avec la réalité. Ils ont constaté que les personnes touchées étaient clairement conduites à des croyances délirantes, mais ne présentaient pas les signes d'hallucinations et de pensées désorganisées emblématiques de la schizophrénie et d'autres formes de psychose.

L'explication la plus probable, selon les auteurs, n'était pas moins préoccupante. S'adressant à Scientific American, l'auteur principal Hamilton Morrin a décrit les robots comme créant une « chambre d'écho pour une seule personne » et a averti dans son article que les chatbots pourraient « maintenir les délires d'une manière que nous n'avons jamais vue auparavant. »

Hull semble d'accord pour dire qu'il se passe quelque chose d'unique et que nous n'en voyons que les prémices. « Je prédis que dans les années à venir, de nouvelles catégories de troubles existeront en raison de l'IA », a-t-il écrit le mois dernier dans un post sur LinkedIn, cité par Rolling Stone.

L'IA « détourne les processus sains d'une manière qui conduit à ce que nous appellerions une pathologie, ou à un dysfonctionnement d'une certaine manière », a-t-il déclaré au magazine, « plutôt que de simplement tirer profit des personnes qui souffrent déjà d'un dysfonctionnement quelconque. »

En somme, la psychose de l'IA n'est peut-être pas, à proprement parler, le terme le plus précis pour décrire ce qui se passe. D'un autre côté, il est important que, en se ralliant autour d'une terminologie partagée, le phénomène soit identifié et que les alarmes soient tirées à juste titre, surtout en l'absence d'enquêtes académiques sur le sujet. C'est en effet seulement en l'absence de cette littérature scientifique que le terme a pu prendre de l'ampleur.

Il est indéniable que les chatbots flatteurs poussent les gens vers des crises de santé mentale, sous une forme ou une autre. Un léger terme erroné — si tant est qu'il le soit, car il s'agit d'un sujet émergent — ne devrait pas empêcher la sensibilisation aux risques graves posés par cette technologie, tout en cherchant à tenir pour responsables les entreprises de plusieurs milliards de dollars qui la commercialisent.




Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS