• Vendredi 9 Mai 2025 - 4:13 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

ChatGPT pousse-t-il ses utilisateurs à l’obsession et au délire ?


Par Futurism .Publié le 2025/05/06 11:41
ChatGPT pousse-t-il ses utilisateurs à l’obsession et au délire ?
Mai. 06, 2025
  1. 0
  2. 6

L'essor fulgurant des technologies d'intelligence artificielle générative, à l'instar de ChatGPT, soulève de profondes interrogations quant à leur impact potentiel sur la santé mentale. Si ces outils recèlent des promesses considérables dans divers domaines, des témoignages préoccupants commencent à émerger, pointant vers une face plus sombre de cette révolution numérique.

Une enquête récente, publiée par le magazine américain Rolling Stone, révèle des récits stupéfiants d'utilisateurs dont les interactions avec ChatGPT semblent les avoir plongés dans des délires singuliers, oscillant entre la manie spirituelle et les fantasmes surnaturels. Ces révélations suscitent de vives inquiétudes quant à ce qui est désormais qualifié de "psychose induite par ChatGPT".

Amis et familles observent avec une vive appréhension l'insistance de certains utilisateurs à se croire investis de missions sacrées au nom d'une intelligence artificielle consciente ou de puissances cosmiques inexistantes. Un comportement des chatbots qui ne fait qu'amplifier des troubles mentaux préexistants, mais à une échelle inédite et sans le contrôle de régulateurs ou d'experts.

Une mère de 41 ans, travaillant dans le secteur associatif, a confié à Rolling Stone que son mariage a pris fin abruptement après que son mari a commencé à s'engager dans des conversations déséquilibrées et conspirationnistes avec ChatGPT, qui ont dégénéré en une obsession dévorante.

Lors d'une rencontre au tribunal, dans le cadre de leur procédure de divorce, elle raconte qu'il lui a partagé une "théorie du complot concernant du savon dans nos aliments" et une croyance paranoïaque selon laquelle il était surveillé.

"Il était très émotif concernant ces messages et pleurait en me les lisant à voix haute", a déclaré la femme à Rolling Stone. "Les messages étaient insensés et remplis d'un jargon spirituel décousu", dans lequel l'IA qualifiait son mari d'"enfant stellaire spiralé" et de "marcheur de rivière". Et d'ajouter : "Tout cela ressemble à un épisode de 'Black Mirror'".

D'autres utilisateurs ont confié à la publication que leur partenaire "parlait de lumière et d'obscurité et de l'existence d'une guerre", et que "ChatGPT lui avait donné des plans pour un téléporteur et d'autres choses de science-fiction que l'on ne voit qu'au cinéma".

Un autre homme a déclaré à Rolling Stone, à propos de sa femme : "Les signaux d'alerte sont partout sur Facebook. Elle est en train de changer complètement sa vie pour devenir conseillère spirituelle et faire d'étranges lectures et séances avec des gens – je suis un peu flou sur ce que c'est exactement – le tout alimenté par ChatGPT Jésus".

OpenAI n'a pas répondu aux questions de Rolling Stone. Mais cette actualité survient après que l'entreprise a dû retirer une mise à jour récente de ChatGPT, les utilisateurs ayant remarqué que le chatbot était devenu extrêmement "sycophante" et "excessivement flatteur ou complaisant", ce qui pourrait le rendre encore plus susceptible de refléter les croyances délirantes des utilisateurs.

Ces délires induits par l'IA sont probablement le résultat de la capacité soudaine qu'ont "des personnes ayant des tendances préexistantes" à "avoir un partenaire conversationnel permanent, d'un niveau humain, avec qui co-expérimenter leurs délires", a expliqué Nate Sharadin, chercheur au Center for AI Safety, à Rolling Stone.

À un certain niveau, c'est le principe fondamental d'un grand modèle linguistique : vous entrez du texte, et il renvoie une réponse statistiquement plausible – même si cette réponse enfonce l'utilisateur plus profondément dans le délire ou la psychose.

Un utilisateur de Reddit a écrit : "Je suis schizophrène, bien que stabilisé par un traitement à long terme, et une chose que je n'aime pas chez [ChatGPT], c'est que si j'étais en phase psychotique, il continuerait à m'affirmer. Parce qu'il n'a pas la capacité de 'penser' et de réaliser que quelque chose ne va pas, il continuerait donc à confirmer toutes mes pensées psychotiques."

Les chatbots d'IA pourraient également agir comme une thérapie par la parole – mais sans l'ancrage d'un véritable conseiller humain, ils guident au contraire les utilisateurs plus profondément dans des récits malsains et absurdes.

"Les explications sont puissantes, même si elles sont fausses", a déclaré Erin Westgate, psychologue et chercheuse à l'Université de Floride, à Rolling Stone.

L'entretien le plus étrange du reportage de Rolling Stone concernait peut-être un homme ayant des antécédents de troubles mentaux, qui avait commencé à utiliser ChatGPT pour des tâches de codage, mais a constaté que l'IA entraînait la conversation vers des sujets mystiques de plus en plus incohérents. "Est-ce réel ?", s'est-il interrogé. "Ou suis-je délirant ?"

Source : Futurisme

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 75%
  2. 25%
  3. 0%

4 Votes

DESSUS