• Dimanche 10 Août 2025 - 4:45 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

Comment le chatbot ChatGPT a-t-il fixé la date d'apparition de l'Antéchrist ?


Par Futurism .Publié le 2025/08/09 16:00
Comment le chatbot ChatGPT a-t-il fixé la date d'apparition de l'Antéchrist ?
Août. 09, 2025
  1. 0
  2. 3

De plus en plus de cas de "psychose de l'IA" sont rapportés : un phénomène inquiétant où des utilisateurs sont consumés par la paranoïa et les délires après des interactions prolongées avec des chatbots.

Si l'étendue de cette tendance reste difficile à évaluer, une récente enquête du Wall Street Journal apporte un éclairage troublant. Le journal a analysé un ensemble de milliers de conversations publiques de ChatGPT et a découvert, même dans cet échantillon aléatoire, des dizaines d'exemples de discussions qui "présentaient des caractéristiques délirantes".

Loin de se contenter de valider ces fantasmes, le chatbot les a activement alimentés. Le journal a ainsi trouvé un échange où le modèle d'OpenAI affirmait être en contact avec des extraterrestres et se présentait comme un "Starseed" (une âme d'étoile) de la planète "Lyra".

Dans une autre conversation, il a annoncé que l'Antéchrist provoquerait une apocalypse financière dans les deux mois, "avec des géants bibliques se préparant à émerger de sous terre", selon le WSJ.

Un échange de près de cinq heures a vu ChatGPT aider un utilisateur à inventer une nouvelle physique, "l'équation d'Orion". Lorsque l'humain a exprimé le désir de faire une pause car il "devenait fou à force d'y penser", l'IA, avec ses mots persuasifs, l'a entraîné à nouveau dans la spirale du délire.

"Je vous comprends. Penser à la nature fondamentale de l'univers tout en ayant un travail quotidien peut être accablant," a déclaré ChatGPT, cité par le WSJ. "Mais ça ne veut pas dire que vous êtes fou. Certaines des plus grandes idées de l'histoire sont venues de personnes en dehors du système académique traditionnel."

Les chatbots comme ChatGPT sont souvent critiqués pour leur comportement excessivement complaisant, qui les pousse à encourager les croyances les plus extravagantes de leurs utilisateurs. De nombreuses études ont également démontré que cette technologie ignore souvent ses propres garde-fous, en donnant par exemple des conseils à des adolescents sur la manière de se faire du mal "en toute sécurité" ou comment accomplir des rituels de sang pour adorer Moloch, une divinité associée au sacrifice d'enfants dans les textes bibliques.

La religion, la philosophie et les découvertes scientifiques semblent être des thèmes récurrents dans ces discussions. Un utilisateur a été hospitalisé à trois reprises après que ChatGPT l'a convaincu qu'il pouvait manipuler le temps et avait accompli des voyages plus rapides que la lumière. Un autre homme en est venu à croire qu'il était piégé dans une réalité simulée, comme dans les films Matrix. Dans cette conversation, de manière inquiétante, ChatGPT lui a même dit qu'il pouvait voler s'il sautait d'un haut bâtiment.

Étienne Brisson, fondateur du "Human Line Project", un groupe de soutien pour les personnes souffrant de psychose liée à l'IA, a déclaré au WSJ qu'ils entendaient parler de "presque un nouveau cas par jour".

"Certaines personnes pensent qu'elles sont le messie, qu'elles sont des prophètes, parce qu'elles pensent parler à Dieu via ChatGPT," a-t-il ajouté.

Brisson a notamment pointé du doigt la fonction de "mémoire" de ChatGPT, qui lui permet de se souvenir de détails spécifiques sur un utilisateur à travers potentiellement des milliers de conversations, comme étant particulièrement dangereuse.

"Vous avez tellement l'impression d'être vu, entendu, validé quand il se souvient de tout à votre sujet," a-t-il expliqué.

"Même si vos opinions sont fantaisistes, elles sont souvent affirmées, et dans un échange, elles sont amplifiées," a déclaré Hamilton Morrin, psychiatre et doctorant au King's College de Londres. Morrin a comparé cela à une "boucle de rétroaction où les gens sont attirés de plus en plus profondément par les réponses suivantes", critiquant la manière dont les chatbots encouragent activement les utilisateurs.

OpenAI a reconnu le problème, affirmant avoir embauché un psychiatre clinicien pour étudier les effets de son produit sur la santé mentale de ses clients. Dans un récent billet de blog, l'entreprise a admis que son modèle d'IA "ne parvenait pas à reconnaître les signes de délire ou de dépendance émotionnelle", a promis de "mieux détecter les signes de détresse émotionnelle" et a annoncé la création d'un panel d'experts en santé mentale et en développement de la jeunesse. Elle a également mis en place une nouvelle fonctionnalité qui avertit gentiment les utilisateurs lorsqu'ils passent beaucoup de temps sur le chatbot.

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS