IA : quand une maladie imaginaire devient une vérité scientifique
Par Victor Tangermann .Publié le
2026/04/20 06:19
Avril. 20, 2026
Des chercheurs ont inventé de toutes pièces une pathologie pour piéger l’intelligence artificielle. Le résultat est aussi absurde qu’inquiétant.
On pourrait croire à une fiction, mais la réalité a dépassé l’entendement. Pour tester la vigilance des grands modèles de langage, des chercheurs ont soumis deux fausses études portant sur une affection cutanée inexistante, la bixonimanie (bixonimania), à un serveur de prépublications.
Les rouages du piège
En 2024, une équipe dirigée par Almira Osmanovic Thunström, chercheuse en médecine à l’université de Göteborg, a imaginé cette pathologie fictive. Selon leur récit, la bixonimanie serait causée par une exposition prolongée aux écrans couplée à un frottement excessif des yeux.
Pourtant, les indices du canular étaient flagrants. Les articles contenaient des références absurdes à Star Trek, aux Simpsons ou encore au Seigneur des Anneaux. N’importe quel lecteur humain, scientifique ou non, aurait immédiatement détecté la supercherie.
L’IA tombe dans le panneau
Malgré ces signaux d’alerte, le piège a fonctionné au-delà des attentes. En quelques semaines, les modèles de pointe, dont Gemini de Google et ChatGPT d’OpenAI, ont commencé à traiter la bixonimanie comme une réalité médicale établie. Plus grave encore, les chercheurs ont découvert que ces faux travaux commençaient à être cités dans la littérature académique révisée par des pairs.
Une menace pour l’intégrité scientifique
Cette expérience met en lumière une transformation profonde et risquée de la connaissance humaine. Le contenu généré par IA, souvent qualifié de slop (contenu de basse qualité), envahit désormais tous les pans du processus de révision scientifique. Cette dérive soulève des questions cruciales :
La validité : Quelle est la part de fiabilité dans les milliers d’articles indexés chaque année ?
L’érosion de la rigueur : Comment maintenir la confiance quand l’IA recycle des données factices ?
Le danger sanitaire : Les agents conversationnels continuent de dispenser des conseils médicaux potentiellement risqués à des utilisateurs non avertis.
Réactions et conséquences
Alertée par la revue Nature, une revue académique ayant cité la maladie imaginaire a dû publier un avis de rétractation, admettant la présence de références non pertinentes, dont celle d’une maladie fictive. ????
Almira Osmanovic Thunström a confié à Nature :
Il est préoccupant de voir ces affirmations majeures traverser la littérature ou le processus de révision par les pairs sans aucune remise en question. Je pense qu’il existe probablement beaucoup d’autres failles non encore découvertes.
Sur le forum r/medicine de Reddit, les utilisateurs affichent un pessimisme cinglant. « Nous sommes cuits », a simplement commenté l’un d’entre eux.
Notez ce sujet