Scandale chez Google : une IA médicale invente une partie du cerveau humain
Par Futurism .Publié le
2025/08/07 20:51

Août. 07, 2025
Les professionnels de la santé sont de plus en plus inquiets face à l'utilisation généralisée d'outils d'intelligence artificielle générative, notoirement sujets aux erreurs.
La prolifération de cette technologie a été maintes fois entravée par des "hallucinations" récurrentes, un euphémisme désignant les faits inventés et les mensonges racontés avec une conviction surprenante par ces bots.
Une erreur flagrante s'est avérée si persuasive qu'il a fallu plus d'un an pour la détecter. Dans un article de recherche de mai 2024, les chercheurs de Google présentaient un modèle d'IA pour la santé, baptisé Med-Gemini, capable d'analyser des scanners cérébraux en radiologie pour diverses pathologies.
Une erreur embarrassante et dangereuse
L'IA a identifié un "vieil infarctus du ganglion basilaire gauche" (old left basilar ganglia infarct), faisant référence à une prétendue partie du cerveau — le "ganglion basilaire" — qui n'existe tout simplement pas dans le corps humain. Le neurologue certifié Bryan Moore a signalé le problème à The Verge, soulignant que Google a corrigé son article de blog sur l'IA, mais a omis de réviser l'article de recherche lui-même.
L'IA a probablement confondu le ganglion de la base (basal ganglia), une zone du cerveau associée aux mouvements, et l'artère basilaire (basilar artery), un vaisseau sanguin majeur à la base du tronc cérébral. Google a mis cet incident sur le compte d'une simple faute de frappe pour "ganglion de la base".
C'est une révélation embarrassante qui souligne les défauts persistants et pernicieux de la technologie. Même les dernières IA dites de "raisonnement" de Google et d'OpenAI diffusent de fausses informations rêvées par des grands modèles linguistiques, entraînés sur de vastes pans d'Internet.
Les conséquences d'une erreur en milieu hospitalier
Si ces erreurs peuvent causer des maux de tête pour un utilisateur qui vérifie ses recherches, elles pourraient avoir des conséquences dévastatrices en milieu hospitalier. Bien que la bévue de Google n'ait probablement causé aucun danger pour des patients, elle établit un précédent inquiétant, selon les experts.
"Ce dont vous parlez est extrêmement dangereux", a déclaré Maulin Shah, chef de l'information médicale du réseau de santé Providence, à The Verge. "Deux lettres, mais c'est une affaire de taille."
Google a vanté son IA médicale comme ayant un "potentiel substantiel en médecine", affirmant qu'elle pourrait être utilisée pour identifier des pathologies sur des radios, des scanners et plus encore. Après que le Dr Moore a signalé l'erreur à l'entreprise, des employés lui ont affirmé qu'il s'agissait d'une simple coquille.
Pourtant, au moment de la publication de cet article, le document de recherche de Google fait toujours référence à un "ganglion basilaire" inexistant.
Dans un contexte médical, les hallucinations de l'IA pourraient facilement semer la confusion et, potentiellement, mettre des vies en danger. "Le problème avec ces coquilles ou autres hallucinations est que je n'ai pas confiance en nos humains pour les revoir, ou du moins pas à tous les niveaux", a ajouté M. Shah.
Une course effrénée vers l'inconnu
D'autres experts affirment que nous nous précipitons pour adopter l'IA dans les cliniques – pour les thérapies, la radiologie, les soins infirmiers et la transcription des interactions avec les patients – ce qui justifierait une approche beaucoup plus prudente.
En attendant, il incombera aux humains de surveiller en permanence les résultats de ces IA hallucinatrices, ce qui pourrait de manière contre-productive entraîner des inefficacités.
De son côté, Google continue sa course à toute vapeur. En mars, l'entreprise a révélé que sa fonctionnalité de recherche "AI Overviews" commencerait à donner des conseils de santé. Elle a également présenté un "co-scientifique IA" qui assisterait les scientifiques humains dans la découverte de nouveaux médicaments.
Mais si leurs résultats ne sont pas surveillés et vérifiés, des vies humaines pourraient être en jeu.
"Dans mon esprit, la barre d'erreur de l'IA doit être bien plus haute que celle d'un humain", a conclu Maulin Shah. "Peut-être que d'autres pensent : 'Si nous pouvons faire aussi bien qu'un humain, c'est suffisant.' Je ne suis pas d'accord une seule seconde."
Notez ce sujet