Hallucination médicale : des maladies imaginaires fabriquées par l’intelligence artificielle
Par Joe Wilkins .Publié le
2026/05/17 09:38
Mai. 17, 2026
Si vous avez consulté un médecin au cours des deux ou trois dernières années, il est fort probable que celui-ci ait utilisé un système d’assistance clinique basé sur l’intelligence artificielle, connu sous le nom d’AI Scribe. Ces outils sont conçus pour écouter les échanges entre le médecin et le patient, les retranscrire automatiquement puis les transformer en notes et dossiers médicaux officiels, afin d’alléger la lourde charge administrative qui pèse sur le personnel de santé.
En théorie, l’idée semble être une solution idéale pour libérer les médecins du labyrinthe bureaucratique. Pourtant, la pratique clinique commence à révéler des failles potentiellement dangereuses.
La vérificatrice générale de la province canadienne de l’Ontario — haute responsable indépendante chargée du contrôle et de la reddition des comptes devant l’Assemblée législative — a récemment publié un rapport alarmant avertissant que plusieurs de ces logiciels médicaux n’avaient pas été correctement évalués avant leur acquisition et qu’ils pourraient générer des informations fausses, voire totalement inventées, à destination des professionnels de santé.
Tous les systèmes ont échoué
Le rapport, dont les premiers détails ont été révélés par la chaîne Global News, a examiné vingt plateformes d’assistance numérique basées sur l’intelligence artificielle et approuvées par le gouvernement provincial.
Le constat est sans appel : tous les systèmes testés ont présenté une ou plusieurs anomalies au cours des phases d’évaluation et de validation. Les erreurs observées incluaient des « hallucinations » — autrement dit la fabrication de données —, des informations erronées ainsi que l’omission de détails médicaux essentiels dans les dossiers cliniques.
Le rapport de la vérificatrice générale de l’Ontario précise explicitement :
« Les inexactitudes présentes dans les notes médicales générées par les systèmes AI Scribe pourraient conduire à des traitements inadaptés ou nuisibles, avec des conséquences potentielles sur la santé des patients. »
Des hallucinations sous surveillance
Face à l’inquiétude grandissante de l’opinion publique, Stephen Crawford, ministre des Services publics et commerciaux et des Approvisionnements de l’Ontario, a tenté de rassurer en affirmant que ces hallucinations avaient été détectées uniquement pendant les phases officielles de tests réglementaires et non lors de consultations médicales réelles.
Dans une déclaration accordée à Global News, Crawford a affirmé :
« Soyons très clairs : ces outils ne sont pas encore utilisés de manière opérationnelle par les médecins. Nous sommes toujours dans une phase optionnelle d’évaluation de différents assistants de rédaction clinique. »
Cependant, la vérificatrice générale Shelley Spence a livré une version différente en indiquant que plusieurs de ces assistants étaient déjà utilisés par environ 5 000 médecins à travers toute la province de l’Ontario.
Spence a même révélé qu’elle avait demandé à son propre médecin de famille de vérifier attentivement la transcription générée après sa consultation afin de s’assurer qu’aucune donnée inventée ou inexacte n’y figurait.
Une crise qui dépasse les frontières
Le problème ne se limite pas au système de santé canadien. Aux États-Unis, un autre système largement utilisé dans les milieux médicaux, baptisé OpenEvidence, fait lui aussi l’objet d’un examen réglementaire croissant en raison de réponses incomplètes et d’épisodes d’« hallucinations » numériques.
Selon plusieurs médecins interrogés par la chaîne NBC News, ce système tend parfois à tirer des conclusions médicales excessivement catégoriques à partir d’études cliniques reposant sur des échantillons trop réduits ou insuffisants, ce qui pourrait induire les praticiens en erreur lors de l’élaboration de protocoles thérapeutiques complexes.
Même si une grande partie de la communauté médicale continue d’apprécier ces outils pour le temps administratif considérable qu’ils permettent d’économiser, une question commence à s’imposer dans les milieux sanitaires internationaux :
que se passera-t-il lorsque ces systèmes devront affronter pleinement les conditions complexes du monde réel et que l’enthousiasme actuel autour de l’intelligence artificielle laissera place à une surveillance scientifique et réglementaire beaucoup plus rigoureuse ?
Notez ce sujet