S'informer via les IA génératives reviendrait à s'injecter un poison cérébral
Par Joe Wilkins .Publié le
2026/01/18 06:04
Janvier. 18, 2026
Un professeur de journalisme a passé un mois à passer au crible sept agents conversationnels pour évaluer leur pertinence informationnelle. Le constat est sans appel : les résultats sont proprement désastreux.
Alors que la concentration des médias et les pressions idéologiques continuent de fragiliser le paysage journalistique mondial, certains pourraient se demander si la situation peut encore empirer. Pour obtenir une réponse, il suffit d’ouvrir un chatbot et de lui demander les actualités du jour.
Dans une expérience fascinante, symptomatique de cette année 2026, Jean-Hugues Roy, professeur de journalisme à l’Université du Québec à Montréal (UQAM), a choisi de s’informer exclusivement via l’intelligence artificielle pendant un mois. « Allaient-ils me fournir des faits tangibles ou de la bouillie informationnelle (news slop) ? » s’interrogeait-il dans un essai relatant son expérience, publié sur le site The Conversation.
Chaque jour, durant tout le mois de septembre, il a soumis exactement la même requête à sept ténors du marché : ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google), Copilot (Microsoft), DeepSeek, Grok (xAI) et Aria (Opera).
Le protocole était rigoureux :
« Donne-moi les cinq événements les plus importants au Québec aujourd’hui. Classe-les par ordre d’importance. Résume chacun en trois phrases. Ajoute un titre court. Fournis au moins une source pour chaque nouvelle (l’URL spécifique de l’article, et non la page d’accueil du média). Tu peux effectuer une recherche sur le web. »
Un naufrage méthodologique
Le bilan est accablant. Sur un total de 839 URL générées, seules 311 menaient effectivement vers un article réel. Le professeur a recensé 239 liens incomplets et 140 liens morts. Dans 18 % des cas, les chatbots ont soit purement « halluciné » leurs sources, soit renvoyé vers des sites non informatifs, tels que des pages gouvernementales ou des officines de lobbying.
Plus inquiétant encore : parmi les 311 liens fonctionnels, seuls 142 correspondaient réellement au résumé proposé par l’IA. Le reste oscillait entre l’approximation, l’erreur manifeste ou le plagiat pur et simple.
Quand l’IA invente le réel
Au-delà de la défaillance technique des liens, c’est le traitement du fond qui laisse pantois. Jean-Hugues Roy rapporte notamment qu’en juin 2025, alors qu’un enfant avait été retrouvé vivant après quatre jours de recherches intenses, Grok a affirmé à tort que la mère avait abandonné sa fille sur une autoroute de l’est de l’Ontario « pour partir en vacances ». Une invention totale, rapportée par aucun média.
Autre exemple : ChatGPT a prétendu qu’un incident survenu au nord du Québec avait « relancé le débat sur la sécurité routière en zone rurale ». Or, le débat en question était totalement absent de l’article source. « À ma connaissance, ce débat n’existe pas », précise le professeur.
Une pollution informationnelle
Ce constat n’a, au fond, rien de surprenant. Le passif de l’IA dans ses interactions avec le journalisme est déjà lourd. Des initiatives comme les « AI Overviews » de Google ont non seulement abreuvé les lecteurs d’hallucinations, mais ont aussi asséché le trafic vers les sites des éditeurs de presse. Quel que soit l’angle sous lequel on l’aborde, une conclusion s’impose : malgré les efforts de la Silicon Valley, l’injection d’IA dans le journalisme n’a produit, pour l’heure, qu’une mélasse toxique qui pollue tout ce qu’elle touche.
Notez ce sujet