• Samedi 23 Août 2025 - 6:01 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

Des tests montrent que les meilleurs modèles d'IA commettent des erreurs désastreuses dans le journalisme


Par Futurism .Publié le 2025/08/23 14:04
Des tests montrent que les meilleurs modèles d'IA commettent des erreurs désastreuses dans le journalisme
Août. 23, 2025
  1. 0
  2. 3

De nombreux dirigeants de médias parient sur l'intelligence artificielle pour l'avenir de leur industrie. Certains vont même jusqu'à remplacer des journalistes pour réduire les coûts et profiter de la vague médiatique.

Jusqu'à présent, les résultats laissent à désirer. Nous avons vu d'innombrables exemples de publications qui, sans le vouloir, publient des textes incohérents générés par l'IA, ce qui exaspère autant les lecteurs que les journalistes.

Les hallucinations persistantes de l'IA contaminent déjà de larges pans de notre vie en ligne, qu'il s'agisse des résumés d'IA hilarants de Google qui déforment des informations fiables, de contenus sur le jeu apparaissant dans des journaux, ou de véritables fermes de contenus qui pillent ouvertement le travail de vrais journalistes.

Pire encore, l'adoption de cette technologie par Google nuit activement aux finances des médias en éloignant les lecteurs – et par conséquent les revenus indispensables issus des abonnements et des publicités – du contenu dont l'IA tire profit.

Pendant ce temps, les journalistes découvrent à leurs dépens que l'IA est lamentablement inefficace pour les aider dans leur travail quotidien.

Comme l'a révélé une nouvelle enquête publiée par la Columbia Journalism Review, menée par une équipe dirigée par Hilke Schellmann, professeure de journalisme primée à l'Université de New York, l'IA est incroyablement mauvaise pour résumer des documents et des recherches scientifiques pour des journalistes pressés qui pourraient être tentés de s'y fier.

Résultats des tests : des résumés longs et des recherches défaillantes

Schellmann et ses collègues ont créé un nouveau test pour évaluer les « valeurs journalistiques de précision et de vérité ». Ils ont constaté que si la plupart des modèles d'IA actuels, y compris Gemini 2.5 Pro de Google et GPT-4o d'OpenAI, ont réussi à générer de courts résumés de transcriptions de réunions avec « presque aucune hallucination », leur performance a chuté pour les résumés plus longs.

Les IA ont systématiquement « sous-performé par rapport au critère humain en générant des résumés longs et précis » d'environ 500 mots. Elles ont omis près de la moitié des faits inclus dans les transcriptions, et les hallucinations étaient également un problème plus important que dans les résumés courts.

Les lacunes de la technologie étaient encore plus flagrantes lorsqu'il s'agissait de faire des recherches pour des journalistes scientifiques. L'équipe a demandé à cinq outils de recherche d'IA de premier plan de générer une liste d'articles scientifiques liés à quatre documents académiques. Les résultats ont été qualifiés de « décevants » à « alarmants ».

« Aucun des outils n'a produit de revues de littérature avec un chevauchement significatif par rapport aux documents de référence, à l'exception d'un test avec Semantic Scholar, où il a correspondu à environ 50% des citations », a écrit Schellmann. « Dans l'ensemble des quatre tests, la plupart des outils ont identifié moins de 6 % des mêmes articles cités dans les revues rédigées par des humains, et souvent 0 % ».

Des tests répétés ont montré que le « consensus scientifique » de l'IA changeait simplement en relançant les mêmes requêtes.

« Une liste d'articles mal sourcée n'est pas seulement incomplète, elle est trompeuse », a soutenu Schellmann. « Si un journaliste se fie à ces outils pour comprendre le contexte d'une nouvelle recherche, il risque de mal interpréter et de déformer les découvertes scientifiques, d'omettre des critiques publiées et de négliger des travaux antérieurs qui remettent en question les conclusions. »

En bref, l'enquête montre que malgré les promesses des entreprises d'IA de réduire la charge de travail des journalistes surmenés, leurs outils échouent dans des tâches routinières comme la synthèse et la recherche scientifique.

Cela signifie qu'il incombe toujours aux journalistes de procéder à une « vérification finale des faits », a affirmé Schellmann.

Une menace pour l'avenir du journalisme

C'est là le paradoxe de l'IA contemporaine : quelle est l'utilité d'un outil si l'on doit tout vérifier ? Il est possible que l'utilisation de ces outils finisse par alourdir la charge de travail des journalistes.

Alors qu'Internet continue d'être pollué par des contenus générés par l'IA qui échappent le plus souvent à toute vérification ou révision humaine, l'avenir du journalisme est en jeu.

Et ce n'est pas du sensationnalisme. L'industrie du journalisme est confrontée à une menace existentielle, avec des salles de rédaction touchées par des vagues de licenciements. Pendant ce temps, les entreprises de médias misent tout sur les promesses de l'IA, s'attirant l'enthousiasme des actionnaires en concluant des accords de licence de plusieurs millions de dollars avec des géants comme OpenAI.

Il y a un peu plus d'un an et demi, Futurism publiait un article sur la revue Sports Illustrated qui avait publié du contenu généré par l'IA, signé par des auteurs créés par l'IA et se faisant passer pour des humains.

Compte tenu de la situation actuelle de l'industrie, peu de choses semblent avoir changé depuis. Et ce, malgré une désillusion généralisée et un tournant tangible de l'opinion publique contre l'IA.

L'année dernière, Axel Springer, la société mère allemande de Politico et le plus grand éditeur d'Europe, a forcé les journalistes de la publication à publier du contenu d'IA, provoquant un tollé. Et le Washington Post travaille sur un outil d'IA pour permettre à des rédacteurs non qualifiés de publier du contenu dans ses pages.

Même l'éditeur de revues scientifiques de renom, Springer Nature, propose désormais de vendre aux auteurs des « kits média » générés par l'IA qui résument leurs propres recherches.

Les consommateurs de médias sont également méfiants à l'égard de la technologie. L'année dernière, une étude a révélé que lorsque la contribution de l'IA était mentionnée dans la signature, la perception des lecteurs quant à la crédibilité de la source et de l'auteur chutait considérablement.


Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS