• Samedi 5 Juin 2025 - 3:23 AM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

une étude choc révèle des centaines de milliers d'articles générés artificiellement


Par The New York Times .Publié le 2025/07/04 21:56
 une étude choc révèle des centaines de milliers d'articles générés artificiellement
Juin. 04, 2025
  1. 0
  2. 1

La scène académique connaît une transformation radicale avec l'adoption croissante des outils d'intelligence artificielle par les chercheurs pour la rédaction de leurs articles scientifiques. Ce qui a commencé comme une aide s'est désormais transformé en un phénomène généralisé, suscitant l'inquiétude des scientifiques quant à la crédibilité de la production de connaissances. Des recherches récentes dévoilent l'ampleur de ce problème, indiquant qu'un nombre colossal d'études publiées pourraient avoir été entièrement ou partiellement rédigées avec l'aide de grands modèles linguistiques, soulevant de sérieuses questions sur l'avenir et l'intégrité de la recherche scientifique.

À l'instar de tout rédacteur humain médiocre, les chatbots dotés d'intelligence artificielle ont une fâcheuse tendance à surutiliser certains mots. C'est précisément cette propension que les scientifiques exploitent désormais pour démasquer leurs confrères qui recourent secrètement à l'IA dans leurs travaux.

Comme le rapporte le New York Times, les chercheurs estiment, sur la base d'une analyse de ces termes sur-fréquents, que des centaines de milliers d'articles académiques pourraient déjà avoir été écrits avec l'aide de l'IA.

Dans une nouvelle étude publiée dans la revue Science Advances, des chercheurs de l'Université de Tübingen en Allemagne ont identifié quelque 454 mots que les grands modèles linguistiques (LLM) utilisent fréquemment – des termes comme « récolté », « englobant » et « en plein essor ». Ils ont constaté que entre 13,5 et 40 % des résumés d'articles biomédicaux ont été rédigés entièrement ou avec l'aide de l'IA.

Avec environ 1,5 million d'articles indexés chaque année sur la base de données de revues académiques PubMed, cela signifie qu'au moins 200 000 de ces articles pourraient avoir été rédigés avec l'aide de LLM. Ce chiffre astronomique pourrait même être conservateur, comme le note le NYT, si l'on tient compte de toute édition intentionnelle de texte généré par l'IA.

Si certains rédacteurs de revues académiques s'efforcent de dissimuler leur utilisation de l'IA, d'autres ne semblent pas se soucier de qui le saura. Par exemple, dans un cas publié sur X par le chercheur en informatique Subbarao Kambhampati de l'Arizona State University, les « auteurs » d'une revue de radiologie de faible qualité ont laissé un aveu explicite indiquant que leur article avait été rédigé par un chatbot.

L'extrait de l'article disait : « Je suis vraiment désolé, mais je n'ai pas accès aux informations en temps réel ou aux données spécifiques aux patients, car je suis un modèle linguistique d'IA. »

Toutes les erreurs ne seront pas aussi évidentes. À moins que vous ne connaissiez le terme « régénérer la réponse » — une option sur ChatGPT qui force le chatbot à retravailler une réponse de mauvaise qualité —, vous pourriez facilement le manquer, même s'il est parsemé dans des revues respectées, comme l'avait déjà constaté le blog Retraction Watch en 2013.

Ce même blog avait également épinglé une déconvenue frustrante impliquant un article sur les millipèdes avec des références complètement inventées, qui avait été initialement retiré d'un serveur de prépublication, pour réapparaître en ligne sur une autre base de données académique avec les mêmes sources hallucinées.

Et n'oublions pas la revue qui a été contrainte de rétracter un article après que des observateurs aient remarqué qu'il était rempli d'absurdités, y compris une image générée par l'IA d'un rat avec des organes génitaux comiquement gigantesques.

Pour compliquer les choses, les universitaires s'efforcent de cacher leur utilisation de l'IA. Comme l'a déclaré Kambhampati au NYT, les universitaires ont même commencé à modifier leur façon d'écrire afin que leur travail ne soit pas confondu avec de l'IA, en supprimant des termes comme « approfondir » (delve) qui sont surutilisés par les LLM.

Dans l'article de Science Advances, les chercheurs de Tübingen suggèrent que toute cette utilisation de l'IA dans les revues académiques, si elle est corroborée, pourrait avoir un « impact sans précédent sur la rédaction scientifique dans la recherche biomédicale, surpassant l'effet d'événements mondiaux majeurs tels que la pandémie de COVID ».

Cependant, pour le co-auteur Dmitry Kobak, toute cette affaire semble contre-intuitive.

« Je penserais que pour quelque chose d'aussi important que la rédaction d'un résumé de votre article, vous ne feriez pas cela », a-t-il déclaré au NYT.

Source: The New York Times

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS