L’IA scientifique de Google : une révolution avortée ?
Par .Publié le
2025/03/07 08:21

Mars. 07, 2025
L’« AI co-scientist » de Google, un outil basé sur l’intelligence artificielle, est-il en passe de révolutionner la recherche scientifique telle que nous la connaissons ? Selon ses collègues humains, la réponse est non.
Cet outil, construit sur le modèle Gemini 2.0 et annoncé par Google le mois dernier, serait capable de générer des hypothèses et des plans de recherche détaillés en utilisant une « logique avancée » pour « simuler le processus de raisonnement qui sous-tend la méthode scientifique ». Ce processus est soutenu par plusieurs « agents » Gemini qui débattent, échangent des idées et les améliorent au fil du temps.
Lan Kartikisalingam, chercheur en intelligence artificielle chez Google, a déclaré au magazine New Scientist le mois dernier que cet outil, dont le nom n’a pas encore été révélé, donnerait aux scientifiques des « superpouvoirs ». Même les chercheurs en biomédecine de l’Imperial College London, qui ont testé une version précoce du modèle d’IA, ont affirmé avec enthousiasme qu’il provoquerait un « énorme bond en avant dans les sciences ».
Mais il semble que ce battage médiatique ne soit rien de plus que du vent.
Sarah Perry, chercheuse en vision par ordinateur au Massachusetts Institute of Technology (MIT), a déclaré à TechCrunch : « Cet outil précoce, bien qu’intéressant, ne semble pas destiné à être utilisé sérieusement. Je ne suis pas sûre qu’il y ait une demande pour ce type de systèmes générateurs d’hypothèses dans la communauté scientifique. »
Dans son annonce, Google s’est vanté que l’« AI co-scientist » avait trouvé de nouvelles méthodes pour réutiliser des médicaments afin de traiter la leucémie myéloïde aiguë. Cependant, selon Favia Dubik, pathologiste, « aucun scientifique sérieux » ne prendrait ces résultats au sérieux, car ils sont trop vagues.
Dubik, affiliée au Northwest Medical Center-Tucson en Arizona, a déclaré à TechCrunch : « Le manque d’informations fournies rend vraiment difficile de comprendre si cela pourrait être réellement utile. »
Les affirmations de Google selon lesquelles l’IA a découvert de nouvelles méthodes pour traiter la cirrhose du foie ont également été réfutées. Steven O’Reilly, de la société britannique de biotechnologie Alcyomics, a déclaré à New Scientist le mois dernier : « Les médicaments identifiés sont bien connus pour leurs propriétés anti-fibrotiques. Il n’y a rien de nouveau ici. »
Certes, l’outil n’est pas dépourvu d’avantages potentiels. Il peut analyser et synthétiser d’énormes quantités de littérature scientifique en quelques minutes, résumant ses découvertes de manière utile. Cela pourrait être un gain de temps considérable, à condition d’ignorer la probabilité élevée d’hallucinations, ou de sorties inventées, qui s’infiltrent dans le travail – un problème inhérent à tous les grands modèles de langage.
Mais ce n’est pas ce que Google vise ici. L’entreprise promeut son modèle d’IA comme une machine à générer des hypothèses de premier ordre, capable d’explorer notre compréhension d’un domaine avec des questions pertinentes, et pas seulement comme un assistant de recherche automatisé. C’est un niveau très, très élevé. Et surtout, ce n’est pas quelque chose que les scientifiques réclament.
Lana Sinapayen, chercheuse en IA aux Sony Computer Science Laboratories au Japon, a déclaré à TechCrunch : « Pour de nombreux scientifiques, moi y compris, la génération d’hypothèses est la partie la plus amusante du travail. Pourquoi voudrais-je externaliser mon plaisir à un ordinateur, pour ne me laisser que le travail fastidieux ? »
Elle ajoute : « De manière générale, de nombreux chercheurs en IA générative semblent mal comprendre pourquoi les humains font ce qu’ils font, et nous nous retrouvons avec des propositions de produits qui automatisent la partie dont nous tirons notre plaisir. »
Source: Futurism
Notez ce sujet