• Jeudi 9 Avril 2026 - 2:50 AM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

Google : Les aperçus par IA accusés de propager la désinformation à une échelle « sans précédent »


Par Frank Landymore .Publié le 2026/04/09 01:17
Google : Les aperçus par IA accusés de propager la désinformation à une échelle « sans précédent »
Avril. 09, 2026
  1. 0
  2. 3

Selon une analyse récente menée par la start-up Oumi pour le compte du New York Times, les résumés générés par l'intelligence artificielle de Google, qui s'affichent en tête des résultats de recherche, diffusent des informations erronées à une échelle massive, soulevant des inquiétudes majeures sur la fiabilité de l'information à l'ère numérique.

La précision face au volume : un paradoxe alarmant


L'étude révèle que ces aperçus (AI Overviews) sont exacts dans environ 91 % des cas. Si ce chiffre peut paraître honorable, il dissimule une réalité mathématique vertigineuse : Google traitant environ 5 000 milliards de requêtes par an, ce taux d'erreur de 9 % se traduit par des dizaines de millions de réponses fausses chaque heure, soit des centaines de milliers chaque minute.

Le phénomène de « capitulation cognitive »

Au-delà de l'erreur technique, le rapport souligne un risque psychologique : la tendance des utilisateurs à accorder une confiance aveugle à l'IA.

    Seuls 8 % des internautes vérifient réellement les sources des réponses fournies.

    Une expérience complémentaire montre que les utilisateurs suivent les conseils de l'IA même lorsqu'ils sont erronés dans près de 80 % des cas, un comportement que les chercheurs qualifient de « capitulation cognitive ».

Comparaison technique : Gemini 2 contre Gemini 3

L'analyse s'est appuyée sur le test SimpleQA, un standard de l'industrie conçu par OpenAI. Les résultats montrent une évolution contrastée entre les modèles :

    Gemini 2 : Présentait un taux de précision de 85 %.

    Gemini 3 : A atteint 91 % de réponses factuelles.

Toutefois, une faille critique subsiste. Avec Gemini 3, la proportion de réponses dites « non fondées » (ungrounded) a bondi à 56 % (contre 37 % pour le modèle précédent). Cela signifie que l'IA cite des sites web qui ne contiennent aucune preuve étayant ses affirmations, rendant toute vérification quasi impossible pour l'utilisateur.

La réponse de Google

Google a qualifié cette étude de « lacunaire ». Par la voix de son porte-parole Ned Adriance, l'entreprise a affirmé que l'analyse ne reflétait pas les recherches réelles effectuées par les utilisateurs. Néanmoins, les données internes de Google suggèrent une réalité complexe : un examen de Gemini 3 aurait révélé des erreurs dans 28 % des cas lors de certains tests, bien que la firme soutienne que l'intégration directe aux résultats de recherche améliore la fiabilité globale.

Ce rapport met en lumière le défi colossal auquel fait face le géant de la Silicon Valley : équilibrer l'innovation technologique et la responsabilité éditoriale, alors que les « hallucinations » de l'IA menacent l'intégrité de l'écosystème informationnel mondial.

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS