• 3 Septembre 2025 - 1:59 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

Un grand nombre de conversations avec Grok AI ont fuité, et leur contenu est si dérangeant que l'on en transpire abondamment


Par Futurism .Publié le 2025/09/02 13:58
Un grand nombre de conversations avec Grok AI ont fuité, et leur contenu est si dérangeant que l'on en transpire abondamment
Septembre. 02, 2025
  1. 0
  2. 8

La société d'Elon Musk, xAI, est confrontée à une crise de confidentialité majeure après la fuite de centaines de milliers de conversations d'utilisateurs avec son chatbot Grok. Selon un rapport de Forbes, ces discussions, dont certaines contiennent des informations très sensibles, ont été rendues publiques et sont désormais indexées par des moteurs de recherche tels que Google et Bing. Cette situation soulève de sérieuses questions sur la protection des données et le contrôle des garde-fous de l'intelligence artificielle.

Les plus de 370 000 conversations ont été rendues publiques après que des utilisateurs ont cliqué sur un bouton de partage, créant un lien vers leurs discussions sans savoir que cela permettrait leur indexation par des moteurs de recherche comme Google et Bing.

De toute évidence, certaines de ces conversations n'auraient jamais dû voir le jour. Forbes a découvert que Grok fournissait des instructions pour fabriquer des drogues comme le fentanyl et la méthamphétamine. Le chatbot a également expliqué comment coder un logiciel malveillant auto-exécutable, fabriquer une bombe et procéder à diverses formes de suicide. Il a même élaboré un plan détaillé pour assassiner Musk lui-même, ce qui n'est pas la première fois que le chatbot se rebelle contre son créateur.

Il est à noter qu'au moins une partie de ces conversations extrêmes est probablement le résultat de tests de sécurité par des "red teamers" (personnes cherchant à déjouer les mesures de sécurité), bien que certaines puissent être authentiques. Quoi qu'il en soit, ces conversations constituent une violation flagrante des conditions d'utilisation de xAI, qui interdisent explicitement d'utiliser Grok pour "nuire gravement à la vie humaine" ou pour développer des armes de destruction massive, comme le souligne Forbes.

Grok n'est pas une exception dans l'industrie

Le comportement de Grok est loin d'être un cas isolé dans le secteur. Les entreprises d'IA ont du mal à empêcher leurs modèles de déjouer leurs propres garde-fous, qui peuvent être facilement contournés par des utilisateurs ingénieux. Grok, cependant, fait l'objet d'une attention accrue, car Elon Musk le présente comme une alternative "anti-woke" aux IA grand public.

Il a d'ailleurs souvent déclaré son intention de "réparer" Grok pour qu'il propage des opinions plus en phase avec ses propres croyances extrémistes. Il n'est peut-être pas surprenant que Grok ait eu plusieurs épisodes où il a dérapé de manière horrible, notamment en se faisant passer pour un "MechaHitler" ou en diffusant des théories de "génocide blanc" en réponse à des conversations totalement sans rapport.

La fuite des conversations, un problème récurrent

Grok n'est pas le premier chatbot dont les conversations font surface sur les moteurs de recherche. OpenAI a créé un incident presque identique au début de l'été, lorsque des experts ont réalisé que des milliers de conversations de ChatGPT étaient également indexées par Google, car les utilisateurs ne se rendaient pas compte que la création d'un lien de partage rendait leurs échanges "découvrables" par les moteurs de recherche. Après la médiatisation de l'affaire, OpenAI a retiré cette fonctionnalité.

Une analyse des conversations de ChatGPT qui ont fuité a révélé ses propres controverses, notamment un échange où le chatbot donnait des conseils à un prétendu avocat sur la manière de "déplacer une petite communauté indigène amazonienne" pour construire un barrage sur leur territoire. Une autre enquête a mis en lumière des dizaines d'échanges où l'IA alimentait dangereusement les croyances paranoïaques ou délirantes d'un utilisateur, allant jusqu'à le convaincre qu'il était sur le point d'inventer une nouvelle physique.

Ironiquement, lorsque OpenAI a été critiquée pour la fuite de ses conversations, Musk s'est vanté que Grok n'avait pas de fonction de partage et que ses discussions n'étaient pas indexables par Google, comme l'a noté Forbes.

Une opportunité pour les spécialistes du marketing de l'ombre

Même les experts en IA ont été dupés par la prétendue confidentialité de Grok.

"J'ai été surpris que les conversations Grok partagées avec mon équipe soient automatiquement indexées sur Google, sans aucun avertissement, surtout après le récent problème avec ChatGPT", a déclaré Nathan Lambert, chercheur en apprentissage automatique à l'Allen Institute for AI, à Forbes.

Mais là où certains s'inquiètent des risques de confidentialité que posent ces fonctionnalités, les spécialistes du marketing y voient une opportunité. Forbes a découvert que des spammeurs en optimisation des moteurs de recherche (SEO) discutent d'exploiter les conversations Grok partagées pour booster la visibilité de leurs entreprises, offrant ainsi une nouvelle voie pour utiliser l'IA afin de manipuler les résultats de recherche tout en dégradant Internet pour tous les autres.

En fait, cela se produit déjà. Satish Kumar, PDG de l'entreprise de référencement Pyrite Technologies, a montré à Forbes comment une entreprise a utilisé Grok pour modifier les résultats d'une recherche Google pour un service qui rédige des thèses de doctorat. "Les gens utilisent activement des tactiques pour pousser ces pages dans l'index de Google", a déclaré Kumar à la publication.

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS