ChatGPT : Quand l'Intelligence Artificielle Accuse un Homme Innocent de Meurtres Horribles - Un Cauchemar Numérique ?"
Par Futurism .Publié le
2025/03/24 18:09

Mars. 24, 2025
Dans le monde en constante évolution de la technologie, l'intelligence artificielle générative en est encore à ses balbutiements. Bien que l'engouement autour de l'IA soit considérable, même les modèles les plus avancés sont sujets à des hallucinations troublantes, comme la fabrication de faux dossiers médicaux ou la rédaction de rapports de recherche basés sur des rumeurs.
Malgré ces imperfections, l'IA s'est rapidement infiltrée dans presque tous les aspects de notre vie, d'Internet au journalisme, en passant par l'assurance et même l'alimentation.
Cela a entraîné des conséquences alarmantes, comme l'a découvert un Norvégien cette semaine. Curieux de savoir ce que ChatGPT d'OpenAI avait à dire sur lui, Arve Hjalmar Holmen a saisi son nom et a laissé le bot faire son travail. Les résultats étaient terrifiants.
Selon TechCrunch, ChatGPT a affirmé que cet homme avait assassiné deux de ses fils et tenté de tuer un troisième. Bien qu'Holmen n'en ait jamais eu connaissance, il aurait passé les 21 dernières années en prison pour ces crimes, du moins selon le chatbot.
Et bien que l'histoire soit manifestement fausse, ChatGPT avait correctement identifié certaines informations sur la vie d'Holmen, comme sa ville natale, ainsi que l'âge et le sexe de chacun de ses enfants. Un mélange sinistre de vérité et d'hallucination délirante.
Holmen a porté ces informations à l'attention de Noyb, un groupe européen de défense des droits des données, qui a déposé une plainte auprès de l'Autorité norvégienne de protection des données en son nom. Noyb a également intenté une action en justice contre OpenAI, la société mère de ChatGPT. Bien que ChatGPT ne répète plus ces mensonges sur Holmen, Noyb demande à l'agence "d'ordonner à OpenAI de supprimer les résultats diffamatoires et d'affiner son modèle pour éliminer les résultats inexacts" – une tâche presque impossible.
Mais c'est probablement là où le bât blesse. L'épreuve du faux meurtre d'Holmen met en évidence la vitesse à laquelle l'IA générative est imposée au monde, au mépris des conséquences. Les chercheurs en données et les critiques technologiques ont fait valoir que les cycles de développement axés sur le profit des grandes entreprises technologiques privilégient les modèles qui semblent tout faire, plutôt que les modèles pratiques qui fonctionnent réellement.
"À l'ère où l'on tente de prétendre avoir construit un Dieu machine, [ils] utilisent ce marteau unique pour toutes les tâches", a déclaré Timnit Gebru, fondatrice du Distributed AI Research Institute, dans le podcast Tech Won't Save Us plus tôt ce mois-ci. "Vous ne construisez pas le meilleur modèle possible pour la meilleure tâche possible."
Bien qu'il existe des réglementations – en Norvège, en tout cas – exigeant que les entreprises d'IA corrigent ou suppriment les fausses informations hallucinées par l'IA, ces lois réactives ne font pas grand-chose pour protéger les individus contre les hallucinations en premier lieu.
Cela a déjà des conséquences dévastatrices, car cette technologie sous-développée est utilisée par des acteurs moins scrupuleux pour fabriquer un consentement pour leurs actions. Des universitaires comme Helyeh Doutaghi sont confrontés à la perte de leur emploi en raison d'allégations générées par l'IA, et les régimes de droite utilisent des technologies d'armes IA pour échapper à la responsabilité des crimes de guerre.
Tant que les grandes entreprises technologiques continueront à déployer des IA surmédiatisées plus rapidement que les législateurs ne peuvent les réglementer, les gens du monde entier seront contraints de vivre avec les conséquences.
Source: Futurism
Notez ce sujet