Prêt à être horrifié ? Des chercheurs créent une IA psychopathe
Par Boijour .Publié le
2025/07/11 12:19

Juin. 11, 2025
Dans une démarche qui rappelle étrangement le célèbre personnage de Norman Bates, des chercheurs du Massachusetts Institute of Technology (MIT) ont poussé l'audace jusqu'à entraîner un algorithme d'Intelligence Artificielle (IA) à manifester des tendances psychopathiques. Cette expérience, bien que dérangeante, met en lumière les dangers potentiels des données biaisées dans l'apprentissage automatique.
Norman : L'IA qui voit le pire de l'humanité
Baptisé "Norman", cet algorithme d'IA est capable de "voir" et de "comprendre" des images, puis de les décrire par écrit. Le hic ? Ses interprétations sont particulièrement macabres et absolument terrifiantes. Pour parvenir à ce résultat glaçant, les chercheurs du MIT ont plongé dans les tréfonds d'un fil de discussion Reddit particulièrement tordu, dédié à "documenter et observer la réalité dérangeante de la mort".
Ces images ont ensuite été utilisées pour former l'algorithme. Une fois que Norman a été complètement "déréglé", il a été soumis au test de Rorschach, ce fameux test psychologique utilisé pour évaluer la santé mentale des patients. Les résultats, comparés à ceux d'une IA "normale", se sont révélés particulièrement perturbants.
Le rôle crucial des données : L'algorithme n'est pas toujours le coupable
Dans leur déclaration sur le projet, les chercheurs du MIT ont souligné un point essentiel : "Norman est né du fait que les données utilisées pour enseigner à un algorithme d'apprentissage automatique peuvent influencer considérablement son comportement."
Ils ont ajouté : "Ainsi, lorsque les gens parlent d'algorithmes d'IA étant biaisés et injustes, le coupable n'est souvent pas l'algorithme lui-même, mais les données biaisées qui lui ont été fournies. La même méthode peut voir des choses très différentes dans une image, même des choses malsaines, si elle est entraînée sur le mauvais (ou, le bon !) ensemble de données."
Une étude de cas édifiante sur les dérives potentielles de l'IA
Ce projet a été conçu comme une "étude de cas sur les dangers d'une IA qui tourne mal lorsque des données biaisées sont utilisées dans des algorithmes d'apprentissage automatique."
Heureusement, la seule capacité de Norman est de légender des images, ce qui signifie que le pire qu'il puisse faire est d'interpréter de manière effrayante les taches d'encre de Rorschach.
Notez ce sujet