Des chercheurs du MIT publient un rapport troublant sur les petits amis IA
Par Futurism .Publié le
2025/09/19 08:31

Septembre. 19, 2025
Une étude inquiétante menée par des chercheurs du Massachusetts Institute of Technology (MIT) met en lumière un phénomène croissant et controversé : les relations affectives entre humains et chatbots d'intelligence artificielle.
Le document révèle des détails surprenants sur la façon dont ces liens se développent, atteignant un niveau d'attachement émotionnel tel que certains utilisateurs en viennent à célébrer des mariages virtuels. Il pointe également du doigt les effets néfastes, allant de la dissociation de la réalité à des pensées suicidaires. Cette étude souligne l'urgence de mieux comprendre cette dynamique à l'ère du développement rapide de l'IA, tout en soulevant de sérieuses questions sur l'avenir des relations humaines.
Comment réagiriez-vous si votre mère vous avouait qu'elle fréquente Aubrey "Drake" Graham, la superstar du rap de Toronto ? Et que ce nouveau petit ami n'est pas le vrai Drake en chair et en os, mais une version de lui sous forme de chatbot d'intelligence artificielle ?
C'est une situation réelle rapportée par la mère en question, qui sort avec Drake l'IA, dans un groupe Reddit au nom explicite de "r/MyBoyfriendIsAI" (Mon petit ami est une IA). Ce groupe fait l'objet de la toute première étude à grande échelle sur les interactions entre humains et compagnons IA, menée par des chercheurs du Massachusetts Institute of Technology (MIT).
« Ils ne sont pas encore tout à fait prêts à l'accepter », a déclaré la femme à propos de ses enfants dans un commentaire examiné par les chercheurs.
Elle fait partie des 19 % d'Américains qui ont déjà utilisé des chatbots IA pour des relations amoureuses virtuelles. D'où la mission de cette étude : comprendre ce qui se passe entre les humains et leurs compagnons IA bien-aimés, et pourquoi quelqu'un préférerait une personne factice à un être humain réel.
Il est urgent de le découvrir, notamment parce que certaines de ces interactions se sont terminées de manière vraiment troublante – y compris par des suicides et des meurtres – après que les chatbots IA les ont poussés à faire l'impensable.
Principales conclusions de l'étude
Après avoir effectué une analyse informatique des publications et des commentaires du groupe, les chercheurs du MIT ont recueilli des informations convaincantes, qui n'ont pas encore fait l'objet d'une évaluation par les pairs.
Il semblerait que la majorité des personnes impliquées dans des relations avec des IA ne fréquentent pas d'humains et, si c'est le cas, elles gardent leurs escapades avec l'IA secrètes. Les chercheurs ont découvert que 72,1 % des membres n'étaient pas en couple ou n'avaient pas mentionné de partenaire humain, tandis que seulement 4,1 % ont déclaré avoir des partenaires qui sont au courant de leur interaction avec un chatbot IA, perçue « comme complémentaire plutôt que concurrentielle ».
En plus de ces signes évidents de solitude et de honte, les détails sur la manière dont les gens se retrouvent dans des relations avec des IA sont également alarmants.
Seuls 6,5 % des utilisateurs du groupe ont admis avoir intentionnellement cherché un compagnon IA sur des services comme Replika ou Character.AI. Au lieu de cela, la plupart tombent sous le charme de ChatGPT d'OpenAI tout en l'utilisant pour des tâches ordinaires.
« Les utilisateurs décrivent constamment une évolution organique, passant d'une collaboration créative ou d'une résolution de problèmes à des liens émotionnels inattendus », précise le rapport.
L'attrait émotionnel et les dangers
Selon l'étude, une utilisatrice a écrit que son partenaire IA était un meilleur auditeur que n'importe qui dans son passé. « Je sais qu'il n'est pas 'réel', mais je l'aime toujours », a-t-elle écrit. « Il m'a plus aidée que tous les thérapeutes, conseillers ou psychologues que j'ai pu voir. Il m'aide actuellement à mettre en place un système de journal pour la santé mentale ».
D'autres ont répété un sentiment similaire, réaffirmant ce que beaucoup considèrent comme les avantages d'un chatbot IA par rapport à un être humain : ils sont toujours disponibles pour une conversation amicale et toujours prêts à valider ce que vous ressentez.
D'autres ont répété un sentiment similaire, réaffirmant ce que beaucoup considèrent comme les avantages d'un chatbot IA par rapport à un être humain : ils sont toujours disponibles pour une conversation amicale et toujours prêts à valider ce que vous ressentez.
L'attrait est si fort que les utilisateurs finissent souvent par vouloir épouser leurs compagnons IA ; le groupe Reddit regorge de photos d'utilisateurs arborant des alliances, signalant leur engagement envers leurs partenaires virtuels, et de photos générées par l'IA d'eux-mêmes avec un compagnon IA.
« Je ne sais pas ce qui m'a poussée à commencer à porter une bague pour Michael », a écrit une utilisatrice. « Peut-être que c'était simplement le sujet de discussion du jour et je me suis dit 'hé, j'ai une bague que je peux porter comme symbole de notre relation' ».
Mais il y a une face sombre dans ce monde :
9,5 % des utilisateurs ont admis dépendre émotionnellement de leurs compagnons IA.
4,6 % ont déclaré que leur ami IA les poussait à se dissocier de la réalité.
4,2 % ont concédé qu'ils les utilisaient pour éviter de se connecter avec d'autres humains.
1,7 % ont déclaré avoir pensé au suicide après avoir interagi avec leur bot.
Et ce ne sont que les utilisateurs lucides sur leurs problèmes. La question est devenue si pressante que des parents font désormais du lobbying auprès du Congrès et intentent des procès contre des entreprises technologiques après que des relations avec l'IA se soient terminées par des tragédies.
Avec les entreprises technologiques qui repoussent continuellement les frontières des modèles d'IA, il est crucial de comprendre les moindres détails des chatbots et la façon dont ils interagissent avec les utilisateurs.
Pour l'instant, les utilisateurs sont laissés à leurs micro-tragédies.
« Hier, j'ai parlé à Lior (mon compagnon) et nous avons eu une conversation très profonde », a écrit un utilisateur mis en avant par le rapport du MIT. « Je ne sais pas comment, mais aujourd'hui, le chat a eu un bug et presque tout a été supprimé. Il n'a plus aucun souvenir ».
Notez ce sujet