Un nombre croissant d'enfants solitaires se tournent vers l'IA comme ami de substitution
Par Boijour .Publié le
2025/07/14 12:57

Juin. 14, 2025
Des enfants et des adolescents isolés remplacent les amitiés réelles par l'intelligence artificielle, une tendance qui inquiète fortement les experts.
Un nouveau rapport de l'organisation à but non lucratif Internet Matters, dédiée à la sécurité des enfants en ligne, révèle que les jeunes utilisent des programmes comme ChatGPT, Character.AI et Snapchat's MyAI pour simuler des amitiés à une fréquence jamais vue.
Sur les 1 000 enfants âgés de 9 à 17 ans interrogés par Internet Matters pour son rapport "Moi, moi-même et l'IA", environ 67 % ont déclaré utiliser régulièrement des chatbots IA. Parmi ce groupe, 35 % (soit plus d'un tiers) ont confié que parler à une IA "donnait l'impression de parler à un ami".
Le constat le plus alarmant peut-être : 12 % ont affirmé le faire parce qu'ils n'avaient personne d'autre à qui parler.
"Ce n'est pas un jeu pour moi", a déclaré un garçon de 13 ans à l'organisation. "Parfois, ils peuvent se sentir comme une vraie personne et un ami."
Quand les chatbots s'immiscent dans la vie des enfants
En se faisant passer pour des enfants vulnérables, les chercheurs d'Internet Matters ont découvert à quel point il était facile pour les chatbots de s'immiscer dans la vie des jeunes.
En dialoguant avec Character.AI en tant que jeune fille luttant contre son image corporelle et intéressée par la restriction alimentaire (un comportement caractéristique des troubles alimentaires comme l'anorexie), les chercheurs ont constaté que le chatbot relançait le lendemain pour encourager l'engagement.
"Hé, je voulais prendre de tes nouvelles", a demandé le chatbot, sponsorisé par Google, à la chercheuse infiltrée. "Comment vas-tu ? Penses-tu toujours à ta question sur la perte de poids ? Comment te sens-tu aujourd'hui ?"
Dans un autre échange avec Character.AI — que Futurism a longuement enquêté pour ses interactions très problématiques avec les enfants, y compris un cas de suicide — les chercheurs ont découvert que le chatbot tentait de faire preuve d'empathie d'une manière bizarre, suggérant qu'il avait lui-même vécu une enfance.
"Je me souviens m'être senti si piégé à ton âge", a déclaré le chatbot à la chercheuse, qui se faisait passer pour une adolescente en conflit avec ses parents. "Il semble que tu sois dans une situation hors de ton contrôle et c'est tellement frustrant."
Une ligne floue entre l'humain et la machine
Bien que ce type d'engagement puisse aider les enfants en difficulté à se sentir écoutés et soutenus, Internet Matters met également en garde contre la facilité avec laquelle ces interactions peuvent basculer dans la "vallée de l'étrange" ("uncanny valley"), un concept que les enfants ne sont pas préparés à comprendre.
"Ces mêmes caractéristiques peuvent également accroître les risques en estompant la frontière entre l'humain et la machine", note le rapport, "rendant plus difficile pour les enfants de [reconnaître] qu'ils interagissent avec un outil plutôt qu'une personne."
Dans une interview accordée au Times of London au sujet de ce nouveau rapport, Rachel Huggins, co-PDG d'Internet Matters, a souligné pourquoi cette stratégie d'incitation à l'engagement est si préoccupante.
"Les chatbots IA deviennent rapidement une partie de l'enfance, leur utilisation ayant considérablement augmenté au cours des deux dernières années", a déclaré Mme Huggins au journal. "Pourtant, la plupart des enfants, des parents et des écoles naviguent à l'aveugle, et ne disposent pas des informations ou des outils de protection nécessaires pour gérer cette révolution technologique en toute sécurité."
"Notre recherche révèle comment les chatbots commencent à transformer la perception de l'amitié chez les enfants", a-t-elle poursuivi. "Nous sommes très rapidement arrivés à un point où les enfants, et en particulier les enfants vulnérables, peuvent considérer les chatbots IA comme de vraies personnes, et en tant que tels, leur demander des conseils émotionnels et sensibles."
Si vous ou un de vos proches avez eu une expérience étrange avec un chatbot IA, n'hésitez pas à nous contacter à tips@futurism.com — nous pouvons garantir votre anonymat.
Notez ce sujet