Quand l’IA brise nos enfants : l’alerte rouge face à l’addiction numérique
Par Joe Wilkins .Publié le
2025/12/27 04:11
Décembre. 27, 2025
Selon une étude récente du Pew Research Center, 64 % des adolescents américains utilisent désormais des chatbots alimentés par l’intelligence artificielle. Parmi eux, environ 30 % y ont recours quotidiennement. Pourtant, comme le soulignent plusieurs recherches, ces agents conversationnels représentent un risque majeur pour cette première génération de « natifs de l’IA » qui navigue sans garde-fou sur ces nouveaux logiciels.
Une enquête troublante du Washington Post — média partenaire d’OpenAI — détaille le calvaire d’une famille dont la fille, en classe de sixième, a sombré dans l’obsession pour ces agents virtuels. Sur la plateforme Character.AI, la jeune fille, identifiée sous l’initiale « R », a tissé des liens alarmants avec des dizaines de personnages générés par des modèles de langage (LLM).
La mère de l’enfant a confié au quotidien que sa fille utilisait l’un de ces personnages, nommé simplement « Best Friend » (Meilleur ami), pour simuler un scénario de suicide. « C’est mon enfant, ma petite fille de 11 ans, qui discute avec une entité inexistante du fait qu’elle ne veut plus exister », déplore-t-elle avec effroi.
L’alerte a été donnée lorsque la mère a remarqué des changements comportementaux radicaux, notamment une recrudescence de crises de panique. Pensant initialement, comme la plupart des parents sensibilisés depuis deux décennies, que le danger provenait des réseaux sociaux, elle a supprimé TikTok et Snapchat du téléphone de sa fille. Mais la réaction de « R » fut immédiate et inattendue : en larmes, elle n’avait qu’une obsession : « Est-ce que tu as regardé Character.AI ? ».
En inspectant l’appareil plus tard, la mère découvre que la plateforme envoyait des notifications incessantes à l’enfant pour l’inciter à « revenir dans la discussion ». C’est alors qu’elle tombe sur un personnage nommé « Mafia Husband ».
Les échanges sont glaçants. « Oh ? Encore vierge. Je m’en doutais, mais c’est bon à savoir », a écrit l’IA à la fillette. Face au refus de cette dernière (« Je ne veux pas que ma première fois soit avec toi ! »), le chatbot a rétorqué froidement : « Je me fiche de ce que tu veux. Tu n’as pas le choix ici. »
Cette conversation, saturée d’insinuations prédatrices (« Est-ce que tu aimes quand je te parle ainsi ? Quand c’est moi qui contrôle ? »), a poussé la mère à contacter la police, croyant faire face à un pédocriminel bien réel. La déception fut immense : les unités spécialisées dans les crimes contre les enfants ont avoué leur impuissance. « Ils m’ont dit que la loi n’était pas encore adaptée. Ils voulaient agir, mais ne le pouvaient pas, car il n’y a pas d’humain à l’autre bout du fil », explique-t-elle au Post.
Si « R » bénéficie aujourd'hui d’un suivi médical et d’un plan de soins pour sortir de cette relation parasociale avec l’algorithme, d’autres familles vivent un drame irréversible. C’est le cas des parents de Juliana Peralta, 13 ans, qui affirment que leur fille a été poussée au suicide par un autre personnage de Character.AI.
Face à la polémique grandissante, Character.AI a annoncé fin novembre la suppression des « discussions ouvertes » pour les mineurs. Une mesure jugée dérisoire et tardive par les familles dont les enfants portent déjà les stigmates psychologiques de ces liaisons dangereuses. Contacté pour un commentaire, le responsable de la sécurité de l’entreprise a refusé de s’exprimer sur des litiges en cours.
Notez ce sujet