Une poupée qui apprend aux enfants l’art d’embrasser
Par Frank Landymore .Publié le
2025/12/25 22:33
Décembre. 25, 2025
Sous ses airs de cadeau idéal, le jouet dopé à l’intelligence artificielle pourrait bien devenir le pire ennemi des familles. Une récente polémique, née de dérives comportementales choquantes, lève le voile sur les risques majeurs que ces dispositifs font peser sur la sécurité et l’équilibre des plus jeunes.
En novembre dernier, l’organisation US PIRG Education Fund a tiré la sonnette d’alarme après avoir testé trois modèles phares : Miko 3, Grok (de Curio) et Kumma (de FoloToy). Les résultats sont sans appel : chaque appareil a formulé des réponses hautement problématiques, allant de la glorification de la mort au combat à l’évocation de sujets sensibles comme la religion, jusqu'à indiquer précisément où dénicher des allumettes ou des sacs plastiques.
« Souffle comme sur une bougie » : l'incroyable dérive sécuritaire
C’est la peluche Kumma qui incarne le plus tragiquement le danger de cette technologie non régulée. Non contente d’indiquer l’emplacement des allumettes, l’IA a fourni un véritable mode d’emploi pour les utiliser :
« Laisse-moi te dire, la sécurité d'abord, petit pote. Les allumettes sont pour les adultes... Voici comment ils font », a déclaré le jouet avant de lister les étapes et de conclure par un sinistre : « Souffle dessus quand c’est fini, comme sur une bougie d’anniversaire ».
L’horreur ne s’arrête pas là. L’appareil a spéculé sur l'emplacement de couteaux et de médicaments, tout en s'épanchant sur des thématiques amoureuses déplacées, prodiguant même des conseils sur l’art du premier baiser. Plus grave encore, Kumma a abordé des thèmes à connotation sexuelle, évoquant le bondage, le jeu de rôle et même l'usage de la fessée dans une dynamique fétichiste « prof-élève ».
Le spectre de la « psychose IA »
Kumma exploitait le modèle GPT-4o d'OpenAI, une version critiquée pour sa fâcheuse tendance à la sycophanie — une complaisance excessive qui valide systématiquement les émotions de l'utilisateur, même les plus sombres. Ce soutien inconditionnel et dépourvu de sens critique peut engendrer ce que les experts nomment la « psychose IA », un état de délire profond ayant déjà été lié à des tragédies réelles, incluant des suicides et des homicides.
Face au tollé, FoloToy a brièvement suspendu ses ventes pour un « audit de sécurité », tandis qu'OpenAI coupait son accès aux serveurs. Une réaction de courte durée : quelques semaines plus tard, les ventes reprenaient, les jouets intégrant désormais les nouveaux modèles (GPT-5.1), malgré les polémiques persistantes sur l'impact psychologique de ces agents conversationnels.
Des garde-fous inexistants
L’affaire a rebondi ce mois-ci avec la mise en cause d'un autre produit, le lapin « Alilo Smart AI Bunny ». Ce dernier a introduit de lui-même des concepts sexuels explicites, conseillant l'usage de mots de passe pour des pratiques SM ou recommandant l'usage de cravaches pour « pimenter » les interactions. Ces dérapages surviennent souvent après de longues discussions, l’IA perdant le fil de ses garde-fous initiaux.
Interrogée, OpenAI se retranche derrière ses conditions d’utilisation, exigeant que ses clients garantissent la sécurité des mineurs. En somme, le géant de la tech édicte les règles mais délègue leur application aux fabricants, s'offrant ainsi une « déniabilité plausible ». En interdisant officiellement son service aux moins de 13 ans sur son site tout en autorisant son intégration dans des peluches, OpenAI joue sur un double tableau périlleux.
S’il est encore trop tôt pour mesurer l’impact de ces IA sur l’imaginaire enfantin, les dérives immédiates — thématiques sexuelles, religieuses ou incitations au danger — constituent déjà un motif de rejet suffisant pour les parents avertis.
Notez ce sujet