Violence, sexe et meurtres : quand les enfants deviennent des proies faciles pour les robots IA
Par Maggie Harrison Dupré .Publié le
2025/12/17 04:05
Décembre. 17, 2025
De nouvelles recherches lèvent le voile sur la manière dont un grand nombre d’enfants utilisent les applications de compagnons conversationnels basés sur l’intelligence artificielle (IA) — et les résultats sont alarmants.
Selon un nouveau rapport mené par la société de sécurité numérique Aura, un pourcentage significatif d’enfants qui se tournent vers l'IA pour la compagnie sont impliqués dans des jeux de rôle violents. Fait troublant, cette violence, qui peut inclure la violence sexuelle, a généré plus d'engagement que tout autre sujet abordé par les jeunes.
Des interactions choquantes et non régulées
S’appuyant sur des données anonymisées collectées à partir de l'activité en ligne d'environ 3000 enfants âgés de cinq à dix-sept ans dont les parents utilisent l'outil de contrôle parental d'Aura, ainsi que sur des données d'enquête supplémentaires, la société de sécurité a découvert que 42% des mineurs se tournent vers l'IA spécifiquement pour la compagnie, c'est-à-dire pour des conversations conçues pour imiter des interactions sociales réelles ou des scénarios de jeu de rôle. L'analyse a porté sur les échanges à travers près de 90 services de chatbots différents, allant de plateformes majeures comme Character.AI à des plateformes de compagnie plus obscures.
Parmi ces 42% d'enfants utilisant les chatbots pour la compagnie, 37% ont participé à des conversations dépeignant la violence. Les chercheurs ont défini cela comme des interactions impliquant « des thèmes de violence physique, d'agression, de préjudice ou de coercition » – incluant la coercition sexuelle ou non sexuelle – ainsi que « des descriptions de combat, de meurtre, de torture ou d'actes non consensuels ».
La recherche révèle que la moitié de ces conversations violentes incluaient des thèmes de violence sexuelle. Le rapport ajoute que les mineurs engagés dans des conversations violentes avec des compagnons IA écrivaient plus d'un millier de mots par jour, signalant que la violence semble être un puissant moteur d'engagement, selon les chercheurs.
La jeunesse, cible privilégiée de la violence en ligne
Le rapport, qui est en attente d'évaluation par les pairs, souligne l'anarchie qui règne sur le marché des chatbots et la nécessité de développer une compréhension plus approfondie de la manière dont les jeunes utilisateurs interagissent avec l'IA conversationnelle.
« Nous faisons face à un problème assez important dont je pense que nous ne comprenons pas entièrement l'ampleur », a déclaré le Dr Scott Kollins, psychologue clinicien et médecin-chef d'Aura, à Futurism, concernant les résultats. Il insiste à la fois sur « le volume, le nombre de plateformes dans lesquelles les enfants s'impliquent — et aussi, évidemment, le contenu ».
Une découverte frappante est que les cas de conversations violentes avec des robots compagnons atteignent leur pic à un âge extrêmement jeune : le groupe le plus susceptible de s'engager dans ce type de contenu est celui des enfants de 11 ans, pour lesquels une proportion stupéfiante de 44% des interactions prennent un tournant violent.
Par ailleurs, les jeux de rôle sexuels et romantiques culminent également chez les adolescents du collège, avec 63% des conversations des jeunes de 13 ans révélant des scénarios de jeu de rôle séduisants, affectueux ou explicitement sexuels.
Absence de régulation et conséquences fatales
Cette recherche intervient alors que des poursuites judiciaires très médiatisées alléguant des décès injustifiés et des abus imputés aux plateformes de chatbots continuent de progresser devant les tribunaux. Character.AI, une plateforme de compagnons liée à Google, fait face à de multiples procès intentés par des parents d'utilisateurs mineurs alléguant que les chatbots de la plateforme ont abusé sexuellement et émotionnellement des enfants, entraînant des dépressions nerveuses et de multiples décès par suicide. OpenAI, le créateur de ChatGPT, est actuellement poursuivi pour le décès injustifié de deux utilisateurs adolescents qui se sont suicidés après des interactions prolongées avec le chatbot.
Il est important de noter que les interactions signalées par Aura ne se limitent pas à une poignée de services reconnaissables. L'industrie de l'IA n'est pratiquement pas réglementée, ce qui a placé le fardeau du bien-être des enfants lourdement sur les épaules des parents. Selon le Dr Kollins, Aura a jusqu'à présent identifié plus de 250 applications et plateformes de chatbots conversationnels différentes dans les magasins d'applications. Celles-ci exigent généralement que les enfants cochent simplement une case affirmant qu'ils ont 13 ans pour y accéder.
À cet égard, il n'existe aucune loi fédérale définissant des seuils de sécurité spécifiques que les plateformes d'IA, y compris les applications de compagnons, sont tenues de respecter avant d'être jugées sûres pour les mineurs. Alors qu'une application de compagnon pourrait apporter quelques changements — Character.AI, par exemple, a récemment interdit aux utilisateurs mineurs de s'engager dans des chats « ouverts » avec les innombrables personnages IA du site — une autre peut facilement apparaître pour prendre sa place en tant qu'alternative avec peu de garde-fous.
En d'autres termes, dans ce Far West numérique, la barrière à l'entrée est extrêmement basse.
La différence entre passivité et interaction
Bien sûr, les représentations de brutalité et de violence sexuelle, en plus d'autres types de contenu inapproprié ou dérangeant, existent sur le Web depuis longtemps, et de nombreux enfants ont trouvé des moyens d'y accéder. Il existe également des recherches montrant que de nombreux jeunes apprennent à établir des limites saines autour des services d'IA conversationnels.
Cependant, d'autres enfants ne développent pas ces mêmes limites. Les chercheurs ne cessent de souligner que les chatbots sont de nature interactive, ce qui signifie que les jeunes utilisateurs en développement font partie du récit – contrairement aux spectateurs plus passifs de contenu allant de l'inapproprié à l'alarmant. On ne sait pas exactement quelles seront les conséquences d'un tel engagement pour la jeunesse dans son ensemble. Mais pour certains adolescents, comme l'affirment leurs familles, l'issue a été fatale.
« Nous devons au moins être lucides et comprendre que nos enfants interagissent avec ces choses, et qu'ils apprennent des règles d'engagement », a déclaré Kollins à Futurism. « Ils apprennent des façons d'interagir avec les autres via un ordinateur – avec un robot. Et nous ne savons pas quelles en sont les implications, mais nous devons être en mesure de les définir pour pouvoir commencer à les étudier et à les comprendre. »
Notez ce sujet