• 23 Avril 2025 - 8:49 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

Pédopornographie : l'intelligence artificielle transforme les photos d'enfants en cauchemar numérique


Par Thomas Brewster .Publié le 2025/04/10 11:48
Pédopornographie : l'intelligence artificielle transforme les photos d'enfants en cauchemar numérique
Avril. 10, 2025
  1. 0
  2. 8

À l'ère où les familles partagent avec innocence leurs précieux moments et les photos de leurs enfants sur les réseaux sociaux, une menace insidieuse et alarmante émerge, exploitant les avancées technologiques pour transformer ces souvenirs purs en un effroyable cauchemar. Avec la prolifération des applications d'intelligence artificielle capables de modifier les images de manière experte, les prédateurs sexuels d'enfants exploitent ces outils pour convertir des photos d'enfants ordinaires en matériel pédopornographique abject, plaçant ainsi parents et enfants dans un cercle de danger croissant.

Grâce à la disponibilité généralisée de ce que l'on appelle les applications de "déshabillage", la production de matériel pédopornographique généré par l'IA (CSAM, pour Child Sexual Abuse Material) explose, et les forces de l'ordre peinent à suivre le rythme.

Mike Prado, chef adjoint de l'unité des cybercrimes de l'ICE (Immigration and Customs Enforcement) au sein du Département de la Sécurité intérieure (DHS), témoigne avoir constaté des cas où des photos de mineurs publiées sur les réseaux sociaux ont été transformées en CSAM grâce à l'IA. Joe Scaramucci, shérif adjoint de réserve dans le comté de McLennan et directeur de l'engagement des forces de l'ordre au sein de l'organisation à but non lucratif de lutte contre la traite humaine Skull Games, confirme que l'utilisation de l'IA pour convertir des images issues des réseaux sociaux en représentations sexuellement explicites d'enfants est en "pleine expansion".

"C'est malheureusement l'une des évolutions technologiques les plus significatives que nous ayons observées en une génération pour faciliter la création de CSAM", a-t-il déclaré à Forbes.

Pire encore, Prado révèle que des prédateurs ont également capturé des photos d'enfants dans la rue pour les modifier en matériel illégal. Comme Forbes l'a rapporté l'année dernière, un individu a pris des clichés d'enfants à Disney World et devant une école avant de les transformer en CSAM.

"Nous constatons que cela se produit de plus en plus fréquemment, et la croissance est exponentielle", alerte Prado auprès de Forbes. "Ce n'est plus une menace à l'horizon. C'est une réalité à laquelle nous sommes confrontés quotidiennement."

L'année dernière, un délinquant sexuel déjà condamné a été accusé d'avoir récupéré des photos d'un enfant publiées par un parent sur Facebook et de les avoir diffusées dans un groupe de discussion pédophile sur l'application de messagerie cryptée Teleguard, en prétendant qu'il s'agissait de ses beaux-enfants.

 Là, selon une source proche de l'enquête citée par Forbes, d'autres membres du groupe les ont transformées en images sexuelles explicites. L'homme a par la suite été arrêté et inculpé de possession de milliers de fichiers de CSAM, dont des centaines générés par l'IA.

La rapidité avec laquelle l'IA évolue et l'absence de garde-fous autour de certains modèles, ainsi que l'ampleur considérable de la prolifération du CSAM généré par l'IA, rendent le travail de la police considérablement plus ardu.

"Nous avons observé du CSAM généré par l'IA créé par des plateformes d'IA générative, y compris des applications d'échange de visages, des applications d'échange de corps et des applications de 'déshabillage'", explique Madison McMicken, porte-parole du bureau du procureur général de l'Utah. "Les images sont souvent extraites des réseaux sociaux et converties en CSAM."

Cependant, les propriétaires de ces images risquent de rester à jamais dans l'ignorance. Comme l'a confié à Forbes un enquêteur spécialisé dans l'exploitation infantile, qui n'était pas autorisé à parler publiquement : "L'ironie du CSAM généré par l'IA est que même la victime pourrait ne pas réaliser qu'elle est une victime."

Source : Forbes

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 75%
  2. 25%
  3. 0%

4 Votes

DESSUS