• Dimanche 6 Avril 2025 - 4:23 AM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

Guerre contre les deepfakes : Microsoft démasque un réseau mondial de cybercriminels.


Par Futurisme .Publié le 2025/04/04 10:10
Guerre contre les deepfakes : Microsoft démasque un réseau mondial de cybercriminels.
Avril. 04, 2025
  1. 0
  2. 7

Microsoft a lancé une action en justice contre des individus ayant exploité ses technologies d'intelligence artificielle à des fins illégales, affirmant sa détermination à "dissuader ceux qui cherchent à armer notre technologie d'IA".

Le géant technologique a récemment modifié une plainte pour nommer quatre développeurs multinationaux accusés d'avoir contourné les mesures de sécurité et abusé des outils d'IA de Microsoft pour générer des deepfakes pornographiques de célébrités et d'autres contenus préjudiciables.

Microsoft a annoncé cette mise à jour dans un billet de blog publié hier, révélant que les quatre développeurs sont membres de Storm-2139, un réseau de cybercriminalité. Ces individus, présumés cybercriminels, utilisent des pseudonymes dignes d'un film de hackers du début des années 2000 : Arian Yadegarnia alias "Fiz" d'Iran, Alan Krysiak alias "Drago" du Royaume-Uni, Ricky Yuen alias "cg-dot" de Hong Kong et Phát Phùng Tấn alias "Asakuri" du Vietnam.

Dans son billet, Microsoft divise les membres de Storm-2139 en trois catégories : "créateurs, fournisseurs et utilisateurs", qui forment ensemble un marché noir basé sur le débridage et la modification des outils d'IA de Microsoft pour créer du matériel illégal ou destructeur.

"Les créateurs ont développé les outils illicites qui ont permis l'abus des services générés par l'IA", indique le billet, ajoutant que "les fournisseurs ont ensuite modifié et fourni ces outils aux utilisateurs finaux, souvent avec différents niveaux de service et de paiement".

"Enfin", poursuit-il, "les utilisateurs ont utilisé ces outils pour générer du contenu synthétique illicite, souvent centré sur des célébrités et des images sexuelles".

La plainte civile a été initialement déposée en décembre, tous les accusés spécifiques étant alors désignés par le simple nom de "John Doe". Cependant, à la lumière de nouvelles preuves révélées lors de l'enquête de Microsoft sur Storm-2139, l'entreprise a choisi de dévoiler l'identité de certains des acteurs malveillants présumés impliqués dans le litige – d'autres restent anonymes en raison d'enquêtes en cours, selon le géant technologique, qui précise qu'au moins deux sont américains – invoquant la dissuasion future comme motivation.

"Nous engageons cette action en justice maintenant contre les accusés identifiés", a déclaré Microsoft dans le billet, "pour mettre fin à leurs agissements, continuer à démanteler leurs opérations illicites et dissuader ceux qui cherchent à armer notre technologie d'IA".

Il s'agit d'une démonstration de force fascinante de la part du mastodonte qu'est Microsoft, qui ne souhaite évidemment pas que des acteurs malveillants abusent de ses outils d'IA générative pour créer des contenus manifestement odieux, tels que des deepfakes pornographiques non consensuels de personnes réelles. Après tout, en matière de dissuasion, se retrouver dans le collimateur juridique de l'une des organisations les plus riches et les plus puissantes du monde est un argument de poids.

À cette fin, selon Microsoft, la pression juridique a déjà contribué à diviser Storm-2139. Selon Microsoft, la "saisie" du site web du groupe et la "levée subséquente du scellé des documents juridiques en janvier ont généré une réaction immédiate de la part des acteurs, provoquant dans certains cas le retournement des membres du groupe les uns contre les autres et des accusations mutuelles".

Cela dit, comme le souligne Gizmodo, la décision de Microsoft de déployer sa puissance juridique contre les auteurs présumés d'abus de sa technologie soulève également des questions dans le débat en cours sur la sécurité de l'IA et la manière dont les entreprises devraient chercher à limiter les abus de l'IA.

Certaines entreprises, comme Meta, ont choisi de rendre leurs modèles d'IA de pointe open-source – une approche plus décentralisée du développement de l'IA, bien que certains experts estiment qu'elle pourrait permettre à des acteurs malveillants d'exploiter discrètement des technologies d'IA avancées à l'abri des regards ou de la surveillance du public (l'industrie de l'IA s'autorégule actuellement en grande partie, il convient donc de prendre avec des pincettes le concept de "surveillance" dans ce secteur, bien que des entreprises comme Meta, Microsoft et Google doivent toujours rendre des comptes à l'opinion publique).

Microsoft, pour sa part, a adopté une approche mixte, construisant certains modèles publiquement et gardant d'autres modèles à l'abri des regards. Malgré les ressources considérables du géant technologique et ses engagements déclarés en faveur d'une IA sûre et responsable, des criminels ont néanmoins trouvé des moyens de contourner ses mesures de sécurité et de tirer profit d'une utilisation malveillante. Et alors que Microsoft, comme d'autres, poursuit sa course effrénée vers l'IA, elle ne peut pas compter uniquement sur les litiges pour réprimer l'exploitation néfaste de ses outils d'IA – en particulier dans un environnement si peu réglementé, où la loi elle-même peine à rattraper les complexités des dommages et des abus liés à l'IA.

"Bien que Microsoft et d'autres aient mis en place des systèmes conçus pour prévenir l'abus de l'IA générative", écrit Ina Fried d'Axios, "ces protections ne fonctionnent que lorsque les systèmes technologiques et juridiques peuvent les faire appliquer efficacement".

Source : Futurisme

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 75%
  2. 25%
  3. 0%

4 Votes

DESSUS