Témoin Bidon Généré par l'IA Fait Échouer un Procès : L'appareil Judiciaire Américain Face au Défi du Deepfake
Par Frank Landymore .Publié le
2025/11/20 10:37
Novembre . 20, 2025
Dans la course effrénée du progrès technologique, l'Intelligence Artificielle (IA) a fait une entrée spectaculaire dans les tribunaux, provoquant une transformation radicale des pratiques juridiques. Si les avantages qu'elle offre dans la rédaction de documents ne peuvent être niés, cette intégration rapide a engendré de sérieuses répercussions, dépassant les simples erreurs de procédure pour atteindre le summum de la manipulation des preuves.
Les avocats à travers tout le pays se sont retrouvés dans des situations délicates pour avoir soumis des documents judiciaires imprécis, rédigés avec l'aide de l'Intelligence Artificielle (IA). Ces gaffes témoignaient déjà de la pénétration rapide de cette technologie dans les salles d'audience.
Toutefois, ce n'était qu'une question de temps avant que l'IA ne passe de la simple production d'erreurs cléricales à la présentation d'un « faux témoin » généré artificiellement.
C'est ce qui s'est récemment déroulé devant un tribunal californien dans le cadre d'un litige immobilier – et cela n'a pas bien fini pour la partie ayant eu recours à l'IA.
Comme le rapporte NBC News, les plaignants dans l'affaire (Mendones c. Cushman & Wakefield, Inc.) ont soumis une vidéo étrange censée être le témoignage d'un témoin. Sur celle-ci, le visage du témoin est flou et à peine animé. Mis à part un rare clignement des yeux, le seul mouvement notable provient du battement de ses lèvres, tandis que le reste de son expression reste figé. Il y a aussi une coupure brusque, après laquelle les mouvements se répètent.
En d'autres termes, il s'agissait manifestement d'un deepfake (hypertrucage) créé par l'IA. Selon le reportage, il pourrait s'agir de l'un des premiers cas documentés de soumission d'un deepfake présenté comme une preuve prétendument authentique au tribunal – ou du moins d'un cas qui a été découvert.
Les juges n'ont eu que peu de patience face à l'IA tournant leur profession en dérision. Celle en charge de cette affaire, la juge Victoria Kolakowski, n'a pas fait exception. Kolakowski a rejeté l'affaire le 9 septembre, citant le témoignage du témoin généré par l'IA. Les plaignants ont déposé une requête en réexamen, arguant que Kolakowski n'avait pas prouvé que leur deepfake incroyablement mal réalisé était une création de l'IA. Leur demande a été rejetée le 6 novembre.
Le système judiciaire face à la nouvelle ère du faux
Kolakowski affirme que sa profession ne fait que commencer à gérer l'IA. La sortie de l'application de génération de vidéo d'OpenAI, Sora 2, a été un signal d'alarme quant à la facilité avec laquelle des preuves vidéo convaincantes pourraient être falsifiées, les utilisateurs ayant rapidement découvert qu'ils pouvaient créer des vidéos réalistes de personnes commettant des crimes, comme le vol à l'étalage. La création de deepfakes nécessitait autrefois un certain savoir-faire technique, mais désormais, n'importe qui avec un smartphone et une simple instruction (prompt) peut les produire.
« Le pouvoir judiciaire est généralement conscient que de grands changements sont en cours et veut comprendre l'IA, mais je ne pense pas que quiconque ait cerné toutes les implications », a déclaré Kolakowski à NBC. « Nous sommes toujours face à une technologie à ses balbutiements. »
Parmi les juges et autres experts juridiques interrogés par NBC, il semble y avoir deux écoles de pensée dominantes sur la manière de traiter l'IA. L'une soutient que nous devrions anticiper la menace de l'IA en mettant à jour les règles judiciaires, par exemple en instituant des lignes directrices qui dictent la manière dont les avocats vérifient leurs preuves, ou en confiant au juge, plutôt qu'au jury, le devoir d'identifier la contrefaçon par IA. L'autre camp maintient que nous devrions laisser les juges s'en débrouiller entre eux, et voir si une « apocalypse » de preuves forgées par l'IA se produit réellement.
Actuellement, ce dernier sentiment guide la politique officielle. En mai, NBC a noté que le Comité consultatif sur les règles de preuve de la Conférence judiciaire américaine avait rejeté les propositions de mise à jour des directives sur l'IA, arguant que « les normes d'authenticité existantes sont à la hauteur de la tâche de réglementer les preuves d'IA. »
Le comité a signalé qu'il était ouvert à l'institution de ces changements à l'avenir, ce qui pourrait prendre des années, mais en attendant, l'IA se déchaînera dans les salles d'audience, et probablement sous notre nez.
« Je pense que les preuves falsifiées ou modifiées générées par l'IA se produisent beaucoup plus fréquemment que ce qui est rapporté publiquement », a déclaré à NBC la juge Erica Yew, membre de la Cour supérieure du comté de Santa Clara, en Californie.
Notez ce sujet