Sanction exemplaire pour des avocats pris en flagrant délit d'usage de l'IA
Par Futurism .Publié le
2025/09/20 07:50

Septembre. 20, 2025
Les outils d'intelligence artificielle ont gagné en popularité dans le monde juridique, mais l'enthousiasme des avocats pour ces technologies se heurte à la patience limitée des juges lorsque les expérimentations tournent mal. De récentes affaires judiciaires soulignent les risques d'une utilisation non vérifiée de l'IA, mettant en lumière la nécessité d'une plus grande rigueur professionnelle.
Les outils d'intelligence artificielle connaissent un grand succès auprès des avocats. Cependant, les juges ont montré qu'ils avaient peu de patience pour les dérapages liés à leurs expériences technologiques.
En examinant un document soumis par deux avocats de la défense du cabinet Cozen O'Connor, le juge de district David Hardy a découvert au moins 14 citations de jurisprudence qui semblaient être fictives, rapporte Reuters. D'autres étaient mal citées ou déformées.
Confrontés à cette situation, les deux avocats ont rapidement plaidé coupable : l'un d'eux avait utilisé ChatGPT pour rédiger et éditer le document.
Là où d'autres juges ont sanctionné des avocats pour des fautes similaires, le juge Hardy a proposé la semaine dernière un ultimatum humiliant, à la limite du cruel et inhabituel.
Les deux avocats pouvaient soit payer 2 500 dollars chacun en sanctions pécuniaires, être écartés de l'affaire et être signalés au barreau de l'État.
Soit, en alternative, ils pouvaient ravaler leur fierté et écrire à leurs anciens doyens de faculté de droit et aux responsables du barreau pour expliquer leur erreur, en plus de se porter volontaires pour intervenir sur des sujets tels que l'IA et la déontologie professionnelle.
À leur place, on choisirait la troisième option : disparaître de la surface de la Terre.
Le duo de Cozen représentait Uprise, un fournisseur de services internet. Selon les rapports, le cabinet d'avocats s'est excusé auprès du juge et a expliqué qu'un associé, Daniel Mann, avait accidentellement déposé une version préliminaire et non corrigée qui avait été réalisée avec l'aide de ChatGPT. Mann a été licencié, mais l'autre avocat, Jan Tomasik, semble avoir conservé son poste.
Cozen a déclaré à Reuters qu'il appliquait une politique en matière d'IA « stricte et sans ambiguïté », interdisant l'utilisation d'outils d'IA accessibles au public pour le travail des clients, bien que, apparemment, les outils spécialisés ne soient pas concernés.
« Nous prenons cette responsabilité très au sérieux et les violations de notre politique ont des conséquences », a déclaré le cabinet, selon Reuters.
La sanction du juge Hardy a peut-être été peu orthodoxe, mais il est loin d'être le seul à prendre des mesures punitives contre les avocats négligents qui ne vérifient pas leurs devoirs d'IA. Après que des avocats du grand cabinet Morgan & Morgan se sont excusés d'avoir soumis une jurisprudence « hallucinée » par l'IA dans un procès contre Walmart, le juge leur a infligé des milliers de dollars d'amende, après avoir décidé de ne pas les poursuivre plus sévèrement. (Le cabinet a par la suite envoyé un courriel paniqué à l'ensemble de l'entreprise, avertissant des lacunes de l'IA tout en vantant, de manière discutable, son utilité.)
Les histoires similaires sont innombrables. En général, les avocats utilisent un grand modèle linguistique pour les aider à citer des jurisprudences pertinentes. Mais, comme le veut l'IA, elle invente des affaires de toutes pièces, les déforme, ou mélange de vraies affaires. Étant le genre de personne suffisamment paresseuse ou insouciante pour laisser une IA faire le travail à leur place, l'avocat néglige de vérifier la documentation.
Les parties coupables utilisent souvent des chatbots d'IA comme ChatGPT, mais même des outils d'IA conçus spécifiquement pour le droit ont été impliqués dans des dérapages. Même de grands cabinets comme Morgan & Morgan n'en sont pas sortis indemnes.
Il est compréhensible que certains juges adoptent une ligne dure pour enrayer ce phénomène avant qu'il ne s'intensifie, comme dans le cas de trois avocats de Butler Snow qui ont été écartés de leur affaire après que le juge a repéré leurs fausses citations d'IA.
« Il y a une frustration croissante chez de nombreux juges face à la persistance et la prolifération de ces incidents », a déclaré Gary Marchant, de la faculté de droit de l'université d'État de l'Arizona, à Reuters.
Les juges pourraient « chercher des moyens créatifs, non seulement pour punir les avocats impliqués, mais aussi pour envoyer un message fort qui, on l'espère, dissuadera les autres d'être aussi négligents. »
Pour être juste envers ces avocats, l'IA devient un problème dans toutes les sphères du droit. Plus tôt cette année, le barreau de l'État de Californie a admis que certaines questions d'un récent examen d'entrée avaient été générées avec l'aide d'un grand modèle linguistique. Même un juge du Mississippi a été accusé d'avoir utilisé l'
Notez ce sujet