Une Femme Gagne Son Procès Grâce à ChatGPT
Par Victor Tangermann .Publié le
2025/10/19 08:44

Octobre. 19, 2025
Une Californienne a réussi à utiliser des outils d'intelligence artificielle (IA), dont ChatGPT, pour faire annuler son avis d'expulsion et éviter ainsi des dizaines de milliers de dollars de pénalités accumulées durant plusieurs mois de contentieux.
Comme le rapporte NBC News, Lynn White, qui avait des arriérés de loyer, avait initialement perdu un procès devant jury après avoir reçu un avis d'expulsion. Au lieu de continuer à collaborer avec un réseau local de défense des locataires, elle a consulté ChatGPT et la plateforme de recherche IA Perplexity pour se représenter elle-même en justice.
C'est une démarche qui est presque toujours déconseillée. Cependant, selon NBC, le chatbot a pu identifier des erreurs potentielles dans les décisions de procédure d'un juge, informer Mme White des actions à entreprendre et rédiger des réponses destinées au tribunal.
« Je ne saurais trop insister sur l'utilité de l'IA dans mon cas », a-t-elle déclaré au diffuseur. « Je n'aurais jamais, jamais, jamais, jamais pu gagner cet appel sans l'IA. »
Mme White fait partie des nombreux justiciables interrogés par NBC qui se sont représentés avec l'aide de l'IA et ont obtenu gain de cause. Une autre est Staci Dennett, propriétaire d'une entreprise de fitness à domicile au Nouveau-Mexique, qui a utilisé l'IA pour négocier avec succès un règlement concernant une dette impayée.
« Je disais à ChatGPT de faire semblant d'être un professeur de droit de Harvard et de démolir mes arguments », a-t-elle expliqué à NBC. « De les déchiqueter jusqu'à ce que j'obtienne un A+ sur l'exercice. »
Le résultat était étrangement convaincant.
« Si le droit vous intéresse en tant que profession, vous pourriez certainement faire ce travail », lui auraient dit les avocats adverses par courriel.
L'Ombre de la « Hallucination » et les Sanctions
Cependant, ces outils ne réussissent pas toujours à annuler des décisions ou à gagner des affaires juridiques. Les outils d'IA sont notoirement connus pour cracher des informations inventées et trompeuses, ce qui peut causer des problèmes à un plaideur pro se (se représentant seul) — comme Jack Owoc, magnat des boissons énergisantes, qui a été sanctionné en août après avoir déposé une requête remplie de citations « hallucinées ». M. Owoc a été contraint d'effectuer dix heures de travaux d'intérêt général, selon NBC.
Plus inquiétant encore, un nombre croissant d'avocats professionnels ont été pris la main dans le sac pour avoir soumis des documents contenant des cas judiciaires inventés de toutes pièces par l'IA, ce qui a entraîné des pénalités et de l'embarras.
Un exemple frappant : il y a quelques jours à peine, 404 Media a rapporté qu'un avocat de New York, surpris en train d'utiliser l'IA au tribunal, a ensuite été pris en flagrant délit de soumettre une explication également générée par l'IA pour justifier sa bévue.
« Cette affaire ajoute un autre chapitre malheureux à l'histoire de la mauvaise utilisation de l'intelligence artificielle dans la profession juridique », a écrit le juge déçu en charge de l'affaire dans une décision acerbe.
En août, un avocat californien s'est vu infliger une amende « historique » de 10 000 dollars pour avoir soumis un appel généré par l'IA. Vingt et un des vingt-trois jugements cités dans l'appel se sont avérés être des fabrications totales.
L'Attrait Dangereux de l'Assistance Juridique par l'IA
Malgré les dangers potentiels de tromper les tribunaux, l'avènement des outils d'IA facilement accessibles a entraîné une vague de personnes se représentant elles-mêmes en cour.
« J'ai vu plus de plaideurs pro se l'année dernière que probablement durant toute ma carrière », a déclaré Meagan Holmes, parajuriste chez Thorpe Shwer, à NBC.
Ceci, bien que des entreprises comme Google avertissent clairement les utilisateurs de ne pas se fier à l'IA pour des conseils juridiques. Dans ses conditions de service, par exemple, la société xAI d'Elon Musk avertit les utilisateurs de ne pas utiliser ses services pour prendre « des décisions automatisées à enjeux élevés qui affectent la sécurité, les droits légaux ou matériels d'une personne. »
Néanmoins, les garde-fous existants n'empêchent pas des outils comme ChatGPT de cracher des réponses détaillées face à des requêtes concernant des procédures judiciaires, pour le meilleur ou pour le pire.
« Je peux comprendre plus facilement comment quelqu'un sans avocat, et peut-être qui sent qu'il n'a pas les moyens d'y accéder, serait tenté de se fier à l'un de ces outils », a déclaré l'avocat Robert Freund à NBC. « Ce que je ne peux pas comprendre, c'est un avocat trahissant les parties les plus fondamentales de nos responsabilités envers nos clients... et présentant des arguments fondés sur une pure fabrication.»
Notez ce sujet