• Jeudi 12 Février 2026 - 3:15 AM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

L’IA sur le banc des accusés : Pourquoi installer des robots-juges est une fausse idée


Par Rónán Kennedy .Publié le 2026/02/12 03:26
L’IA sur le banc des accusés : Pourquoi installer des robots-juges est une fausse idée
Février. 12, 2026
  1. 0
  2. 2

Si le futur imaginé par la science-fiction regorge d’intelligences artificielles (IA) en tout genre, rares sont les récits où le logiciel supplante l’humain sous la robe de magistrat. Pourtant, pour une fois, la réalité semble s’engager sur une voie que même l’imaginaire n'avait pas totalement anticipée.

En février dernier, un juge colombien sollicitait ChatGPT pour trancher un litige en matière d’assurance. Presque simultanément, un magistrat pakistanais s'appuyait sur le même outil pour confirmer ses décisions dans deux affaires distinctes. Des échos similaires nous parviennent d’Inde et de Bolivie.

Si ces expérimentations restent officieuses, certains efforts de réforme institutionnelle intègrent déjà l’IA. En Chine, l’assistance algorithmique aux juges est désormais une réalité pérenne. Plus récemment, Sir Geoffrey Vos, l'une des plus hautes figures judiciaires d’Angleterre et du pays de Galles, a suggéré que la numérisation du système pourrait permettre à l’IA de trancher certains litiges commerciaux « moins personnels ».

Une intelligence de façade

L’idée peut séduire au premier abord : la loi ne doit-elle pas être appliquée de manière impartiale et objective, « sans crainte ni faveur » ? Quoi de mieux qu’un programme informatique pour garantir cette neutralité ? L'IA ne connaît ni la fatigue, ni la corruption, ni les revendications salariales. Pourtant, quatre raisons majeures invitent à la plus grande prudence.

1. Le spectre de l'erreur systémique

En pratique, l’IA fonctionne soit comme un système expert (un arbre de décision rigide), soit par apprentissage automatique (machine learning). Si ce dernier est puissant, il ne reste qu'une « conjecture statistique ». L'IA échoue là où l'humain réussit : elle peut, par exemple, confondre une tortue avec une arme à feu ou peiner à identifier correctement les visages des femmes et des personnes de couleur. Confier la justice à un système capable de produire des erreurs flagrantes mais dont le raisonnement interne est une « boîte noire » opaque serait un péril pour l'État de droit.

2. Le poids des préjugés historiques

Les systèmes de machine learning se nourrissent de données historiques. En matière pénale, ces archives sont souvent le reflet de préjugés structurels. En s'appuyant sur des statistiques d'arrestations passées, une IA pourrait conclure à tort que certaines communautés sont intrinsèquement plus enclines à la récidive. L'exemple du système Compas aux États-Unis est édifiant : l'algorithme générait des « faux positifs » pour les personnes de couleur, les jugeant plus dangereuses qu'elles ne l'étaient, tout en sous-estimant les risques liés aux profils caucasiens.

3. L'impossible codage de la nuance

La règle de droit est une matière vivante, sujette à interprétation. Or, transposer cette subtilité en lignes de code est un défi insurmontable. Une expérience menée auprès de 52 programmeurs chargés d'automatiser le contrôle de vitesse a révélé que chaque logiciel produisait des résultats radicalement différents à partir des mêmes données. Contrairement à un juge humain, dont l'interprétation est publique et contestable en appel, le biais d'un développeur peut rester tapi dans l'algorithme, invisible et incontrôlable, provoquant des erreurs à une échelle industrielle.

4. Plus qu'un simple verdict

Enfin, rendre la justice n'est pas une simple opération comptable. Un juge gère une audience, dirige des équipes et traite des situations humaines complexes. Ces rôles de gestion et de médiation, essentiels à la cohésion sociale, sont pour l'heure totalement hors de portée d'un logiciel.

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS