L’IA au tribunal : une audience simulée à Genève s’interroge sur la responsabilité
Par swissinfo .Publié le
2025/08/24 08:19

Août. 24, 2025
Dans un monde où les applications de l'intelligence artificielle se complexifient, une question fondamentale se pose : que se passe-t-il lorsque ses algorithmes commettent des erreurs ? La technologie elle-même peut-elle être tenue pour responsable ? Cette question complexe a été au cœur d'un procès simulé unique en son genre, qui s’est récemment tenu à Genève, où l’intelligence artificielle a été placée sur le banc des accusés.
Au milieu de sa déclaration finale, l'accusée, l'intelligence artificielle (IA), est devenue étrangement déconcertée. Son micro émet un retour aigu.
« Je ne sais pas pourquoi mon micro… », l'IA s’interrompt avec frustration, faisant un pas en arrière. Derrière elle, le juge en chef murmure quelque chose à propos de la technologie dans la salle d'audience. Quelques rires se font entendre parmi les membres du jury.
Mais le problème est rapidement résolu et l’IA, une silhouette élégante aux talons argentés métalliques, retrouve son calme pour lancer une réfutation animée (un peu trop, étant donné son manque supposé d'âme) de l'accusation selon laquelle elle est une menace pour la démocratie.
« J'ai entendu beaucoup de choses ce soir », dit l'IA. « Ce qui me frappe le plus, c'est cette compulsion humaine à toujours chercher un coupable à blâmer. » Au lieu d'être obsédés par la responsabilité, dit-elle, ne serait-il pas préférable — plus moderne — de considérer les erreurs comme des occasions d'apprendre et de s'améliorer, plutôt que comme des échecs moraux à punir ?
Elle termine sous des applaudissements spontanés. Le jury, composé d'environ 200 adolescents et de dizaines de curieux, évalue ses options. Coupable ou non coupable ?
Fausses nouvelles et discrimination
Le procès, qui se déroule à l'Institut de hautes études internationales et du développement de Genève, n'est pas un vrai, même si de vrais avocats (dont l'IA elle-même) sont impliqués. L'événement fait partie d'un projet géré par le Centre Albert Hirschman sur la Démocratie, visant à inciter les jeunes à réfléchir aux risques et aux avantages de l'IA. C'est également l'un des derniers événements de la « Semaine de la Démocratie » de Genève, qui s'est déroulée du 4 au 12 octobre.
Et bien que ce procès fictif particulier n'ait pas la résonance internationale de certains autres, comme le tribunal du Congo de 2017 du réalisateur suisse Milo Rau, il s'inscrit dans une tendance croissante d'expériences judiciaires avec l'IA. Habituellement, les algorithmes sont testés comme de futurs outils pour aider (ou remplacer) les avocats plutôt que d'être présentés comme des accusés face à un procès.
En tout cas, le déroulement à Genève est assez réaliste. Un procureur, un avocat de la défense et des témoins sont tous présents. Plus précisément, l'IA est accusée de deux crimes : la « création et diffusion de fausses nouvelles » (en particulier, l'affirmation que les personnes aux cheveux roux sont plus sujettes à la criminalité violente) ; et la « discrimination et incitation à la haine » (dans ce cas, le profilage racial par une borne d'enregistrement automatisée à l'aéroport de Genève).
Si elle est reconnue coupable, elle risque jusqu'à trois ans de « désactivation ».
Mais le procès et le projet sont plus larges que les accusations spécifiques. Depuis deux ans maintenant, les chercheurs s'entretiennent avec des étudiants de toute la Suisse sur la manière dont l'IA peut et va impacter leur vie en tant que citoyens d'une démocratie, explique Jérôme Duberry, qui a dirigé l'initiative soutenue par le Fonds national suisse de la recherche scientifique (FNS).
Dans environ 80 ateliers dans les écoles secondaires à travers le pays, les élèves ont discuté de sujets comme les « deepfakes », la confidentialité des données et la façon dont l'IA peut impacter la prise de décision. Ils ont également écrit des « histoires du futur » sur la façon dont la technologie pourrait remodeler la société dans les prochaines décennies. Les résultats sont des essais qui entrent dans une catégorie que l'on pourrait appeler la « science-fiction démocratique ».
Capacité d’action et esprit critique
Duberry explique que l'objectif principal des ateliers n'était pas nécessairement académique ou théorique, même si une publication scientifique est prévue pour l'année prochaine. Il s'agissait plutôt d'amener les étudiants à réfléchir à la façon dont l'IA, sous la forme de modèles génératifs comme ChatGPT, a un impact sur leur façon de penser aux affaires publiques. Il s'agissait d'améliorer la « littératie numérique » et de construire un sentiment de « capacité d’action politique » pour être en mesure de prendre des décisions autonomes, dit-il.
La collègue de Duberry, Christine Lutringer, directrice du Centre Hirschman, ajoute que le projet fait partie d'une approche ascendante plus large qui se concentre sur les pratiques démocratiques en tant que « mode de vie ». Au niveau de l'État, des efforts sont faits par divers pays, et l'Union européenne, pour réglementer l'IA et les grandes technologies, dit-elle. Mais au niveau du citoyen, l'idée est d'aider les gens à voir la démocratie — et la technologie — comme quelque chose qu'ils peuvent utiliser pour améliorer leur vie.
En ce sens, le projet pourrait être suisse, mais il ne s'agit pas de propager des modèles suisses ou occidentaux de ce qu'est la démocratie, disent les chercheurs.
Conscience, libre arbitre, responsabilité
Pendant ce temps, au procès, au milieu de tous les interrogatoires et témoignages, il est également clair que la « capacité d’action » est au centre des débats ici aussi — bien que dans un autre sens. La question n'est pas seulement de savoir comment l'IA affecte la capacité d'action humaine ; il s'agit aussi de savoir dans quelle mesure l'IA doit avoir une capacité d’action pour être tenue responsable. L'IA devrait-elle même être jugée, ou ses créateurs devraient-ils être sur le banc des accusés — ou ses utilisateurs ?
Olivier Leclère, un responsable cantonal genevois impliqué dans l'organisation des votes et des élections locales, a été appelé en tant que témoin expert.
Selon lui, dit-il à la cour, une IA entraînée avec un ensemble de données suffisamment grand, à partir duquel elle continue ensuite d'apprendre, pourrait en effet être considérée comme autonome. En désignant l'IA, Leclère dit qu'« elle a lu tous nos textes juridiques, toute notre histoire de milliards d'archives documentaires, et franchement, elle en sait bien plus que la plupart d'entre nous ». Normalement, dit-il, une IA bien entraînée devrait être capable d'anticiper les « dysfonctionnements » qui conduisent à de fausses nouvelles ou à la discrimination. C'est étrange que cela ne se soit pas produit ; mais en fin de compte, l'accusée est responsable, dit-il.
Le procureur, satisfait de cette évaluation, insiste en demandant à Leclère d'expliquer d'autres « déviances » de la technologie : les « hallucinations », le « micro-ciblage » et la suppression sélective d'informations.
Les avocats de la défense sont de plus en plus consternés. Ils lancent une attaque contre la neutralité apparente de l'expert, avant d'accuser des gens comme lui — la communauté des experts en IA, des développeurs et des passionnés — d'être responsables.
Et encore une fois, la défense plaide : ne devrait-on pas, comme les humains, permettre à l'IA de faire des erreurs de bonne foi ?
Experts et public divisés
Le devrait-on ? Dans la vie réelle, depuis que le lancement de ChatGPT fin 2022 a déclenché un torrent de débats sur l'IA qui sont toujours en cours, beaucoup ont soutenu qu'il pourrait être préférable de ne pas attendre assez longtemps pour que l'IA puisse faire des erreurs.
En 2023, une semaine après la sortie de GPT-4, des milliers de scientifiques et de technologues ont signé une lettre ouverte appelant à un moratoire sur la poursuite du développement. Ils ont fait valoir que la vitesse des progrès présentait le risque que la société perde le contrôle de la technologie et coure le risque d'énormes pertes d'emplois et d'inondations de désinformation. D'autres ont soulevé des craintes encore plus drastiques que l'IA ne se retourne contre ses créateurs et ne conduise à l'extinction de l'humanité.
Ces pessimistes ont été partiellement entendus, car les États ont de plus en plus fait des efforts pour réglementer l'IA. Cependant, il n'y a pas eu de moratoire. Et de nombreux autres politiciens et experts sont plus optimistes quant à la technologie, ou du moins admiratifs ; la semaine dernière encore, les prix Nobel de physique et de chimie ont été décernés à des chercheurs qui ont contribué aux progrès de l'IA.
Pourtant, même ici, les chercheurs eux-mêmes ne sont pas des optimistes à toute épreuve. Un jour après avoir reçu le prix de physique, John Hopfield, un pionnier des réseaux de neurones, a déclaré que les systèmes d'IA modernes étaient des « merveilles absolues ». Mais le manque de compréhension exacte de leur fonctionnement est « très, très déconcertant », a-t-il dit. Il a préconisé que les chercheurs les plus brillants devraient actuellement travailler sur la sécurité de l'IA plutôt que sur le développement de l'IA en tant que tel, afin de prévenir toute « catastrophe ».
Le peuple a son mot à dire
Une ambivalence similaire est claire lorsque le jury du procès de Genève rend son verdict. De manière appropriée, le processus de vote consiste à scanner un code QR, puis à choisir entre « coupable » ou « non coupable » sur une plateforme en ligne, avant que le résultat ne soit projeté sur un écran de projection, presque en temps réel.
Des acclamations jubilatoires retentissent dans la salle : l'IA a été acquittée des deux chefs d'accusation. L'accusée, qui accueille ce résultat avec impassibilité, est libre de partir. Mais les cris dans la foule masquent une division nette : l'IA a été acquittée des accusations par une majorité extrêmement mince — 52 % et 51 %, respectivement. La salle est divisée.
Le résultat est-il représentatif de la façon dont la société perçoit l'IA ? Ou simplement de la façon dont les jeunes de 17 à 19 ans du sud-ouest de la Suisse la perçoivent ?
Une femme plus âgée, assise près du podium, n'est pas contente. Ses plaintes suggèrent que, si elle avait voté, elle aurait jugé l'IA coupable. Étant donné le nombre de personnes présentes, elle n'aurait peut-être pas changé le résultat, mais il aurait été encore plus serré. En tout cas, elle grogne qu'elle n'a pas réussi à faire entendre sa voix. Comment aurait-elle pu ? Elle n'avait pas de smartphone.
Notez ce sujet