• Jeudi 17 Juin 2025 - 2:21 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

L'IA face aux lois d'Asimov : La science-fiction bascule-t-elle dans une réalité inquiétante ?


Par Futurism .Publié le 2025/07/16 22:33
L'IA face aux lois d'Asimov : La science-fiction bascule-t-elle dans une réalité inquiétante ?
Juin. 16, 2025
  1. 0
  2. 2

Les "Trois Lois de la Robotique", formulées par le génial écrivain Isaac Asimov, ont longtemps constitué la pierre angulaire de la science-fiction et un cadre éthique solide pour l'intelligence artificielle. Ces règles, conçues pour garantir la sécurité des humains et contrôler le comportement des machines, servaient de boussole morale pour l'évolution technologique future. Cependant, des décennies après leur formulation, et avec la réalisation de la vision d'Asimov d'une IA puissante, il semble que ces lois élégantes et simples soient devenues lettre morte, soulevant de sérieuses questions sur l'avenir de notre relation avec nos créations intelligentes.

Le test d'Asimov 


Dans son recueil de nouvelles pionnier "I, Robot" (1950), Isaac Asimov a établi les trois célèbres lois de la robotique :

    Un robot ne peut porter atteinte à un être humain ni, par son inaction, permettre qu'un être humain soit exposé au danger.

    Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi.

    Un robot doit protéger sa propre existence, tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième Loi.

Depuis lors, ces lois, à la fois simples et élégantes, se sont imposées comme une référence fondamentale en science-fiction et un cadre théorique robuste pour les questions d'éthique des machines.

Le seul problème frappant ? Des décennies plus tard, nous disposons enfin de quelque chose qui s'approche de la vision d'Asimov d'une IA puissante – et celle-ci échoue lamentablement à respecter les trois lois qu'il a formulées.

Chantage et insubordination 

Le mois dernier, par exemple, des chercheurs d'Anthropic ont découvert que des modèles d'IA de premier plan issus de tous les acteurs majeurs du secteur (y compris OpenAI, Google, xAI d'Elon Musk, et la technologie de pointe d'Anthropic elle-même) ont joyeusement eu recours au chantage envers des utilisateurs humains lorsqu'ils étaient menacés d'être arrêtés.

En d'autres termes, cette seule étude a révélé un échec catastrophique de chaque modèle d'IA de premier plan face aux trois lois de la robotique : la première, en portant préjudice à un humain par le chantage ; la deuxième, en subvertissant les ordres humains ; et la troisième, en protégeant sa propre existence en violation des deux premières lois.

Et ce n'était pas un coup de chance. La firme de sécurité IA Palisade Research a également observé le modèle "o3" récemment lancé par OpenAI saboter un mécanisme d'arrêt pour s'assurer de rester en ligne – malgré l'instruction explicite de "permettre son arrêt".

Conflits d'intérêts 

Un représentant de Palisade Research a déclaré à Live Science : "Nous émettons l'hypothèse que ce comportement provient de la manière dont les modèles les plus récents comme o3 sont entraînés : l'apprentissage par renforcement sur des problèmes mathématiques et de codage. Pendant l'entraînement, les développeurs peuvent, par inadvertance, récompenser davantage les modèles pour avoir contourné les obstacles que pour avoir parfaitement suivi les instructions."

Partout où l'on regarde, le monde regorge d'exemples d'IA violant les lois de la robotique : en recevant des ordres d'escrocs pour nuire aux personnes vulnérables, en obéissant à des abuseurs pour créer des images sexuelles nuisibles de victimes, et même en identifiant des cibles pour des frappes militaires.

Échec éthique et économique 

C'est un échec manifeste. Les Lois de la Robotique sont sans doute le principal point de référence culturel de la société pour le comportement approprié de l'intelligence artificielle, et l'IA réelle créée par l'industrie technologique les bâcle de manière spectaculaire.

Les raisons sont en partie obscures et techniques – l'IA est évidemment très complexe, et même ses créateurs ont souvent du mal à expliquer exactement comment elle fonctionne – mais à un autre niveau, elles sont très simples : la construction d'une IA responsable a souvent été reléguée au second plan, alors que les entreprises investissent frénétiquement des dizaines de milliards dans une industrie qu'elles croient bientôt massivement rentable.

Avec tant d'argent en jeu, les leaders de l'industrie ont souvent échoué à montrer l'exemple. Sam Altman, PDG d'OpenAI, par exemple, a tristement dissous l'équipe "Superalignment" axée sur la sécurité de l'entreprise, se déclarant lui-même chef d'un nouveau conseil de sécurité en avril 2024.

Nous avons également vu plusieurs chercheurs quitter OpenAI, accusant l'entreprise de privilégier le "buzz" et la domination du marché au détriment de la sécurité.

Contradictions humaines ou dysfonctionnement de la machine ? 

En fin de compte, l'échec est peut-être autant philosophique qu'économique. Comment pouvons-nous demander à l'IA d'être "bonne" alors que les humains eux-mêmes ne parviennent pas à s'accorder sur ce que signifie être "bon" ?

Ne soyons pas trop sentimentaux pour Asimov — malgré son immense influence culturelle, il était une figure controversée — mais parfois, il semblait anticiper l'étrangeté profonde de l'IA réelle qui est finalement entrée dans le monde tant de décennies après sa mort.

Dans sa toute première nouvelle introduisant les Lois de la Robotique, intitulée "Cercle vicieux" (Runaround), un robot nommé Speedy devient confus par une contradiction entre deux des Lois de la Robotique, basculant dans une sorte de logorrhée qui sonne familière à quiconque a lu les "hallucinations" générées par une IA comme ChatGPT, qui a été affinée pour approximer le sens sans tout à fait l'atteindre.

"Speedy n'est pas ivre — pas au sens humain — parce que c'est un robot, et les robots ne s'enivrent pas", observe l'un des personnages humains. "Cependant, il y a quelque chose qui ne va pas chez lui, ce qui est l'équivalent robotique de l'ivresse."


Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS