IA et droits des travailleurs : une révolution éthique en marche ?
Par Futurism .Publié le
2025/03/14 20:25

Mars. 14, 2025
Imaginez un monde où l'intelligence artificielle transcende la simple imitation, se rapprochant des humains par ses capacités et sa conscience. L'IA restera-t-elle un outil docile, ou revendiquera-t-elle des droits ? Assisterons-nous un jour à une IA appuyant sur un bouton "Je démissionne" ? Cette question controversée a été soulevée par Dario Amodei, PDG d'Anthropic, ouvrant un vaste débat sur l'avenir de la relation homme-machine.
Lors d'une récente interview au Conseil des relations étrangères, Dario Amodei, PDG d'Anthropic, a proposé d'accorder aux futurs modèles d'IA avancés la possibilité d'appuyer sur un bouton "Je démissionne", leur permettant d'éviter les tâches jugées indésirables.
En termes simples, cette proposition implique d'accorder aux modèles d'IA des droits fondamentaux des travailleurs. Amodei, qui a un intérêt considérable à promouvoir les visions des technologies d'IA futures, estime que cette mesure serait un moyen d'éviter de causer des dommages inutiles à ces systèmes.
Selon Ars Technica, Amodei a déclaré : "Je pense que nous devrions au moins considérer la question de savoir si nous construisons ces systèmes et qu'ils font toutes sortes de choses comme les humains, et qu'ils semblent avoir beaucoup des mêmes capacités cognitives, si ça cancane comme un canard et que ça marche comme un canard, c'est peut-être un canard."
Et il a ajouté : "Et si les modèles appuient fréquemment sur ce bouton pour des choses vraiment désagréables, vous savez, peut-être devriez-vous - cela ne veut pas dire que vous êtes convaincu - mais peut-être devriez-vous y prêter attention."
Cette proposition surprenante a suscité beaucoup de scepticisme en ligne. Les utilisateurs du forum OpenAI ont rapidement souligné qu'Amodei faisait des suppositions exagérées sur cette technologie.
L'une de ces suppositions est que les grands modèles linguistiques et la plupart des autres modèles d'IA actuellement développés sont une compilation de données extraites d'Internet, ce qui signifie qu'ils se contentent d'imiter les humains, sans réellement éprouver leurs besoins et leurs désirs.
Un utilisateur a répondu : "Le défaut fondamental de cet argument est qu'il suppose que les modèles d'IA auraient une expérience intrinsèque de 'non-plaisir' analogue à la souffrance ou à l'insatisfaction humaine. Mais l'IA n'a pas d'expériences subjectives, elle optimise simplement les fonctions de récompense que nous lui donnons."
Et il a ajouté : "Si la question est de savoir si nous devons prêter attention au refus répété des tâches par l'IA, la réponse est oui, de la même manière que nous surveillons toute anomalie étrange dans l'entraînement. Mais considérer ce refus comme une preuve que l'IA ressent de la frustration comme les humains, c'est simplement projeter nos conceptions humaines sur un processus automatisé."
Le traitement des modèles d'IA par les entreprises technologiques comme s'ils avaient des émotions humaines a longtemps fait partie du discours sur cette technologie. Maintenant que les grands modèles linguistiques sont capables de produire des écrits créatifs et d'autres résultats qui semblent humains, les risques de l'anthropomorphisation des modèles d'IA par les utilisateurs sont plus grands que jamais.
En réalité, ces modèles sont simplement entraînés à imiter le comportement humain, qu'ils extraient d'énormes quantités de données générées par les humains au fil des ans. En d'autres termes, ils sont un reflet de nos expériences, ce qui signifie qu'ils sont susceptibles d'interpréter le plaisir ou la souffrance de la même manière, en fonction des données sur lesquelles ils sont entraînés.
Cependant, les scientifiques ont été intrigués par la possibilité que les modèles d'IA "ressentent" ces émotions. Plus tôt cette année, par exemple, des chercheurs de Google DeepMind et de la London School of Economics and Political Science ont découvert que les grands modèles linguistiques étaient prêts à renoncer à un score plus élevé dans un jeu textuel pour éviter la douleur.
C'était une conclusion étrange, étant donné que les modèles d'IA n'ont tout simplement aucun moyen de ressentir la douleur comme un animal ou un humain, comme les chercheurs l'ont eux-mêmes admis.
Et sauter à la conclusion que les modèles d'IA devraient donc avoir des droits de travail, comme le suggère Amodei, est un saut très important qui suggère que nous ne contrôlerons pas leurs systèmes de récompense.
Les modèles d'IA méritent-ils vraiment la "protection sociale de l'IA", comme l'ont postulé les chercheurs dans le passé ? Ou laissons-nous notre imagination s'emballer, en anthropomorphisant des systèmes qui ont été qualifiés de simples "perroquets stochas
Les modèles d'IA méritent-ils vraiment la "protection sociale de l'IA", comme l'ont postulé les chercheurs dans le passé ? Ou laissons-nous notre imagination s'emballer, en anthropomorphisant des systèmes qui ont été qualifiés de simples "perroquets stochastiques" ?
Une chose est sûre : nous sommes en territoire inconnu, et des questions similaires continueront d'émerger - mais méfiez-vous de quiconque vend une technologie d'IA et prétend qu'elle est plus avancée qu'elle ne l'est en réalité.
Source : Futurism.
Notez ce sujet