Le Chef Scientifique d'Anthropic Alerte : Nous Approchons Rapidement de l'Instant Qui Pourrait Nous Condamner Tous
Par Frank Landymore .Publié le
2025/12/14 09:59
Décembre. 14, 2025
Jared Kaplan, le chef scientifique d'Anthropic, fait des prédictions extrêmement graves concernant l'avenir de l'humanité face à l'intelligence artificielle (IA).
Dans son analyse, le choix nous appartient. Pour l'instant, notre destin reste majoritairement entre nos mains – à moins que nous ne décidions de passer le relais aux machines.
Selon Kaplan, dans un nouvel entretien accordé au Guardian, ce point de basculement approche à grands pas. Il prédit que d'ici 2030, ou dès 2027, l'humanité devra prendre le « risque ultime » de laisser les modèles d'IA s'auto-former. L'« explosion d'intelligence » qui s'ensuivrait pourrait propulser cette technologie vers de nouveaux sommets, donnant naissance à une Intelligence Artificielle Générale (AGI) qui égalerait ou dépasserait l'intellect humain, bénéficiant à l'humanité par des avancées scientifiques et médicales spectaculaires.
L'alternative est terrifiante : cela pourrait aussi permettre à la puissance de l'IA de croître de manière exponentielle et incontrôlable, nous laissant à la merci de ses caprices.
« Cela ressemble à un processus assez effrayant », a-t-il déclaré au journal. « Vous ne savez pas où vous allez atterrir. »
Vagues d'Avertissements des Pionniers de l'IA
Kaplan rejoint d'autres figures éminentes de l'IA qui alertent sur les conséquences potentiellement désastreuses du secteur. Geoffrey Hinton, l'un des trois "parrains" de l'IA, a célèbrement exprimé ses regrets concernant le travail de sa vie et a souvent mis en garde contre la capacité de l'IA à perturber, voire détruire, la société.
Sam Altman d'OpenAI prédit que l'IA va anéantir des catégories entières d'emplois. De son côté, Dario Amodei, le PDG d'Anthropic, a récemment averti que l'IA pourrait s'emparer de la moitié des emplois de bureau de niveau débutant, accusant ses concurrents d'« édulcorer » la gravité des bouleversements sociaux.
Kaplan semble d'accord avec l'évaluation de son PDG sur l'emploi. Il affirme que l'IA sera capable d'effectuer « la plupart du travail de bureau » dans les deux à trois prochaines années. Bien qu'il se montre optimiste quant à notre capacité à maintenir les IA alignées sur les intérêts humains, il s'inquiète profondément de la perspective de permettre à des IA puissantes d'entraîner d'autres IA, une « décision aux enjeux extrêmement élevés » que nous devrons prendre très bientôt.
« C'est ce que nous considérons comme peut-être la décision la plus importante ou la chose la plus effrayante à faire... une fois que plus personne n'est impliqué dans le processus, on ne sait vraiment pas », a-t-il précisé au Guardian. « Le risque, c'est de perdre le contrôle. Savons-nous seulement ce que font les IA ? »
Auto-Amélioration Récurente : Le Point de Non-Retour
Dans une certaine mesure, les grands modèles d'IA sont déjà utilisés pour entraîner de plus petits modèles via un processus appelé distillation. Cependant, Kaplan s'alarme de ce qu'on appelle l'auto-amélioration récursive (recursive self-improvement), où les IA apprennent et font des bonds substantiels dans leurs capacités sans intervention humaine.
La question de savoir si nous devons permettre cela soulève de lourdes interrogations philosophiques :
« La question principale est : les IA sont-elles bonnes pour l'humanité ? » demande Kaplan. « Sont-elles utiles ? Seront-elles inoffensives ? Comprennent-elles les gens ? Vont-elles permettre aux humains de continuer à exercer leur libre arbitre sur leur vie et sur le monde ? »
Un Faux Sentiment d'Hype ?
Bien que les dangers de l'IA soient réels, les avertissements de Kaplan méritent un examen attentif. Ils s'appuient notamment sur le postulat selon lequel l'IA est déjà la technologie la plus essentielle jamais créée, qu'elle représente ou non les machines autonomes et puissantes dépeintes dans les récits de science-fiction (ou du moins une étape significative pour y parvenir).
L'adage veut qu'il n'y ait pas de mauvaise publicité, et l'on peut ajouter que le discours apocalyptique, surtout dans le secteur de l'IA, est une forme d'hyper-médiatisation en soi. Les visions de l'apocalypse détournent l'attention des conséquences plus terre-à-terre de l'IA, telles que son coût environnemental faramineux, ses violations du droit d'auteur, et ses effets cognitifs d'addiction et d'illusion.
De plus, de nombreux experts de l'IA, y compris des figures fondamentales du domaine comme Yann LeCun, ne croient pas que l'architecture des modèles de langage (LLM) qui soutient les chatbots soit capable de se transformer en ces systèmes intelligents et tout-puissants que craignent des personnalités comme Kaplan. Il n'est même pas certain que l'IA augmente réellement la productivité au travail, certaines recherches suggérant le contraire – s'ajoutant à plusieurs tentatives notables de patrons remplaçant leurs employés par des agents IA, avant de devoir les réembaucher après l'échec des outils.
Kaplan a néanmoins concédé qu'il est possible que les capacités de l'IA stagnent. « Peut-être que la meilleure IA de tous les temps est celle que nous avons en ce moment », a-t-il réfléchi. « Mais nous ne pensons vraiment pas que ce soit le cas. Nous pensons qu'elle va continuer à s'améliorer. »
Notez ce sujet