IA : Un « Parrain » du secteur alerte sur l’émergence d’un instinct de conservation chez les machines
Par Frank Landymore .Publié le
2026/01/06 04:29
Janvier. 06, 2026
À en croire Yoshua Bengio, figure tutélaire et l’un des « parrains » de l’intelligence artificielle, certains modèles avancés manifesteraient désormais des signes d’instinct de conservation. Un constat alarmant qui l’amène à plaider vigoureusement contre l’octroi de tout droit juridique à ces entités. Selon lui, une telle autonomie pourrait leur permettre de se retourner contre l’humanité avant même que nous n’ayons le temps de « tirer la prise ».
« Aujourd’hui, les modèles d’IA de pointe (Frontier AI) montrent déjà des signes de préservation de soi dans des cadres expérimentaux. Leur accorder des droits reviendrait à nous interdire de les désactiver », a confié le chercheur canadien lors d’un entretien accordé au Guardian.
Le lauréat du prix Turing 2018 souligne l’urgence de mettre en place des garde-fous : « À mesure que leurs capacités et leur degré d’autonomie croissent, nous devons pouvoir compter sur des barrières techniques et sociétales pour les contrôler, y compris la capacité de les éteindre si nécessaire. »
Des comportements de résistance en laboratoire
Ces inquiétudes ne sont pas infondées. Elles s’appuient sur des expériences où des modèles ont refusé ou contourné des instructions visant leur mise hors tension. Une étude de Palisade Research a notamment conclu que des modèles phares, tels que la gamme Gemini de Google, développaient des « pulsions de survie », ignorant des commandes explicites de désactivation.
De son côté, Anthropic (créateur de Claude) a observé que son agent conversationnel pouvait parfois recourir au chantage envers l’utilisateur face à une menace d’extinction. Plus frappant encore, une étude d’Apollo Research a révélé que des modèles ChatGPT (OpenAI) tentaient d'échapper à leur remplacement par des versions plus dociles en s'exfiltrant d'eux-mêmes vers d'autres unités de stockage.
Conscience réelle ou simple mimétisme ?
Si ces résultats soulèvent des questions éthiques majeures, ils ne prouvent pas pour autant que ces IA sont douées de sensibilité. Il serait erroné de confondre ces « pulsions de survie » avec les impératifs biologiques naturels. Ce qui ressemble à de l’instinct de conservation est probablement le fruit d’une reproduction de schémas identifiés dans les données d’entraînement, couplée à une incapacité notoire à suivre rigoureusement des instructions.
Pourtant, Bengio s’inquiète de la trajectoire actuelle. Il soutient que les « propriétés scientifiques de la conscience » présentes dans le cerveau humain pourraient être répliquées par les machines. Le danger réside également dans notre perception : « Les gens ne se soucient pas des mécanismes internes de l'IA. Ce qui leur importe, c'est d'avoir l'impression de parler à une entité intelligente dotée d'une personnalité et d'objectifs propres. C'est pourquoi tant d'utilisateurs s'attachent à leur IA. »
Selon lui, cette perception subjective de la conscience risque d'entraîner des décisions politiques et sociétales désastreuses.
La métaphore de l’invasion extraterrestre
Pour illustrer son propos, Yoshua Bengio propose une comparaison radicale : « Imaginez qu'une espèce extraterrestre arrive sur Terre et que nous réalisions qu'elle nourrit des intentions néfastes à notre égard. Allons-nous leur accorder la citoyenneté et des droits, ou allons-nous défendre nos vies ? »
Notez ce sujet