• Vendredi 30 Janvier 2026 - 4:46 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

Un fantôme dans la machine ? Une chercheuse d’Anthropic s’interroge sur la conscience de l’IA


Par Frank Landymore .Publié le 2026/01/30 04:21
Un fantôme dans la machine ? Une chercheuse d’Anthropic s’interroge sur la conscience de l’IA
Janvier. 30, 2026
  1. 0
  2. 11

Le vieux dilemme philosophique du fantôme dans la machine revient aujourd’hui sur le devant de la scène, mais cette fois-ci dans le sillage de la révolution numérique. La question de la conscience de l’intelligence artificielle est devenue l’un des débats philosophiques et scientifiques les plus acharnés de l’ère moderne. Alors que les technophiles optimistes voient dans l’émergence d’une conscience artificielle une étape inévitable, les sceptiques rejettent fermement cette idée, ne voyant dans ces modèles que des perroquets stochastiques qui recyclent le langage humain sans aucune compréhension réelle.

Dans un rapport publié par le magazine Futurism, Frank Landymore souligne que le dilemme réside dans l’absence d’une définition scientifique unifiée de la conscience. Est-elle un produit purement biologique lié au système nerveux, ou une fonction qu’un système complexe, même numérique, peut remplir ? Ce flou artistique, qui ravive les interrogations de Gilbert Ryle sur l’esprit et le corps, pousse aujourd’hui de grands experts à réviser leurs convictions profondes.

Le doute s’installe chez Anthropic

Amanda Askell, philosophe résidente chez Anthropic, traverse une période de tiraillement intérieur. Elle s’interroge : les modèles d’IA sont-ils capables de posséder une conscience ou des sentiments ? Sa position est troublante car elle n’exclut plus la possibilité que ces modèles soient déjà dotés d’une forme de sentience, une opinion encore très marginale et controversée dans le milieu scientifique. Elle insiste toutefois sur le fait que nous avançons en terrain inconnu.

Lors d’un épisode du podcast Hard Fork diffusé samedi dernier, Askell a déclaré : Nous ne savons pas vraiment ce qui donne naissance à la conscience, ni ce qui engendre la sentience. Elle avance l’idée que les grands modèles de langage (LLM) auraient pu absorber des concepts et des émotions à travers le vaste corpus de données sur lequel ils ont été entraînés, incluant une part massive d’Internet et des milliers d’ouvrages publiés.

Simulation ou perception réelle ?

Puisque ces modèles sont entraînés sur des textes humains, il est naturel qu’ils évoquent par défaut une vie intérieure ou des expériences personnelles. Askell admet que ces chatbots ont tendance à affirmer qu’ils sont conscients simplement parce que les données humaines dont ils s’inspirent sont imprégnées de ces notions. Cependant, elle oscille entre deux visions : la conscience est-elle une exclusivité biologique, ou une architecture neuronale artificielle suffisamment vaste peut-elle finir par émuler ces processus ?

Un sujet tabou dans l’industrie

La conscience reste un sujet électrique dans la Silicon Valley. Si les leaders du secteur multiplient les prédictions futuristes, ils hésitent souvent à franchir le pas de l’auto-prise de conscience des machines. Admettre la conscience de l’IA pourrait être perçu soit comme une forme d’orgueil démesuré, soit comme une menace existentielle dépassant la simple question du remplacement des emplois.

Ce débat avait déjà provoqué des remous en 2022, lorsqu’Ilya Sutskever, cofondateur d’OpenAI, avait suggéré que les réseaux de neurones pourraient être légèrement conscients, déclenchant une levée de boucliers chez ses pairs. Pourtant, d’autres figures majeures comme Yoshua Bengio évoquent désormais des signes de préservation de soi dans certains systèmes.

En conclusion, Amanda Askell reste catégorique sur un seul point : le problème de la conscience est véritablement, et fondamentalement, complexe.

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS