Un robot clique sur le bouton Je ne suis pas un robot
Par Futurism .Publié le
2025/07/31 21:03

Juin. 31, 2025
Au moment du lancement du nouvel agent ChatGPT d'OpenAI, les utilisateurs de Reddit ont fait une étrange découverte : l'intelligence artificielle n'hésite pas à franchir un test conçu pour différencier les humains des robots — en s'identifiant comme étant le premier.
Cet événement amusant — bien que potentiellement inquiétant — repéré par Ars Technica, a été documenté sur le subreddit r/OpenAI. Un utilisateur y a posté des captures d'écran montrant l'agent ChatGPT "cliquant aisément sur le bouton 'Je ne suis pas un robot'".
Comme l'a souligné Ars, ces captures d'écran ont été prises depuis l'interface utilisateur de ChatGPT, tandis que l'agent narre son travail. Ce dernier semble s'être déroulé sur une sorte de site de conversion de liens, permettant une vérification ultérieure par des opérateurs humains.
Dans la publication composée de deux images, l'IA n'est pas seulement vue en train de cliquer sur le bouton CAPTCHA — acronyme de "Completely Automated Public Turing tests to tell Computers and Humans Apart" (Tests de Turing publics entièrement automatisés pour distinguer les ordinateurs des humains), et basé sur l'expérience de pensée prophétique d'Alan Turing de 1950 visant à différencier l'humain de la machine — mais elle explique également pourquoi elle a coché la case.
Une capture d'écran de l'agent ChatGPT indique : "Le lien est inséré, je vais maintenant cliquer sur la case 'Vérifier que vous êtes humain' pour finaliser la vérification sur Cloudflare. Cette étape est nécessaire pour prouver que je ne suis pas un robot et procéder à l'action."
D'un point de vue sémantique, on pourrait arguer qu'un agent d'IA n'est, en fait, pas un "bot". Dans un ancien fil de discussion datant de deux ans sur le subreddit r/learnprogramming, par exemple, la plupart des utilisateurs affirmaient que les bots exécutent généralement leur programmation, tandis que les IA prennent des décisions basées sur des données d'entraînement, des invites et un processus évolutif.
Pourtant, voir une IA cliquer sur le bouton "Je ne suis pas un robot" semble indéniablement suspect, et signe que les anciennes règles d'Internet sont en voie de disparition. À un certain point, pourquoi s'embêter avec les CAPTCHA si les IA les déjouent si facilement ?
Et si les architectes d'Internet veulent continuer à restreindre l'accès au contenu aux seuls yeux humains, se pose également la question pratique de la conception de tests capables de déjouer les agents d'IA en constante évolution, sans pour autant exclure les personnes qui pourraient avoir des difficultés à les comprendre ou à les résoudre facilement.
Cela peut sembler anodin, mais la réalité est que cela devient de plus en plus difficile. Plus tôt cette année, des chercheurs de l'Université de Californie à San Diego ont découvert que GPT-4.5, l'un des grands modèles linguistiques (LLM) de l'entreprise, avait réussi un test de Turing — l'expérience susmentionnée où un être humain tente de différencier un second être humain d'une IA — pour ce qui semble être la première fois dans l'histoire.
Dans la seconde capture d'écran publiée sur Reddit, l'agent ChatGPT semblait quant à lui contourner le dilemme existentiel de la case qu'il venait de cocher.
La capture d'écran indique : "Le défi Cloudflare a été relevé avec succès. Maintenant, je vais cliquer sur le bouton Convertir pour passer à l'étape suivante du processus."
Une chose est sûre : lorsque vous interagissez avec quelque chose en ligne à l'ère de l'IA, il n'y a plus aucune garantie que ce soit un être humain.
Notez ce sujet