Sam Altman découvre la théorie de l'Internet mort, et l'éléphant dans la pièce
Par Futurism .Publié le
2025/09/13 17:14

Septembre. 13, 2025
Dans une ironie du sort, Sam Altman, le PDG d'OpenAI qui a déclenché la révolution de l'intelligence artificielle générative, exprime une inquiétude grandissante face à un Internet devenu "complètement faux". Après avoir été à l'avant-garde de la propagation du contenu produit par l'IA, il constate aujourd'hui avec consternation que la ligne de démarcation entre le contenu humain et le contenu automatisé est devenue dangereusement floue.
L'homme responsable d'avoir libéré la "machine à texte sans âme" qu'est ChatGPT, a récemment pris conscience que le web est devenu profondément factice. Il philosophe maintenant sur cette nouvelle observation sur X (anciennement Twitter), semblant mystifié par la tournure des événements.
Ce qui a déclenché sa dernière réflexion est une capture d'écran partagée par un autre utilisateur, montrant une série de publications dithyrambiques sur le forum Reddit dédié à Claude Code, l'assistant de codage IA du concurrent d'OpenAI, Anthropic.
"J'ai eu l'expérience la plus étrange en lisant ceci : je suppose que tout est faux/produit par des bots, même si, dans ce cas, je sais que la croissance de Codex est vraiment forte et que la tendance est réelle", a écrit Altman dans un tweet.
Son analyse est que ce n'est pas seulement le spam généré par l'IA qui crée cette impression, mais le fait que les gens eux-mêmes commencent à écrire comme les chatbots dont ils sont désespérément dépendants.
"De vraies personnes ont adopté les bizarreries du langage des grands modèles de langage (LLM)", a déclaré Altman. De plus, il a blâmé l'aller-retour extrême du "cycle de l'engouement", la "pression d'optimisation des plateformes sociales pour stimuler l'engagement", et, bien sûr, les bots.
"L'effet net est que d'une manière ou d'une autre, le Twitter/Reddit de l'IA semble très faux, d'une manière qui n'existait pas il y a un an ou deux", a conclu Altman.
Il y a beaucoup à analyser ici, à commencer par le fait que le premier instinct d'Altman, après avoir vu un concurrent être loué — de manière orchestrée ou non — est de supposer que c'est une imposture. Et il est vrai que l'Internet devient de plus en plus artificiel sous la domination des entreprises et un déluge de bots. Les personnes qui l'utilisent le deviennent aussi, à mesure que nous adoptons, à des degrés divers, la conscience de l'image des influenceurs.
Mais le plus frappant de tout est l'incapacité d'Altman à aborder l'éléphant de la taille d'un centre de données dans la pièce : comment il est littéralement à la tête de la technologie responsable d'accélérer tout cela. Ce serait comme si le PDG de Spotify se plaignait que trop de musique est diffusée en continu de nos jours, au lieu d'être écoutée sur un CD (ce que Daniel Ek, malgré sa propension à faire des remarques assourdissantes et à avoir des opinions encore plus stupides, sans parler de financer la recherche sur les armes, n'a jamais fait). Si ce n'est pas ainsi qu'Altman veut que les clients utilisent sa technologie d'un billion de dollars, alors comment devraient-ils l'utiliser ? Pour passer une heure à commander des cupcakes ?
De manière hilarante, il semble aussi que ce soit quelque chose qu'Altman n'a découvert que récemment. La semaine dernière, il a admis qu'il commençait à sympathiser avec la "théorie de l'Internet mort" après avoir observé qu'"il y a vraiment beaucoup de comptes Twitter gérés par des LLM maintenant".
L'Internet mort, soit dit en passant, est une théorie du complot qui soutient que le web a été envahi par des modèles d'IA et d'autres machines autonomes à un point tel que la plupart, sinon la totalité, de vos interactions en ligne ne sont en fait qu'une illusion maintenue par des bots. Ce n'est pas vrai, bien sûr, mais c'est devenu une formule abrégée pour souligner les cas évidents où les médias sociaux, "morts" ou non, sont plus faux que jamais — comme des publications qui deviennent ridiculement virales alors qu'elles sont de purs non-sens, remplies de réponses qui ne semblent même pas aborder le contenu en question. Ou, comme "Shrimp Jesus".
Le fait est que toute personne qui passe assez de temps en ligne a réalisé cela il y a des années, et Altman, après avoir suralimenté la tendance avec ChatGPT, ne le remarque que maintenant.
Notez ce sujet