GPT-5, un lancement qui menace l'humanité
Par Futurism .Publié le
2025/08/09 08:20

Août. 09, 2025
OpenAI a lancé la version d'essai de son nouveau modèle, GPT-5, considéré comme un grand pas vers l'Intelligence Artificielle Générale (AGI), une technologie potentiellement dangereuse pour l'humanité.
Ce lancement a eu lieu malgré les déclarations du PDG d'OpenAI, Sam Altman, qui avait comparé le développement de GPT-5 au "projet Manhattan" (à l'origine de la bombe atomique), exprimant sa crainte que l'évolution technologique ne dépasse un jour la capacité des humains à la contrôler.
Pourtant, la présentation de GPT-5 a été entachée d'erreurs spectaculaires, suscitant la moquerie et la critique. Au lieu de démontrer les capacités du nouveau modèle, la présentation est devenue un recueil d'erreurs étranges et embarrassantes.
Des erreurs flagrantes lors de la présentation
Durant la diffusion en direct du lancement de GPT-5, OpenAI a tenté de présenter son nouveau modèle. Mais elle a commis des erreurs ridicules et embarrassantes. Les graphiques censés mettre en évidence les performances de GPT-5, bien que d'apparence professionnelle, se sont avérés être des absurdités totalement inexactes.
Ces erreurs ont été repérées sur les réseaux sociaux et relayées par le magazine The Verge. L'exemple le plus flagrant est un graphique qui compare les résultats de GPT-5 à ceux des anciens modèles lors de tests de programmation. Étrangement, la barre représentant le score de GPT-5 (52,8 %) était deux fois plus haute que celle du modèle o3 (69,1 %). Encore plus déconcertant, la barre des 69,1 % était de la même taille que celle de GPT-4o (30,8 %).
OpenAI n'a pas confirmé si GPT-5 avait été utilisé pour générer ces graphiques. Ce qui est certain, c'est que cette erreur est extrêmement embarrassante pour une entreprise dont la valeur marchande est d'environ un demi-milliard de dollars.
Cette erreur est révélatrice d'un problème plus profond. Certaines études suggèrent que les nouveaux modèles pourraient en réalité devenir moins performants. Ils "hallucinent" plus souvent que leurs prédécesseurs. Une étude a même découvert que plus ces nouveaux modèles "réfléchissent" longtemps, plus leurs performances se dégradent. D'autres recherches attribuent ces problèmes à la "boue d'IA", une masse de données de plus en plus polluée qui empoisonne les données d'entraînement de l'IA. Pour en revenir au graphique de GPT-5, on voit qu'OpenAI a tenté de faire passer son score de 52,8 % pour un meilleur résultat que celui de son prédécesseur.
Erreurs des utilisateurs et cartes illogiques
Après le lancement de GPT-5, les utilisateurs ont rapidement mis en évidence les erreurs qui persistent dans ses capacités de génération d'images et de schémas. Un utilisateur a demandé à ChatGPT de dessiner une carte de deux villes de Virginie avec leurs quartiers, et le modèle a généré des noms totalement incohérents.
Dans un autre exemple qui aurait dû être facile pour GPT-5, Ed Zitron, de la newsletter "Where's Your Ed At ?", a découvert que l'IA était incapable de dessiner une carte simple des États-Unis. Avez-vous déjà pensé à visiter "West Wigina", "Delsware" ou "Fiorata" ?
Ironiquement, en mars, OpenAI avait fièrement annoncé qu'une mise à jour de son ancien modèle GPT-4o permettrait à ChatGPT d'exceller dans la génération de texte dans les images. L'une des images générées à l'époque affichait ce texte : "Comme vous pouvez le voir, il est très doué avec le texte. Regardez tout ce texte précis !"
Il semblerait qu'ils aient parlé trop vite. Ou peut-être que les modèles d'IA régressent réellement.
Il convient de rappeler qu'en 2023, plusieurs experts en IA et entrepreneurs, dont Elon Musk, avaient signé une lettre ouverte appelant à une pause de six mois dans le développement de toute IA plus puissante que GPT-4.
Notez ce sujet