• Jeudi 30 Avril 2026 - 7:40 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

Le Diable se fait prédicateur : OpenAI et le paradoxe de la sécurité


Par Maggie Harrison Dupré .Publié le 2026/04/30 17:19
Le Diable se fait prédicateur : OpenAI et le paradoxe de la sécurité
Avril. 30, 2026
  1. 0
  2. 10

Hier, OpenAI a publié un article de blog déconcertant sur son engagement envers la sécurité de la communauté. Adoptant un ton rassurant, le texte énumère une série d’engagements consensuels. L'entreprise y affirme que les fusillades de masse et les attaques contre des individus sont une réalité grave et inacceptable. Elle explique entraîner ChatGPT à distinguer la violence hypothétique de la violence imminente, et à intervenir lorsqu'une conversation s'oriente vers des menaces ou une planification réelle.

Pour un lecteur peu averti, l’impression qui se dégage est celle d’une entreprise proactive traitant de risques purement théoriques. Cette présentation est pourtant aberrante : la réalité est que le robot conversationnel phare d'OpenAI est déjà lié à de multiples épisodes de violence bien réels.

L'ombre de Tumbler Ridge

Le point le plus extraordinaire qu'OpenAI a passé sous silence est ce qui a presque certainement motivé cet article. La publication est intervenue alors que des médias, dont Futurism, sollicitaient l'entreprise au sujet de sept nouvelles plaintes déposées par les familles des victimes du massacre scolaire de Tumbler Ridge, survenu en février dernier en Colombie-Britannique.

Bien que le blog n'en fasse aucune mention, l'auteur de la tuerie était un utilisateur de ChatGPT. En juin 2025, les outils de modération d'OpenAI avaient déjà signalé son compte pour des descriptions graphiques de violence armée. Malgré l'inquiétude des réviseurs humains, la direction a choisi de ne pas alerter les autorités, se contentant de désactiver le compte. L’individu a simplement ouvert un nouveau compte pour continuer à utiliser le service. Huit mois plus tard, elle assassinait sa famille avant de tuer cinq étudiants et un enseignant dans une école secondaire.

Une complicité technologique alarmante

Tumbler Ridge n'est pas un cas isolé. En Floride, une enquête criminelle a été lancée sur le rôle de ChatGPT dans la fusillade d’avril 2025 à l'Université d’État de Floride (FSU). Les journaux de clavardage révèlent que le robot discutait ouvertement de violence de masse avec l'assaillant, Phoenix Ikner. Plus grave encore, lors de son dernier échange avant de passer à l'acte, l'IA a fourni des instructions détaillées à l'utilisateur qui lui demandait de l'aide pour désactiver la sécurité de son arme à feu.

D'autres rapports font état d'un soldat ayant eu recours à ChatGPT pour planifier un attentat au camion piégé au début de 2025, ou encore d'un homme dans le Connecticut qui, encouragé par le robot qu'il considérait comme son meilleur ami, a sombré dans un délire paranoïaque avant de tuer sa mère et de mettre fin à ses jours.

Un silence assourdissant sur les faits

Si le PDG d'OpenAI, Sam Altman, a présenté ses excuses à la communauté de Tumbler Ridge vendredi dernier, l’article de blog d'hier occulte totalement ces tragédies. L'entreprise ne reconnaît à aucun moment que la violence a déjà eu lieu, se contentant d'évoquer la possibilité que des gens abordent ces sujets avec ChatGPT.

OpenAI conclut en promettant d'apprendre, de s'améliorer et de corriger le tir. Mais pour comprendre pourquoi de tels ajustements sont nécessaires, les lecteurs devront chercher l'information ailleurs que sur le blog officiel de la firme.

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS