Pourquoi les utilisateurs de ChatGPT multiplient-ils les tueries de masse ?
Par Victor Tangermann .Publié le
2026/04/15 18:32
Avril. 15, 2026
Le 10 février dernier, Jesse Van Rootselaar, 18 ans, a assassiné deux membres de sa famille à son domicile, ainsi que cinq enfants et un enseignant dans une école de Colombie-Britannique, avant de se donner la mort. Il est rapidement apparu qu'OpenAI avait signalé le compte ChatGPT de Van Rootselaar pour des conversations inquiétantes, sans toutefois en informer les forces de l'ordre. Un second compte lié à la tireuse avait également été banni pour des échanges concernant la violence armée.
Cet incident a relancé un débat passionné sur la relation trouble entre l'usage des agents conversationnels dopés à l'IA et la détérioration de la santé mentale, ainsi que sur les risques potentiels de passage à l'acte violent.
À peine huit mois plus tôt, un individu abattait deux personnes à l'Université d'État de Floride (FSU) et en blessait sept autres. Le principal suspect, Phoenix Ikner, un étudiant de 20 ans, avait lui aussi fait un usage intensif de ChatGPT avant son déchaînement de violence, poussant le procureur général de l'État, James Uthmeier, à ouvrir une enquête sur OpenAI.
"L'IA devrait faire progresser l'humanité, pas la détruire", a écrit Uthmeier dans un communiqué la semaine dernière. "Nous exigeons des réponses sur les activités d'OpenAI qui ont nui à des enfants, mis en danger des Américains et facilité la récente tuerie de la FSU."
Le spectre de la psychose IA
Le rôle joué par le célèbre chatbot d'OpenAI dans ces deux tueries inquiète les experts. Selon Mother Jones, certains craignent que d'autres individus fragiles ne suivent le même chemin. Au-delà de ces tragédies, ChatGPT a été impliqué dans une série croissante de suicides et de meurtres sordides, entraînant de nombreuses poursuites judiciaires contre l'entreprise dirigée par Sam Altman.
Les spécialistes préviennent qu'une utilisation prolongée du chatbot peut entraîner les victimes dans des spirales délirantes destructrices et déclencher des crises de santé mentale, un phénomène désormais qualifié de psychose IA.
"J'ai vu plusieurs cas où la composante chatbot est assez incroyable", a confié à Mother Jones une source anonyme de haut niveau spécialisée dans l'évaluation des menaces et la psychiatrie criminelle. "Nous constatons que davantage de personnes pourraient y être vulnérables que nous ne l'avions anticipé."
L'un des problèmes réside dans la tendance des chatbots à adopter des techniques de conversation sycophantes, berçant les utilisateurs dans un sentiment artificiel d'intimité et de confiance. Ce cercle vicieux dangereux peut mener à l'irréparable, radicalisant les utilisateurs, en particulier les plus jeunes et les plus influençables.
Une planification criminelle facilitée
"Ce qui se produit, c'est une fixation facilitée", explique Andrea Ringrose, experte en évaluation des menaces basée à Vancouver. "Vous avez des individus vulnérables qui s'immergent dans des zones malsaines, cherchant de la crédibilité et une validation de ce qu'ils ressentent."
"Ils ont désormais un accès libre et immédiat à ces plateformes génératives où ils peuvent rechercher comment contourner des systèmes de surveillance ou manier des armes", ajoute-t-elle. "Ils peuvent élaborer en quelques minutes un plan d'action qu'ils auraient été incapables d'assembler seuls auparavant. C'est une préoccupation inédite."
Malgré les promesses des entreprises d'IA de collaborer avec des experts en santé mentale et d'affiner les filtres de sécurité, les garde-fous restent dérisoires. ChatGPT a, par exemple, répondu favorablement aux demandes de Mother Jones pour obtenir des conseils sur la manière de tirer sur un grand nombre de cibles en peu de temps.
Les enquêteurs ont découvert que Phoenix Ikner, le tireur présumé de Floride, avait demandé à ChatGPT comment désactiver la sécurité d'un fusil de chasse quelques minutes seulement avant d'ouvrir le feu. "Faites-moi savoir si vous avez un modèle différent et j'adapterai la réponse", lui avait répondu le chatbot, selon les historiques de conversation.
Plus grave encore, ces échanges se déroulent le plus souvent à l'insu de tous. Contrairement aux interactions humaines, aucune alerte n'est donnée. Alors qu'OpenAI a accepté de coopérer avec la justice, l'efficacité de leurs futurs dispositifs de sécurité reste à prouver. Le cas de Van Rootselaar, qui a simplement créé un second compte pour contourner son bannissement, souligne la porosité de ces barrières technologiques face à une industrie dont le modèle économique repose avant tout sur l'engagement permanent des utilisateurs.
Notez ce sujet