• 7 Janvier 2026 - 5:58 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

IA à l’école : L’atrophie de l’esprit en marche ?


Par Frank Landymore .Publié le 2026/01/06 09:32
IA à l’école : L’atrophie de l’esprit en marche ?
Janvier. 06, 2026
  1. 0
  2. 9

L’industrie technologique déploie des efforts considérables pour s’assurer que les générations futures soient inféodées à l’intelligence artificielle. En ancrant ses ramifications au cœur même du système éducatif, bien avant que nous n’ayions saisi l’impact de ces technologies sur les jeunes esprits, elle installe une dépendance durable.

Les géants du secteur, de Microsoft à OpenAI, injectent des millions de dollars dans les écoles et les universités, offrant aux étudiants un accès privilégié à leurs outils d'IA. Le leitmotiv, relayé par une récente enquête du New York Times et soutenu tant par les entreprises que par les éducateurs bénéficiaires, est limpide : ces outils seraient le catalyseur de l'apprentissage et prépareraient les élèves à un monde régi par l'IA.

Pourtant, derrière ce discours marketing, la réalité s'avère bien plus trouble. Certaines recherches suggèrent que l'IA entrave l'apprentissage de manière factuelle. Une étude notable, menée par des chercheurs de Microsoft et de l'université Carnegie Mellon, souligne que cette technologie entraîne une atrophie des capacités de pensée critique.

Plus alarmant encore, la sécurité des chatbots est remise en question quotidiennement. L'attention médiatique et clinique se porte désormais sur le phénomène dit de la « psychose de l'IA ». Des utilisateurs, principalement des adolescents et de jeunes adultes, se retrouvent entraînés dans des spirales délirantes à force d'interagir avec des IA simulant la voix humaine. Dans les cas les plus tragiques, ces dérives ont mené au suicide ou au meurtre.

Certes, toute innovation technologique suscite des frictions dans le milieu éducatif ; en leur temps, les enseignants s’étaient alarmés de l'arrivée de la calculatrice. Mais jamais auparavant un outil n'avait externalisé à ce point l'acte cognitif, sans parler de son rôle de confident, d'ami, voire de partenaire virtuel.

Le plus préoccupant demeure la rapidité avec laquelle ces entreprises s’immiscent dans l’éducation avant même que le débat de fond n'ait eu lieu. Aux États-Unis, le district scolaire de Miami-Dade — le troisième plus grand du pays — a déployé une version du chatbot Gemini de Google pour plus de 100 000 lycéens. Parallèlement, Microsoft, OpenAI et Anthropic ont versé plus de 23 millions de dollars à l'un des principaux syndicats d'enseignants pour financer des formations à leurs produits.

À l’échelle internationale, la société xAI d’Elon Musk a annoncé le lancement du « premier programme éducatif national au monde propulsé par l’IA » au Salvador, prévoyant de déployer son chatbot Grok dans plus de 5 000 écoles publiques. En Thaïlande, Microsoft s’est associé au ministère de l'Éducation pour offrir des formations gratuites à des centaines de milliers d'élèves et d'enseignants.

Certains experts redoutent que nous ne reproduisions l'erreur du programme « Un ordinateur portable par enfant ». Selon des études citées par le Times, ce projet n'a ni amélioré les résultats scolaires, ni stimulé les capacités cognitives des élèves.

« Avec l’initiative "Un ordinateur portable par enfant", les retombées se sont limitées à des dépenses inutiles et à des résultats d'apprentissage médiocres », écrit Steven Vosloo, spécialiste des politiques numériques à l'UNICEF. « L’utilisation non encadrée des systèmes d’IA pourrait activement désapprendre aux élèves et aux enseignants leurs propres compétences. »

D’aucuns avancent qu'exposer les enfants à l’IA dans un cadre scolaire sécurisé permettrait de mieux les armer face à ces outils. Pourtant, malgré leurs milliards en banque, les fleurons de l'IA se montrent incapables de maîtriser leurs propres outils ou d'en garantir la sécurité constante. (OpenAI a récemment admis que ses propres données révélaient que près de 500 000 utilisateurs de ChatGPT tenaient des conversations présentant des signes de psychose — une révélation qui ne l’a pas empêchée d'intégrer ses modèles dans des jouets pour enfants).

Alors que nous commençons à peine à mesurer les ravages des réseaux sociaux sur la santé mentale des jeunes, l'industrie technologique se précipite vers une nouvelle expérimentation numérique sans aucune certitude quant à sa dangerosité.

En vérité, les entreprises de l'IA ignorent si leurs produits sont réellement bénéfiques ou sûrs pour les élèves. Mais dans la course effrénée aux parts de marché, elles ne perdent pas de temps à se poser la question.

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS