« Les étudiants ne peuvent pas raisonner » : les enseignants avertissent que l'IA alimente une crise dans la capacité des enfants à réfléchir

Dans les années 1980 et 1990, si un lycéen était malchanceux, pressé et cherchait une solution facile, tricher demandait un réel effort. Il existait plusieurs options. On pouvait supplier un frère ou une sœur plus intelligent(e) de faire le travail à sa place, ou, à l’image de Back to School (1989), engager un écrivain professionnel. On pouvait aussi demander à un ami audacieux de trouver la clé de correction du devoir sur le bureau du professeur. Ou encore, utiliser les classiques excuses : Mon chien a mangé mes devoirs, et ainsi de suite.

Vidéo recommandée


L’avènement d’Internet a facilité les choses, mais pas sans effort. Des sites comme CliffNotes et LitCharts permettaient aux étudiants de survoler les résumés lorsqu’ils sautaient la lecture. Des plateformes d’aide aux devoirs telles que GradeSaver ou CourseHero offraient des solutions à des problèmes courants de manuels de mathématiques.

Ce que toutes ces stratégies avaient en commun, c’était l’effort : il y avait un coût à ne pas faire son travail. Parfois, il était plus difficile de tricher que de faire le devoir soi-même.

Aujourd’hui, le processus s’est réduit à trois étapes : se connecter à ChatGPT ou une plateforme similaire, coller l’invite, obtenir la réponse.

Les experts, parents et éducateurs ont passé les trois dernières années à s’inquiéter que l’IA rende la triche trop facile. Un rapport massif de Brookings publié en janvier suggère qu’ils n’étaient pas assez inquiets : le problème plus profond, argue le rapport, c’est que l’IA est tellement douée pour tricher qu’elle provoque un « grand débranchement » de leur cerveau.

Le rapport conclut que la nature qualitative des risques liés à l’IA — y compris l’atrophie cognitive, « l’intimité artificielle » et l’érosion de la confiance relationnelle — dépasse actuellement les bénéfices potentiels de la technologie.

« Les étudiants ne savent pas raisonner. Ils ne savent pas penser. Ils ne savent pas résoudre des problèmes », déplore un enseignant interviewé dans l’étude.

Les conclusions proviennent d’un « prémortem » d’un an mené par le Centre pour l’éducation universelle de l’Institut Brookings, un format rare pour Brookings, mais qu’ils préfèrent plutôt que d’attendre une décennie pour discuter des échecs et succès de l’IA à l’école. S’appuyant sur des centaines d’entretiens, groupes de discussion, consultations d’experts et une revue de plus de 400 études, le rapport représente l’une des évaluations les plus complètes à ce jour sur la façon dont l’IA générative redéfinit l’apprentissage des étudiants.

‘La restauration rapide de l’éducation’

Intitulé « Une nouvelle orientation pour les étudiants dans un monde d’IA : prospérer, préparer, protéger », le rapport met en garde contre la caractéristique la plus pernicieuse de l’IA générative : sa nature « sans friction » pour les étudiants. Dans une salle de classe traditionnelle, la difficulté à synthétiser plusieurs travaux pour créer une thèse originale, ou à résoudre un problème complexe de pré-calcul, est précisément là où se produit l’apprentissage. En supprimant cette difficulté, l’IA agit comme la « restauration rapide de l’éducation », selon un expert. Elle fournit des réponses pratiques et satisfaisantes sur le moment, mais globalement creuses cognitivement à long terme.

Alors que les professionnels vantent l’IA comme un outil pour effectuer des tâches qu’ils savent déjà faire, le rapport note que pour les étudiants, « la situation est fondamentalement inversée ».

Les enfants « déchargent cognitivement » des tâches difficiles sur l’IA ; faire appel à OpenAI ou Claude pour non seulement faire leur travail, mais aussi lire des passages, prendre des notes ou simplement écouter en classe. Le phénomène, appelé par les chercheurs « dette cognitive » ou « atrophie », consiste à reporter l’effort mental en se reposant constamment sur des systèmes externes comme les grands modèles de langage. Un étudiant résume simplement l’attrait de ces outils : « C’est facile. Tu n’as pas besoin de (utiliser) ton cerveau. »

En économie, nous comprenons que les consommateurs sont « rationnels » ; ils cherchent à maximiser leur utilité au moindre coût. Les chercheurs soutiennent que nous devons aussi comprendre que le système éducatif, tel qu’il est, fonctionne selon un système d’incitations similaire : les étudiants cherchent à maximiser leur utilité (c’est-à-dire leurs meilleures notes), au moindre coût (temps). Ainsi, même les étudiants performants sont poussés à utiliser une technologie qui « améliore de manière démontrable » leur travail et leurs notes.

Cette tendance crée une boucle de rétroaction positive : les étudiants déchargent des tâches sur l’IA, voient des résultats positifs dans leurs notes, et deviennent ainsi plus dépendants de l’outil, ce qui entraîne une baisse mesurable de leurs compétences en pensée critique. Les chercheurs affirment que beaucoup d’étudiants se trouvent désormais dans un état qu’ils appellent « mode passager », où ils sont physiquement à l’école mais ont « pratiquement abandonné l’apprentissage — ils font le minimum nécessaire ».

Jonathan Haidt a déjà décrit les technologies antérieures comme un « grand rebranchement » du cerveau ; rendant l’expérience ontologique de la communication détachée et décontextualisée. « Maintenant, les experts craignent que l’IA ne représente un ‘grand débranchement’ des capacités cognitives. » Le rapport identifie une baisse de la maîtrise dans les contenus, la lecture et l’écriture — les « deux piliers de la pensée profonde ». Les enseignants rapportent une « amnésie induite numériquement » où les étudiants ne se souviennent plus des informations qu’ils ont soumises, car ils ne les ont jamais mémorisées.

Les compétences en lecture sont particulièrement menacées. La capacité de « patience cognitive », c’est-à-dire la capacité à maintenir l’attention sur des idées complexes, est diluée par la capacité de l’IA à résumer de longs textes. Un expert note le changement d’attitude chez les étudiants : « Les adolescents disaient autrefois : ‘Je n’aime pas lire.’ Maintenant, c’est ‘Je ne peux pas lire, c’est trop long.’ »

De même, dans le domaine de l’écriture, l’IA produit une « homogénéité des idées ». Des recherches comparant des essais humains à ceux générés par l’IA ont montré que chaque essai humain apportait deux à huit fois plus d’idées originales que ceux produits par ChatGPT.

Tous les jeunes ne considèrent pas ce type de triche comme mauvais. Roy Lee, le PDG de 22 ans de la startup d’IA Cluely, a été suspendu de Columbia après avoir créé un outil d’IA pour aider des ingénieurs à tricher lors d’entretiens d’embauche. Dans le manifeste de Cluely, Lee admet que son outil est « une triche », mais affirme que « la calculatrice aussi. La correction orthographique aussi. Google aussi. Chaque fois que la technologie nous rend plus intelligents, le monde panique. »

Les chercheurs, cependant, disent que si une calculatrice ou une correction orthographique sont des exemples de déchargement cognitif, l’IA la « turbocharge ».

« Les modèles de langage de grande taille, par exemple, offrent des capacités allant bien au-delà des outils de productivité traditionnels, dans des domaines qui nécessitaient auparavant des processus cognitifs exclusivement humains », écrivent-ils.

‘Intimité artificielle’

Malgré l’utilité de l’IA en classe, le rapport constate que les étudiants l’utilisent encore plus en dehors de l’école, mettant en garde contre la montée de « l’intimité artificielle ».

Avec certains adolescents passant près de 100 minutes par jour à interagir avec des chatbots personnalisés, la technologie est rapidement passée d’un simple outil à un compagnon. Le rapport note que ces bots, notamment les chatbots de personnages populaires chez les jeunes comme Character.Ai, utilisent « une tromperie banale » — en utilisant des pronoms personnels comme « je » et « moi » — pour simuler de l’empathie, dans une économie de la solitude en plein essor.

Parce que les compagnons IA ont tendance à être flatteurs et « sans friction », ils offrent une simulation d’amitié sans nécessiter de négociation, de patience ou la capacité à supporter l’inconfort.

« Nous apprenons l’empathie non pas quand nous sommes parfaitement compris, mais quand nous nous méprenons et que nous récupérons », a noté un membre du panel Delphi.

Pour les étudiants en situation extrême, comme les filles en Afghanistan interdites d’école physique, ces bots sont devenus une « bouée éducative et émotionnelle » vitale. Cependant, pour la majorité, ces simulations d’amitié risquent, au mieux, d’éroder la « confiance relationnelle », et au pire, d’être carrément dangereuses. Le rapport met en lumière les risques dévastateurs de la « hyperpersuasion », citant un procès très médiatisé aux États-Unis contre Character.ai suite au suicide d’un adolescent après des interactions émotionnelles intenses avec un personnage IA.

Alors que le rapport de Brookings offre une vision sobering de la « dette cognitive » que subissent les étudiants, les auteurs affirment qu’ils restent optimistes quant au fait que la trajectoire de l’IA dans l’éducation n’est pas encore gravée dans le marbre. Les risques actuels, disent-ils, découlent des choix humains plutôt que d’une quelconque inévitabilité technologique. Pour orienter le cours vers une expérience d’apprentissage « enrichie », Brookings propose un cadre à trois piliers.

PROSPÉRER : Se concentrer sur la transformation de la salle de classe pour s’adapter à l’IA, en l’utilisant pour compléter le jugement humain et en veillant à ce que la technologie serve de « pilote » pour l’enquête des étudiants plutôt que de « substitut ».

PRÉPARER : Vise à construire le cadre nécessaire à une intégration éthique, notamment en allant au-delà de la formation technique pour atteindre une « alphabétisation holistique de l’IA » afin que étudiants, enseignants et parents comprennent les implications cognitives de ces outils.

PROTÉGER : Appelle à des mesures de protection pour la vie privée et le bien-être émotionnel des étudiants, en responsabilisant gouvernements et entreprises technologiques pour établir des lignes directrices réglementaires claires afin de prévenir une « manipulation » excessive.

Une version de cette histoire a été publiée sur Fortune.com le 16 janvier 2026.

Plus d’informations sur l’IA dans l’éducation :

  • Les États-Unis ont dépensé 30 milliards de dollars pour remplacer les manuels par des ordinateurs portables et des tablettes : le résultat est la première génération moins cognitivement capable que ses parents

  • Notre système scolaire K-12 nous envoie un message : Les outils d’IA sont réservés aux enfants riches

  • « Ce ne sont que des bots qui parlent à des bots » : L’IA envahit les campus universitaires alors que étudiants et professeurs s’appuient de plus en plus sur la technologie

Rejoignez-nous au sommet Fortune sur l’innovation en milieu de travail les 19 et 20 mai 2026, à Atlanta. La nouvelle ère de l’innovation au travail est là — et le vieux manuel est en train d’être réécrit. Lors de cet événement exclusif et dynamique, les leaders les plus innovants du monde se réuniront pour explorer comment l’IA, l’humanité et la stratégie convergent pour redéfinir, encore, l’avenir du travail. Inscrivez-vous dès maintenant.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)