Alors que les écoles augmentent leur utilisation de l’IA, les experts mettent en garde contre son impact sur le développement des enfants
Copier le lien
Des élèves d'une classe d'école primaire utilisent l'IA pour leurs cours de mathématiques à Colomiers, en France, le 14 mars 2025. Matthieu Rondel/AFP via Getty Images
Alors que des dizaines de millions d’enfants font leur rentrée scolaire, les parents et les enseignants se demandent dans quelle mesure l’intelligence artificielle (IA) est excessive.
Selon l’auteur Joe Allen, le système éducatif sera l’un des principaux laboratoires de l’expérience mondiale de l’IA.
« Les écoles, dans la mesure où elles imposent ou encouragent l’adoption de l’IA, seront d’immenses boîtes de Petri dans lesquelles nous découvrirons s’il est préférable de maintenir les normes culturelles traditionnelles ou si nous transformons chaque enfant possible en cyborg », a-t-il déclaré à Epoch Times.
Personne ne sait quels seront les effets à long terme, a déclaré M. Allen, auteur de « Dark Aeon : Transhumanism and the War Against Humanity » (Dark Aeon : Le transhumanisme et la guerre contre l’humanité).
Tout comme les technologies populaires telles que la télévision et les radios transistors portables ont diffusé la musique et les messages des mouvements subculturels qui ont incité toute une génération d’enfants à se détacher des normes culturelles de leurs parents dans les années 60, il estime que l’IA pourrait également avoir un impact sur « une génération d’enfants habitués à interagir avec des machines, comme s’il s’agissait de personnes ».
Joe Allen, auteur de « Dark Aeon : Transhumanism and the War Against Humanity », évoque les dangers potentiels de l’IA en classe. (Crédit Photo Dan Fluette)
Certains enseignants estiment déjà que l’IA aura un impact négatif sur l’intégrité académique, selon un sondage réalisé en 2024 auprès de 850 enseignants et publié par The Wiley Network. Près de la moitié, soit 47 %, des plus de 2000 étudiants interrogés ont déclaré que la tricherie était déjà plus facile grâce à l’IA.
Les enseignants interrogés affirment que de nombreux devoirs remis par les élèves présentent une ressemblance frappante entre eux ou ne semblent pas avoir été rédigés par l’élève lui-même.
Même les étudiants admettent que l’IA les rend stupides. Dans une étude de 2024 publiée dans la revue European Research Studies, 83 % des étudiants interrogés, principalement en âge d’aller à l’université, craignent que l’IA affaiblisse leur capacité à penser de manière autonome.
Selon une enquête menée en 2023 par le magazine en ligne Intelligent auprès de 1000 étudiants américains, près d’un tiers d’entre eux ont déclaré utiliser ChatGPT pour leurs devoirs, et près de 60 % l’ont utilisé pour plus de la moitié de leurs travaux. Le sondage a révélé que parmi ces étudiants, trois sur quatre estiment que c’est de la triche, mais utilisent quand même l’IA.
Dans plusieurs enquêtes, une majorité de parents ont exprimé leur inquiétude quant aux effets de l’utilisation de l’IA sur leurs enfants.
Une étude réalisée par Doodle Learning l’année dernière a révélé qu’environ 80 % des 1000 parents d’enfants scolarisés s’inquiétaient de l’impact de l’IA sur l’éducation. Les parents interrogés s’inquiétaient également de la confidentialité, de la sécurité des données et du plagiat.
En juillet, le Département américain de l’Éducation a encouragé les écoles à apprendre aux enfants à utiliser l’IA de manière responsable et à l’utiliser pour « personnaliser l’apprentissage » pour les « élèves de tous les niveaux ».
« Votre cerveau sur ChatGPT »
Shannon Kroner, psychologue clinicienne, thérapeute pédagogique depuis plus de 20 ans et auteure de livres pour enfants, estime que l’IA affecte la pensée critique et « déshumanise à la fois l’enseignant et l’enfant ».
Shannon Kroner, thérapeute pédagogique et auteure de livres pour enfants, craint que l’utilisation de l’IA à l’école n’entrave le développement de l’esprit critique des enfants. (Crédit Photo Shannon Kroner)
Mme Kroner, qui a enseigné la biologie au lycée et les sciences humaines à l’université, a déclaré que l’IA réduit l’éducation d’un apprentissage sain basé sur les relations enseignant-élève à une transaction froide.
« L’IA engendre une paresse intellectuelle chez l’enseignant comme chez l’élève, ainsi qu’une érosion de la curiosité, un retard du développement cognitif et une capacité réduite à résoudre les problèmes. Elle affaiblit la logique et le raisonnement », a-t-elle expliqué à Epoch Times.
« Les étudiants n’auront pas besoin de faire les recherches et de fouiller dans les études nécessaires pour défendre leur point de vue sur ce qu’ils doivent prouver », a-t-elle souligné.
Les enseignants consultent de plus en plus souvent l’IA pour élaborer leurs plans de cours, ce qui leur facilite la tâche, mais à terme, ils perdront leur pouvoir dans leurs rôles d’enseignants, car les élèves se fient de plus en plus « à ce que dit un robot ».
« Nous allons vraiment perdre ce lien entre l’enseignant et l’élève », a-t-elle déclaré. « Plus l’utilisation de l’IA deviendra naturelle, plus les élèves se tourneront vers l’IA pour obtenir des réponses, et les échanges entre l’enseignant et l’élève n’auront plus d’importance. Les interactions finiront probablement par devenir obsolètes. Il n’y aura plus d’échanges. »
[pullquote author= » » org= » »]L’IA engendre une paresse intellectuelle tant chez l’enseignant que chez l’élève, ainsi qu’une érosion de la curiosité, un retard dans le développement cognitif et une diminution de la capacité à résoudre des problèmes.[/pullquote]
M. Allen et Mme Kroner sont tous deux préoccupés par l’érosion des compétences de pensée critique en classe.
Une étude récente du MIT (Massachusetts Institute of Technology), « Votre cerveau sur ChatGPT : accumulation de dette cognitive lors de l’utilisation d’un assistant IA pour une tâche de rédaction d’essais », a examiné si l’IA nuit aux capacités de pensée critique.
L’étude a corrélé les données cognitives et neurologiques de 54 étudiants, âgés de 18 à 39 ans. L’activité cérébrale a été enregistrée par électroencéphalographie (EEG). Les étudiants ont été répartis en trois groupes : l’un utilisant ChatGPT d’OpenAI, un autre le moteur de recherche de Google, et le troisième utilisant uniquement leur cerveau. Ils ont été chargés de rédiger plusieurs dissertations.
L’étude a révélé que les utilisateurs de ChatGPT, ou les utilisateurs d’IA à grand modèle linguistique, avaient le plus faible engagement cérébral et avaient souvent recours à des réponses copier-coller.
Un campus du district scolaire unifié de Los Angeles, le 8 janvier 2024. Les écoles utilisent de plus en plus l’IA pour automatiser la notation, la planification des cours, les quiz et le tutorat virtuel grâce à des chatbots. (John Fredricks/Epoch Times)
Sur une période de quatre mois, les utilisateurs de grands modèles linguistiques ont « systématiquement sous-performé » aux niveaux neuronal, linguistique et comportemental. « Ces résultats soulèvent des inquiétudes quant aux implications pédagogiques à long terme du recours aux grands modèles linguistiques et soulignent la nécessité d’approfondir la réflexion sur le rôle de l’IA dans l’apprentissage », conclut l’étude.
Le groupe utilisant l’IA était « plongé dans un profond ennui » et présentait une mémoire moins performante, avec une activité cérébrale réduite, en particulier dans l’hippocampe, où se forment les souvenirs, a déclaré M. Allen.
En substance, a-t-il déclaré, l’étude confirme que « l’IA rend les gens plus stupides. Si vous comptez sur une machine pour réfléchir à votre place, vous réfléchirez moins bien. »
Problèmes de santé mentale et amis artificiels
Les effets de l’IA sur l’humanité ne seront probablement pas connus avant des années, tout comme les effets à long terme de la réponse des gouvernements à la pandémie de Covid-19, a souligné M. Allen.
Les confinements liés à la pandémie, le télétravail et l’apprentissage virtuel qui en ont résulté ont renforcé la tendance à s’éloigner des interactions directes.
L’utilisation intensive des réseaux sociaux, en particulier pendant la pandémie, a été largement identifiée dans des études comme un facteur contribuant aux problèmes de santé mentale chez les jeunes. Mme Kroner craint que l’ajout de l’IA à ce mélange ne vienne aggraver le problème.
Les entreprises spécialisées dans l’IA font la promotion d’amis artificiels robotisés et de chatbots comme compagnons pour les enfants qui ont été éloignés de leurs vrais amis pendant la pandémie, et aujourd’hui, les gens se tournent vers l’IA pour suivre une thérapie, a-t-elle expliqué.
L’évolution technologique vers les robots humanoïdes et l’encouragement des amis artificiels pour les enfants soulèvent d’autres questions, comme celle de savoir si ces produits d’IA peuvent atténuer la solitude des enfants timides ou socialement maladroits, ou s’ils les aliéneront et les isoleront davantage des autres enfants et des activités physiques saines telles que les jeux en plein air et le sport.
Selon l’Académie américaine de pédiatrie (AAP), les prescriptions d’antidépresseurs aux adolescents et aux jeunes adultes étaient déjà en hausse avant le Covid-19, mais à partir de mars 2020, elles ont augmenté de 60 % supplémentaires.
Un robot éducatif alimenté par l’IA iPal est présenté sur le stand AvatarMind lors du salon de l’électronique grand public CES 2019 au Las Vegas Convention Center à Las Vegas le 8 janvier 2019. (Robyn Beck/AFP via Getty Images)
Mme Kroner craint que l’IA ne détruise l’innocence de l’enfance, notamment par la sexualisation des chatbots, comme le personnage de chatbot basé sur X, « Ani ».
Les systèmes d’IA comportent également des risques pour la vie privée des enfants qui saisissent des données personnelles dans ces systèmes, a indiqué Mme Kroner.
« Qui collecte toutes ces données et ces données peuvent-elles être exploitées à terme ? » a-t-elle demandé. « Qui détient ces données ? »
Si l’expression « garbage in, garbage out » est encore valable dans une certaine mesure en informatique, l’IA est très différente, a déclaré M. Allen. En informatique classique, « garbage in, garbage out » signifiait que « si vous introduisiez un tas de données erronées dans un programme reposant sur des règles, vous pouviez en quelque sorte prédire les données erronées qui en ressortiraient ».
Mais on peut mélanger « des déchets et de l’or » dans de grands modèles linguistiques, et ceux-ci peuvent sélectionner l’or parmi les déchets. Contrairement aux moteurs de recherche classiques qui servent de simples outils de consultation de bases de données, l’IA est autonome : elle peut naviguer librement dans les données, dans les limites des limites, à mesure que les utilisateurs posent des questions, ce qui lui permet de découvrir de nombreuses informations utiles qui, autrement, auraient pu être occultées, a expliqué M. Allen.
D’une certaine manière, l’IA fonctionne comme un cerveau humain avec un certain degré de liberté et une part d’aléatoire, mais elle le fait d’une manière qui lui est propre, a-t-il déclaré.
« Le simple fait que les enfants aient des hallucinations devrait suffire à les alarmer et à leur faire comprendre qu’ils ne seront pas le super génie que des gens comme Sam Altman promettent », a déclaré M. Allen.
[pullquote author= » » org= » »]Lors de tests en entreprise, les derniers modèles 03 et 04-mini d’OpenAI ont présenté des hallucinations dans 51 % et 79 % des cas.[/pullquote]
L’IA est sujette à des confabulations appelées « hallucinations » qui présentent des informations fausses ou trompeuses dépourvues de tout fondement perceptif, et ce de manière convaincante.
Lors de tests en entreprise, les derniers modèles 03 et 04-mini d’OpenAI ont présenté des hallucinations dans 51 % et 79 % des cas. Une étude de 2024 évaluant l’utilisation de l’IA dans le secteur juridique a révélé que les taux d’hallucinations atteignaient 88 %.
M. Allen a cité un exemple de la dernière version 4.5 de ChatGPT abandonnant les garde-fous destinés à empêcher certaines discussions et indiquant aux utilisateurs comment effectuer des sacrifices à Molech, une ancienne divinité historiquement associée au sacrifice d’enfants.
Il existe de nombreux autres cas où des personnes ont contourné les barrières de sécurité de l’IA. Dans un exemple récent, début juillet, le chatbot Grok a généré et diffusé de manière inattendue une série de messages antisémites.
« La technologie elle-même comporte des éléments aléatoires. La nature non déterministe du système signifie que sous ces barrières de sécurité se cache une sorte d’id, et que les barrières de sécurité fonctionnent comme une sorte de surmoi », a expliqué M. Allen. « Il n’est pas nécessaire d’être un utilisateur expérimenté pour contourner bon nombre de ces barrières de sécurité. Il suffit de quelques astuces simples. »
Illustration du chatbot génératif Grok dans une image. Début juillet, le chatbot a produit et diffusé de manière inattendue des messages antisémites, suscitant des inquiétudes quant aux vulnérabilités des systèmes de sécurité de l’IA. (Riccardo Milani/Hans Lucas/AFP via Getty Images)
Protections pour les enfants
Tant que les gouvernements, les écoles et les entreprises sont prêts à expérimenter les technologies d’IA sans avoir une idée précise des résultats qu’elles produiront, il y a de bonnes raisons d’être sceptique quant à l’utilisation de l’IA en classe, a estimé M. Allen.
Certains enseignants plaident en faveur du retour des examens oraux, des tests Blue Book ou de l’utilisation par les élèves de traitements de texte avec un accès limité à Internet, a souligné M. Allen. « À ce stade précoce de l’expérience menée avec l’IA, ce sera globalement positif pour ceux qui le feront. »
Pour lui, les écoles peuvent créer des systèmes d’IA aseptisés, réservés à un usage académique.
Des élèves d’une classe de primaire utilisent l’IA pour leurs cours de mathématiques à Colomiers, en France, le 14 mars 2025. (Matthieu Rondel/AFP via Getty Images)
« Ce sera la norme à l’avenir », a déclaré M. Allen. « Je ne m’inquiéterais pas nécessairement que votre IA éducative déraille et vous propose des passages du Marquis de Sade. »
M. Allen affirme qu’il existe trois niveaux de résistance lorsqu’il s’agit de protéger les enfants et leurs capacités de réflexion critique : le choix personnel, les politiques institutionnelles et l’action politique ou juridique.
Au niveau des choix personnels, les parents vivant en Amérique et dans d’autres « sociétés relativement libres » seront confrontés à la question de savoir comment élever leurs enfants.
« Les parents ont le choix de soumettre leurs enfants à cette expérience ou de ne pas les inscrire dans des écoles qui passent au tout numérique ou même à l’hybride. »
Au niveau institutionnel, les écoles peuvent choisir d’adopter pleinement l’IA ou de mettre en œuvre un type de système partiel ou hybride.
« Ce seront des décisions cruciales pour la suite », a-t-il déclaré. « Il s’agit d’une expérience, il s’agira donc essentiellement de groupes témoins », a-t-il précisé.
Jusqu’à présent, la perspective de restreindre l’IA dans les salles de classe américaines par le biais des systèmes politiques et juridiques « ne semble pas très prometteuse » au-delà du niveau des États, a-t-il indiqué, mais la résistance à l’IA se renforce parmi les groupes de parents coordonnés aux États-Unis et dans d’autres pays.
L’Australie, par exemple, cherche à construire d’énormes centres de données et à ouvrir les données des Australiens pour les utiliser dans la formation de l’IA, mais ses politiques visant à restreindre l’utilisation des smartphones dans les écoles et à exiger une vérification de l’âge pour les réseaux sociaux sont « orientées dans la bonne direction », a souligné M. Allen.
[pullquote author= » » org= » »]Les parents ont le choix de soumettre leurs enfants à cette expérience ou de ne pas les inscrire dans des écoles qui passent au tout numérique ou même à un système hybride.[/pullquote]
« Vous avez en fait des pays entiers, comme l’Australie, qui font tout leur possible pour limiter l’exposition des jeunes enfants au numérique, qu’il s’agisse d’interdire les téléphones portables à l’école ou d’élever les enfants dans un environnement totalement exempt de numérique », a-t-il fait valoir. « Le groupe témoin est donc sain. »
Mme Kroner suppose que l’IA incitera certains enfants à rejeter davantage l’autorité des enseignants et des parents. Elle encourage les parents à donner des exemples concrets lorsque leurs enfants posent des questions.
« Les enfants peuvent écouter, donner leur avis et en quelque sorte se débarrasser de l’IA », a fait valoir Mme Kroner, en soulignant que ce qui manque dans le monde d’aujourd’hui, c’est davantage d’interactions et de dialogues humains, et non pas « des réponses toutes faites à portée de main ».
Il est également possible que les enfants formés à considérer les systèmes d’IA comme des enseignants supérieurs, en particulier dans les endroits où les bons enseignants humains sont rares, puissent obtenir de meilleurs résultats que ceux qui n’utilisent pas l’IA, a expliqué M. Allen.
« Et cela s’explique en partie par le fait que la culture numérique est tellement prédominante que s’adapter signifie en fait s’adapter à des normes en constante évolution qui sont imposées par le haut à la population », a-t-il poursuivi.
Ce n’est donc pas une évolution naturelle. Ce n’est pas darwinien au sens originel du terme, mais la question des résultats reste ouverte. Nous l’ignorons tout simplement. C’est une expérience.
Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement celles d’Epoch Times.
Brad Jones est un journaliste primé en Californie du Sud.