Logo Epoch Times

Opinion

plus-icon

L’IA à l’école peut attendre, pas la compréhension des adultes

Michael Kleinman, responsable des politiques américaines au Future of Life Institute – un groupe qui alerte depuis des décennies sur les risques de l’intelligence artificielle (IA) – a récemment lancé un avertissement sans détour : le Congrès avance trop lentement sur la régulation de l’IA alors que des systèmes non sécurisés nuisent déjà aux familles.

top-article-image

Des élèves d’une classe de primaire utilisent l’IA pour des exercices de mathématiques à Colomiers, en France, le 14 mars 2025

Photo: Matthieu Rondel/AFP via Getty Images.

author-image
Partager un article

Durée de lecture: 10 Min.

Son alarme est justifiée, mais la bataille politique pour savoir qui doit réguler l’IA masque un problème plus profond.
Pendant que les élus se disputent sur les questions de compétence, les écoles déploient des outils d’IA auprès de dizaines de millions d’enfants, souvent sans normes de sécurité, sans transparence et sans véritable compréhension adulte de la nature de ces systèmes.
Un rapport publié en octobre par le Center for Democracy and Technology indiquait que 85 % des enseignants et 86 % des élèves avaient utilisé l’IA durant l’année scolaire 2024‑2025, et que cette utilisation nuit à la capacité des élèves à développer des relations réellement significatives avec leurs professeurs.
Pourtant, des programmes présentés comme de la « littératie en IA » apparaissent, année après année, dans les classes de la maternelle à la terminale à travers tout le pays.
Des initiatives fédérales incitent les écoles à adopter des défis et des tuteurs spécialisés dans l’IA, et de nombreux districts scolaires, soucieux de ne pas être distancés, se saisissent de tous les outils qui se présentent.
Cette dynamique repose sur l’idée que les adultes comprennent suffisamment l’IA pour l’enseigner aux enfants.
Or la plupart des parents, des enseignants et même des responsables politiques nourrissent encore de profonds malentendus sur ce qu’est l’IA, sur son fonctionnement et sur les risques qu’elle comporte.
Ces erreurs ne sont pas superficielles : ce sont des angles morts structurels qui influencent l’ensemble du débat national.
Avant que l’Amérique n’aille plus loin dans l’intégration de l’IA dans les salles de classe, il est nécessaire d’affronter ces idées reçues avec lucidité.
Ce ne sont pas toutes les idées fausses qui circulent, mais ce sont les plus répandues, et elles façonnent déjà en silence les politiques publiques, l’éducation et la perception collective.

Idée reçue n° 1 : « L’IA n’est qu’un outil »

Beaucoup imaginent l’IA comme ils imaginent une voiture ou une calculatrice : une machine utile et prévisible, qui fait ce qu’on lui demande.
Mais un concepteur automobile sait exactement comment un volant va réagir, et une calculatrice ne peut ni générer de nouvelles idées, ni imiter les émotions humaines, ni produire de fausses informations avec un aplomb total.
L’IA est fondamentalement différente.
Elle apprend des schémas à partir d’énormes volumes de données et peut générer des idées, des arguments, des dissertations et un langage émotionnel sans la moindre compréhension de type humain.
La comparaison avec les inventions passées n’est pas pertinente.
Un constructeur automobile de 1900 comprenait la forme générale et les limites de ce qu’il créait, alors que les concepteurs actuels de systèmes d’IA reconnaissent ouvertement qu’ils ne comprennent pas entièrement comment ces modèles aboutissent à certains résultats et qu’ils ne peuvent pas en prévoir tous les modes de défaillance.
Ce n’est donc pas « juste un outil » : l’IA est un système aux comportements émergents.

Idée reçue n° 2 : « L’IA est neutre »

L’IA est entraînée sur d’immenses corpus de textes produits par des humains, et donc traversés de biais humains.
Lorsqu’un enfant interroge un système d’IA sur l’histoire, la morale ou la manière de gérer un conflit social, la réponse est façonnée par des profils statistiques dans les données, non par une vérité objective.
Cette illusion de neutralité est dangereuse.
Les enfants assimilent souvent un ton assuré à de la fiabilité, et lorsque le système se trompe, se montre biaisé ou incomplet, ils n’ont aucun moyen de le savoir – pas plus que, bien souvent, les adultes censés les guider.

Idée reçue n° 3 : « Les créateurs gardent le contrôle de l’IA »

Beaucoup partent du principe que, puisque des humains ont construit l’IA, des humains la contrôlent totalement.
Mais les systèmes d’IA ne fonctionnent pas avec du code écrit à la main au sens traditionnel du terme : leur comportement émerge de la phase d’entraînement, non d’instructions explicites.
Les développeurs peuvent infléchir la direction générale du système, mais sans la fiabilité à laquelle le public est habitué avec des logiciels programmés de façon classique.
Des garde‑fous peuvent limiter les risques, mais pas les supprimer, et même les entreprises qui construisent ces modèles décrivent régulièrement leurs réponses comme « imprévisibles ».
Si les adultes ne comprennent pas cela, ils ne peuvent ni apprendre aux enfants à utiliser ces systèmes en toute responsabilité, ni les réguler efficacement.

Idée reçue n° 4 : « Les experts savent où tout cela mène »

C’est peut‑être l’idée fausse la plus lourde de conséquences.
Dans la plupart des disciplines, les experts divergent à l’intérieur d’un spectre relativement limité, mais en matière d’IA, les meilleurs chercheurs défendent des positions extrêmement éloignées.
Certains affirment que l’IA contribuera à guérir des maladies.
D’autres – comme le prix Nobel Geoffrey Hinton, surnommé le « père de l’IA » – mettent en garde contre des risques existentiels.
Lorsque des scientifiques respectés estiment qu’il existe ne serait‑ce qu’une probabilité de 10 à 30 % de conséquences catastrophiques, cela ne signifie pas que le désastre est inévitable, mais que la trajectoire demeure inconnue.
On n’envisagerait jamais de construire un pont physique si l’on anticipait un taux de défaillance de 10 à 30 %, alors comment accepter d’implanter une technologie présentant un niveau de risque « catastrophique » comparable au cœur d’un système scolaire déjà sous tension ?

Idée reçue n° 5 : « Les enfants doivent utiliser l’IA tôt pour rester compétitifs »

Cet argument est omniprésent, mais il ne repose sur aucune preuve solide.
Les enfants n’ont pas besoin d’IA pour apprendre à penser : ils ont besoin de l’inverse.
Ils ont besoin d’un raisonnement lent, de mémoire, d’imagination, de comportements et de visages humains à imiter, ainsi que de l’expérience de l’apprentissage par l’effort et l’épreuve.
S’ils s’en remettent trop tôt à l’IA, ils externalisent précisément les fondations cognitives que l’éducation est censée construire.
L’IA fera peut‑être partie intégrante de la future économie, mais une dépendance précoce ne constitue pas une littératie.
Ces idées reçues sont déterminantes, car elles conditionnent les décisions prises aujourd’hui.
Des millions d’enfants utilisent déjà chaque jour des outils dopés à l’IA, les écoles entendent qu’il est impossible d’échapper à cette « préparation au futur » et les enseignants, déjà submergés, sont poussés à adopter des systèmes qu’ils comprennent à peine.
Dans le même temps, les responsables politiques se disputent pour savoir si les États doivent être autorisés à réguler l’IA.
Mais même la régulation ne suffira pas.
On peut piloter un avion sans exiger de chaque passager qu’il comprenne l’aérodynamique, mais l’IA est d’une autre nature.
Elle interagit avec la pensée des enfants, la construction de leur identité, leur rapport à la vérité et leur capacité à discerner le réel.
Elle façonne non seulement ce que les enfants savent, mais aussi, de manière fondamentale, la manière dont ils pensent.
Cela signifie que les adultes ont besoin de leur propre littératie en IA avant de prétendre la transmettre à la génération suivante.
Les adultes doivent comprendre que la littératie en IA ne consiste pas à « savoir utiliser un chatbot ».
La véritable littératie en IA, c’est comprendre :
  • Ce que l’IA est et ce qu’elle n’est pas
  • Où elle échoue
  • Pourquoi elle échoue
  • Comment elle façonne la pensée
  • Qui la contrôle
  • Ce que ses créateurs reconnaissent ignorer eux‑mêmes
Tant que les enseignants, les parents et les décideurs n’auront pas assimilé ces fondamentaux, l’IA à l’école restera une forme d’expérimentation, non d’éducation.
Les enfants ne devraient pas servir de cobayes dans une course nationale pour « ne pas se laisser distancer ».
Ils méritent mieux que des adultes qui prétendent comprendre une technologie dont les experts eux-mêmes débattent encore.
Avant d’ancrer plus profondément l’IA dans les salles de classe, il faut marquer une pause et corriger les idées fausses qui orientent nos choix.
Ce n’est que lorsque les adultes comprendront vraiment ce qu’est l’IA, ce qu’elle n’est pas et ce qu’elle pourrait devenir, que l’on pourra décider en conscience de la place que cette technologie doit prendre dans la vie des enfants qu’ils ont la responsabilité de protéger.

Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement celles d’Epoch Times.

Kay Rubacek est une réalisatrice primée, une auteure, une conférencière et une ancienne animatrice de l'émission "Life & Times" sur NTD. Après avoir été détenue dans une prison chinoise pour avoir défendu les droits de l'homme, elle a consacré son travail à la lutte contre les régimes communistes et socialistes sous leurs formes modernes et globales. Elle collabore également avec Epoch Times depuis 2010.

Articles actuels de l’auteur