Logo Epoch Times

Opinion

plus-icon

Le vide intérieur : pourquoi les grands modèles de langage sont incapables de penser - et ne le seront jamais

L’engouement pour les systèmes d’IA modernes fondés sur de grands modèles de langage, présentés comme au seuil de la « vraie intelligence », confond la simple fluidité de langage avec la pensée.

top-article-image

Des participants à la Journée de l’intelligence artificielle (IA) d’Intel se tiennent devant une affiche lors de l’événement dans la ville indienne de Bangalore, le 4 avril 2017.

Photo: MANJUNATH KIRAN/AFP via Getty Images

author-image
Partager un article

Durée de lecture: 9 Min.

Les premières tentatives d’intelligence artificielle (IA) ont été ridiculisées pour leurs réponses à la fois assurées, fausses et souvent surréalistes – l’équivalent intellectuel de demander à un perroquet ivre d’expliquer Kant. Mais les systèmes modernes d’IA fondés sur de grands modèles de langage (LLMs) sont désormais si léchés, si articulés et étrangement compétents dans la génération de réponses que beaucoup en viennent à supposer qu’ils peuvent savoir et, mieux encore, raisonner de manière autonome pour parvenir à ce savoir.
Cette confiance est mal placée. Les LLMs comme ChatGPT ou Grok ne pensent pas. Ce sont des moteurs d’autocomplétion survitaminés. Vous tapez une invite ; ils prédisent le mot suivant, puis le suivant, uniquement à partir de motifs statistiquement repérés dans les milliers de milliards de mots sur lesquels ils ont été entraînés. Aucune règle, aucune logique – juste du pari statistique déguisé en conversation. En conséquence, les LLMs n’ont aucune idée de savoir si une phrase est vraie, fausse ou même raisonnable ; ils « savent » seulement si elle ressemble aux phrases déjà vues. C’est pourquoi ils inventent souvent avec aplomb des éléments de toutes pièces : des affaires judiciaires, des événements historiques ou des explications de physique qui relèvent de la pure fiction. Le monde de l’IA appelle ces productions des « hallucinations ».
Mais comme le discours des LLMs est fluide, les utilisateurs projettent spontanément sur le modèle une forme d’auto‑compréhension, enclenchant les mêmes « circuits de confiance » humains que ceux mobilisés pour détecter l’intelligence. C’est pourtant un raisonnement fallacieux, un peu comme entendre quelqu’un parler un français parfait et en conclure qu’il doit aussi être un excellent juge en vin, en mode et en philosophie. Nous confondons le style avec le fond et nous anthropomorphisons le locuteur. Cela nous pousse alors vers deux récits mythiques :

Mythe 1 : « Si l’on se contente de faire monter les modèles en puissance et de leur donner plus de “jus”, le véritable raisonnement finira bien par émerger. »

Des LLMs plus gros deviennent effectivement plus fluides et plus impressionnants. Mais leur tour de force central – la prédiction de mots – ne change jamais. Cela reste de la mimésis, pas de la compréhension. On suppose que l’intelligence va surgir comme par magie de la quantité, comme si le fait d’agrandir des pneus et de les faire tourner plus vite allait finir par faire voler une voiture. Or l’obstacle est architectural, non scalaire : on peut rendre l’imitation plus convaincante (faire « sauter » une voiture sur une rampe), mais on ne transforme pas un prédicteur de motifs en chercheur de vérité simplement en le grossissant. On obtient seulement un meilleur camouflage et, comme l’ont montré certaines études, même moins de fidélité aux faits.

Mythe 2 : « Peu importe comment l’IA s’y prend. Du moment qu’elle produit la vérité, c’est tout ce qui compte. En dernier ressort, la réalité tranche – alors faites avec ! »

Ce mythe est particulièrement dangereux, car il piétine l’épistémologie avec de lourdes bottes de béton. Il revient à prétendre que la fiabilité apparente des connaissances triviales délivrées par les LLMs justifierait qu’on fasse confiance aux méthodes opaques par lesquelles elles sont obtenues. Or la vérité obéit à des règles. Une conclusion ne devient épistémiquement digne de confiance que si elle est atteinte soit : 1) par un raisonnement déductif (des conclusions qui doivent être vraies si les prémisses sont vraies) ; soit 2) par une vérification empirique (des observations du monde réel qui confirment ou infirment les affirmations).
Les LLMs ne font ni l’un ni l’autre. Ils ne peuvent pas déduire, parce que leur architecture n’implémente aucune inférence logique. Ils ne manipulent pas des prémisses pour en tirer des conclusions et demeurent aveugles à la causalité. Ils ne peuvent pas davantage vérifier empiriquement quoi que ce soit, car ils n’ont aucun accès direct à la réalité : ils ne peuvent ni consulter la météo ni observer des interactions sociales.
Pour tenter de contourner ces obstacles structurels, les concepteurs d’IA greffent au système de LLMs des outils externes comme des calculateurs, des bases de données ou des mécanismes de recherche d’information. Ces dispositifs, censés favoriser la quête de vérité, améliorent les résultats sans pour autant corriger l’architecture sous‑jacente.
Les vendeurs de « voitures volantes », qui se rengorgent de performances comme des scores de tests de QI, soutiennent que les LLMs d’aujourd’hui manifestent une intelligence surhumaine. En réalité, les tests de QI appliqués aux LLMs violent toutes les règles en vigueur pour la passation de tests d’intelligence, et ils mesurent davantage les talents humains d’ingénierie de prompts que l’intelligence réelle des machines.
Les efforts visant à rendre les LLMs « chercheurs de vérité » en les conditionnant pour qu’ils s’alignent sur les préférences de leurs entraîneurs via des mécanismes comme le RLHF passent à côté de l’essentiel. Ces tentatives de corriger les biais ne font que faire onduler une structure qui ne peut de toute façon pas porter de raisonnement authentique. Cela se manifeste régulièrement par des ratés comme les rodomontades de MechaHitler dans Grok, le modèle d’xAI, ou comme la tendance de Google Gemini à représenter les Pères fondateurs de l’Amérique sous les traits d’une galerie de messieurs « racisés ».
D’autres approches existent toutefois, qui cherchent à élaborer une architecture d’IA permettant une pensée authentique :
  • IA symbolique : recourt à des règles logiques explicites, très performante sur des problèmes bien définis, faible face à l’ambiguïté ;
  • IA causale : apprend les relations de cause à effet et peut répondre à des questions du type « que se passerait‑il si… » ;
  • IA neuro‑symbolique : combine la prédiction neuronale et le raisonnement logique ;
  • IA agentique : agit avec un objectif en tête, reçoit un retour d’expérience et s’améliore par essais et erreurs.
Malheureusement, les progrès actuels en IA reposent presque entièrement sur le passage à l’échelle des LLMs. Les approches alternatives reçoivent, elles, beaucoup moins de financements et d’attention – la bonne vieille loi du « suis l’argent ». Pendant ce temps, la forme d’« IA » la plus bruyante dans la pièce n’est guère plus qu’un perroquet hors de prix.
Les LLMs n’en demeurent pas moins des prouesses d’ingénierie stupéfiantes et des outils remarquables, utiles pour de nombreuses tâches. Il sera largement question de leurs usages dans une prochaine chronique. L’essentiel, pour les utilisateurs, est de garder à l’esprit que tous les LLMs sont, et resteront toujours, des moteurs de motifs linguistiques, non des agents épistémiques.
L’idée selon laquelle les LLMs seraient au bord de la « vraie intelligence » confond une fois encore fluidité de langage et pensée. La pensée véritable suppose une compréhension du monde physique, une mémoire persistante, des capacités de raisonnement et de planification que les LLMs ne prennent en charge que de façon très rudimentaire, voire pas du tout – un fait de conception non controversé parmi les spécialistes de l’IA.
Il faut traiter les LLMs comme des outils utiles, stimulants pour la réflexion, et jamais comme des sources dignes de confiance. Et il est temps d’arrêter d’attendre que le perroquet se mette à faire de la philosophie. Cela n’arrivera tout simplement jamais.
La version originale, intégrale de cet article a été récemment publiée comme première partie d’une série en deux volets dans le C2C Journal. La deuxième partie est disponible ici.

Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement celles d’Epoch Times.

Gleb Lisikh est un professionnel de la gestion informatique et père de trois enfants. Il a grandi dans diverses régions de l'Union soviétique avant de venir s'installer au Canada.

Articles actuels de l’auteur