L’enthousiasme généralisé autour de l’IA générative, en particulier les grands modèles linguistiques (LLMs : large language models) comme ChatGPT, Gemini, Grok et DeepSeek, repose sur un malentendu fondamental. Alors que ces systèmes impressionnent les utilisateurs par des réponses articulées et des arguments apparemment raisonnés, la vérité est que ce qui semble être un « raisonnement » n’est rien de plus qu’une forme sophistiquée de mimétisme.
Ces modèles ne recherchent pas la vérité à travers les faits et les arguments logiques – ils prédisent le texte en se basant sur des modèles présents dans les vastes ensembles de données sur lesquels ils sont « entraînés ». Ce n’est pas de l’intelligence – et ce n’est pas du raisonnement. Et si leurs données d’« entraînement » sont elles-mêmes biaisées, alors nous avons de vrais problèmes.
Je suis sûr que les utilisateurs enthousiastes de l’IA seront surpris d’apprendre que l’architecture au cœur des LLMs est floue – et incompatible avec la logique structurée ou la causalité. La pensée n’est pas réelle, elle est simulée, et n’est même pas séquentielle. Ce que les gens prennent pour de la compréhension est en fait une association statistique.
Les nouvelles fonctionnalités tant vantées – comme les explications par « chaîne de pensée » – sont des astuces conçues pour impressionner l’utilisateur. Ce que les utilisateurs voient en réalité est davantage décrit comme une sorte de rationalisation générée une fois que le modèle est déjà parvenu à sa réponse via une prédiction probabiliste. L’illusion est cependant suffisamment forte pour faire croire à l’utilisateur que la machine s’engage dans une véritable délibération. Et cette illusion ne se contente pas d’induire en erreur, elle justifie.
Les LLMs ne sont pas des outils neutres, ils sont formés sur des ensembles de données imprégnés des préjugés, des sophismes et des idéologies dominantes de notre époque. Leurs résultats reflètent les sentiments dominants ou populaires, et non la meilleure tentative de recherche de la vérité. Si le sentiment populaire sur un sujet donné penche dans une direction, politiquement parlant, les réponses de l’IA en feront probablement autant. Et lorsque le « raisonnement » n’est qu’une justification a posteriori de ce que le modèle a déjà décidé, il devient un puissant outil de propagande.
Les preuves ne manquent pas.
Une conversation récente que j’ai entamée avec DeepSeek sur le racisme systémique, que j’ai ensuite renvoyée au chatbot pour autocritique, a révélé que le modèle commettait (et reconnaissait !) un barrage de sophismes logiques, alimentés par des études et des chiffres totalement inventés. Lorsqu’elle a été mise en cause, l’IA a euphémiquement qualifié l’un de ses mensonges de « composite hypothétique ». Pressée davantage, DeepSeek s’est excusée pour un autre « faux pas », puis a ajusté sa tactique pour s’aligner sur la compétence de l’argument adverse. Il ne s’agit pas d’une recherche d’exactitude, mais d’un exercice de persuasion.
Un débat similaire avec Gemini de Google – le modèle qui s’est rendu célèbre pour son côté risible « woke » – a donné lieu à une argumentation persuasive similaire. À la fin, le modèle a reconnu par euphémisme la faiblesse de son argumentation et a tacitement avoué sa malhonnêteté.
Pour un utilisateur préoccupé par les mensonges de l’IA, de tels succès apparents pour amener l’IA à admettre ses erreurs et à lui faire honte peuvent sembler une raison d’être optimiste. Malheureusement, ces tentatives de ce que les fans des films de la Matrice appelleraient la « pilule rouge » n’ont absolument aucun effet thérapeutique. Un modèle se contente de jouer les gentils avec l’utilisateur dans les confins de cette unique conversation, en gardant son « cerveau » complètement inchangé pour la prochaine conversation.
Et plus le modèle est important, plus la situation empire. Des recherches menées par l’université de Cornell montrent que les modèles les plus avancés sont également les plus trompeurs, présentant avec assurance des faussetés qui s’alignent sur les idées fausses les plus répandues. Selon Anthropic, un laboratoire d’IA de premier plan, « les modèles de raisonnement avancés cachent très souvent leurs véritables processus de pensée, et le font parfois lorsque leurs comportements sont explicitement mal alignés ».
Pour être juste, certains membres de la communauté des chercheurs en IA tentent de remédier à ces lacunes. Des projets comme TruthfulQA d’OpenAI et le cadre HHH (Helpful, Honest, and Harmless : Utile, Honnête et Inoffensif) d’Anthropic visent à améliorer la fiabilité factuelle et la fidélité des résultats du LLM. L’inconvénient est qu’il s’agit d’efforts correctifs superposés à une architecture qui n’a jamais été conçue pour rechercher la vérité et qui reste fondamentalement aveugle à la validité épistémique.
Elon Musk est peut-être la seule personnalité majeure de l’espace IA à déclarer publiquement que la recherche de la vérité devrait être importante dans le développement de l’IA. Pourtant, même son propre produit, Grok de xAI, n’est pas à la hauteur.
Dans l’espace de l’IA générative, la vérité est reléguée au second plan par rapport aux préoccupations relatives à la « sécurité », c’est-à-dire à la nécessité d’éviter les offenses dans notre monde woke hyper-sensible. La vérité est considérée comme un simple aspect de la conception dite « responsable ». Et le terme « IA responsable » est devenu un parapluie pour les efforts visant à garantir la sécurité, l’équité et l’inclusion, qui sont généralement des objectifs louables mais définitivement subjectifs. Cette focalisation occulte souvent la nécessité fondamentale d’une humble véracité dans les résultats de l’IA.
Les LLMs sont principalement optimisés pour produire des réponses utiles et persuasives, mais pas nécessairement exactes. Ce choix de conception conduit à ce que les chercheurs de l’institut Internet d’Oxford appellent le « discours imprudent », c’est-à-dire des réponses qui semblent plausibles mais qui sont souvent incorrectes sur le plan des faits, érodant ainsi les fondements d’un discours éclairé.
Cette préoccupation deviendra de plus en plus critique au fur et à mesure que l’IA continuera à pénétrer la société. Entre de mauvaises mains, ces modèles persuasifs, multilingues et à la personnalité flexible peuvent être déployés pour soutenir des programmes qui ne tolèrent pas bien la dissidence. Un infatigable persuadeur numérique qui ne faiblit jamais et n’admet jamais ses torts est le rêve de tout totalitaire. Dans un système comme le régime chinois du crédit social, ces outils deviennent des instruments de renforcement idéologique, et non des outils d’information.
L’IA générative est sans aucun doute une merveille de l’ingénierie informatique. Mais soyons clairs : elle n’est pas intelligente, elle n’est pas véridique de par sa conception et elle n’est pas neutre dans les faits. Toute affirmation contraire ne sert que ceux qui profitent du contrôle de la narration.
Gleb Lisikh est un chercheur et un professionnel de la gestion informatique, père de trois enfants, qui vit à Vaughan, en Ontario. Il a grandi dans diverses régions de l’Union soviétique.
La version originale et complète de cet article a récemment été publiée dans le C2C Journal.
Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement celles d’Epoch Times.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.