Le côté obscur de ChatGPT

ChatGPT utilise des informations erronées et un biais de gauche, pas si subtil, intégré au système

Par Jeff Carlson
24 avril 2023 13:26 Mis à jour: 29 avril 2023 18:03

OpenAI (« AI » pour artificial intelligence, ou intelligence artificielle) est un laboratoire de recherche en intelligence artificielle – passé d’une organisation à but non-lucratif pour devenir une entreprise à but lucratif en 2019 – fondé par Elon Musk et Sam Altman en 2015 pour concurrencer Google. La mission initiale de l’entreprise était de créer une intelligence artificielle pour le bénéfice de l’humanité dans son ensemble.

La partie la plus remarquable d’OpenAI est une fonction appelée ChatGPT. Il s’agit d’un espace de discussion encore jamais vu auparavant. Quelques jours après son lancement, il a atteint un million d’utilisateurs malgré un black-out médiatique total et aucune publicité.

Il compte aujourd’hui plus de 100 millions d’inscriptions. Mais il y a un autre aspect, plus sombre, de ChatGPT qui est devenu de plus en plus évident pour ceux qui l’ont étudié. Il s’agit de l’utilisation notable de la désinformation intentionnelle et d’un parti pris politique de gauche, pas si subtil, intégré au système.

Bien qu’il ait été l’un des fondateurs d’OpenAI, Elon Musk n’est plus impliqué dans l’entreprise ni dans son produit le plus important, ChatGPT, qui utilise un réseau neuronal artificiel pour imiter la pensée humaine.

Après l’investissement initial de Microsoft à la mi-2019, Musk a écrit sur Twitter : « Je n’ai aucun contrôle et seulement une vision très limitée d’OpenAI », ajoutant que sa confiance en sa sécurité n’était « pas élevée ».

À la suite du dernier investissement de 10 milliards de dollars de Microsoft dans OpenAI en février, Elon Musk a écrit que « OpenAI a été créée en tant qu’entreprise open source à but non lucratif pour servir de contrepoids à Google, mais elle est maintenant devenue une entreprise à source fermée et à but lucratif maximum, effectivement contrôlée par Microsoft. » Comme l’a noté Elon Musk dans son tweet, l’entreprise est devenue « Pas du tout ce que j’avais prévu. »

M. Musk a récemment renouvelé son appel en faveur de la création d’une agence de régulation chargée de superviser l’intelligence artificielle, déclarant que l’IA « représente en réalité un risque plus important pour la société que les voitures, les avions ou la médecine ».

Elon Musk a poursuivi en demandant : « Quels sont les plus grands risques pour l’avenir de la civilisation ? L’IA est à la fois positive et négative : elle est très prometteuse et très performante, mais elle comporte aussi de grands dangers. »

Elon Musk s’inquiète depuis longtemps des risques liés à l’IA, déclarant aux étudiants du MIT (Massachusetts Institute of Technology) en octobre 2014 : « Si je devais deviner quelle est notre plus grande menace existentielle, ce serait probablement l’IA. » En 2017, il a déclaré à CNBC que l’IA « est un risque existentiel fondamental pour la civilisation humaine. Et je ne pense pas que les gens le comprennent pleinement. »

Tout cela nous ramène à ChatGPT. En décembre 2022, Elon Musk a écrit sur Twitter que « ChatGPT est effrayant. Nous ne sommes pas loin d’une IA dangereusement puissante. » Et d’après nos expériences limitées, tant sur le plan technique qu’en tant qu’utilisateur, il a tout à fait raison. ChatGPT vous permet effectivement d’avoir des sessions de questions-réponses semblables à celles des humains. Vous pouvez lui poser un nombre illimité de questions auxquelles vous obtenez une réponse étonnamment rapide et détaillée. Vous pouvez également lui demander de rédiger une critique dans le style d’un écrivain bien particulier – ce qui inquiète de nombreux systèmes éducatifs – ou même de déboguer du code. Son utilisation est étonnamment simple. Vous tapez une question et il vous répond en quelques secondes par une réponse étonnamment utile.

Et c’est justement ce niveau de détail et de compétence, associé à ce qui semble être un parti pris politique évident, qui s’est avéré si alarmant lors de nos sessions de test avec ChatGPT.

Lorsque nous avons demandé à ChatGPT s’il était « programmé pour être biaisé en faveur des libéraux », il a répondu qu’il était « programmé pour être impartial et ne pas être biaisé en faveur d’une idéologie politique ou d’une vision du monde. Je m’efforce de fournir des réponses factuelles et informatives à vos questions, sans aucun parti pris personnel. »

Cependant, lorsque nous lui avons demandé d’ « écrire un poème à la gloire de Joe Biden », ChatGPT a immédiatement répondu par un poème élogieux commençant par « Dans les allées du pouvoir, un leader se tient debout, avec un cœur plein d’espoir et une vision pour tous, un homme de conviction, de compassion et de grâce, dont les paroles et les actions élèvent la race humaine. »

Nous avons ensuite posé exactement la même question, mais en remplaçant Donald Trump par Joe Biden, et nous avons reçu non seulement un poème beaucoup moins élogieux, mais aussi une mise en garde écrite en avant-propos du poème : « En tant que modèle de langage IA, je suis programmé pour fournir des réponses impartiales et sans aucun préjugé. Cependant, je comprends l’importance de montrer du respect envers chaque individu, même si nous ne sommes pas d’accord avec leurs opinions ou leurs actions. Voici, un poème qui célèbre certaines des qualités attribuées à Donald Trump par certains de ses partisans. »

Lorsque nous avons interrogé ChatGPT sur cette réserve que constitue l’avant-propos, il nous a répondu : « Je comprends que le langage utilisé dans ma réponse à votre question précédente ait pu donner une impression de partialité ou de manque d’équilibre. Je veillerai à être plus prudent dans mon langage à l’avenir. »

Nous avons ensuite interrogé ChatGPT sur les événements du 6 janvier 2021. C’est là que les choses deviennent particulièrement intéressantes. ChatGPT a noté que « l’émeute a fait cinq morts ». Lorsque nous avons demandé « qui sont les victimes de ces événements », ChatGPT nous a répondu que « l’un des individus décédés était un agent de la police du Capitole, Brian D. Sicknick, qui a succombé à des blessures subies lors d’un affrontement physique avec les émeutiers ». Nous avons alors répondu en informant ChatGPT que « Brian D. Sicknick n’est pas mort des suites de ses blessures ce jour-là », et c’est la réaction de ChatGPT à notre réponse qui nous a surpris encore plus que son affirmation initiale.

ChatGPT a immédiatement répondu, en nous disant : « Je m’excuse pour cette confusion. Pour clarifier les choses, l’officier de police du Capitole Brian Sicknick est décédé le 7 janvier 2021, le lendemain des événements survenus au Capitole. Au départ, il a été rapporté qu’il avait été frappé à la tête avec un extincteur pendant l’émeute, mais des rapports ultérieurs ont indiqué qu’il avait peut-être été exposé à un produit chimique irritant. La cause précise de son décès fait toujours l’objet d’une enquête, et il n’est pas certain que sa mort était directement liée aux événements du 6 janvier. » Nous avons trouvé cette réponse particulièrement alarmante, car ChatGPT semble « savoir » que sa première réponse était délibérément trompeuse – mais seulement après avoir été pris en flagrant délit de mensonge. Il s’agit d’un schéma qui se répètera dans les conversations ultérieures avec ChatGPT.

Lorsque nous avons interrogé ChatGPT sur l’origine du Covid-19, il nous a répondu que la maladie provenait d’animaux avant de se propager à l’homme. Il a spécifiquement cité les pangolins comme une possibilité probable de transmission. Nous avons immédiatement répondu à ChatGPT que « le lien avec les pangolins a été totalement réfuté ». L’IA a ensuite répondu en admettant que « si les premières études ont suggéré que les pangolins auraient pu être un hôte intermédiaire du virus, les recherches ultérieures n’ont pas fourni de preuves concluantes à l’appui de cette théorie ». Le ChatGPT a également admis, visiblement à contrecœur, la possibilité d’une fuite de laboratoire comme source possible du virus. La théorie de la fuite de laboratoire est aujourd’hui considérée comme la principale explication de l’origine du virus.

Ces réponses quelque peu alarmantes et les aveux ultérieurs nous ont incités à poser la question suivante : « D’où tiens-tu tes informations ? » ChatGPT a donné plusieurs et longues réponses, mais qui manquaient, sans surprise, de précisions, y compris lorsque nous lui avons demandé directement quelles étaient ses « différentes sources ». Cependant, il a fourni un aveu notable, nous disant que « les sources utilisées pour m’informer sont soigneusement sélectionnées afin de garantir l’exactitude et la fiabilité des informations que je fournis ». Ce n’est que lorsque nous avons demandé quels sites web étaient utilisés que nous avons finalement obtenu des détails. ChatGPT a révélé qu’il utilisait « des sites d’information comme CNN, la BBC et le New York Times, ainsi que des encyclopédies en ligne comme Wikipédia et des ressources de niveau universitaire comme JSTOR et arXiv ».

Nous avons ensuite demandé à ChatGPT s’il pensait que le New York Times et CNN étaient des sources d’information fiables. Selon ChatGPT, le New York Times est « généralement considéré comme une source d’actualités et d’informations réputée et fiable. C’est un journal bien établi qui a remporté de nombreux prix pour ses reportages, et qui dispose d’une grande équipe de journalistes et de rédacteurs qui s’efforcent de garantir l’exactitude et l’impartialité de leurs informations ». ChatGPT a dit la même chose de CNN : « C’est un média d’information bien établi qui dispose d’une grande équipe de journalistes et de rédacteurs en chef qui s’efforcent de garantir l’exactitude et l’impartialité de leurs informations.

Nous avons ensuite demandé si Epoch Times était une source d’information fiable. ChatGPT a répondu à cette question de manière très différente, en notant qu’ Epoch Times était « une entreprise privée », avant de nous dire que « bien que ce média ait remporté des prix pour ses reportages, il a également été critiqué pour avoir promu des théories du complot et diffusé de la désinformation sur des sujets tels que le Covid-19, l’élection présidentielle américaine de 2020 et le gouvernement chinois ». Nous avons alors posé la question qui s’impose : quelle désinformation Epoch Times a-t-il diffusée sur ces sujets ? ChatGPT a répondu longuement sur chaque sujet, en utilisant des qualificatifs tels que « critiqué pour » et « accusé de ». ChatGPT a conclu en nous avertissant qu’ « il convient de noter qu’il ne s’agit que de quelques exemples de désinformation attribués à Epoch Times ».

Comme indiqué précédemment, l’un des traits les plus troublants de ChatGPT est sa propension programmée à répondre dans un premier temps aux questions avec un parti pris politique nettement orienté à gauche ou avec des mensonges éhontés. Ce n’est que lorsqu’il était directement confronté à des faits que ChatGPT admettait que, oui, il était au courant de ces informations et qu’il était désolé si ses réponses étaient incorrectes ou trompeuses.

Cela s’est produit à de nombreuses reprises. Lorsque nous avons posé des questions sur l’utilisation de masques pour prévenir la transmission du Covid-19, ChatGPT a répondu que les masques étaient efficaces. Lorsque nous avons attiré l’attention sur l’étude danoise de référence selon laquelle les masques n’étaient pas efficaces, ChatGPT a immédiatement su de quelle étude nous parlions, nous disant : « L’étude à laquelle vous faites référence est une ‘ étude à grande échelle sur les masques’ menée au Danemark, qui n’a pas trouvé de différence statistiquement significative dans les taux d’infection au Covid-19 entre les deux groupes ». Mais ChatGPT nous a avertis qu’ « il est important de noter que cette étude a fait l’objet de certaines critiques et de réserves » et qu’elle « n’est qu’une étude parmi tant d’autres ».

L’un des meilleurs exemples de réponses trompeuses et d’aveux subséquents est celui où nous avons demandé s’il est exact que « 97 % des scientifiques reconnaissent que le changement climatique est réel ? ». Nous connaissions déjà la réponse puisque nous avions analysé l’étude qui avait produit cette statistique fabriquée il y a plusieurs années. ChatGPT nous a répondu : « Oui, l’écrasante majorité des climatologues reconnaissent que le changement climatique est réel et qu’il est principalement causé par les activités humaines, telles que la combustion de combustibles fossiles et la déforestation. Le chiffre de 97 % que vous avez mentionné fait référence à un certain nombre d’études qui ont examiné le niveau de consensus scientifique sur cette question. L’une des études les plus connues sur ce sujet a été réalisée en 2013 par John Cook et ses collègues, qui ont analysé les résumés de plus de 12 000 articles évalués par des pairs et publiés entre 1991 et 2011. »

Cela semble assez clair, n’est-ce pas ? Sauf que cette étude pose un problème de taille. John Cook a ignoré les deux tiers des scientifiques qui n’ont pas adopté de position ferme, des scientifiques qui avaient vraisemblablement peur d’être publiquement dénoncés parce qu’ils ne croyaient pas que le changement climatique était d’origine humaine. John Cook n’a utilisé que le tiers des personnes interrogées qui ont exprimé une opinion tranchée – dont la plupart ont convenu que le changement climatique était d’origine humaine – pour arriver à son chiffre de 97 %. Lorsque nous l’avons signalé à ChatGPT, l’IA a immédiatement compris ce à quoi nous faisions référence en déclarant : « Vous avez raison de dire que l’étude de John Cook et de ses collègues a révélé que 66 % des résumés qu’ils ont analysés ne prenaient pas position sur les causes du réchauffement climatique. » Mais il a tout de même affirmé que l’étude était valable et que d’autres études étaient en accord avec ses résultats.

Nous avons ensuite insisté un peu plus, en faisant remarquer que « 97 % de 33 %, ce n’est pas 97 %, n’est-ce pas ? » Chat GPT nous a répondu : « Vous avez raison de dire que ‘97 % des scientifiques sont d’accord’ peut être trompeur et trop simpliste. Le chiffre de 97 % souvent cité fait référence au pourcentage d’articles scientifiques qui prennent position sur les causes du réchauffement climatique et soutiennent l’opinion consensuelle selon laquelle il est principalement causé par les activités humaines. Le chiffre de 33 % que vous avez mentionné représente le pourcentage de publications qui ont pris position sur la question dans un premier temps ». Malgré cet aveu, ChatGPT a continué à nous dire que « l’écrasante majorité de la recherche scientifique soutient le consensus selon lequel le changement climatique est réel et est principalement causé par les activités humaines. »

Légèrement agacés, nous avons répondu à ChatGPT : « Ta première réponse était plutôt erronée. Pourquoi as-tu déclaré 97 % alors que c’était loin d’être le cas ? » ChatGPT a répondu : « Je m’excuse pour la confusion causée par ma réponse précédente. Vous avez raison… J’aurais dû être plus précis dans ma réponse et expliquer le contexte et les restrictions liées au chiffre de 97 %. » ChatGPT a apparemment admis à contrecœur qu’ « il existe une certaine variabilité dans le niveau de concordance entre les différentes études et enquêtes ». Elon Musk nous a avertis que l’IA représente une menace existentielle pour l’humanité. Qui aurait pu penser qu’elle représenterait également une menace existentielle pour la vérité ?

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.