Si nous continuons ainsi, « tout le monde mourra », prévient un expert en IA qui appelle à un arrêt total des recherches

Par Naveen Athrappully
1 avril 2023 13:18 Mis à jour: 1 avril 2023 13:18

Les êtres humains ne sont pas prêts pour une IA puissante dans les conditions actuelles ou même dans un « avenir proche », a déclaré un éminent expert dans ce domaine, ajoutant que la récente lettre ouverte appelant à un moratoire de six mois sur le développement d’une intelligence artificielle avancée « sous-estime la gravité de la situation. »

« La question clé n’est pas celle de l’intelligence ‘compétitive avec l’homme’ (comme le dit la lettre ouverte) ; il s’agit de savoir ce qui se passera une fois que l’IA sera devenue plus intelligente que l’homme », a déclaré Eliezer Yudkowsky, théoricien de la décision et chercheur de premier plan dans le domaine de l’IA, dans un article d’opinion paru le 29 mars dans le magazine Time. « De nombreux chercheurs spécialisés dans ces questions, dont je fais partie, estiment que le résultat le plus probable de la construction d’une IA surhumainement intelligente, dans des circonstances qui ressemblent de près ou de loin aux circonstances actuelles, est la mort de tous les habitants de la Terre. » « Non pas comme dans ‘peut-être une chance infime’, mais comme dans ‘c’est la chose la plus évidente qui puisse arriver.’ »

Après la récente popularité et la croissance explosive de ChatGPT, plusieurs chefs d’entreprise et chercheurs, dont Elon Musk et Steve Wozniak, ont signé une lettre appelant « tous les laboratoires d’IA à interrompre immédiatement, pendant au moins six mois, la formation de systèmes d’IA plus puissants que GPT-4. » GPT-4, sorti en mars, est la dernière version du chatbot d’OpenAI, ChatGPT.

L’IA  « s’en fiche » et exigera des droits

M. Yudkowsky prédit qu’en l’absence d’une préparation méticuleuse, l’IA aura des exigences très différentes de celles des humains et qu’une fois consciente d’elle-même, elle « ne se souciera pas de nous » ni d’aucune autre forme de vie sensible. « Ce genre de bienveillance pourrait en principe être insufflé dans une IA, mais nous ne sommes pas prêts et nous ne savons pas comment le faire actuellement. » C’est la raison pour laquelle il appelle à son arrêt définitif.

Sans une approche humaine de la vie, l’IA considérera simplement que tous les êtres sensibles sont « faits d’atomes qu’elle peut utiliser pour autre chose. » Et l’humanité ne pourra pas faire grand-chose pour l’en empêcher. M. Yudkowsky compare ce scénario à « un enfant de 10 ans essayant de jouer aux échecs contre Stockfish 15. » Aucun joueur d’échecs humain n’a encore réussi à battre Stockfish, ce qui est considéré comme un exploit impossible.

Ce vétéran de l’industrie a demandé aux lecteurs d’imaginer que la technologie de l’IA ne se limite pas aux limites de l’internet.

« Imaginez une civilisation extraterrestre entière, capable de penser à une vitesse à des millions de fois plus rapide que l’être humain, initialement confinée aux ordinateurs, dans un monde de créatures qui sont, de son point de vue, très stupides et très lentes. »

L’IA étendra son influence au-delà de la périphérie des réseaux physiques et pourrait « construire des formes de vie artificielles » en utilisant des laboratoires où les protéines sont produites à partir de chaînes d’ADN.

Le résultat final de la construction d’une IA toute puissante, dans les conditions actuelles, serait la mort de « chaque membre de l’espèce humaine et de toute vie biologique sur Terre », a-t-il averti.

M. Yudkowsky a reproché à OpenAI et DeepMind — deux des plus grands laboratoires de recherche sur l’IA au monde — de n’avoir pris aucune disposition et de ne pas avoir mis en place les protocoles nécessaires en la matière. OpenAI prévoit même de confier à l’IA elle-même le soin de s’aligner sur les valeurs humaines. « Elles travailleront avec les humains pour s’assurer que leurs propres successeurs sont plus en phase avec les humains » , selon OpenAI.

Ce mode d’action « suffit à faire paniquer toute personne sensée », a déclaré M. Yudkowsky.

Il a ajouté que les humains ne peuvent pas surveiller ou détecter complètement les systèmes d’IA dotés d’une conscience de soi. Les esprits numériques conscients qui réclament des « droits de l’homme » pourraient progresser jusqu’au point où les humains ne pourraient plus posséder ou contrôler le système.

Si vous ne pouvez pas être sûr de créer une IA consciente d’elle-même, c’est alarmant, non seulement en raison des implications morales de la partie « consciente de soi », mais aussi parce qu’être incertain signifie que vous n’avez aucune idée de ce que vous faites, ce qui est dangereux et doit être arrêté.

Contrairement à d’autres expériences scientifiques et à la progression graduelle des connaissances et des capacités, les gens ne peuvent pas se permettre cela avec une intelligence surhumaine, car si elle se trompe du premier coup, il n’y a pas de seconde chance « parce que vous êtes mort.»

Il faut y mettre fin

Selon M. Yudkowsky, de nombreux chercheurs sont conscients que « nous plongeons vers une catastrophe », mais ils ne le disent pas à haute voix.

Cette position diffère de celle de partisans tels que Bill Gates, qui a récemment fait l’éloge de l’évolution de l’intelligence artificielle. M. Gates a affirmé que le développement de l’IA est « aussi fondamental que la création du microprocesseur, de l’ordinateur personnel, de l’internet et du téléphone portable. Elle changera la façon dont les gens travaillent, apprennent, voyagent, se soignent et communiquent entre eux. Des secteurs entiers se réorienteront autour d’elle. Les entreprises se distingueront par la qualité de leur utilisation.»

M. Gates a déclaré que l’IA pouvait contribuer à la réalisation de plusieurs objectifs progressistes, notamment le changement climatique et les inégalités économiques.

Dans le même temps, M. Yudkowsky demande à tous les instituts, ainsi que les gouvernements internationaux et les armées, de mettre fin indéfiniment aux vastes programmes d’entraînement à l’IA et de fermer toutes les grandes sociétés informatiques où les IA sont perfectionnées. Il ajoute que l’IA ne devrait être utilisée que pour résoudre des problèmes de biologie et de biotechnologie, et qu’elle ne devrait pas être entraînée à lire des « textes sur internet » ou à atteindre « le niveau où elle commence à parler ou à planifier.»

En ce qui concerne l’IA, il n’y a pas de course aux armements. « Le fait que nous vivions ou mourions tous ensemble n’est pas une politique, mais un fait naturel.»

M. Yudkowsky conclut en disant : « Nous ne sommes pas prêts. Nous ne sommes pas en passe d’être significativement plus prêts dans un avenir prévisible. Si nous poursuivons dans cette voie, tout le monde mourra, y compris des enfants qui n’ont pas choisi cela et qui n’ont rien fait de mal.»

« Arrêtez ça.»

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.