50.000 personnes ont signé une lettre appelant à une pause dans l’avancement de l’IA, selon une organisation à but non lucratif

Par Petr Svab
2 avril 2023 19:18 Mis à jour: 2 avril 2023 19:18

Une récente lettre ouverte appelant à une pause dans les progrès de l’intelligence artificielle a été signée par plus de 50.000 personnes, dont plus de 1800 PDG et plus de 1500 professeurs, selon l’organisation à but non lucratif qui l’a publiée.

« La réaction a été intense », peut-on lire sur le site web du Future of Life Institute (FLI), une organisation à but non lucratif qui cherche à atténuer les risques technologiques à grande échelle.

« Nous pensons qu’elle a permis d’exprimer un vaste courant d’inquiétude concernant les risques liés aux systèmes d’IA de grande puissance, non seulement au niveau du public, mais aussi des chercheurs de haut niveau en IA et dans d’autres domaines, des chefs d’entreprise et des décideurs politiques ».

Quelques personnalités ont ajouté leur nom sous la lettre, notamment Elon Musk, fondateur de Tesla et SpaceX, l’inventeur des réseaux neuronaux associatifs John Hopfield, ainsi que Yoshua Bengio, directeur scientifique de l’Institut des algorithmes d’apprentissage de Montréal, et Stuart Russell, professeur et chercheur en IA à l’Université de Californie, Berkeley.

La lettre mentionne que « les systèmes d’IA dotés d’une intelligence compétitive avec l’homme peuvent présenter des risques profonds pour la société et l’humanité » et qu’ils devraient être développés avec suffisamment de soin et de prévoyance.

« Malheureusement, ce niveau de planification et de gestion n’existe pas. Même si on a vu ces derniers mois les laboratoires d’IA en proie à une course incontrôlée pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable », indique le rapport. Il demande aux développeurs d’IA d’interrompre la « formation » de systèmes d’IA plus avancés que le GPT-4 récemment lancé par l’OpenAI.

« Si une telle pause ne peut pas être mise en place rapidement, les gouvernements devraient intervenir et instituer un moratoire. » La recherche ne doit pas s’arrêter, mais plutôt s’éloigner « de la course dangereuse vers des modèles de boîte noire imprévisibles de plus en plus grands et dotés de capacités émergentes », peut-on lire dans la lettre.

« La recherche et le développement dans le domaine de l’IA devraient être recentrés sur l’amélioration de la précision, de la sécurité, de l’interprétabilité, de la transparence, de la robustesse, de l’alignement, de la fiabilité et de la loyauté des systèmes puissants et modernes d’aujourd’hui.

La page web de la lettre affichait quelque 2200 signatures dans l’après-midi du 31 mars. De nombreux signataires ne se sont pas identifiés comme des experts dans le domaine de l’IA. La FLI a indiqué qu’elle avait ralenti l’ajout de nouveaux noms à la liste afin de pouvoir les vérifier.

Les dirigeants des principaux développeurs d’IA, qu’il s’agisse de DeepMind (Alphabet), d’OpenAI (ChatGPT) ou d’autres grands acteurs tels que Meta, Amazon et Microsoft, ne figurent pas sur la liste. Il manque également la quasi-totalité des responsables des meilleurs départements de recherche sur l’IA des universités.

On ignore si l’une de ces personnes fait partie des milliers de signatures qui n’ont pas encore été ajoutées à la liste. FLI n’a pas répondu aux questions envoyées par courrier électronique.

Le 31 mars, sur une page de la FAQ, l’organisation à but non lucratif a reconnu qu’au départ, certaines signatures de la lettre étaient fausses. « Certaines personnes ont été ajoutées de manière incorrecte et malveillante à la liste avant que nous ne soyons prêts à la publier à grande échelle », peut-on lire sur cette page. « Nous avons maintenant amélioré notre processus et tous les signataires qui apparaissent en haut de la liste sont authentiques.

La page compare l’appel à une pause dans les progrès de l’IA à la conférence d’Asilomar sur l’ADN recombinant, qui s’est tenue en 1975. « La conférence a permis à d’éminents scientifiques et à des experts gouvernementaux d’interdire certaines expériences et de concevoir des règles permettant aux acteurs de mener des recherches en toute sécurité sur cette technologie, ce qui a conduit à des progrès considérables dans le domaine de la biotechnologie. »

« Parfois, le fait de prendre du recul pour réévaluer les choses peut favoriser la confiance entre les scientifiques et les sociétés dans lesquelles ils opèrent et, par la suite, accélérer les progrès. »

Les préoccupations d’Elon Musk en matière d’IA

Elon Musk s’exprime depuis longtemps sur les dangers posés par l’IA avancée. Lors d’entretiens précédents, il a déclaré qu’à mesure que l’IA se développe, il est probable qu’elle surpasse de loin l’intelligence humaine. À ce stade, même si elle s’avère bienveillante, elle pourrait traiter les humains comme une forme de vie inférieure.

« Nous serons comme le chat domestique », a-t-il déclaré lors de la Recode’s Code Conference en 2016.

En 2015, Elon Musk a cofondé OpenAI, mais n’y est plus associé. Il a récemment déclaré que certaines de ses actions avaient peut-être exacerbé le problème de l’IA.

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.