Péripéties au sein d’OpenAI et inquiétudes bien réelles au sujet de l’Intelligence Artificielle

Par Anthony Furey
27 novembre 2023 09:18 Mis à jour: 27 novembre 2023 09:37

Nous sommes régulièrement mis en garde contre les dangers que représente l’intelligence artificielle (IA). Cette fois il s’agit de l’intrigue sous-jacente du drame récent qui entoure OpenAI et son ancien PDG Sam Altman. On ne sait pas encore comment la société va réagir à ces avertissements. Mais une chose est sûre : nous devons en tenir compte.

Il est bien possible que le prochain événement auquel nous devrons faire face puisse être en relation avec l’intelligence artificielle. Ces événements inattendus de grande ampleur entraînent des conséquences majeures. L’effondrement des prêts hypothécaires à risque en 2008, les attentats du 11 septembre et le Covid-19 en sont des exemples.

Lorsque vous êtes au milieu de ces épreuves, vous pensez qu’il n’y a pas de limite à la détérioration de la situation. La société s’en remet toujours, à l’exception de ceux qui ont tout perdu tragiquement. Mais on craint toujours que le prochain événement soit pire — plus important, plus meurtrier, plus long, voire qu’il modifie considérablement l’humanité ou qu’il mette fin à notre espèce.

Mon livre de 2017 Attaque électromagnétique : La véritable histoire derrière l’arme secrète qui peut détruire l’Amérique du Nord (Pulse Attack : The Real Story Behind the Secret Weapon that Can Destroy North America) détaillait l’un de ces événements possibles. J’y ai décrit comment notre civilisation de plus en plus dépendante de l’électronique ne tient qu’à un fil compte tenu des vulnérabilités de notre réseau électrique. Si elles ne sont pas maîtrisées, cela pourrait entraîner de longues pannes d’électricité pendant des semaines, des mois, voire des années, qui changeraient fondamentalement nos vies.

Une éruption solaire naturelle pourrait ainsi griller notre réseau électrique, comme cela s’est produit au 19e siècle, mais, comme nous avions très peu d’appareils électroniques, notre vie quotidienne ne s’en est pas trouvée perturbée. Une attaque menée par un autre pays ou un groupe terroriste pourrait également en être la cause, soit en bombardant massivement nos postes de transformation, soit en orchestrant une attaque généralisée par impulsions électromagnétiques.

Tout cela ressemble à de la science-fiction ou à un jeu vidéo. C’est également peu probable. Mais c’est possible. C’est pourquoi j’ai conclu que nous devions investir dans des systèmes de résilience du réseau pour nous protéger. Depuis lors, certains organismes de réglementation ont commencé à prendre ces questions plus au sérieux en menant des études, en élaborant des politiques et en procédant à des rénovations.

Les craintes que suscite l’IA dans les pires scénarios semblent également excessives, mais certaines personnes très en vue et crédibles nous invitent à les prendre au sérieux. Nous serions bien avisés de les écouter.

Au début de l’année, au mois de mars, plus de 1000 dirigeants de la communauté technologique ont signé une lettre ouverte mettant en garde contre l’IA et réclamant une pause au développement de ses composants les plus avancés. Ils ont évoqué les « risques profonds pour la société et l’humanité » comme source d’inquiétude.

La lettre a été publiée par le Future of Life Institute et parmi les signataires figuraient Elon Musk et le cofondateur d’Apple, Steve Wozniak.

La lettre ajoute que les développeurs d’IA sont « enfermés dans une course incontrôlée pour développer et déployer des « esprits » numériques toujours plus puissants, que personne — pas même leurs créateurs — ne peut comprendre, prédire ou contrôler en toute fiabilité ».

Ces préoccupations ont joué un rôle dans l’éviction très médiatisée de Sam Altman d’OpenAI le 17 novembre. M. Altman a réintégré l’entreprise quelques jours plus tard, sous un conseil d’administration différent de celui qui l’avait évincé.

Selon le Washington Post, ce licenciement est le résultat d’une « lutte de pouvoir » entre M. Altman, désireux de poursuivre la commercialisation de l’IA, et les membres du conseil d’administration préoccupés par la sécurité de cette technologie. Cette situation, selon le Post, « reflète un clivage plus large dans le monde de l’IA avancée, où la course pour dominer le marché s’est accompagnée d’un mouvement quasi religieux destiné à empêcher l’IA d’évoluer au-delà du contrôle humain ».

Le « véritable problème de sécurité » que certains membres du conseil d’administration auraient eu avec M. Altman est le suivant : il aurait omis d’expliquer comment il collectait des fonds auprès de certains régimes du Moyen-Orient qui pourraient potentiellement utiliser la technologie OpenAI pour exercer une surveillance de masse et commettre des atteintes aux droits de l’homme.

En réponse au développement des événements, Elon Musk a posté sur les médias sociaux que « compte tenu du risque et de la puissance de l’IA de pointe, le public devrait être informé des raisons qui ont poussé le conseil d’administration [d’ OpenAI] à prendre des mesures aussi draconiennes ».

En d’autres termes, Elon Musk souhaite que nous réfléchissions tous  davantage aux dangers inhérents à cette question.

Il a raison. Nous devrions le faire. Les dangers supposés de l’IA peuvent sembler très exagérés. Mais ce n’est certainement pas ce que nous dirons si l’un d’entre eux se concrétise.

Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement celles d’Epoch Times.

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.