Elon Musk, Stephen Hawking et d’autres personnalités demandent l’interdiction des robots tueurs

30 juillet 2015 09:31 Mis à jour: 30 juillet 2015 12:21

 

Un groupe de chercheurs reconnus en intelligence artificielle (IA) exhortent la communauté internationale d’imposer des restrictions sur le développement des armes autonomes avant qu’il ne soit trop tard pour arrêter une « course aux armes IA ». Dans une lettre ouverte publiée par le Future of Life Institute (FLI) et signée par des sommités comme Elon Musk, Stephen Hawking, et Steve Wozniak, des chercheurs demandent aux Nations Unies de placer « une interdiction sur les armes offensives autonomes exemptes de tout contrôle humain ».

« Si une grande puissance militaire commence à se lancer dans le développement d’armes autonomes intelligentes, une course mondiale à l’armement est alors quasiment inévitable, » peut-on lire dans la lettre. « Les armes autonomes deviendront la kalachnikov de demain. Contrairement aux armes nucléaires, elles ne nécessitent pas de matières premières coûteuses ou difficiles à obtenir, de sorte qu’en production de masse, elles deviendront omniprésentes et bon marché pour toutes les puissances militaires significatives. »

Les armes autonomes sont idéales pour des tâches telles que les assassinats, déstabiliser des nations, soumettre des populations, et tuer sélectivement un groupe ethnique particulier

La lettre affirme que les bons côtés potentiels d’une guerre automatisée – surtout la diminution des victimes – seraient éclipsés par les maux qu’elle pourrait engendrer, comme rendre les pays plus enclins à déclencher des conflits.

Selon les chercheurs, « ce ne sera qu’une question de temps jusqu’à ce qu’elles apparaissent sur le marché noir et dans les mains de terroristes, de dictateurs qui souhaitent mieux contrôler leur population, de seigneurs de guerre qui souhaitent perpétrer une épuration ethnique, etc., » ajoutant que « les armes autonomes sont idéales pour des tâches telles que les assassinats, déstabiliser des nations, soumettre des populations, et tuer sélectivement un groupe ethnique particulier

La lettre fait partie d’une large campagne du Future of Life Institute (FLI) pour sensibiliser sur ce qu’elle perçoit comme le risque existentiel que l’intelligence artificielle pourrait poser à l’humanité. En début d’année, l’institut a alloué 6,4 millions d’euros de subventions à des chercheurs en Intelligence Artificielle pour réfléchir aux potentielles garanties nécessaires dans le cas d’un scénario du pire où les robots se rebelleraient contre l’homme.

D’importantes subventions ont été accordées à des projets qui traitent de la façon de créer un système éthique pour l’intelligence artificielle. Un certain nombre de chercheurs dans le domaine pensent que l’émergence d’une super intelligence dépassant l’humain est inévitable et est susceptible de se produire avant la fin du siècle.

Ce n’est pas si, mais quand
Pour ces chercheurs, la question principale est de savoir si l’émergence d’une super intelligence se déroulera dans une fenêtre de temps suffisamment longue pour que la race humaine puisse développer les contre-mesures nécessaires. Dans un hypothétique « décollage difficile », la création d’un programme qui peut de manière récursive s’auto-améliorer permettrait à l’IA de sauter du stade d’une intelligence inférieure à une intelligence supérieur à l’humain en quelques jours, trop vite pour permettre à l’homme de réagir.

Elon Musk, patron de Tesla automobile se joint à un nombre croissant de personnalités publiques qui réclament des garanties contre la menace de la machine

Nick Bostrom, chercheur à l’Université d’Oxford, a joué un rôle dans l’introduction de la plausibilité d’un tel scénario pour le grand public. Son best-seller de 2014 « La super intelligence: possibilités, dangers, stratégies » affirme que l’humanité a besoin de se préparer au scénario d’un « décollage difficile » – il ne prédit pas ce qu’il se passera, juste que nous devrions avoir un plan de secours –  tout de suite.

Le livre a convaincu le chef d’entreprise Elon Musk, dirigeant de la société Tesla automobile, qui a déclaré fin 2014 que l’IA était potentiellement plus dangereuse que les armes atomiques. Cette année, M. Musc a fait don de 9,1 millions d’euros au FLI, qui a accordé 1,4 million d’euros à M. Bostrom pour mettre en place un «centre commun de recherche Oxford-Cambridge» dans le but de faire des recommandations politiques pour les gouvernements, les leaders de l’industrie, et d’autres organisations, afin de minimiser le risque IA.

Elon Musk se joint à un nombre croissant de personnalités publiques qui réclament des garanties contre la menace de la machine. Le célèbre physicien Stephen Hawking organise quant à lui une session de questions-réponses consacrées spécifiquement aux dangers de l’IA sur le forum web communautaire Reddit.

Version originale : Elon Musk, Stephen Hawking, and Others Urge Ban on Killer Robots

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.