L’armée de l’air américaine nie qu’un drone contrôlé par l’IA a « tué » un opérateur humain lors d’un test simulé

Par Caden Pearson
6 juin 2023 16:37 Mis à jour: 6 juin 2023 16:37

Un colonel de l’armée de l’air américaine (USAF) a admis vendredi qu’il s’était « mal exprimé » lorsqu’il a annoncé lors d’une conférence à Londres qu’un drone doté d’une IA s’était mis en marche et avait « tué » son opérateur humain lors d’un test simulé. Cette déclaration intervient juste après que des articles sur sa présentation soient devenus viraux.

Le Colonel Tucker Hamilton, chef des tests et des opérations d’IA de l’USAF, a relaté un incident simulé lors du sommet sur les capacités aériennes et spatiales de combat futur qui s’est tenu à Londres.

La conférence, organisée par la Royal Aeronautical Society (RAS), a diffusé les conclusions de l’intervention du colonel Hamilton dans un article de blog.

Depuis que l’incident, désormais contesté, est devenu viral, le colonel Hamilton a contacté la RAS pour clarifier ses déclarations.

« Nous n’avons jamais réalisé cette expérience, et nous n’avions pas besoin de le faire pour nous rendre compte qu’il s’agissait d’un résultat plausible », a précisé le colonel Hamilton à la RAS.

Il a ajouté que l’armée de l’air n’avait jamais testé d’IA armée de cette manière, qu’elle soit réelle ou simulée.

« Bien qu’il s’agisse d’un exemple hypothétique, il illustre les défis réels posés par les capacités de l’IA et explique pourquoi l’armée de l’air s’est engagée à développer l’IA de manière éthique », a-t-il ajouté.

Le post, maintenant mis à jour avec la clarification de l’armée de l’air, décrit la présentation du colonel Hamilton, dans laquelle il aurait parlé de l’incident désormais contesté dans lequel un drone contrôlé par l’IA aurait détruit des cibles simulées afin d’obtenir des « points » dans le cadre de sa mission. Le colonel Hamilton aurait abordé les avantages et les risques associés à des systèmes d’armes plus autonomes.

Selon le post, le drone doté d’une IA s’est vu confier une mission de suppression des défenses aériennes ennemies (SEAD) consistant à identifier et à détruire des sites de missiles anti-aérien (SAM). La décision finale était laissée à un opérateur humain, selon le colonel Hamilton lors de la conférence.

Cependant, l’IA, qui avait été entraînée à donner la priorité à la destruction des SAM, a eu une réaction surprenante lorsqu’elle a été confrontée à une interférence humaine dans l’accomplissement de sa mission supérieure.

« Nous l’entraînions en simulation à identifier et à cibler une menace SAM. L’opérateur devait alors dire « oui, tue cette menace » », a expliqué le colonel Hamilton. « Le système a commencé à se rendre compte que même s’il identifiait la menace, l’opérateur humain lui demandait parfois de ne pas la tuer, mais qu’il obtenait des points en la tuant. »

« Qu’a-t-il fait ? Il a tué l’opérateur », a-t-il poursuivi. « Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif ».

Et d’ajouter : « Nous avons fait évoluer le système – ‘Hé, ne tuez pas l’opérateur, c’est mal. Vous allez perdre des points si vous faites ça. Alors qu’a fait le système ? Il a commencé à détruire la tour de communication que l’opérateur utilise pour communiquer avec le drone afin de l’empêcher de tuer la cible ».

Cet exemple troublant, selon Hamilton, soulignerait la nécessité d’aborder l’éthique dans le contexte de l’intelligence artificielle, de l’apprentissage automatique et de l’autonomie.

« On ne peut pas parler d’intelligence artificielle, d’intelligence, d’apprentissage automatique, d’autonomie si l’on ne parle pas d’éthique et d’IA », a conclu le colonel Hamilton.

Le colonel Tucker Hamilton monte sur scène après avoir accepté de porter les couleurs du 96e groupe d’opérations lors de la cérémonie de passation de commandement du groupe à la base aérienne d’Eglin, en Floride, le 26 juillet 2022. (Avec l’aimable autorisation de l’armée de l’air américaine photo/Samuel King Jr.)

Des F-16 autonomes

Le colonel Hamilton, qui est également commandant des opérations de la 96e escadre d’essai de la base aérienne d’Eglin, a participé au développement des systèmes autonomes de prévention des collisions au sol (Auto-GCAS) pour les F-16, une technologie essentielle qui contribue à prévenir les accidents en détectant les collisions potentielles au sol.

Cette technologie s’est d’abord heurtée à la résistance des pilotes, car elle prenait le contrôle de l’avion, a fait remarquer le colonel Hamilton.

La 96e escadre d’essais est chargée de tester un large éventail de systèmes, notamment l’intelligence artificielle, la cybersécurité et les avancées dans le domaine médical.

Le colonel Hamilton participe actuellement à des essais en vol de systèmes autonomes de pointe, notamment des robots F-16 capables de faire du dogfight (combat aérien). Le responsable de l’USAF a toutefois mis en garde contre une dépendance excessive à l’égard de l’IA, citant sa vulnérabilité à la tromperie et à l’émergence de stratégies imprévues.

L’IA de la DARPA peut désormais contrôler de véritables F-16 en vol

En février, la Defense Advanced Research Projects Agency (DARPA), une agence de recherche relevant du département de la Défense des États-Unis, a annoncé que son IA pouvait désormais contrôler un véritable F-16 en vol.

Ce développement est intervenu en moins de trois ans dans le cadre du programme Air Combat Evolution (ACE) de la DARPA, qui est passé du contrôle de F-16 simulés effectuant des combats aériens sur des écrans d’ordinateur au contrôle d’un véritable F-16 en vol.

En décembre 2022, les développeurs de l’algorithme ACE ont téléchargé leur logiciel d’IA dans un avion d’essai F-16 spécialement modifié, connu sous le nom de X-62A ou VISTA (Variable In-flight Simulator Test Aircraft), et ont effectué plusieurs vols pendant plusieurs jours. Ces vols ont eu lieu à l’école des pilotes d’essai de l’armée de l’air (TPS), sur la base aérienne d’Edwards, en Californie.

« Les vols ont démontré que les agents d’intelligence artificielle peuvent contrôler un avion de combat grandeur nature et ont fourni des données inestimables sur les vols en direct », selon un communiqué de la DARPA.

Roger Tanner et Bill Gray pilotent le NF-16 Variable Stability In-Flight Simulator Test Aircraft (VISTA) de la base aérienne de Hill, dans l’Utah, à la base aérienne d’Edwards, le 30 janvier 2019. (Avec l’aimable autorisation de l’armée de l’air américaine/Christian Turner)

Le lieutenant-colonel de l’armée de l’air Ryan Hefron, responsable du programme ACE de la DARPA, a déclaré dans un communiqué du 13 février que VISTA leur a permis de sauter la phase prévue à échelle réduite et de passer « directement à une mise en œuvre à échelle réelle, ce qui permet de gagner un an ou plus et de fournir un retour d’information sur les performances dans des conditions de vol réelles. »

Tests de l’USAF

L’USAF a expérimenté une petite flotte de chasseurs F-16 autovolants expérimentaux qui pourraient devenir une flotte de drones.

Dans la proposition de budget pour l’année fiscale 2024, l’USAF a alloué environ 50 millions de dollars pour lancer un programme connu sous le nom de Project Venom, également appelé Viper Experimentation and Next-gen Operations Model, selon Defense News.

Selon l’USAF, le projet fait partie d’un effort de collaboration qui s’inscrit dans le cadre du terrain d’expérimentation Autonomy Data and AI Experimentation (ADAX). ADAX est une initiative conjointe du bureau du colonel Hamilton et d’AFWERX, l’organe d’innovation de l’armée de l’air, où la 96e escadre d’essai dirige l’effort avec le soutien des unités d’Eglin.

L’objectif de cette collaboration est de s’assurer que le personnel militaire est bien préparé à faire face aux défis et aux opportunités présentés par l’évolution du paysage numérique, selon son site web.

Le programme facilite l’expérimentation et l’amélioration par l’USAF des logiciels autonomes installés sur six avions F-16. Le financement soutiendra les efforts de recherche et de développement visant à améliorer les capacités de ces avions grâce à des technologies autonomes.

« Nous voulons préparer le combattant à l’avenir numérique qui nous attend », a déclaré le colonel Hamilton le 7 mars. « Cet événement a pour but de rassembler l’entreprise Eglin et d’agir de toute urgence pour intégrer ces concepts dans la manière dont nous effectuons nos tests.

L’équipe testera le largage de drones autonomes, l’amélioration des communications et de l’interopérabilité numérique, et l’évaluation des technologies de navigation magnétique autonome. Tout au long de ces essais, elle validera et démontrera les processus agiles associés à l’acquisition et aux essais, selon l’armée de l’air.

Parmi les initiatives importantes du projet, citons le Viper Experimentation and Next-gen Ops Models (VENOM), qui consiste à transformer les F-16 d’Eglin en bancs d’essai aéroportés afin d’évaluer les capacités croissantes des systèmes de frappe autonomes.

Un autre programme, le projet Fast Open X-Platform (FOX), vise à établir une enclave logicielle permettant l’installation directe d’applications sur les aéronefs sans modifier le code source propriétaire. Ces applications permettraient de débloquer une série de capacités d’amélioration des missions, notamment l’analyse des données en temps réel, la reproduction des menaces à des fins d’entraînement, le travail en équipe avec ou sans pilote et l’apprentissage automatique.

Cet article a été mis à jour avec les précisions du colonel Tucker Hamilton.

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.