L’élection du « deepfake » : Comment l’IA et les faux contenus risquent d’influencer l’élection présidentielle américaine de 2024

L'impact des "deepfakes" sur les élections américaines de 2024 est déjà évident, selon les experts, qui appellent le public à s'informer davantage face à d'éventuels contenus truqués.

Par Chase Smith
19 décembre 2023 02:17 Mis à jour: 19 décembre 2023 13:19

À l’approche de l’élection présidentielle américaine de 2024, les inquiétudes concernant l’influence de l’intelligence artificielle (IA) et de la technologie des « deepfakes » sur le processus électoral atteignent de nouveaux sommets.

Les deepfakes sont ces médias numériques très convaincants … et trompeurs – généralement des vidéos, des enregistrements audio ou des images – générés à l’aide de l’intelligence artificielle, et de plus en plus souvent souvent utilisés à des fins trompeuses ou mensongères.

Des experts dans le domaine de l’IA et de la détection des deepfakes interrogés par Epoch Times exposent pour le journal les défis que pose la désinformation générée par IA et expliquent comment les combattre.

Rijul Gupta, cofondateur et PDG de DeepMedia. (DeepMedia)

Rijul Gupta, cofondateur et PDG de DeepMedia_AI, aborde la montée alarmante de la technologie du deepfake et ses implications pour les élections américaines de 2024.

« 2024 sera l’élection du deepfake dans des proportions qui n’ont pas été observées lors des élections précédentes », a-t-il déclaré. « Elle ne devient prépondérante qu’en 2024, et ce en raison d’un plus grand accès donné au public. Des versions rudimentaires existaient en 2020, mais leur qualité n’était pas suffisante pour tromper les gens. On pouvait toujours voir qu’il s’agissait d’un faux. »

Selon lui, la qualité s’est améliorée à partir de 2022 et continue de progresser de mois en mois. Le contenu devient suffisamment bon pour que le citoyen moyen puisse le visionner ou l’entendre sur TikTok ou YouTube et soit convaincu de son authenticité.

« Les gens ne font pas une recherche pour visionner un faux », explique-t-il. « Et ils n’essaient pas non plus de déterminer s’il s’agit d’un faux. Cela leur semble réel, alors ils supposent que c’est vrai. Mais ce dont nous n’avons vraiment pas besoin en ce moment, c’est que ces faux soient accessibles au plus grand nombre. Au début, le premier problème était celui de la qualité, qui a été résolu l’année dernière, et maintenant c’est celui de l’accès. »

image-5518327
Une femme regarde une vidéo manipulée de Donald Trump et Barack Obama qui illustre comment la technologie deepfake peut tromper les gens, à Washington le 24 janvier 2019. (ROB LEVER/AFP via Getty Images)

Aujourd’hui, selon M. Gupta, les outils sont disponibles en ligne pour le plus grand nombre, et sont généralement gratuits.

« La plupart du temps, vous n’avez même pas besoin d’une carte de crédit : vous pouvez créer des deepfakes de n’importe qui en seulement cinq secondes », a-t-il déclaré. « C’est ce qui est nouveau. C’est ce qui vient de se produire au cours des derniers mois et c’est pourquoi 2024 sera l’élection du deepfake ».

C’est une situation qui « m’empêche de dormir », a déclaré M. Gupta.

« C’est l’une des principales raisons pour lesquelles j’ai fondé DeepMedia, pour être le chef de file de la lutte contre la désinformation », a-t-il déclaré. « Il y a environ six ans, j’ai vu ce qui était en train d’arriver. J’ai vu un avenir où les gens ne seraient pas capables de distinguer le vrai du faux. »

image-5518326
Paul Scharre, du Center for a New American Security, visionne une vidéo manipulée par BuzzFeed avec le cinéaste Jordan Peele (à l’écran, à droite) dans laquelle des logiciels et applications facilement disponibles sur internet ont permis de modifié les propos de Barack Obama (à l’écran, à gauche), à Washington, le 25 janvier 2019. (ROB LEVER/AFP via Getty Images)

Détecter les « Deepfakes »

Pour faire face à cette menace croissante, Emma Brown, cofondatrice et directrice des opérations de DeepMedia, souligne l’importance de disposer de méthodes de détection précises et évolutives.

DeepMedia a développé des capacités avancées et intelligentes de détection des deepfakes qui, selon elle, sont validées par le gouvernement américain et des entreprises du monde entier.

Elle explique que DeepMedia est fier d’avoir les capacités de détection de faux visage et voix les plus précises au monde, ce qui garantit une identification fiable des contenus générés par l’IA.

L’évolutivité est un autre facteur important pour l’entreprise, a-t-elle déclaré, ajoutant que DeepMedia a la capacité de traiter un grand nombre de vidéos par jour, ce qui permet d’identifier rapidement les deepfakes dans de vastes ensembles de données.

Troisièmement, la robustesse de la plateforme offre des fonctionnalités avancées telles que la catégorisation précise du contenu, permettant aux utilisateurs d’extraire des informations spécifiques du contenu généré par l’IA.

« Nous sommes activement impliqués dans la sécurisation des élections face aux menaces de l’IA », a déclaré Mme Brown.

 Four Twitter accounts apparently generated by artificial intelligence software, displayed on a laptop in Helsinki on June 12, 2023. The fake profiles, posing as American environmentalists, posted tweets in support of the United Arab Emirates, its handling of the COP28 climate summit, and the role of its COP28 chief, oil executive Sultan Al Jaber, in promoting climate action. (Olivier Morin/AFP)
Quatre comptes Twitter apparemment générés par un logiciel d’intelligence artificielle, sur un ordinateur portable à Helsinki le 12 juin 2023. Les faux profils, qui se font passer pour des écologistes américains, ont publié des tweets en faveur des Émirats arabes unis, de leur gestion du sommet sur le climat COP28 et du rôle de leur chef COP28, le dirigeant pétrolier Sultan Al Jaber, dans la promotion de l’action en faveur du climat. (Olivier Morin/AFP)

Responsabiliser le public

Consciente de la nécessité de sensibiliser et d’impliquer le public dans la lutte contre la désinformation générée par l’IA, DeepMedia a récemment mis gratuitement à disposition ses capacités de détection des « deepfake » sur X, anciennement connu sous le nom de Twitter.

Les utilisateurs peuvent marquer @DeepMedia et ajouter le hashtag #DeepID à tout contenu médiatique, et le robot Twitter de DeepMedia soumettra rapidement le contenu à son système de détection de deepfake et fournira les résultats dans le fil de discussion, explique M. Gupta.

« Nous espérons que cela permettra à l’utilisateur moyen et aux journalistes-citoyens de disposer des outils dont ils ont besoin pour se protéger contre la désinformation par l’IA », a-t-il déclaré.

Cette initiative représente une étape importante dans la démocratisation de la lutte contre la désinformation et la mésinformation induites par l’IA.

L’élection présidentielle américaine de 2024 servira de test critique de la capacité à notre capacité à lutter contre l’influence des « deepfakes ». M. Gupta rappelle que le défi va au-delà des solutions techniques et exhorte les citoyens à être vigilants et à s’informer.

« La fusion de l’IA et des élections exige que nous soyons attentifs et que nous agissions de façon collective de façon à préserver l’intégrité de nos processus démocratiques », souligne M. Gupta.

image-5518313
Des électeurs votent dans un bureau de vote situé à Arlington, en Virginie, aux États-Unis (Museum of Contemporary Art), le 8 novembre 2022. (Nathan Howard/Getty Images)

Lorsqu’on lui demande si l’IA ou les « deepfakes » ont déjà été remarqués lors du cycle électoral de 2024, Mme Brown répond qu’il ne s’agit que de cas isolés qui n’ont eu que peu d’écho.

Une fausse vidéo montrait Hillary Clinton appelant à soutenir le candidat républicain à la présidence, Ron DeSantis, l’actuel gouverneur de la Floride.

« C’était un faux complet et nos détecteurs ont été en mesure de la détecter avec un haut degré de précision », a déclaré Mme Brown. « Mais ce genre de cas pourrait nuire à la campagne de Ron DeSantis. »

« Nous en verrons donc de plus en plus, en particulier lorsque la couverture médiatique de la campagne électorale s’intensifiera ».

Faites confiance à vos sources

Jim Kaskade, PDG de Conversica. (Jim Kaskade)

La société Conversica, spécialisée dans l’IA, opère dans ce domaine depuis 2007. Son PDG, Jim Kaskade, offre un point de vue unique sur le rôle de l’IA dans les élections de 2024.

« Nous sommes motivés par l’objectif positif et l’aspect bénéfique de l’IA appliquée », a-t-il déclaré.

Cet engagement suggère que les technologies de l’IA, lorsqu’elles sont utilisées de manière réfléchie, peuvent contribuer à l’amélioration du processus électoral.

L’IA pourrait être une force positive dans les élections, a déclaré M. Kaskade. Les outils pilotés par l’IA peuvent améliorer la communication, fournir des informations précieuses sur les préférences des électeurs et rationaliser les efforts de campagne. Il est essentiel de trouver un équilibre entre l’exploitation de l’IA à des fins positives et la protection contre son utilisation abusive.

Il souligne la nécessité d’une utilisation éthique des contenus générés par l’IA dans le discours politique et insiste sur la nécessité d’être vigilant quant à l’authenticité des informations dans les contextes électoraux. Il est important de pouvoir faire confiance aux sources du contenu à l’ère de l’IA.

« Je pense que c’est fondamental », a déclaré M. Kaskade. « Il faut faire des recherches sur la source du document. »

Il reconnaît que si la technologie n’a pas encore permis de différencier le vrai du faux, on peut toujours faire preuve de prudence en évaluant la crédibilité des sources.

 A phone displaying a statement from the head of security policy at Meta, in front of a screen displaying a deepfake video of Ukrainian President Volodymyr Zelensky calling on his soldiers to lay down their weapons, in Washington on Jan. 30, 2023. (OLIVIER DOULIERY/AFP via Getty Images)
Un téléphone affichant une déclaration du chef de la politique de sécurité de Meta, devant un écran affichant une vidéo deepfake du président ukrainien Volodymyr Zelensky appelant ses soldats à déposer les armes, à Washington le 30 janvier 2023. (OLIVIER DOULIERY/AFP via Getty Images)

Le problème en 2024

Le défi posé par les deepfakes lors de l’élection américaine de 2024 est multiple. Grâce aux progrès rapides de la technologie de l’IA, les acteurs malveillants peuvent facilement créer des contenus falsifiés très convaincants – notamment des vidéos, des enregistrements audio et des images – afin de manipuler l’opinion publique et de semer la discorde.

Cela représente une menace importante et peut entacher la confiance du public dans les candidats et les institutions politiques.

Il faut un effort collectif de la part des gouvernements, des entreprises technologiques et de la société dans son ensemble pour sensibiliser le public, promouvoir la culture numérique et adopter des réglementations qui permettent de lutter contre l’utilisation malveillante de l’IA, selon nos experts.

M. Kaskade invite les candidats en lice à proposer des politiques de régulation de l’IA qui garantissent que son utilisation soit bénéfique pour la société, et qu’elle ne soit pas néfaste ou source de division.

Il appartiendra également aux électeurs et aux citoyens de se tenir au courant des « deepfakes » et des progrès de l’IA, et de savoir comment se protéger en utilisant leurs capacités de réflexion et en évaluant de manière critique les informations qu’ils rencontrent en ligne.

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.