Les usurpations d’identité par deepfake assistées par l’IA sont de plus en plus difficiles à détecter, prévient le FBI

Le FBI à Washington, le 7 août 2025.
Photo: Madalina Kilroy/Epoch Times
Les contenus deepfake de plus en plus difficiles à détecter, créés avec l’intelligence artificielle (IA), sont exploités par des criminels pour se faire passer pour des personnes de confiance, ont déclaré le FBI et l’Association américaine des banquiers (ABA) dans un rapport publié le 3 septembre.
Dans son infographie sur les arnaques médiatiques deepfakes, le FBI indique que les escroqueries ciblant les Américains sont en pleine expansion. Depuis 2020, l’agence a reçu plus de 4,2 millions de signalements de fraudes, représentant des pertes de 50,5 milliards de dollars. « Les escroqueries par imposteur, en particulier, sont en hausse… Les criminels utilisent les deepfakes, ces médias générés ou manipulés par l’IA, pour gagner votre confiance et vous escroquer votre argent durement gagné. »
Les contenus deepfake peuvent inclure des images, des fichiers audio ou des vidéos modifiés. Les escrocs peuvent se faire passer pour des membres de leur famille, des amis ou des personnalités publiques, notamment des célébrités, des forces de l’ordre et des représentants du gouvernement, a-t-il averti.
« Les deepfakes deviennent de plus en plus sophistiqués et difficiles à détecter », a déclaré Sam Kunjukunju, vice-président de l’éducation des consommateurs pour la Fondation ABA.
Selon l’infographie, certaines incohérences dans le matériel généré par l’IA peuvent aider à détecter les deepfakes.
Concernant les images ou les vidéos, il est important de prêter attention aux visages flous ou déformés, aux ombres ou à la lumière artificielles, à la désynchronisation audio-vidéo, à l’apparence naturelle des dents et des cheveux, et aux clignements des yeux trop ou trop faibles. Concernant l’audio, il est important de vérifier si le ton de la voix est trop plat ou artificiel.
L’infographie a répertorié trois signaux d’alarme d’une arnaque deepfake : des demandes inattendues d’argent ou d’informations personnelles, une manipulation émotionnelle impliquant l’urgence ou la peur, et une communication inhabituelle de ce qui semble être une personne connue.
Pour rester en sécurité, l’ABA et le FBI ont conseillé aux Américains de réfléchir avant de répondre à des demandes émotionnelles ou urgentes et de créer des mots ou des phrases de code pour confirmer l’identité de leurs proches.
« Le FBI continue de constater une augmentation inquiétante des rapports de fraude impliquant des médias deepfake », a souligné le directeur adjoint de la division des enquêtes criminelles du FBI, José A. Perez.
Il est essentiel de sensibiliser le public à cette menace émergente pour prévenir ces escroqueries et en minimiser l’impact. Nous encourageons les consommateurs à se tenir informés et à partager leurs découvertes avec leurs proches afin qu’ils puissent repérer les deepfakes avant qu’ils ne causent des dommages.
Selon un rapport du 6 août de la société de cybersécurité Group-IB, l’impact économique mondial des pertes liées à la fraude par deepfake devrait atteindre 40 milliards de dollars d’ici 2027.
« L’argent volé n’est presque jamais récupéré : en raison du blanchiment rapide par le biais de chaînes de mules financières et de mixeurs de cryptomonnaies, moins de 5 % des fonds perdus à cause d’escroqueries sophistiquées par hameçonnage vocal sont récupérés », a-t-il déclaré.
Le vishing, une forme abrégée de phishing vocal, fait référence aux escrocs se faisant passer pour des figures d’autorité telles que des représentants du gouvernement, des techniciens de support et des employés de banque pour duper leurs cibles et voler de l’argent.
Selon Group-IB, le deepfake vishing repose largement sur des tactiques de manipulation émotionnelle. Les cibles de ces escroqueries sont notamment les dirigeants d’entreprise et les employés du secteur financier.
Les personnes âgées et en détresse émotionnelle sont également vulnérables aux techniques de vishing deepfake en raison de leur faible maîtrise du numérique et de leur méconnaissance des technologies de voix artificielle, ajoute l’étude. Par conséquent, les escroqueries impliquant l’usurpation d’identité de voix familières peuvent avoir un impact plus important sur ces personnes.
En juin, un cas d’escroquerie par deepfake impliquant un Canadien âgé de plus de 80 ans a été révélé. La victime a perdu plus de 15.000 dollars dans le cadre d’une arnaque utilisant un deepfake du premier ministre de l’Ontario, Doug Ford.
Dans cette arnaque, Ford était présenté comme faisant la promotion d’un compte de fonds communs de placement, que la victime a vu via une publicité Facebook. Lorsque la victime a cliqué sur la publicité, une fenêtre de discussion s’est ouverte pour la convaincre d’investir de l’argent.
En juin, le sénateur Jon Husted (Parti républicainde l’Ohio) a présenté le projet de loi bipartite « Prévenir les escroqueries par deepfake », qui entend lutter contre les menaces que représentent ces fraudes.
Le projet de loi vise à lutter contre le vol ou la fraude de données et d’identité assistés par l’IA en mettant en place un groupe de travail dédié à l’IA dans le secteur financier, a-t-il ajouté.
« Les escrocs utilisent des deepfakes pour se faire passer pour des membres de la famille des victimes afin de leur voler leur argent », a expliqué M. Husted.
« Alors que les fraudeurs continuent de comploter, nous devons nous assurer d’utiliser l’IA afin de mieux protéger les Américains innocents et d’empêcher ces escroqueries de se produire. Mon projet de loi protégerait les personnes âgées, les familles et les propriétaires de petites entreprises de l’Ohio contre les acteurs malveillants qui profitent de leur compassion. »

Naveen Athrappully est un journaliste qui couvre l'actualité économique et internationale
Articles actuels de l’auteur









