Cybercriminalité et IA
Cybercriminalité et IA : quand votre assistant virtuel se retourne contre vous
L'essor fulgurant des assistants d'intelligence artificielle a ouvert une brèche inquiétante dans nos systèmes numériques. Les cybercriminels ont trouvé un moyen détourné de prendre le contrôle de ces outils : en injectant discrètement leurs propres commandes dans votre chatbot, ils peuvent accéder à vos données sensibles, les supprimer ou les altérer à leur guise.

Un panneau annonce la conférence de haut niveau de la Convention des Nations Unies contre la cybercriminalité au Centre national des congrès de Hanoï, le 24 octobre 2025.
Photo: NHAC NGUYEN/AFP via Getty Images
Meta qualifie cette menace émergente d’« injection de requête » et la considère comme une véritable vulnérabilité. Du côté d’OpenAI, le chef de la sécurité Dane Stuckey va plus loin en y voyant « un problème de sécurité non résolu ».
Des origines anciennes, des risques nouveaux
Bien que ce concept existe depuis trois ans – avant même l’avènement de ChatGPT – son impact restait limité. À l’époque, les assistants IA se contentaient de générer du contenu nécessitant une validation humaine avant toute utilisation.
La donne a radicalement changé avec l’apparition des agents IA autonomes. Ces programmes capables d’agir seuls transforment la menace en véritable cheval de Troie au cœur même de vos systèmes informatiques personnels ou professionnels.
L’intégration de ces agents dans les navigateurs web de nouvelle génération expose désormais les utilisateurs à un flot massif de données en ligne dont la fiabilité et la provenance sont souvent douteuses.
L’invisibilité, arme fatale des pirates
Les méthodes d’attaque se révèlent particulièrement insidieuses. Un cybercriminel peut dissimuler ses instructions malveillantes dans une page web, un email, une image ou un document. Ces commandes peuvent être rendues totalement invisibles à l’œil nu, ou même intégrées dans un faux lien, comme l’a récemment démontré l’entreprise spécialisée NeuralTrust.
Le scénario d’attaque est simple mais redoutable : l’agent lit ce contenu piégé et exécute l’ordre reçu sans que l’utilisateur ne s’en aperçoive.
Disposant d’un accès étendu aux données personnelles, l’agent compromis peut exfiltrer des informations vers le pirate, les modifier, les supprimer, ou même manipuler le fonctionnement d’un site web ou du modèle d’IA lui-même.
Une démocratisation dangereuse des cyberattaques
« Pour la première fois depuis des décennies, nous observons de nouveaux vecteurs d’attaques pouvant provenir de n’importe quelle source », alerte Perplexity, nouveau venu dans le secteur de la recherche en ligne. La plateforme souligne un point crucial : l’IA générative et l’utilisation du langage naturel éliminent les barrières techniques, permettant même aux pirates les moins expérimentés de mener des attaques sophistiquées.
Pour Eli Smadja, expert chez Check Point, spécialiste israélien de cybersécurité, l’injection de requête représente « le problème de sécurité numéro un pour les grands modèles de langage », ces programmes qui animent assistants et agents IA.
Les géants de la tech ripostent
Face à cette menace grandissante, tous les acteurs majeurs de l’IA grand public ont déployé des contre-mesures et publié des recommandations pour contrer ces attaques.
Microsoft a développé un détecteur d’instructions malveillantes qui analyse notamment l’emplacement des commandes pour identifier les anomalies. OpenAI a opté pour une approche différente : le système alerte l’utilisateur lorsque l’agent accède à un site potentiellement dangereux et ne poursuit l’opération que sous surveillance directe et en temps réel.
D’autres solutions préconisent une validation explicite de l’utilisateur avant toute action importante.
La course aux armements numériques
« Mais le véritable défi réside dans le perfectionnement constant des attaques », observe Johann Rehberger, chercheur en cybersécurité connu sous le pseudonyme wunderwuzzi. « Certaines menaces n’ont même pas encore été identifiées. »
Eli Smadja met en garde contre une erreur fondamentale : « Confier au même agent le contrôle total de tous vos systèmes. Il peut fouiller vos emails, naviguer sur internet et intervenir dans vos fichiers personnels. »
Le défi consiste à trouver « le délicat équilibre » entre sécurité et praticité, explique Johann Rehberger. « Les utilisateurs souhaitent légitimement que l’IA accomplisse des tâches à leur place, sans supervision constante. »
Une responsabilité partagée
Marti Jorda Roca, ingénieur chez NeuralTrust en Espagne, insiste sur la nécessité d’une approche globale face à ces risques.
« Les utilisateurs doivent prendre conscience des dangers spécifiques liés à l’utilisation de l’IA », affirme-t-il. Les entreprises, quant à elles, « doivent mettre en place des garde-fous solides pour encadrer ces risques. »
Cette prudence nécessaire pourrait toutefois freiner l’adoption des agents IA, particulièrement dans les secteurs sensibles comme la banque.
Une technologie encore immature
Pour Johann Rehberger, l’intelligence artificielle n’a pas atteint le niveau de maturité requis.
« Nous ne sommes pas encore en mesure de laisser un agent IA opérer de manière autonome sur de longues périodes », constate-t-il. « Invariablement, il finit par dysfonctionner. »
Avec AFP

Articles actuels de l’auteur









