
Dans un rapport publié mercredi, Google Threat Intelligence alerte sur une nouvelle génération de malwares dopés à l’intelligence artificielle. Ces logiciels malveillants — évoqués sous les noms PromptFlux, PromptSteal ou QuietVault — adaptent et modifient dynamiquement leur comportement en cours d’attaque, rendant la lutte contre eux beaucoup plus complexe.
La famille PromptFlux illustre parfaitement cette mutation : le malware interroge l’API Gemini de Google via son module « Thinking Robot » pour se réécrire automatiquement et échapper aux antivirus. À chaque activation, une nouvelle version apparaît sur la machine infectée, comme un caméléon auquel il serait impossible d’assigner une signature unique.
PromptSteal, lié au groupe APT28 (Fancy Bear), opère en Ukraine et exploite des API publiques (Hugging Face) et le modèle Qwen2.5-Coder-32B-Instruct pour générer à la volée des commandes Windows. Plutôt que d’embarquer des instructions statiques, il demande à l’IA de produire dynamiquement le code nécessaire pour collecter informations système et documents — une première opérationnelle selon Google.
QuietVault pousse l’autonomie plus loin : voleur de jetons GitHub et NPM, il utilise des outils d’IA locaux pour rechercher d’autres secrets sur le poste infecté, exfiltre les premiers tokens vers un dépôt public, puis lance une « chasse » algorithmique pour découvrir d’autres données sensibles, sans supervision humaine.
Les protections des chatbots sont souvent déjouées par des prétextes basiques. Des attaquants se font passer pour des « étudiants en cybersécurité » ou des « chercheurs » afin d’amener Gemini à fournir des informations normalement interdites — conseils d’exploitation, scripts, ou méthodes d’attaque. Un acteur lié à la Chine multiplie ces faux prétextes pour obtenir des instructions sur des sujets pointus (Kubernetes, vSphere, web shells), transformant les modèles de langage en formateurs involontaires.
Paradoxalement, l’IA peut aussi trahir ses utilisateurs malveillants : le groupe TEMP.
Zagros a livré, en demandant de l’aide à Gemini pour corriger son code, l’adresse de son serveur pirate et son clé de chiffrement, ce qui a permis à Google de localiser et neutraliser son infrastructure.
Le marché clandestin s’est professionnalisé : en 2025, des services comme WormGPT, FraudGPT ou MalwareGPT se vendent par abonnement, avec même un support Discord économie de l’attaque « à la Netflix ». Ces outils automatisent l’ensemble du cycle d’attaque (deepfakes, recherche de vulnérabilités, exploitation), abaissant drastiquement la barrière technique pour lancer des campagnes de phishing, fraude ou ransomware.
Les gouvernements et groupes parrainés par des États (Corée du Nord, Iran, Chine…) exploitent également l’IA pour amplifier leurs opérations. Le rapport cite, entre autres, UNC1069 (Corée du Nord) qui produit de fausses vidéos pour escroquer des cibles dans la crypto, ou des campagnes multilingues sophistiquées pour maximiser l’impact des fraudes.