Une menace plane alors que les cybercriminels exploitent l’intelligence artificielle pour créer des vulnérabilités jusqu’alors inconnues à une échelle sans précédent.

Les cybercriminels et les pirates informatiques soutenus par l'État utilisent de plus en plus l'IA générative pour accélérer le développement d'exploits, automatiser les opérations de logiciels malveillants et étendre les cybercampagnes, a déclaré la division de renseignement sur les menaces de Google (GTIG) dans un rapport publié lundi.
Les résultats montrent une transition d’une expérimentation limitée de l’IA vers un déploiement opérationnel à grande échelle, les adversaires utilisant l’IA pour lancer des attaques alors même que l’infrastructure et les écosystèmes logiciels de l’IA deviennent eux-mêmes des cibles.
Pour la première fois, GTIG a identifié un exploit zero-day réel développé avec l’aide de l’IA.
Selon le rapport, des acteurs criminels ont construit un contournement 2FA ciblant un outil d'administration Web open source populaire avant une opération d'exploitation de masse planifiée. La campagne a été interrompue avant son déploiement après que GTIG ait collaboré avec le fournisseur sur la divulgation responsable.
Les chercheurs ont noté que les acteurs de la menace liés à la Chine et à la Corée du Nord ont montré un intérêt soutenu pour la recherche sur les vulnérabilités basée sur l'IA, notamment l'utilisation d'invites basées sur la personnalité, d'analyses automatisées des exploits et de cadres d'agents conçus pour étendre les activités de reconnaissance et de test.
PROMPTSPY et logiciels malveillants basés sur l'IA
En ce qui concerne les logiciels malveillants, le rapport met en avant PROMPTSPY, une porte dérobée Android qui intègre un agent autonome transmettant l'état de l'interface utilisateur de l'appareil à l'API Gemini de Google, recevant des commandes structurées en retour et les exécutant (en cliquant, en glissant, en naviguant) sans surveillance humaine.
Il peut capturer des données biométriques, rejouer les gestes d'authentification et même empêcher sa propre désinstallation en créant une superposition invisible sur le bouton « Désinstaller » qui avale silencieusement les événements tactiles.
Les chercheurs ont également documenté des techniques d’obscurcissement assistées par l’IA dans les logiciels malveillants liés aux opérations alignées sur la Russie, notamment du code généré dynamiquement et une logique leurre produite par l’IA destinée à contourner les systèmes de détection.
Google a averti que les attaquants construisent une infrastructure professionnalisée pour obtenir un accès anonyme et à grande échelle à des modèles d'IA premium via des relais proxy, la création automatisée de comptes et des programmes d'essais abusifs.
Dans le même temps, les adversaires ciblent la chaîne d’approvisionnement des logiciels d’IA elle-même, y compris les outils d’IA open source et les couches d’intégration de modèles, pour obtenir un accès initial aux systèmes de l’entreprise et voler les informations d’identification pour les opérations de ransomware et d’extorsion.
La société a déclaré qu'elle déployait l'IA de manière défensive via des outils tels que Big Sleep et CodeMender pour identifier et corriger les vulnérabilités, tout en étendant les protections sur Gemini et les services associés.