La amenaza surge a medida que los ciberdelincuentes aprovechan la inteligencia artificial para crear vulnerabilidades previamente desconocidas a una escala sin precedentes.

Los ciberdelincuentes y los piratas informáticos respaldados por el Estado utilizan cada vez más la IA generativa para acelerar el desarrollo de exploits, automatizar las operaciones de malware y escalar las campañas cibernéticas, dijo la división de inteligencia de amenazas de Google (GTIG) en un informe publicado el lunes.
Los hallazgos muestran un cambio de una experimentación limitada con IA a un despliegue operativo a gran escala, en el que los adversarios utilizan la IA para impulsar ataques incluso cuando la infraestructura de IA y los ecosistemas de software se convierten en objetivos.
Por primera vez, GTIG ha identificado un exploit de día cero en el mundo real desarrollado con asistencia de IA.
Según el informe, los actores criminales construyeron una derivación 2FA dirigida a una popular herramienta de administración web de código abierto antes de una operación de explotación masiva planificada. La campaña se interrumpió antes del despliegue después de que GTIG colaborara con el proveedor en materia de divulgación responsable.
Los investigadores señalaron que los actores de amenazas vinculados a China y Corea del Norte han mostrado un interés sostenido en la investigación de vulnerabilidades respaldada por IA, incluido el uso de indicaciones basadas en personas, análisis automatizados de exploits y marcos de agentes diseñados para escalar las actividades de reconocimiento y prueba.
PROMPTSPY y el malware impulsado por IA
En cuanto al malware, el informe destacó PROMPTSPY, una puerta trasera de Android que incorpora un agente autónomo que alimenta el estado de la interfaz de usuario del dispositivo a la API Gemini de Google, recibe a cambio comandos estructurados y los ejecuta (haciendo clic, deslizando el dedo, navegando) sin supervisión humana.
Puede capturar datos biométricos, reproducir gestos de autenticación e incluso evitar su propia desinstalación al generar una superposición invisible sobre el botón "Desinstalar" que silenciosamente traga eventos táctiles.
Los investigadores también documentaron técnicas de ofuscación asistidas por IA en malware vinculado a operaciones alineadas con Rusia, incluido código generado dinámicamente y lógica señuelo producida por IA destinada a eludir los sistemas de detección.
Google advirtió que los atacantes están construyendo una infraestructura profesionalizada para obtener acceso anónimo y a gran escala a modelos premium de IA a través de retransmisiones proxy, creación automatizada de cuentas y esquemas de prueba-abuso.
Al mismo tiempo, los adversarios están apuntando a la propia cadena de suministro de software de IA, incluidas las herramientas de IA de código abierto y las capas de integración de modelos, para obtener acceso inicial a los sistemas empresariales y robar credenciales para operaciones de ransomware y extorsión.
La compañía dijo que está implementando IA de manera defensiva a través de herramientas como Big Sleep y CodeMender para identificar y parchear vulnerabilidades, al tiempo que amplía las salvaguardas en Gemini y los servicios relacionados.