OpenAI ofrece a la Unión Europea acceso a un modelo avanzado de inteligencia artificial en ciberseguridad

OpenAI está en conversaciones activas con la Comisión Europea para otorgar acceso a su modelo de IA centrado en la ciberseguridad más avanzado, capaz de identificar vulnerabilidades de software. La medida posiciona al fabricante de ChatGPT como el primer gran laboratorio de IA en abrir sus capacidades cibernéticas a los reguladores de la UE, que han estado luchando durante semanas para evaluar los riesgos de seguridad que plantean los sistemas fronterizos de IA.
El momento es puntual. Anthropic, el principal rival de OpenAI en la carrera de la IA preocupada por la seguridad, aún no ha autorizado a la UE a acceder a su propio modelo de ciberseguridad, Mythos.
Lo que realmente hace el modelo
El modelo de ciberseguridad de OpenAI, conocido como GPT-5.5-Cyber, está diseñado específicamente para identificar fallas de software y simular intrusiones.
A partir del 1 de mayo, GPT-5.5 completó un hackeo completo de red corporativa simulado, lo que lo convierte en el segundo sistema de inteligencia artificial en lograr esa hazaña. El primero fue el Mythos de Anthropic. Los dos modelos ahora parecen coincidir aproximadamente en su capacidad para ingresar a entornos empresariales simulados.
Según la Ley de IA, los reguladores europeos deben evaluar los riesgos de ciberseguridad que introducen los modelos avanzados de IA. Al otorgar acceso directo, OpenAI está efectivamente permitiendo que la Comisión acabe con su herramienta cibernética más capaz.
Por qué las criptomonedas deberían prestar atención
Las pérdidas financieras por hackeos de criptomonedas superaron los 1.500 millones de dólares en 2025. Si los modelos de IA pueden simular hackeos de redes corporativas, también pueden apuntar a contratos inteligentes, protocolos puente y plataformas DeFi.
En los últimos meses ya se han visto informes de estafas que explotan a agentes de inteligencia artificial para el robo de criptomonedas. El panorama de amenazas está evolucionando en tiempo real, y los atacantes aprovechan las herramientas de inteligencia artificial para automatizar el phishing, la ingeniería social y el descubrimiento de exploits.
Los tokens relacionados con la IA experimentaron un aumento de precio del 5% tras el anuncio de estos avances en la IA de ciberseguridad.
El partido de ajedrez reglamentario
La apertura de OpenAI a la UE tiene tanto que ver con estrategia como con seguridad. La Ley de IA representa el marco regulatorio para la inteligencia artificial más completo del mundo. Al ofrecer acceso voluntario a su modelo cibernético más capaz, OpenAI está haciendo una apuesta calculada: la compañía logra demostrar transparencia y generar buena voluntad con los reguladores, al tiempo que gana influencia sobre cómo la UE clasifica y regula en última instancia los sistemas de IA con capacidades cibernéticas ofensivas.
Para Anthropic, si la UE termina redactando sus directrices de ciberseguridad sobre IA basadas principalmente en su experiencia con el modelo OpenAI, Anthropic corre el riesgo de ser evaluada en un marco en el que no participó.
Los 1.500 millones de dólares perdidos por los hackeos de criptomonedas en 2025 son la base. El sector DeFi en particular debería estar atento, ya que proyectos como Fetch.ai ya han comenzado a integrar tecnologías de inteligencia artificial para auditorías de seguridad automáticas.