El gobierno de EE. UU. está reevaluando el enfoque regulatorio de la inteligencia artificial debido al aumento de las amenazas cibernéticas

Se está produciendo un cambio sísmico en la postura de la administración Trump sobre la política de IA, a medida que pasa de un enfoque de laissez-faire a uno más intervencionista. El catalizador de este cambio es la aparición de modelos avanzados de IA, como Mythos de Anthropic, que han demostrado una asombrosa capacidad para detectar vulnerabilidades ocultas en sistemas de software, lo que plantea importantes riesgos para la seguridad nacional.
A la vanguardia de este cambio de política está la notable capacidad de Mythos para descubrir fallas enterradas en el código que habían evadido la detección por parte de auditores humanos y herramientas tradicionales. Esto ha provocado una reevaluación del enfoque de no intervención de la administración, con un creciente reconocimiento de que las implicaciones para la seguridad nacional del desarrollo desenfrenado de la IA son demasiado grandes para ignorarlas.
En un cambio notable con respecto a su postura desreguladora anterior, la administración ahora está explorando la posibilidad de introducir una verificación de seguridad obligatoria para los nuevos modelos de IA antes de su lanzamiento público. Según un informe de The New York Times del 4 de mayo de 2026, esta medida marcaría un cambio significativo en el enfoque del gobierno hacia el desarrollo de la IA. Al día siguiente, Politico reveló que funcionarios de la Casa Blanca habían iniciado conversaciones con ejecutivos de Anthropic, Google y OpenAI para discutir la seguridad de la IA y la posibilidad de que órdenes ejecutivas regularan el desarrollo de modelos de IA de vanguardia.
Las preocupaciones que impulsan este cambio de política están lejos de ser teóricas. Mythos ha identificado con éxito vulnerabilidades con implicaciones para la seguridad nacional en el mundo real, destacando el potencial de que actores hostiles exploten estas fallas a gran escala. Como advirtió TechPolicy.press el 8 de mayo, depender únicamente de la investigación gubernamental puede no ser suficiente para mitigar estos riesgos de seguridad, y pueden ser necesarias pruebas independientes para garantizar una seguridad integral.
Las implicaciones de este desarrollo se extienden más allá del ámbito de la IA, con importantes consecuencias potenciales para la industria de la criptografía. Si el gobierno de EE. UU. decide exigir revisiones de seguridad previas al lanzamiento de los modelos de IA centralizados, es probable que el escrutinio regulatorio eventualmente se expanda para abarcar proyectos de IA descentralizados, incluidos contratos inteligentes, protocolos DeFi y agentes de IA en cadena. Estos proyectos se basan en código complejo que potencialmente podría ser analizado por herramientas como Mythos, lo que destaca la necesidad de medidas de seguridad mejoradas.
Publicaciones recientes en las redes sociales, que abarcan del 4 al 7 de mayo, reflejan un consenso cada vez mayor de que los centros de datos de IA deben ser tratados como activos nacionales críticos, dignos de una mayor protección y supervisión. La dimensión geopolítica de esta cuestión también se está volviendo cada vez más pronunciada, con crecientes tensiones entre Estados Unidos y China sobre el desarrollo de la IA. La administración estadounidense es muy consciente de que un modelo chino de IA comparable a Mythos podría usarse para identificar vulnerabilidades en la infraestructura estadounidense, lo que alimentaría aún más la necesidad de tomar medidas regulatorias.
Si bien aún no se ha emitido una orden ejecutiva, las conversaciones de la Casa Blanca con Anthropic, Google y OpenAI demuestran una clara dirección a seguir, lo que subraya el creciente reconocimiento por parte de la administración de la necesidad de un enfoque más proactivo para la seguridad de la IA. A medida que la situación continúa desarrollándose, es probable que la industria de la criptografía preste mucha atención a los acontecimientos, reconociendo el potencial de un cambio regulatorio y la necesidad de medidas de seguridad mejoradas para mitigar los riesgos asociados con los sistemas descentralizados impulsados por IA.