EE. UU. revisará los modelos de IA de Microsoft, Google y xAI antes de su lanzamiento público

Microsoft, Google y xAI acordaron brindar al gobierno de EE. UU. acceso temprano a los próximos modelos de inteligencia artificial, lo que permitirá a los funcionarios examinar posibles riesgos para la seguridad nacional antes de que los sistemas se hagan públicos.
El acuerdo permitirá al Centro de Estándares e Innovación de IA (CAISI), que opera bajo el Departamento de Comercio de los Estados Unidos, probar estos modelos con anticipación.
Según la agencia, el proceso incluirá evaluaciones técnicas e investigaciones sobre el rendimiento de los sistemas, así como los riesgos que pueden plantear.
Los avances recientes en inteligencia artificial, incluidos sistemas como Anthropic Mythos, han intensificado las preocupaciones en Washington y en todos los sectores corporativos. Funcionarios y ejecutivos han advertido que se podría hacer un mal uso de modelos cada vez más capaces, particularmente en ataques cibernéticos donde la automatización puede mejorar la escala y la velocidad de la actividad maliciosa.
Anthropic no fue mencionado en el último anuncio. La compañía ha estado en desacuerdo con el Departamento de Defensa de los Estados Unidos sobre el alcance de las salvaguardias aplicadas cuando sus herramientas se utilizan en entornos militares, lo que pone de relieve las tensiones actuales sobre cómo se deben implementar dichos sistemas.
"La ciencia de medición independiente y rigurosa es esencial para comprender la IA de frontera y sus implicaciones para la seguridad nacional", dijo el director de CAISI, Chris Fall, subrayando la necesidad de marcos de evaluación estructurados a medida que avanzan las capacidades del modelo.
CAISI actúa como el centro central del gobierno federal para probar sistemas avanzados de inteligencia artificial. Dijo que ya ha llevado a cabo más de 40 evaluaciones, incluso en modelos que aún no se habían puesto a disposición del público en el momento de las pruebas.
Para respaldar estas evaluaciones, los desarrolladores suelen presentar versiones modificadas de sus modelos con ciertas barreras de seguridad relajadas. Eso permite a la agencia examinar los peores escenarios e identificar vulnerabilidades que pueden no aparecer en condiciones de uso estándar.
La medida se produce poco después de que el Pentágono ampliara sus propias asociaciones de IA. El Departamento de Defensa de Estados Unidos dijo la semana pasada que había firmado acuerdos con siete empresas para implementar capacidades avanzadas de inteligencia artificial en redes clasificadas, mientras busca diversificar su grupo de proveedores de tecnología que respaldan las operaciones militares.