La inteligencia artificial expone vulnerabilidades y crea una breve pero alarmante oportunidad para que los piratas informáticos ataquen

En breve
Anthropic dice que su IA ha descubierto decenas de miles de vulnerabilidades de software.
El director ejecutivo, Dario Amodei, advirtió que hay un plazo de 6 a 12 meses para solucionarlos.
Los críticos dicen que los riesgos pueden ser exagerados incluso cuando aumentan las preocupaciones sobre la seguridad.
Una discusión entre el director ejecutivo de Anthropic, Dario Amodei, y el director ejecutivo de JPMorgan Chase, Jamie Dimon, se centró el martes en la creciente amenaza a la ciberseguridad que plantea la inteligencia artificial, ya que identifica vulnerabilidades más rápido de lo que las organizaciones pueden solucionarlas.
En el evento de casi dos horas vinculado al impulso de Anthropic hacia los servicios financieros, donde presentó agentes de inteligencia artificial para tareas como libros de propuestas, revisión de ganancias y trabajo de cumplimiento, Amodei dijo que puede haber una ventana de seis a 12 meses para abordar decenas de miles de fallas descubiertas por el modelo Mythos de la compañía antes de que capacidades similares estén más ampliamente disponibles.
"El peligro es simplemente un enorme aumento en la cantidad de vulnerabilidades, en la cantidad de infracciones, en el daño financiero que causa el ransomware en escuelas, hospitales, sin mencionar los bancos", dijo Amodei.
Las últimas declaraciones de Amodei siguen a pruebas anteriores con Mozilla, cuando una versión inicial de Mythos identificó 271 vulnerabilidades en el navegador Firefox en una sola pasada, lo que muestra cómo la IA puede escanear grandes bases de código mucho más rápido que los investigadores humanos.
Anthropic dijo que el modelo puede descubrir miles de debilidades previamente desconocidas en software ampliamente utilizado. Muchos permanecen sin revelarse porque aún no han sido parcheados, lo que deja fallas sin resolver.
"Si anunciamos algo sin que se haya solucionado, los malos lo explotarán", dijo Amodei.
En pruebas controladas, Mythos completó simulaciones de ataques de red de varios pasos sin intervención humana, demostrando la capacidad de pasar de identificar debilidades a explotarlas.
Anthropic ha restringido el modelo a un pequeño grupo de socios bajo el Proyecto Glasswing, con el objetivo de corregir vulnerabilidades antes de que herramientas similares estén ampliamente disponibles.
Los investigadores han demostrado que elementos de la capacidad de Mythos se pueden reproducir utilizando modelos existentes y técnicas de código abierto, lo que sugiere que herramientas similares podrían difundirse más rápido de lo esperado.
Las advertencias han generado escepticismo dentro de la industria. En abril, el director ejecutivo de OpenAI, Sam Altman, dijo que las preocupaciones sobre Mythos pueden ser exageradas y sugirió que Anthropic está utilizando un “marketing basado en el miedo” para enmarcar los riesgos y justificar la limitación del acceso a la tecnología.
"Se puede justificar eso de muchas maneras diferentes, y algunas de ellas son reales, como si hubiera preocupaciones legítimas de seguridad", dijo Altman. "Pero si lo que quieres es 'necesitamos el control de la IA, solo nosotros, porque somos personas confiables', creo que el marketing basado en el miedo es probablemente la forma más efectiva de justificarlo".
Incluso con ese rechazo, a pesar de una disputa pública con Anthropic, el gobierno de EE. UU. está utilizando Claude Mythos para escanear redes clasificadas en busca de vulnerabilidades y probar sus capacidades de ciberseguridad, según Axios. Si bien no abordó la batalla legal en curso, Amodei dijo que Anthropic es "bueno para este país".
"Creo que la visión de Anthropic es la misma de siempre. En términos de politización, este es el punto que señalé acerca de ser ágiles, sistemáticos y justos para todos", dijo Amodei. “El propósito de las leyes y de no hacer las cosas de manera ad hoc es que todas las empresas, al menos en principio (sé que es más complicado en la práctica), sean tratadas de la misma manera, y deberíamos aspirar a eso incluso si nunca sucederá perfectamente de esa manera”.
Amodei enmarcó el momento como una ventana estrecha para la acción, advirtiendo que la rapidez con la que las organizaciones respondan podría determinar si los riesgos aumentan o se controlan.
"Se trata de un momento de peligro en el que si respondemos correctamente y creo que comenzamos a dar los primeros pasos, entonces podremos tener un mundo mejor del otro lado", dijo Amodei. "Hay un número limitado de errores que encontrar".