Cryptonews

Uso antrópico del 'marketing basado en el miedo' para promover los mitos de Claude: Sam Altman

Fuente
cryptonewstrend.com
Publicado
Uso antrópico del 'marketing basado en el miedo' para promover los mitos de Claude: Sam Altman

En breve

El director ejecutivo de OpenAI, Sam Altman, ha sugerido que la empresa rival Anthropic está utilizando "marketing basado en el miedo" para promover su modelo Claude Mythos.

Claude Mythos ha demostrado una capacidad sin precedentes para encontrar vulnerabilidades de software.

Los gobiernos y los investigadores han advertido sobre los riesgos tanto defensivos como ofensivos que involucran a Mythos.

El director ejecutivo de OpenAI, Sam Altman, respondió a la creciente alarma sobre el nuevo y poderoso modelo de inteligencia artificial de su rival Anthropic, Claude Mythos, sugiriendo que la compañía está utilizando el "miedo" para comercializar el producto.

Hablando en el podcast Core Memory presentado por la periodista tecnológica Ashlee Vance, Altman argumentó que el uso del "marketing basado en el miedo" estaba orientado a mantener la IA en manos de un "grupo más pequeño de personas".

"Se puede justificar eso de muchas maneras diferentes, y algunas de ellas son reales, como si hubiera preocupaciones legítimas de seguridad", dijo Altman.

"Pero si lo que quieres es 'necesitamos el control de la IA, solo nosotros, porque somos personas confiables', creo que el marketing basado en el miedo es probablemente la forma más efectiva de justificarlo".

Altman añadió que si bien existen preocupaciones válidas sobre la seguridad de la IA, "es claramente un marketing increíble decir: 'Hemos construido una bomba. Estamos a punto de dejarla caer sobre tu cabeza. Te venderemos un refugio antiaéreo por 100 millones de dólares. Lo necesitas para atravesar todas tus cosas, pero sólo si te elegimos como cliente'".

Señaló que “no siempre es fácil” equilibrar las nuevas capacidades de la IA con la creencia de OpenAI de que la tecnología debería ser accesible.

Los mitos de Claude de Anthropic

El modelo Claude Mythos de Anthropic, revelado el mes pasado, ha atraído intensa atención por parte de investigadores, gobiernos y la industria de la ciberseguridad, particularmente después de que las pruebas sugirieran que puede identificar de forma autónoma vulnerabilidades de software y ejecutar operaciones cibernéticas complejas. El modelo se distribuye sólo a un conjunto limitado de organizaciones a través de un programa restringido.

El lanzamiento refleja una división más amplia en la industria de la IA sobre cómo se deben implementar los sistemas potentes: algunas empresas enfatizan el acceso controlado y otras abogan por una distribución más amplia para acelerar la innovación y la comprensión de la tecnología.

Mythos se ha convertido en un punto focal en ese debate. Anthropic ha presentado las capacidades del modelo como un avance defensivo (que permite una detección más rápida de fallas críticas de software) y un riesgo ofensivo potencial si se usa incorrectamente. A principios de este mes, identificó cientos de vulnerabilidades en el navegador Firefox de Mozilla durante las pruebas y también demostró la capacidad de llevar a cabo simulaciones de ciberataques de varias etapas.

Anthropic ha restringido el acceso al sistema a través del Proyecto Glasswing, otorgando a empresas seleccionadas, incluidas Amazon, Apple y Microsoft, la capacidad de probar sus capacidades. La compañía también ha comprometido importantes recursos para apoyar los esfuerzos de seguridad de código abierto, argumentando que los defensores deberían beneficiarse de la tecnología antes de que esté más disponible.

Los expertos en seguridad advierten que las mismas capacidades que permiten a Mythos identificar vulnerabilidades también podrían usarse para explotarlas a escala. Las pruebas realizadas por el Instituto de Seguridad de IA del Reino Unido descubrieron que el modelo podía completar de forma autónoma operaciones cibernéticas complejas.

El modelo también ha expuesto las limitaciones de los sistemas de evaluación de IA existentes, y Anthropic reconoce que muchos de los puntos de referencia de ciberseguridad actuales ya no son suficientes para medir las capacidades de su último sistema.

Dicho esto, un grupo de investigadores afirmó la semana pasada que pudieron reproducir los hallazgos de Mythos utilizando modelos disponibles públicamente.

A pesar de los llamados dentro del gobierno de Estados Unidos para detener el uso de la tecnología por preocupaciones sobre sus posibles aplicaciones en la guerra y la vigilancia, la Agencia de Seguridad Nacional habría comenzado a probar una versión preliminar del modelo en redes clasificadas. En el mercado de predicción Myriad, propiedad de la empresa matriz de Decrypt, Dastan, los usuarios tienen un 49% de posibilidades de que Claude Mythos se lance al público en general antes del 30 de junio.

Altman sugirió que la retórica en torno a los sistemas de IA altamente peligrosos puede aumentar a medida que mejoren las capacidades, pero argumentó que no todas esas afirmaciones deben tomarse al pie de la letra.

"Habrá mucha más retórica sobre modelos que son demasiado peligrosos para publicar. También habrá modelos muy peligrosos que tendrán que publicarse de diferentes maneras", afirmó. "Estoy seguro de que Mythos es un gran modelo para la ciberseguridad, pero creo que tenemos un plan con el que nos sentimos bien sobre cómo llevar este tipo de capacidad al mundo".

Altman también descartó las sugerencias de que OpenAI esté reduciendo su gasto en infraestructura, diciendo que la compañía continuaría expandiendo su capacidad informática a pesar de los cambios en las narrativas.

"No sé de dónde viene eso... la gente realmente quiere escribir la historia de la retirada", dijo. "Pero muy pronto volverá a ser como, 'OpenAI es tan imprudente. ¿Cómo pueden estar gastando esta cantidad tan loca?'"