La nación debe prepararse para avances fundamentales en IA y peligros potenciales, dice líder tecnológico

El director ejecutivo de OpenAI, Sam Altman, dijo que los formuladores de políticas estadounidenses deben actuar ahora para prepararse para la inteligencia artificial avanzada, advirtiendo que la tecnología está pasando de la teoría al uso económico diario.
En una entrevista con Axios, Altman dijo que los sistemas de inteligencia artificial ya manejan tareas de codificación e investigación que alguna vez requirieron equipos de programadores. Los modelos más nuevos llegarán más lejos, dijo, ayudando a los científicos a realizar descubrimientos importantes y permitiendo a los individuos hacer el trabajo de grupos enteros.
Ese cambio ya es visible en la ciberseguridad, donde algunos líderes de la industria dicen que la inteligencia artificial está inclinando la balanza hacia los atacantes.
Charles Guillemet, director de tecnología del fabricante de billeteras de hardware Ledger, por ejemplo, dijo a CoinDesk que las herramientas de inteligencia artificial están reduciendo el costo y las habilidades necesarias para encontrar y explotar fallas de software. Tareas que antes llevaban meses, como la ingeniería inversa del código o la vinculación de múltiples vulnerabilidades, ahora se pueden completar en segundos con las indicaciones adecuadas.
El año pasado, la industria de la criptografía sufrió más de 1.400 millones de dólares en activos robados o perdidos en ataques. Esa cifra podría seguir creciendo, sugirió Guillemet. Además, los desarrolladores dependen cada vez más del código generado por IA, lo que potencialmente puede introducir nuevos fallos a escala.
La respuesta, afirmó, requerirá defensas más sólidas, como códigos verificados matemáticamente, dispositivos de hardware que mantengan las claves privadas fuera de línea y un reconocimiento más amplio de que los sistemas pueden fallar.
IA en ciberseguridad y bioseguridad
Si bien Altman señaló que la IA podría acelerar el descubrimiento de fármacos o la ciencia de materiales, también señaló que también podría permitir ciberataques más poderosos y reducir la barrera a la investigación biológica dañina. Estas amenazas pueden surgir dentro de un año, lo que hace urgente la coordinación entre el gobierno, las empresas tecnológicas y los grupos de seguridad.
"No estamos tan lejos de un mundo en el que existan modelos de código abierto increíblemente capaces y que sean muy buenos en biología", afirmó. "La necesidad de que la sociedad sea resiliente ante los grupos terroristas que utilizan estos modelos para intentar crear nuevos patógenos ya no es una cuestión teórica".
Otro ejemplo que sugirió fue un “ciberataque que sacudirá al mundo” que podría ocurrir ya este año. Evitar eso, dijo, requeriría una “enorme cantidad de trabajo”.
Enmarcó las ideas políticas de OpenAI como un punto de partida, con el objetivo de impulsar el debate sobre cómo gestionar sistemas que aprendan rápido y actúen en muchos campos. Dijo que es importante utilizar la IA para ayudar a defenderse contra estos posibles ataques.
Sobre la potencial nacionalización de OpenAI, Altman dijo que el caso en su contra se basa en la necesidad de que Estados Unidos alcance la “superinteligencia” antes que sus rivales.
"El argumento más importante contra la nacionalización sería que necesitamos que Estados Unidos tenga éxito en construir una superinteligencia de una manera que esté alineada con los valores democráticos de Estados Unidos antes de que alguien más lo haga", dijo. "Eso probablemente no funcionaría como proyecto gubernamental, creo que es algo triste".
Aún así, Altman dijo que cree que las empresas involucradas en IA deben trabajar estrechamente con el gobierno de Estados Unidos.
Dado su papel en OpenAI, Altman también tiene un interés financiero en cómo evoluciona el sector. Esa posición puede moldear la forma en que enmarca tanto la urgencia de la regulación como el papel de las empresas privadas como OpenAI en la gestión de los riesgos emergentes, que podrían influir en la posición competitiva de la empresa.
La IA como utilidad
La energía es un área en la que ve un rápido progreso porque una mayor capacidad de potencia de procesamiento podría mantener bajos los costos a medida que crece la demanda de IA.
Altman también señaló los primeros signos de cambios laborales. Un programador en 2026, dijo, ya trabaja de manera diferente a uno del año anterior.
La IA se convertirá en una especie de utilidad, como la electricidad, integrada en todos los dispositivos, mientras el costo de la inteligencia básica cae y los sistemas superiores siguen siendo costosos.
"Tendrás este súper asistente personal ejecutándose en la nube", dijo Altman. “Si lo usas mucho o con altos niveles de inteligencia tendrás una factura más alta al mes y si lo usas menos, tendrás una factura más baja”.
Es "increíblemente importante que las personas que crean IA sean personas íntegras y dignas de confianza".