Los investigadores reciben financiación para identificar riesgos potenciales en los sistemas de inteligencia artificial en medio de informes sobre unidades internas de gestión de riesgos disueltas

En un movimiento fundamental, OpenAI ha presentado un programa de becas de seguridad, que ofrece un importante estipendio semanal de 3.850 dólares a investigadores externos encargados de examinar los riesgos potenciales asociados con la IA avanzada. Este anuncio, realizado el 6 de abril, coincidió con una reveladora investigación de The New Yorker, que expuso que OpenAI había desmantelado sus equipos de seguridad internos y eliminado el término "de forma segura" de su declaración de misión presentada ante el IRS. La beca, diseñada como un programa piloto, tiene como objetivo fomentar la investigación independiente en seguridad y alineación, al tiempo que fomenta la próxima generación de talentos en este campo crítico.
Los generosos incentivos del programa incluyen un estipendio semanal de 3.850 dólares, equivalente a más de 200.000 dólares al año, además de aproximadamente 15.000 dólares en recursos computacionales y tutoría de los investigadores expertos de OpenAI. Los becarios tendrán la flexibilidad de trabajar desde el espacio de trabajo de Constellation en Berkeley o de forma remota, y las solicitudes se cerrarán el 3 de mayo. En particular, la beca no se limita a especialistas en IA, ya que OpenAI busca activamente candidatos de diversos orígenes, incluida la ciberseguridad, las ciencias sociales y la interacción persona-computadora, además de la informática.
El momento del anuncio es particularmente digno de mención, ya que se produjo inmediatamente después del informe de investigación de Ronan Farrow en The New Yorker, que documentó la desaparición de tres equipos de seguridad internos consecutivos en OpenAI en un lapso de 22 meses. El equipo de superalineación fue el primero en disolverse en mayo de 2024, seguido por el equipo de AGI Readiness en octubre de 2024 y, finalmente, el equipo de Mission Alignment en febrero de 2026. Un sorprendente comentario de un representante de OpenAI, en respuesta a la pregunta de un periodista sobre los investigadores de seguridad existencial, subrayó el aparente cambio de prioridades de la compañía: "¿Qué quieres decir con seguridad existencial? Eso no es una cosa".
Es fundamental señalar que la Beca de Seguridad no pretende reemplazar la infraestructura interna que se disolvió. En cambio, los becarios recibirán créditos API y recursos computacionales, pero no tendrán acceso directo a los sistemas de OpenAI, lo que posiciona al programa como una forma de financiación de investigación independiente. La agenda de investigación de la beca abarca siete áreas clave, incluida la evaluación de la seguridad, la ética, la solidez y las mitigaciones escalables, entre otras. Al finalizar el programa en febrero de 2027, se espera que cada becario produzca un resultado sustancial, como un trabajo de investigación, un punto de referencia o un conjunto de datos. OpenAI ha enfatizado que prioriza la capacidad de investigación, el juicio técnico y la capacidad de ejecución sobre credenciales académicas específicas.
Las implicaciones de este desarrollo se extienden mucho más allá de la industria de la IA, ya que tiene importantes repercusiones en el mercado en general. La confianza en los compromisos de seguridad de las empresas fronterizas de IA sirve como una señal crucial del mercado, que influye en la asignación de capital en la infraestructura de IA, los tokens de IA y los protocolos DePIN y agentes de IA, que se encuentran en la intersección de las criptomonedas y la inteligencia artificial. A medida que los inversores sigan de cerca la trayectoria de gasto y las prioridades operativas de OpenAI, se observará con atención el éxito de este programa de becas. La pregunta de si los investigadores externos, que trabajan sin acceso interno, pueden tener un impacto significativo en el desarrollo del modelo comenzará a tener respuesta cuando se dé a conocer la investigación de la primera cohorte a principios de 2027.