研究人员获得资金,以在解散内部风险管理部门的报告中识别人工智能系统的潜在风险

作为一项关键举措,OpenAI 推出了安全奖学金计划,为负责检查与高级人工智能相关的潜在风险的外部研究人员提供每周 3,850 美元的大量津贴。这一公告于 4 月 6 日发布,恰逢《纽约客》进行了一项揭露性调查,调查揭露 OpenAI 已解散其内部安全团队,并从其向 IRS 提交的使命声明中删除了“安全”一词。该奖学金是一个试点项目,旨在促进安全和协调方面的独立研究,同时培养这一关键领域的下一代人才。
该计划的慷慨激励措施包括每周 3,850 美元的津贴,相当于每年超过 200,000 美元,此外还有价值约 15,000 美元的计算资源和 OpenAI 专家研究人员的指导。研究员将可以灵活地在 Constellation 的伯克利工作区或远程工作,申请将于 5 月 3 日截止。值得注意的是,该奖学金并不局限于人工智能专家,因为 OpenAI 正在积极寻找来自不同背景的候选人,除了计算机科学之外,还包括网络安全、社会科学和人机交互。
这一宣布的时机特别值得注意,因为它紧随 Ronan Farrow 在《纽约客》上发表的调查报告之后发布,该报告记录了 OpenAI 在 22 个月内连续三个内部安全团队的消亡。超级对齐团队首先于 2024 年 5 月解散,随后是 AGI 准备团队于 2024 年 10 月解散,最后是任务对齐团队于 2026 年 2 月解散。OpenAI 代表在回答记者关于存在安全研究人员的询问时发表了引人注目的言论,强调了该公司优先事项的明显转变:“你所说的存在安全是什么意思?这不是一个东西。”
值得注意的是,安全奖学金并不是要取代已解散的内部基础设施。相反,研究员将获得 API 学分和计算资源,但无法直接访问 OpenAI 的系统,从而将该计划定位为一种独立研究资助的形式。该奖学金的研究议程涵盖七个关键领域,包括安全评估、伦理、稳健性和可扩展的缓解措施等。到 2027 年 2 月该计划结束时,每位研究员预计将产生大量成果,例如研究论文、基准测试或数据集。 OpenAI 强调,它优先考虑研究能力、技术判断和执行能力,而不是具体的学历。
这一发展的影响远远超出了人工智能行业,因为它对更广泛的市场具有重大影响。对前沿人工智能公司安全承诺的信心是一个重要的市场信号,影响人工智能基础设施、人工智能代币以及位于加密货币和人工智能交叉点的 DePIN 和人工智能代理协议的资本配置。随着投资者密切关注 OpenAI 的支出轨迹和运营优先事项,该奖学金计划的成功将受到密切关注。当第一批研究于 2027 年初公布时,外部研究人员在没有内部访问的情况下工作是否能够对模型开发产生有意义的影响这一问题将开始得到解答。