科技巨头透露,随着复杂的人工智能工具能够绕过增强的安全措施,网络威胁不断演变

谷歌威胁情报小组表示,它发现了有史以来首例黑客利用人工智能开发零日漏洞的案例。
该组织在周二的博客文章中表示,它“观察到著名的网络犯罪威胁参与者合作计划大规模漏洞利用行动”,利用零日漏洞绕过未命名的“流行的开源、基于网络的系统管理工具”的双因素身份验证。
该漏洞首先需要有效的用户凭据,但绕过了第二个身份验证因素,该因素通常也用于保护加密帐户和钱包的安全。
人工智能越来越多地用于网络安全和加密货币黑客,以实施漏洞利用或诈骗。人工智能公司 Anthropic 上个月声称,其最新的人工智能模型 Claude Mythos 在主要系统中发现了数千个软件漏洞。
谷歌表示,它“高度确信攻击者可能利用人工智能模型来支持该漏洞的发现和武器化”,因为该漏洞的脚本包括幻觉和人工智能模型训练数据的“高度特征”格式。
该报告没有具体说明威胁者,但谷歌表示,中国和朝鲜“对利用人工智能发现漏洞表现出了浓厚的兴趣”。
法学硕士擅长高级缺陷识别
谷歌表示,该漏洞并非源于内存损坏等“常见实现错误”,而是源于开发人员对信任假设进行硬编码的“高级语义逻辑缺陷”。
谷歌补充说,这意味着攻击者使用了前沿大语言模型(LLM),因为该模型擅长识别高级缺陷和“硬编码静态异常”。
谷歌表示,PROMPTFLUX、HONESTCUE 和 CANFAIL 等几个恶意软件家族也使用 LLM 进行防御规避,生成诱饵或填充代码来伪装恶意逻辑。
LLM 漏洞发现能力与其他发现机制相比。来源:谷歌
工业化法学硕士滥用现象正在增加
LLM 访问滥用正在变得工业化,因为威胁行为者已经建立了自动化管道来循环访问高级 AI 帐户、池 API 密钥并大规模绕过安全护栏 - 有效地运行由试用帐户滥用资助的对抗性操作。
“通过利用反检测浏览器和帐户池服务,参与者试图维持对高级 LLM 级别的大容量、匿名访问,从而有效地将其对抗性工作流程工业化。”
谷歌得出的结论是,随着组织继续将法学硕士整合到生产环境中,人工智能软件生态系统已成为利用的主要目标。
报告指出,攻击者越来越多地瞄准赋予人工智能系统效用的集成组件,例如自主技能和“第三方数据连接器”,但威胁行为者尚未实现绕过前沿模型核心安全逻辑的突破性能力。