什么是开放梯度?

OpenGradient 是一个去中心化的基础设施网络,旨在大规模托管、执行和验证人工智能模型推理,其中每次计算都会生成可以在链上检查的加密证明,而无需信任任何单个操作员。
该项目将自己描述为“开放智能网络”,最近推出了 $OPG 作为其原生代币,为网络的运营提供动力。 OpenGradient 的核心功能是作为 AI 协处理器,这是一个专用层,其他代理、区块链和应用程序可以将 AI 工作负载路由到该专用层,而不是依赖集中式 API 提供商。
今天,$OPG 作为支持 OpenGradient 可验证 AI 网络的原生代币推出。这标志着该网络全面上线,将具有安全、可验证的链上执行功能的无需许可的 AI 基础设施带入世界。 🧵👇🏻 pic.twitter.com/suQGK0L6F1
- OpenGradient (∇, ∇) (@OpenGradient) 2026 年 4 月 21 日
OpenGradient解决什么问题?
如今,每个人工智能应用程序都依赖于单点信任。当人工智能代理管理投资组合、批准贷款或审核内容时,目前无法独立验证运行的模型、使用的提示,或者输出在到达最终用户之前是否被修改。
根据 OpenGradient 的文档,人工智能基础设施正在整合到少数提供商中,这产生了三个具体问题。
不透明性:当大型语言模型做出影响金钱、健康或治理的决策时,无法证明系统内部发生了什么。模型版本可以悄无声息地更改,可以注入系统提示,并且可以在用户不知情的情况下过滤响应。
单点故障:如果提供程序出现故障、限制访问速率或更改模型行为,则依赖的应用程序将崩溃,并且没有后备和追索权。
无需验证即可信任:操作员可以在不泄露的情况下交换模型、注入内容或记录提示。对于金融代理人、医学推理工具或审计追踪来说,凭信心接受这一点并不是一个可行的方法。
OpenGradient 通过将验证设置为默认值而不是可选的附加组件来解决这三个问题。
OpenGradient 如何工作?
OpenGradient 基于混合 AI 计算架构(缩写为 HACA)构建,它将 AI 推理的执行与其验证分开。这种分离是使系统实用的关键架构决策。
当请求到来时,它会直接进入专门的推理节点并以 web2 级延迟返回。然后,密码证明由全节点异步提交和验证,然后永久记录在网络的 EVM 兼容链上。用户不会等待区块确认来接收响应,但每个响应最终都会得到解决并可审计。
有哪些不同的节点类型?
OpenGradient 使用专门的节点类型,而不是使用每个节点执行每个任务的单个验证器集。
全节点运行共识、管理账本、验证证据并处理支付结算。他们不运行模型或使用 GPU。
推理节点是执行模型的无状态 GPU 工作线程。它们有两种形式:LLM 代理节点,通过可信执行环境 (TEE) 飞地将请求路由到 OpenAI 和 Anthropic 等提供商,以及直接在硬件上运行开源模型的本地推理节点。
数据节点在安全飞地内运行,提供对价格源和 API 等外部数据的可信访问,并通过证明确认数据未被篡改。
名为 Walrus 的系统上的去中心化存储将模型文件和大型证明保存在链外,并通过分类账上记录的标识符进行引用。
这种分工意味着每个节点类型都可以针对其特定工作负载独立扩展和保护。
开发人员可以在 OpenGradient 上构建什么?
该网络支持企业、金融和消费者应用程序的一系列用例。其中一些现已推出,其他一些正在 alpha 测试网上开发。
目前可用:
AI 代理,其中每个 LLM 调用都使用所使用的确切提示进行加密签名,从而使推理链可在链上验证
通过带有 TEE 验证的统一 API 可验证访问模型,包括 GPT-4、Claude、Grok 和 Gemini
TEE 节点在硬件飞地内处理提示的隐私保护应用程序,防止节点操作员查看或记录请求
通过 MemSync 为 AI 应用程序提供持久内存,可在经过验证的基础设施上处理内存提取、分类和用户配置文件生成
在 alpha 测试网上开发中:
智能合约集成允许通过预编译从 Solidity 本地调用 AI 模型
原子人工智能事务,其中模型推理作为状态转换的一部分执行,而不是作为外部预言机调用
可组合的人工智能工作流程,可在单个事务中将多个模型与混合验证方法链接在一起
哇