Alphabet (GOOGL) 推出与 Broadcom 合作开发的双用途第八代 TPU 芯片

Alphabet 的谷歌部门于周三推出了两款专用人工智能处理器,这标志着其张量处理单元架构首次被分为用于训练和推理操作的不同芯片。谷歌云推出了最新一代张量处理单元(TPU),这是一款国产芯片,旨在使 AI 计算服务更快、更高效 https://t.co/MkGU7h2SkT — Bloomberg (@business) 2026 年 4 月 22 日 TPU 8t 专为 AI 模型训练而设计,而其对应产品 TPU 8i 则专门专注于推理,即在现实应用程序中部署经过训练的模型的过程。博通作为共同开发合作伙伴,双方的合作已持续十多年。 Alphabet Inc.、GOOGL 这代表了之前方法的战略支点。早期的 TPU 迭代将训练和推理功能结合在单个处理器中。谷歌将这一变化归因于代理人工智能系统的出现——在连续反馈循环中运行的自主模型,人类监督最少——这需要更多专用芯片。谷歌人工智能和基础设施高级副总裁兼首席技术专家 Amin Vahdat 解释道:“随着人工智能代理的兴起,我们确定社区将受益于专门满足训练和服务需求的芯片。”面向推理的 TPU 8i 每个处理器包含 384 MB SRAM,是 Ironwood 容量的三倍。据谷歌称,这种架构增强消除了“等候室”瓶颈,减少了多个用户同时查询模型时出现的延迟峰值。与 Ironwood 相比,TPU 8i 的成本效率提高了 80%。从运营角度来看,组织可以在不增加预算的情况下满足近一倍的用户需求。该芯片还展示了每瓦能源效率提高了 2 倍,这得益于动态电源管理技术,该技术可根据实时工作负载需求调节能耗。这两款处理器首次采用谷歌的 Axion CPU 作为主处理器,实现系统架构层面的优化,而不是限制单个芯片性能的提升。在训练能力方面,TPU 8t superpod 配置支持多达 9,600 个处理器和 2 PB 高带宽内存的集群。这意味着 Ironwood 的芯片间通信带宽增加了一倍,谷歌声称它可以将前沿模型的开发时间从几个月压缩到几周。该训练处理器的计算性能是同等价位第七代 Ironwood 架构的 2.8 倍。早期采用的势头正在增强。 Citadel Securities 使用 Google 的 TPU 基础设施开发了定量研究平台。美国能源部的所有 17 个国家实验室都在处理器上运行人工智能联合科学家应用程序。 Anthropic 承诺利用数千兆瓦的 Google TPU 计算能力。 DA Davidson 的分析师在 9 月份预测,谷歌 TPU 部门与 Google DeepMind 合并后,估值可能接近 9000 亿美元。谷歌维持 TPU 的独家分销模式——它们不可直接购买,只能通过 Google Cloud 服务访问。 Nvidia 继续向谷歌提供 GPU 硬件,该公司确认,当 Nvidia 即将推出的 Vera Rubin 平台于今年晚些时候推出时,它将成为首批提供该平台的云服务提供商之一。这些处理器是与 Google DeepMind 密切合作设计的,后者已部署这些处理器来训练 Gemini 语言模型并优化为搜索和 YouTube 平台提供支持的算法。谷歌宣布 TPU 8t 和 TPU 8i 将于 2025 年晚些时候向云平台客户全面上市。