原文:Google unveils two new TPUs designed for the "agentic era"

大多数完全致力于构建人工智能模型的公司都在吞噬他们可以获得的所有 Nvidia 人工智能加速器,但谷歌采取了不同的方法。其大部分云人工智能基础设施都基于其定制张量处理单元(TPU)系列。在 2025 年发布第七代 Ironwood TPU 后,该公司已转向第八代版本,但这不仅仅是同一芯片的更快迭代。

该公司表示,新的 TPU 有两种版本,为谷歌及其客户提供了更快、更高效的人工智能平台。谷歌正在推动这样的想法:“代理时代”与之前的人工智能系统根本不同,需要一种新的硬件方法。因此工程师设计了 TPU8t(用于训练)和 TPU 8i(用于推理)。

在人工智能模型成为可以用来分析数据或制作愚蠢表情包的东西之前,它们需要接受训练。 TPU 8t 专为 AI 生命周期的这一部分而设计,可将前沿 AI 模型的训练时间从数月缩短至数周。

更新后的 Tensor 8t 服务器集群(Google 称之为“pods”)现在容纳 9600 个芯片,并具有 2 PB 共享高带宽内存。谷歌声称 TPU 8t 甚至可以线性扩展,单个逻辑集群中最多可容纳一百万个芯片。正是这样的创新让超大尺寸的人工智能模型变得更快,同时也推高了其他人的 RAM 价格。但如果您参与构建那些巨大的 AI 模型,所有这些硬件都可以节省时间,每个 Pod 的计算量高达 121 FP4 EFlops。这几乎比 Ironwood 的训练计算上限高出三倍。

阅读原文 →