TPU 架构

张量处理单元 (TPU) 是 Google 设计的专用集成电路 (ASIC),用于加速机器学习工作负载。Cloud TPU 是一种 Google Cloud 服务,可将 TPU 用作可扩缩资源。

TPU 旨在快速执行矩阵运算,非常适合机器学习工作负载。您可以使用 PytorchJAX 等框架在 TPU 上运行机器学习工作负载。

TPU 如何运作?

为了理解 TPU 的工作原理,我们不妨了解一下其他加速器如何应对训练机器学习模型的计算挑战。

CPU 的工作方式

CPU 是一种基于冯·诺依曼结构的通用处理器。这意味着 CPU 与软件和内存协同工作,如下所示:

CPU 工作方式图示

CPU 最大的优点是它们的灵活性。您可以在 CPU 上为许多不同类型的应用加载任何类型的软件。例如,您可以使用 CPU 在 PC 上进行文字处理、控制火箭发动机、处理银行交易或通过神经网络对图片进行分类。

对于每次计算,CPU 从内存加载值,对值执行计算,然后将结果存储回内存中。与计算速度相比,内存访问速度较慢,并可能会限制 CPU 的总吞吐量。这通常称为冯·诺依曼瓶颈

GPU 的工作方式

为了提高吞吐量,GPU 在单个处理器中包含数千个算术逻辑单元 (ALU)。现代 GPU 通常包含 2500 - 5000 个 ALU。如此大量的处理器意味着您可以同时执行数千次乘法和加法运算。

GPU 工作方式图示

这种 GPU 架构非常适合并行处理大量运算(例如神经网络中的矩阵运算)的应用。实际上,在用于深度学习的典型训练工作负载上,GPU 的吞吐量可比 CPU 高出一个数量级。

不过,GPU 仍然是一种通用处理器,必须支持许多不同应用和软件。因此,GPU 与 CPU 存在同样的问题。对于数千个 ALU 中的每一次计算,GPU 都必须访问寄存器或共享内存,以读取运算对象以及存储中间计算结果。

TPU 的工作方式

Google 设计了 Cloud TPU,它们是专门用于神经网络工作负载的矩阵处理器。TPU 不能运行文字处理程序、控制火箭引擎或执行银行交易,但它们可以很快地处理神经网络中使用的大量矩阵运算。

TPU 的主要任务是矩阵处理,这是乘法和累加运算的组合。TPU 包含数千个乘法累加器,这些累加器彼此直接连接以形成大型物理矩阵。这称为脉动阵列架构。Cloud TPU v3 在单个处理器上包含两个 128 x 128 ALU 的脉动阵列。

TPU 主机将数据流式传输到馈入队列中。TPU 从馈入队列加载数据,并将其存储在 HBM 内存中。计算完成后,TPU 会将结果加载到馈出队列中。然后,TPU 主机从馈出队列读取结果并将其存储在主机的内存中。

为了执行矩阵运算,TPU 将 HBM 内存中的参数加载到矩阵乘法单元 (MXU) 中。

图示:TPU 如何从内存加载参数

然后,TPU 从内存加载数据。每次执行乘法运算时,系统都会将结果传递给下一个乘法累加器。输出是数据和参数之间所有乘法结果的总和。在矩阵乘法过程中,不需要访问内存。

图示:TPU 如何从内存加载数据

因此,TPU 可以在神经网络计算中实现高计算吞吐量。

TPU 系统架构

以下部分介绍了 TPU 系统的关键概念。如需详细了解常见的机器学习术语,请参阅机器学习术语库

如果您是 Cloud TPU 新手,请参阅 TPU 文档首页

TPU 芯片

一个 TPU 芯片包含一个或多个 TensorCore。TensorCore 数量取决于 TPU 芯片的版本。每个 TensorCore 都由一个或多个矩阵乘法单元 (MXU)、一个矢量单元和一个标量单元组成。如需详细了解 TensorCore,请参阅用于训练深度神经网络的领域专用超级计算机

MXU 由 256 x 256(TPU v6e)或 128 x 128(TPU 版本低于 v6e)的乘法累加器组成,这些累加器位于脉动阵列中。MXU 在 TensorCore 中提供大部分计算能力。每个 MXU 能够在每个周期中执行 16K 乘法累加运算。所有乘法都采用 bfloat16 输入,但所有累加均采用 FP32 数字格式执行。

矢量单元用于一般计算,例如激活和 softmax。标量单元用于控制流、计算内存地址和其他维护操作。

TPU Pod

TPU Pod 是一组通过专用网络组合在一起的连续 TPU。TPU Pod 中的 TPU 芯片数量取决于 TPU 版本。

切片

切片是一组位于同一 TPU Pod 内的芯片,这些芯片通过高速芯片间互连 (ICI) 连接。切片以芯片或 TensorCore 的形式进行描述,具体取决于 TPU 版本。

条状标签形状条状标签拓扑也指的是 slice 形状。

多切片与单切片

多切片是一组切片,可将 TPU 连接扩展到芯片间互连 (ICI) 连接之外,并利用数据中心网络 (DCN) 在切片之外传输数据。每个 slice 中的数据仍由 ICI 传输。借助这种混合连接,多切片可实现跨切片并行处理,让您可以为单个作业使用比单个切片可容纳的更多 TPU 核心。

TPU 可用于在单个切片或多个切片上运行作业。如需了解详情,请参阅多 Slice 简介

TPU Cube

互连 TPU 芯片的 4x4x4 拓扑。这仅适用于 3D 拓扑(从 TPU v4 开始)。

SparseCore

SparseCore 是一种数据流处理器,可利用推荐模型中的嵌入来加速模型。v5p 每个芯片包含 4 个 SparseCore,v6e 每个芯片包含 2 个 SparseCore。

Cloud TPU ICI 弹性

ICI 弹性有助于提高在立方体之间连接 TPU 的光纤链路和光电路开关 (OCS) 的容错性。(立方体内的 ICI 连接使用不受影响的铜线)。ICI 弹性功能可绕过 OCS 和光学 ICI 故障来路由 ICI 连接。因此,它可以提高 TPU slice 的调度可用性,但代价是 ICI 性能会暂时下降。

对于 Cloud TPU v4 和 v5p,如果切片大小为 1 个立方或更大,则默认启用 ICI 弹性功能,例如:

  • 指定加速器类型时使用 v5p-128
  • 指定加速器配置时为 4x4x4

TPU 版本

TPU 芯片的确切架构取决于您使用的 TPU 版本。每个 TPU 版本还支持不同的 slice 大小和配置。如需详细了解系统架构和受支持的配置,请参阅以下页面:

TPU 云架构

Google Cloud 可通过 TPU 虚拟机将 TPU 用作计算资源。您可以直接为工作负载使用 TPU 虚拟机,也可以通过 Google Kubernetes Engine 或 Vertex AI 使用它们。以下部分介绍了 TPU 云架构的关键组件。

TPU 虚拟机架构

借助 TPU 虚拟机架构,您可以使用 SSH 直接连接到与 TPU 设备物理连接的虚拟机。TPU 虚拟机(也称为工作器)是运行 Linux 且可以访问底层 TPU 的虚拟机。您拥有对虚拟机的根访问权限,因此可以运行任意代码。您可以访问编译器和运行时调试日志和错误消息。

TPU 虚拟机架构

单主机、多主机和子主机

TPU 主机是指在连接到 TPU 硬件的物理计算机上运行的虚拟机。TPU 工作负载可以使用一个或多个主机。

单主机工作负载仅限于一个 TPU 虚拟机。多主机工作负载会在多个 TPU 虚拟机之间分配训练任务。子主机工作负载不会使用 TPU 虚拟机上的所有芯片。

TPU 节点架构(已弃用)

TPU 节点架构由一个用户虚拟机组成,该虚拟机通过 gRPC 与 TPU 主机通信。使用这种架构时,您无法直接访问 TPU 主机,因此很难调试训练和 TPU 错误。

TPU 节点架构

从 TPU 节点架构迁移到 TPU 虚拟机架构

如果您有使用 TPU 节点架构的 TPU,请按照以下步骤将其识别、删除并重新配置为 TPU 虚拟机。

  1. 前往 TPU 页面:

    前往 TPU

    架构标题下方找到您的 TPU 及其架构。 如果架构为“TPU VM”,则无需执行任何操作。如果架构为“TPU 节点”,您需要删除并重新预配 TPU。

  2. 删除并重新预配 TPU。

    如需了解如何删除重新预配 TPU,请参阅管理 TPU

后续步骤