使用 Pax 在单主机 TPU 上训练


本文档简要介绍如何使用 Pax 在单主机 TPU 上运行时 (v2-8、v3-8、v4-8)。

Pax 是一个用于配置 在 JAX 的基础上运行机器学习实验。Pax 聚焦 介绍如何通过共享基础架构组件大规模简化机器学习 现有的机器学习框架,并利用 适用于模块化的 Praxis 建模库。

目标

  • 设置 TPU 资源以进行训练
  • 在单主机 TPU 上安装 Pax
  • 使用 Pax 训练基于 Transformer 的 SPMD 模型

准备工作

运行以下命令将 gcloud 配置为使用 您的 Cloud TPU 项目,并安装训练所需的组件 在单主机 TPU 上运行 Pax 的模型。

安装 Google Cloud CLI

Google Cloud CLI 包含用于交互 Google Cloud CLI 产品和服务。如果您尚未安装 请立即按照安装 Google Cloud CLI 中的说明进行安装。

配置 gcloud 命令

(运行 gcloud auth list 以查看可用的账号)。

$ gcloud config set account account

$ gcloud config set project project-id

启用 Cloud TPU API

使用以下 gcloud 命令启用 Cloud TPU API 在 Cloud Shell 中运行。 (您也可以通过 Google Cloud 控制台

$ gcloud services enable tpu.googleapis.com

运行以下命令以创建服务身份(服务账号)。

$ gcloud beta services identity create --service tpu.googleapis.com

创建 TPU 虚拟机

借助 Cloud TPU 虚拟机,您的模型和代码可以直接在 TPU 虚拟机上运行。您可以直接通过 SSH 连接到 TPU 虚拟机。你可以 代码、安装软件包、查看日志和调试代码。

从以下位置运行以下命令来创建 TPU 虚拟机: Cloud Shell 或您的计算机终端 安装了 Google Cloud CLI

请根据合同中的空闲情况设置zone, 参考 TPU 区域和可用区 (如果需要的话)。

accelerator-type 变量设置为 v2-8、v3-8 或 v4-8。

version 变量设置为 tpu-vm-basetpu-vm-v4-base(对于 v4 TPU)。

$ gcloud compute tpus tpu-vm create tpu-name \
--zone zone \
--accelerator-type accelerator-type \
--version version

连接到您的 Google Cloud TPU 虚拟机

使用以下命令通过 SSH 连接到您的 TPU 虚拟机:

$ gcloud compute tpus tpu-vm ssh tpu-name --zone zone

登录虚拟机后,Shell 提示符会从 username@projectnameusername@vm-name

在 Google Cloud TPU 虚拟机上安装 Pax

使用以下命令在 TPU 虚拟机上安装 Pax、JAX 和 libtpu

(vm)$ python3 -m pip install -U pip \
python3 -m pip install paxml jax[tpu] 
-f https://storage.googleapis.com/jax-releases/libtpu_releases.html

系统检查

通过检查 JAX 看到 TPU 核心:

(vm)$ python3 -c "import jax; print(jax.device_count())"

系统显示 TPU 核心数,如果您使用 v2-8 或 v3-8;如果您使用的是 v4-8,则为 4。

在 TPU 虚拟机上运行 Pax 代码

现在,您可以根据需要运行任何 Pax 代码。lm_cloud 样本 是开始在 Pax 中运行模型的绝佳起点。例如, 来训练 基于 2B 参数转换器的 SPMD 语言模型(基于合成数据)。

以下命令显示了 SPMD 语言的训练输出 model.它在大约 20 分钟内可以训练 300 步。

(vm)$ python3 .local/lib/python3.8/site-packages/paxml/main.py  --exp=tasks.lm.params.lm_cloud.LmCloudSpmd2BLimitSteps --job_log_dir=job_log_dir

在 v4-8 切片上,输出应包括:

落败次数和单步用时

摘要张量,位于 step=step_# loss = loss
摘要张量,位于 step=step_# Steps per second x

清理

为避免因本教程中使用的资源导致您的 Google Cloud 账号产生费用,请删除包含这些资源的项目,或者保留项目但删除各个资源。

完成 TPU 虚拟机的操作后,请按照以下步骤清理资源。

断开与 Compute Engine 实例的连接(如果您尚未这样做):

(vm)$ exit

删除您的 Cloud TPU。

$ gcloud compute tpus tpu-vm delete tpu-name  --zone zone

后续步骤

如需详细了解 Cloud TPU,请参阅: