在 TPU Pod 切片上运行 JAX 代码
在单个 TPU 板上运行 JAX 代码后,您可以通过在 TPU Pod 切片上运行代码来扩容代码。 TPU Pod 切片是通过专用高速网络连接相互连接的多个 TPU 板。本文档介绍了如何在 TPU Pod 切片上运行 JAX 代码;如需了解更深入的信息,请参阅在多主机和多进程环境中使用 JAX。
如果您想使用装载的 NFS 进行数据存储,则必须为所有服务设置 OS Login Pod 切片中的 TPU 虚拟机。如需了解详情,请参阅使用 NFS 存储数据。设置环境
在 Cloud Shell 中,运行以下命令以确保 运行当前版本的
gcloud
:$ gcloud components update
如果您需要安装
gcloud
,请使用以下命令:$ sudo apt install -y google-cloud-sdk
创建一些环境变量:
$ export TPU_NAME=tpu-name $ export ZONE=us-central2-b $ export RUNTIME_VERSION=tpu-ubuntu2204-base $ export ACCELERATOR_TYPE=v4-32
创建 TPU Pod 切片
在运行本文档中的命令之前,请确保您已按照 设置账号和 Cloud TPU 项目中的说明。 在本地机器上运行以下命令。
使用 gcloud
命令可以创建 TPU Pod 切片。例如,如需创建 v4-32 Pod 切片,请使用以下命令:
$ gcloud compute tpus tpu-vm create ${TPU_NAME} \ --zone=${ZONE} \ --accelerator-type=${ACCELERATOR_TYPE} \ --version=${RUNTIME_VERSION}
在 Pod 切片上安装 JAX
创建 TPU Pod 切片之后,您必须在 TPU Pod 切片中的所有主机上安装 JAX。您可以使用 --worker=all
选项通过一个命令在所有主机上安装 JAX:
gcloud compute tpus tpu-vm ssh ${TPU_NAME} \ --zone=${ZONE} \ --worker=all \ --command="pip install \ --upgrade 'jax[tpu]>0.3.0' \ -f https://storage.googleapis.com/jax-releases/libtpu_releases.html"
在 Pod 切片上运行 JAX 代码
要在 TPU Pod 切片上运行 JAX 代码,您必须在 TPU Pod 切片中的每个主机上运行代码。jax.device_count()
调用在它在 Pod 切片中的每个主机上被调用之前将一直挂起。以下示例展示了如何在 TPU Pod 切片上运行 JAX 计算。
准备代码
您需要 gcloud
344.0.0 版或更高版本(对于 scp
命令)。使用 gcloud --version
检查您的 gcloud
版本,并根据需要运行 gcloud components upgrade
。
使用以下代码创建一个名为 example.py
的文件:
# The following code snippet will be run on all TPU hosts
import jax
# The total number of TPU cores in the Pod
device_count = jax.device_count()
# The number of TPU cores attached to this host
local_device_count = jax.local_device_count()
# The psum is performed over all mapped devices across the Pod
xs = jax.numpy.ones(jax.local_device_count())
r = jax.pmap(lambda x: jax.lax.psum(x, 'i'), axis_name='i')(xs)
# Print from a single host to avoid duplicated output
if jax.process_index() == 0:
print('global device count:', jax.device_count())
print('local device count:', jax.local_device_count())
print('pmap result:', r)
将 example.py
复制到 Pod 切片中的所有 TPU 工作器虚拟机
$ gcloud compute tpus tpu-vm scp example.py ${TPU_NAME} \ --worker=all \ --zone=${ZONE}
如果您以前未使用过 scp
命令,则可能会看到
错误,类似于以下内容:
ERROR: (gcloud.alpha.compute.tpus.tpu-vm.scp) SSH Key is not present in the SSH
agent. Please run `ssh-add /.../.ssh/google_compute_engine` to add it, and try
again.
如需解决此错误,请运行 ssh-add
命令,如
错误消息并重新运行该命令。
在 Pod 切片上运行代码
在每个虚拟机上启动 example.py
程序:
$ gcloud compute tpus tpu-vm ssh ${TPU_NAME} \ --zone=${ZONE} \ --worker=all \ --command="python3 example.py"
输出(使用 v4-32 Pod 切片生成):
global device count: 16
local device count: 4
pmap result: [16. 16. 16. 16.]
清理
完成 TPU 虚拟机的操作后,请按照以下步骤清理资源。
断开与 Compute Engine 实例的连接(如果您尚未这样做):
(vm)$ exit
您的提示符现在应为
username@projectname
,表明您位于 Cloud Shell 中。删除您的 Cloud TPU 和 Compute Engine 资源。
$ gcloud compute tpus tpu-vm delete ${TPU_NAME} \ --zone=${ZONE}
通过运行
gcloud compute tpus execution-groups list
验证资源是否已删除。删除操作可能需要几分钟时间才能完成。以下命令的输出不应包含本教程中创建的任何资源:$ gcloud compute tpus tpu-vm list --zone=${ZONE}