在 Cloud TPU 上训练 EfficientNet (TF 2.x)


本教程介绍如何使用 tf.distribute.TPUStrategy 在 Cloud TPU 上训练 Keras EfficientNet 模型。

如果您不熟悉 Cloud TPU,强烈建议您查看快速入门以了解如何创建 Cloud TPU 和 Compute Engine 虚拟机。

目标

  • 创建 Cloud Storage 存储分区以保存数据集和模型输出。
  • 准备与 ImageNet 数据集类似的 fake_imagenet 数据集。
  • 运行训练作业。
  • 验证输出结果。

费用

在本文档中,您将使用 Google Cloud 的以下收费组件:

  • Compute Engine
  • Cloud TPU
  • Cloud Storage

您可使用价格计算器根据您的预计使用情况来估算费用。 Google Cloud 新用户可能有资格申请免费试用

准备工作

在开始学习本教程之前,请检查您的 Google Cloud 项目是否已正确设置。

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Make sure that billing is enabled for your Google Cloud project.

  6. 本演示使用 Google Cloud 的收费组件。请查看 Cloud TPU 价格页面估算您的费用。请务必在使用完您创建的 TPU 虚拟机资源后清理这些资源,以免产生不必要的费用。

Cloud TPU 单设备训练

本部分介绍如何配置 Cloud TPU 资源,以及如何使用单台 Cloud TPU 设备训练 EfficientNet 模型。

  1. 打开一个 Cloud Shell 窗口。

    打开 Cloud Shell

  2. 为项目 ID 创建一个变量。

    export PROJECT_ID=project-id
  3. 将 Google Cloud CLI 配置为使用您要创建的项目 Cloud TPU。

    gcloud config set project ${PROJECT_ID}

    当您第一次在新的 Cloud Shell 虚拟机中运行此命令时,系统会显示 Authorize Cloud Shell 页面。点击底部的 Authorize 允许 gcloud 使用您的凭据进行 API 调用。

    如需详细了解 gcloud 命令,请参阅 gcloud 参考文档

  4. 为 Cloud TPU 项目创建服务账号。

    借助服务账号,Cloud TPU 服务可以访问 Google Cloud 服务。

    gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID

    该命令将返回以下格式的 Cloud TPU 服务账号:

    service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
    

  5. 导出 TPU 设置变量

    设置要在其中训练模型并存储任何训练相关数据的区域。

    $ export ZONE=europe-west4-a
  6. 使用以下命令创建 Cloud Storage 存储分区:

    gcloud storage buckets create gs://bucket-name --project=${PROJECT_ID} --location=europe-west4

    此 Cloud Storage 存储分区存储您用于训练模型的数据和训练结果。您可以使用 gcloud compute tpus tpu-vm 命令 为您设置的 Cloud TPU 服务账号设置默认权限 。如果您需要更精细的权限,请查看访问级层权限

    存储分区位置必须要与 Compute Engine(虚拟机)和 Cloud TPU 节点位于同一区域。

  7. 准备数据集或使用 fake_imagenet

    ImageNet 是一个图片数据库。数据库中的图片被整理为一个层次结构,该层次结构中的每个节点由成百上千个图片进行描述。

    本教程使用演示版的完整 ImageNet 数据集,该数据集又称为 fake_imagenet。此演示版本可用于测试教程,同时降低通常与使用完整 ImageNet 数据库运行模型相关的存储空间和时间要求。

    此 fake_imagenet 数据集位于 Cloud Storage 上的以下位置:

    gs://cloud-tpu-test-datasets/fake_imagenet

    此 fake_imagenet 数据集仅用于了解如何使用 Cloud TPU 并验证端到端性能。准确率 和保存的模型就没有意义了。

    如果您要使用完整的 ImageNet 数据集,请参阅下载、预处理和上传 ImageNet 数据集

  8. 使用 gcloud 命令启动 TPU 资源。

    $ gcloud compute tpus tpu-vm create efficientnet-tutorial \
      --zone=${ZONE} \
      --accelerator-type=v3-8 \
      --version=tpu-vm-tf-2.17.0-pjrt

    命令标志说明

    zone
    拟在其中创建 Cloud TPU 的区域
    accelerator-type
    加速器类型用于指定您要创建的 Cloud TPU 的版本和大小。 如需详细了解每个 TPU 版本支持的加速器类型,请参阅 TPU 版本
    version
    Cloud TPU 软件版本

    如需详细了解 gcloud 命令,请参阅 gcloud 参考文档

  9. 使用 SSH 连接到 Compute Engine 实例。连接到网络后 您的 Shell 提示符会从 username@projectname 更改为 username@vm-name:

    gcloud compute tpus tpu-vm ssh efficientnet-tutorial --zone=${ZONE}
  10. 设置 Cloud TPU 名称变量。

    (vm)$ export TPU_NAME=local
  11. 设置 Cloud Storage 存储分区变量

    bucket-name 替换为您的 Cloud Storage 存储分区的名称:

    (vm)$ export STORAGE_BUCKET=gs://bucket-name
    (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/efficientnet-2x
    (vm)$ export DATA_DIR=gs://cloud-tpu-test-datasets/fake_imagenet

    训练应用预期能够访问您在 Cloud Storage 中的训练数据。在训练期间,训练应用还会使用您的 Cloud Storage 存储分区来存储检查点。

  12. 创建 TPU 时,如果您将 --version 参数设置为以 -pjrt 时,请设置以下环境变量以启用 PJRT 运行时:

      (vm)$ export NEXT_PLUGGABLE_DEVICE_USE_C_API=true
      (vm)$ export TF_PLUGGABLE_DEVICE_LIBRARY_PATH=/lib/libtpu.so
  13. 安装 TensorFlow 要求。

    (vm)$ pip3 install -r /usr/share/tpu/models/official/requirements.txt
  14. EfficientNet 训练脚本需要额外的软件包。 请立即安装:

    (vm)$ sudo pip3 install tensorflow-addons
    (vm)$ sudo pip3 install tensorflow-model-optimization>=0.1.3
  15. 设置一些所需的环境变量:

    (vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/tpu/models"

    EfficientNet 模型已预安装在 Cloud TPU 虚拟机上。

  16. 切换至存储模型的目录。

    (vm)$ cd /usr/share/tpu/models/official/legacy/image_classification
  17. 训练模型。 使用一个 false_imagenet 数据集并用一个周期训练 EfficientNet。

    (vm)$ python3 classifier_trainer.py \
      --mode=train_and_eval \
      --model_type=efficientnet \
      --dataset=imagenet \
      --tpu=${TPU_NAME} \
      --data_dir=${DATA_DIR} \
      --model_dir=${MODEL_DIR} \
      --config_file=configs/examples/efficientnet/imagenet/efficientnet-b0-tpu.yaml \
      --params_override="train.epochs=1, train_dataset.builder=records, validation_dataset.builder=records"

    命令标志说明

    mode
    trainevaltrain_and_eval 之一。
    model_type
    模型的类型。例如 efficientnet
    dataset
    数据集的名称。例如 imagenet
    tpu
    运行训练或评估的 Cloud TPU 的名称。
    data_dir
    用于指定训练输入的 Cloud Storage 路径。在此示例中,该路径设置为 fake_imagenet 数据集。
    model_dir
    存储检查点和摘要的 Cloud Storage 路径 模型训练期间的预测。您可以重复使用现有的文件夹来加载之前生成的检查点和存储其他检查点,只要先前的检查点是使用相同大小的 Cloud TPU 和相同 Tensorflow 版本创建的即可。
    config_file
    包含预训练 EfficientNet 模型的 json 文件的路径。此文件包含模型架构。
    params_override
    一个 JSON 字符串,会替换默认脚本参数。有关 如需了解脚本参数,请参阅 /usr/share/models/official/legacy/detection/main.py

    EfficientNet 1 周期的训练将在 40 分钟内在 v3-8 Cloud TPU 节点上完成。训练脚本 完成后,系统会显示类似于以下内容的输出:

    Run stats:
    {
      'accuracy_top_1': 0.0010172526817768812,
      'eval_loss': 7.104171276092529,
      'loss': 7.113735675811768,
      'training_accuracy_top_1': 0.0009773431811481714,
      'step_timestamp_log': [
        'BatchTimestamp<batch_index: 0,
        timestamp: 1604960724.2224622>',
        'BatchTimestamp<batch_index: 1251,
        timestamp: 1604961281.3745298>'
      ],
      'train_finish_time': 1604961342.6359076,
      'avg_exp_per_second': 2071.493269569079
    }
    

    要在 ImageNet 数据集上训练 EfficientNet 收敛,请运行它 90 个周期,如以下脚本所示。训练和评估是一起完成的。每个周期都有 1251 个步骤,总计 112590 个训练步骤和 48 个评估步骤。

    (vm)$ python3 classifier_trainer.py \
         --mode=train_and_eval \
         --model_type=efficientnet \
         --dataset=imagenet \
         --tpu=${TPU_NAME} \
         --data_dir=${DATA_DIR} \
         --model_dir=${MODEL_DIR} \
         --config_file=configs/examples/efficientnet/imagenet/efficientnet-b0-tpu.yaml \
         --params_override="train_dataset.builder=records, validation_dataset.builder=records"

    命令标志说明

    mode
    以下其中一项:trainevaltrain_and_eval
    model_type
    模型的类型。例如 efficientnet
    dataset
    数据集的名称。例如 imagenet
    tpu
    运行训练或评估的 Cloud TPU 的名称。
    data_dir
    用于指定训练输入的 Cloud Storage 路径。在此示例中,该路径设置为 fake_imagenet 数据集。
    model_dir
    在模型训练期间存储检查点和总结的 Cloud Storage 路径。您可以重复使用现有的文件夹来加载之前生成的检查点和存储其他检查点,只要先前的检查点是使用相同大小的 Cloud TPU 和相同 Tensorflow 版本创建的即可。
    config_file
    包含预训练 EfficientNet 模型的 JSON 文件的路径。此文件包含模型架构。
    params_override
    一个 JSON 字符串,会替换默认脚本参数。有关 脚本参数的详细信息,请参阅 /usr/share/models/official/legacy/detection/main.py

    由于训练是在 fake_imagenet 数据集上完成的,因此 结果未反映训练时会显示的实际输出 对真实数据集执行的预测。

    您现已完成单设备训练。请按照以下步骤删除当前的单设备 TPU 资源。

  18. 与 Compute Engine 实例断开连接:

    (vm)$ exit

    您的提示符现在应为 username@projectname,表明您位于 Cloud Shell 中。

  19. 删除 TPU 资源。

    $ gcloud compute tpus tpu-vm delete efficientnet-tutorial \
     --zone=${ZONE}

    命令标志说明

    zone
    您的 Cloud TPU 所在的可用区

此时,您可以结束本教程并清理,也可以继续并探索在 Cloud TPU Pod 上运行模型。

使用 Cloud TPU Pod 扩缩模型

在 Cloud TPU Pod 上训练模型可能需要进行一些更改 添加到训练脚本中。如需了解相关信息,请参阅在 TPU Pod 上训练

Cloud TPU Pod 训练

本部分介绍如何为 Pod 训练设置 Cloud Storage 存储分区和 Cloud TPU 资源。

  1. 打开一个 Cloud Shell 窗口。

    打开 Cloud Shell

  2. 为项目 ID 创建一个变量。

    export PROJECT_ID=project-id
  3. 将 Google Cloud CLI 配置为使用您要创建的项目 Cloud TPU。

    gcloud config set project ${PROJECT_ID}

    当您第一次在新的 Cloud Shell 虚拟机中运行此命令时,系统会显示 Authorize Cloud Shell 页面。点击底部的 Authorize 允许 gcloud 使用您的凭据进行 Google Cloud API 调用。

  4. 为 Cloud TPU 项目创建服务账号。

    借助服务账号,Cloud TPU 服务可以访问 Google Cloud 服务。

    gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID

    该命令将返回以下格式的 Cloud TPU 服务账号:

    service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
    

  5. 使用以下命令创建 Cloud Storage 存储分区,或使用您之前为项目创建的存储分区:

    gcloud storage buckets create gs://bucket-name --project=${PROJECT_ID} --location=europe-west4

    此 Cloud Storage 存储分区存储您用于训练模型的数据和训练结果。本教程中使用的 gcloud 命令会为您在上一步中设置的 Cloud TPU 服务账号设置默认权限。如果您需要更精细的权限,请查看访问级层权限

    存储分区位置必须与 TPU 虚拟机位于同一区域。

  6. 导出 TPU 设置变量

    设置要在其中训练模型并存储任何训练相关数据的区域。

    $ export ZONE=europe-west4-a

  7. Prepare your dataset or use fake_imagenet

    ImageNet is an image database. The images in the database are organized into a hierarchy, with each node of the hierarchy depicted by hundreds and thousands of images.

    The default Pod training accesses a demonstration version of the full ImageNet dataset, referred to as fake_imagenet. This demonstration version allows you to test Pod training, while reducing the storage and time requirements typically associated with training a model against the full ImageNet database.

    The fake_imagenet dataset is only useful for understanding how to use a Cloud TPU and validating end-to-end performance. The accuracy numbers and saved model will not be meaningful.

    If you want to use the full ImageNet dataset, see Downloading, preprocessing, and uploading the ImageNet dataset.

  8. Launch your Cloud TPU resources using the gcloud command.

    For more information on the gcloud command, see the gcloud Reference. This tutorial specifies a v3-32 Pod. For other Pod options, see the available TPU types page.

    This tutorial specifies a v3-32 Pod. For other Pod options, see the available TPU types page.

    $ gcloud compute tpus tpu-vm create efficientnet-tutorial \
     --zone=${ZONE} \
     --accelerator-type=v3-32 \
     --version=tpu-vm-tf-2.17.0-pod-pjrt

    命令标志说明

    zone
    拟在其中创建 Cloud TPU 的区域
    accelerator-type
    加速器类型指定要创建的 Cloud TPU 的版本和大小。 如需详细了解每个 TPU 版本支持的加速器类型,请参阅 TPU 版本
    version
    Cloud TPU 软件版本
  9. 使用 SSH 连接到 Compute Engine 实例。连接到虚拟机后,shell 提示符会从 username@projectname 更改为 username@vm-name

    gcloud compute tpus tpu-vm ssh efficientnet-tutorial --zone=europe-west4-a
  10. 导出 TPU 设置变量:

    (vm)$ export STORAGE_BUCKET=gs://bucket-name
    (vm)$ export TPU_NAME=efficientnet-tutorial
    (vm)$ export DATA_DIR=gs://cloud-tpu-test-datasets/fake_imagenet
    (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/efficientnet-2x-pod

    训练应用预期能够访问您在 Cloud Storage 中的训练数据。在训练期间,训练应用还会使用您的 Cloud Storage 存储分区来存储检查点。

  11. 安装 TensorFlow 要求。

    (vm)$ pip3 install -r /usr/share/tpu/models/official/requirements.txt
  12. 设置一些所需的环境变量:

    (vm)$ export PYTHONPATH="/usr/share/tpu/models:${PYTHONPATH}"
    (vm)$ export TPU_LOAD_LIBRARY=0
  13. 切换至存储模型的目录。

    (vm)$ cd /usr/share/tpu/models/official/legacy/image_classification/
  14. 训练模型。

    (vm)$ python3 classifier_trainer.py \
    --mode=train_and_eval \
    --model_type=efficientnet \
    --dataset=imagenet \
    --tpu=${TPU_NAME} \
    --data_dir=${DATA_DIR} \
    --model_dir=${MODEL_DIR} \
    --config_file=configs/examples/efficientnet/imagenet/efficientnet-b0-tpu.yaml \
    --params_override="train.epochs=1, train_dataset.builder=records, validation_dataset.builder=records"

    命令标志说明

    mode
    设为 train_and_eval 时,此脚本用于训练和评估模型。设置为 export_only 时,此脚本会导出已保存的模型。
    model_type
    模型的类型。例如 efficientnet
    dataset
    数据集的名称。例如 imagenet
    tpu
    使用 TPU_NAME 变量中指定的名称。
    data_dir
    用于指定训练输入的 Cloud Storage 路径。它设置为 在本示例中为 fake_imagenet 数据集。
    model_dir
    在模型训练期间存储检查点和总结的 Cloud Storage 路径。您可以重复使用现有的文件夹来加载之前生成的检查点和存储其他检查点,只要先前的检查点是使用相同大小的 Cloud TPU 和相同 Tensorflow 版本创建的即可。
    config_file
    包含预训练 EfficientNet 模型的 json 文件的路径。此文件包含模型架构。
    params_override
    一个 JSON 字符串,会替换默认脚本参数。有关 如需了解脚本参数,请参阅 /usr/share/models/official/legacy/detection/main.py

该过程使用 fake_imagenet 数据集对模型训练 1 个周期 (312) 训练步骤总数和 12 个评估步骤)。本次培训大约需要 在 v3-32 Cloud TPU 上为 2 分钟。训练和评估完成后,系统将显示类似如下内容的消息:

Run stats:
{
  'accuracy_top_1': 0.0009969075908884406,
  'eval_loss': 7.105168342590332,
  'loss': 7.114983081817627,
  'training_accuracy_top_1': 0.0010031675919890404,
  'step_timestamp_log': [
    'BatchTimestamp<batch_index: 0,
    timestamp: 1605041621.4997303>',
    'BatchTimestamp<batch_index: 312,
    timestamp: 1605041970.8633356>'
  ],
  'train_finish_time': 1605042032.2274444,
  'avg_exp_per_second': 3111.5120716536226
}

清理

为避免因本教程中使用的资源导致您的 Google Cloud 账号产生费用,请删除包含这些资源的项目,或者保留项目但删除各个资源。

  1. 断开与 Compute Engine 实例的连接(如果您尚未这样做):

    (vm)$ exit

    您的提示符现在应为 username@projectname,表明您位于 Cloud Shell 中。

  2. 删除您的 Cloud TPU 和 Compute Engine 资源。

    $ gcloud compute tpus tpu-vm delete efficientnet-tutorial \
    --zone=${ZONE}
  3. 通过运行 gcloud compute tpus execution-groups list 验证资源是否已删除。删除操作可能需要几分钟时间才能完成。以下命令的输出不应包含本教程中创建的任何 TPU 资源:

    $ gcloud compute tpus execution-groups list --zone=${ZONE}
  4. 使用 gcloud CLI 删除 Cloud Storage 存储桶,如下所示 。将 bucket-name 替换为您的 Cloud Storage 存储分区的名称。

    $ gcloud storage rm gs://bucket-name --recursive

后续步骤

TensorFlow Cloud TPU 教程通常使用示例数据集来训练模型。此训练的结果不能用于推理。如需使用模型进行推理,您可以在公开提供的数据集或您自己的数据集上训练数据。在 Cloud TPU 上训练的 TensorFlow 模型 通常需要将数据集 TFRecord 格式。

您可以使用数据集转换工具 示例,用于转换图片 转换为 TFRecord 格式。如果您使用的不是图片 分类模型,您需要将数据集转换为 TFRecord 格式 。如需了解详情,请参阅 TFRecord 和 tf.Example

超参数调节

要使用数据集提升模型的性能,您可以调整模型的 超参数。您可以在 GitHub 上寻找所有 TPU 支持模型通用的超参数的相关信息。如需了解特定于模型的超参数,请参阅源代码 每个代码 模型。如需详细了解超参数调优,请参阅概览 超参数调优Tune 超参数

推断

训练模型后,您可以使用该模型进行推理(也称为预测)。您可以使用 Cloud TPU 推断转换器 工具来准备和优化 在 Cloud TPU v5e 上用于推理的 TensorFlow 模型。如需详细了解 Cloud TPU v5e 上的推理,请参阅 Cloud TPU v5e 推理简介

  • 遵循数据集转换教程,了解如何使用自己的数据替代 fake_imagenet 或 ImageNet 数据集来进行训练和评估。该教程介绍了如何使用图片分类数据转换器示例脚本,将用于图片分类的原始数据集转换为 Cloud TPU TensorFlow 模型可用的 TFRecord。

  • 运行 Cloud TPU colab,演示如何使用您自己的图片数据运行图片分类模型。

  • 浏览其他 Cloud TPU 教程

  • 学习 TensorBoard 中 TPU 监控工具的使用方法。