在 Cloud TPU 上训练 ShapeMask

本文档演示如何使用 Cloud TPU 和 COCO 数据集运行 ShapeMask 模型。

以下说明假设您已熟悉如何在 Cloud TPU 上运行模型。如果您刚接触 Cloud TPU,则可以参阅快速入门获取基本介绍。

如果您计划在 TPU Pod 切片上训练,请参阅在 TPU Pod 上训练,以了解 Pod 切片所需的参数更改。

目标

  • 创建 Cloud Storage 存储分区以保存数据集和模型输出
  • 准备 COCO 数据集
  • 设置 Compute Engine 虚拟机和 Cloud TPU 节点以进行训练和评估
  • 在单个 Cloud TPU 或 Cloud TPU Pod 上运行训练和评估

费用

本教程使用 Google Cloud 的以下收费组件:

  • Compute Engine
  • Cloud TPU
  • Cloud Storage

请使用价格计算器根据您的预计使用情况来估算费用。 Google Cloud 新用户可能有资格申请免费试用

准备工作

在开始学习本教程之前,请检查您的 Google Cloud 项目是否已正确设置。

  1. 登录您的 Google 帐号。

    如果您还没有 Google 帐号,请注册一个新帐号

  2. 在 Cloud Console 的项目选择器页面上,选择或创建 Cloud 项目。

    转到项目选择器页面

  3. 确保您的 Google Cloud 项目已启用结算功能。 了解如何确认您的项目已启用结算功能

  4. 本演示使用 Google Cloud 的收费组件。请查看 Cloud TPU 价格页面估算您的费用。请务必在使用完您创建的资源以后清理这些资源,以免产生不必要的费用。

如果您计划在 TPU Pod 切片上训练,请参阅在 TPU Pod 上训练,以了解 Pod 切片所需的参数更改。

设置资源

本部分介绍如何为此教程设置 Cloud Storage、虚拟机和 Cloud TPU 资源。

  1. 打开一个 Cloud Shell 窗口。

    打开 Cloud Shell

  2. 为项目 ID 创建一个变量。

    export PROJECT_ID=project-id
    
  3. 配置 gcloud 命令行工具,以使用要在其中创建 Cloud TPU 的项目。

    gcloud config set project ${PROJECT_ID}
    
  4. 为 Cloud TPU 项目创建服务帐号。

    gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID
    

    该命令将返回以下格式的 Cloud TPU 服务帐号:

    service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
    

  5. 使用以下命令创建 Cloud Storage 存储分区:

    gsutil mb -p ${PROJECT_ID} -c standard -l europe-west4 -b on gs://bucket-name
    

    此 Cloud Storage 存储分区存储您用于训练模型的数据和训练结果。本教程中使用的 ctpu up 工具会为您在上一步中设置的 Cloud TPU 服务帐号设置默认权限。如果您需要更精细的权限,请查看访问级层权限

    存储分区位置必须与虚拟机 (VM) 和 TPU 节点位于同一区域。虚拟机和 TPU 节点位于特定地区,即区域内的细分。

  6. 启动 Compute Engine 虚拟机实例。

    $ ctpu up --zone=us-central1-a \
     --vm-only \
     --disk-size-gb=300 \
     --machine-type=n1-standard-16 \
     --tf-version=2.3.1 \
     --name=shapemask-tutorial
    
  7. 此时会显示您指定的配置。输入 y 批准或输入 n 取消。

  8. ctpu up 命令执行完毕后,验证 shell 提示符已从 username@projectname 更改为 username@vm-name。此变化表明您现已登录 Compute Engine 虚拟机。

    gcloud compute ssh shapemask-tutorial --zone=us-central1-a
    

    在您继续按照这些说明操作时,请在虚拟机会话窗口中运行以 (vm)$ 开头的每个命令。

  9. 创建环境变量以存储您的 Cloud Storage 存储分区位置。

    (vm)$ export STORAGE_BUCKET=gs://bucket-name
    
  10. 为数据目录创建环境变量。

    (vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco
    
  11. 克隆 tpu 代码库。

    (vm)$ git clone -b shapemask https://github.com/tensorflow/tpu/
    
  12. 安装预处理数据所需的软件包。

    (vm)$ sudo apt-get install -y python3-tk && \
      pip3 install --user Cython matplotlib opencv-python-headless pyyaml Pillow && \
      pip3 install --user "git+https://github.com/cocodataset/cocoapi#egg=pycocotools&subdirectory=PythonAPI"
    

准备 COCO 数据集

  1. 运行 download_and_preprocess_coco.sh 脚本,将 COCO 数据集转换为训练应用所需的一组 TFRecord (*.tfrecord)。

    (vm)$ sudo bash /usr/share/tpu/tools/datasets/download_and_preprocess_coco.sh ./data/dir/coco
    

    这会安装所需的库,然后运行预处理脚本。 它会向您的本地数据目录中输出很多 *.tfrecord 文件。

  2. 将数据转换为 TFRecord 后,使用 gsutil 命令将其从本地存储空间复制到 Cloud Storage 存储分区。您还必须复制注释文件。这些文件有助于验证模型的性能:

    (vm)$ gsutil -m cp ./data/dir/coco/*.tfrecord ${DATA_DIR}
    (vm)$ gsutil cp ./data/dir/coco/raw-data/annotations/*.json ${DATA_DIR}
    

设置并启动 Cloud TPU

  1. 启动 Cloud TPU 资源。

    运行以下命令以创建 Cloud TPU。

    (vm)$ ctpu up --tpu-only \
     --tf-version=2.3.1 \
     --tpu-size=v3-8 \
     --name=shapemask-tutorial
    
  2. 此时会显示您指定的配置。输入 y 批准或输入 n 取消。

    您会看到一条消息:Operation success; not ssh-ing to Compute Engine VM due to --tpu-only flag。由于您之前已完成 SSH 密钥传播,因此可以忽略此消息。

  3. 为您的 Cloud TPU 名称添加环境变量。

    (vm)$ export TPU_NAME=shapemask-tutorial
    

设置并开始训练 Cloud TPU

  1. 运行以下命令以创建 Cloud TPU。

    (vm)$ ctpu up --tpu-only \
      --tpu-size=v3-8 \
      --zone=us-central1-a \
      --name=shapemask-tutorial \
      --tf-version=2.3.1
    参数 说明
    tpu-size 指定 Cloud TPU 的大小。 本教程使用一个 v3-8 TPU 进行单个设备的训练和评估。
    zone 拟在其中创建 Cloud TPU 的地区。该地区应与 Compute Engine 虚拟机所用的地区相同。例如 us-central1-a
    tf-version 在虚拟机上安装的 TensorFlow 的版本。
  2. 此时会显示您指定的配置。输入 y 批准或输入 n 取消。

    您会看到一条消息:Operation success; not ssh-ing to Compute Engine VM due to --tpu-only flag。由于您之前已完成 SSH 密钥传播,因此可以忽略此消息。

  3. 为您的 Cloud TPU 名称添加环境变量。

    (vm)$ export TPU_NAME=shapemask-tutorial
    

运行训练和评估

以下脚本在 v3-8 TPU 上运行一个示例训练,其中将仅训练 100 个步骤,完成大约需要 6 分钟。在 v3-8 TPU 上,训练到收敛需要大约 22500 个步骤和大约 6 小时。

  1. 添加一些必需的环境变量:

    (vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/models"
    (vm)$ export RESNET_CHECKPOINT=gs://cloud-tpu-checkpoints/retinanet/resnet50-checkpoint-2018-02-07
    (vm)$ export TRAIN_FILE_PATTERN=${DATA_DIR}/train-*
    (vm)$ export EVAL_FILE_PATTERN=${DATA_DIR}/val-*
    (vm)$ export VAL_JSON_FILE=${DATA_DIR}/instances_val2017.json
    (vm)$ export SHAPE_PRIOR_PATH=gs://cloud-tpu-checkpoints/shapemask/kmeans_class_priors_91x20x32x32.npy
    (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/shapemask
    
  2. 运行以下命令来训练 ShapeMask 模型:

    (vm)$ python3 /usr/share/models/official/vision/detection/main.py \
    --strategy_type=tpu \
    --tpu=${TPU_NAME} \
    --model_dir=${MODEL_DIR} \
    --mode=train \
    --model=shapemask \
    --params_override="{train: {total_steps: 100, learning_rate: {init_learning_rate: 0.08, learning_rate_levels: [0.008, 0.0008], learning_rate_steps: [15000, 20000], }, checkpoint: { path: ${RESNET_CHECKPOINT},prefix: resnet50}, train_file_pattern: ${TRAIN_FILE_PATTERN}},  eval: {val_json_file: ${VAL_JSON_FILE},eval_file_pattern: ${EVAL_FILE_PATTERN},eval_samples: 5000}, shapemask_head: {use_category_for_mask: true, shape_prior_path: ${SHAPE_PRIOR_PATH}}, shapemask_parser: {output_size: [1024, 1024]}}"
    
    参数 说明
    tpu 用于指定 Cloud TPU 的名称。这通过指定环境变量 (TPU_NAME) 进行设置。
    model_dir 用于指定在模型训练期间存储检查点和摘要的目录。如果指定的文件夹不存在,此程序会自行创建相应文件夹。使用 Cloud TPU 时,model_dir 必须是 Cloud Storage 路径 (`gs://...`)。您可以重复使用现有的文件夹来加载当前检查点数据和存储其他检查点,只要先前的检查点是使用相同大小的 TPU 和相同 TensorFlow 版本创建的即可。
    RESNET_CHECKPOINT 用于指定预训练的检查点。ShapeMask 需要预先训练的图片分类模型(如 ResNet)作为骨干网。此示例使用通过 ResNet 演示模型创建的预训练检查点。您如果愿意,可以训练自己的 ResNet 模型,并从自己的 ResNet 模型目录中指定一个检查点。
  3. 运行评估:

    (vm)$ python3 /usr/share/models/official/vision/detection/main.py \
    --strategy_type=tpu \
    --tpu=${TPU_NAME} \
    --model_dir=${MODEL_DIR} \
    --mode=eval \
    --model=shapemask \
    --params_override="{eval: { val_json_file: ${VAL_JSON_FILE}, eval_file_pattern: ${EVAL_FILE_PATTERN}, eval_samples: 5000 } }"
    
    参数 说明
    tpu 用于指定 Cloud TPU 的名称。这通过指定环境变量 (TPU_NAME) 进行设置。
    model_dir 用于指定在模型训练期间存储检查点和摘要的目录。如果指定的文件夹不存在,此程序会自行创建相应文件夹。使用 Cloud TPU 时,model_dir 必须是 Cloud Storage 路径 (`gs://...`)。您可以重复使用现有的文件夹来加载当前检查点数据和存储其他检查点,只要先前的检查点是使用相同大小的 TPU 和相同 TensorFlow 版本创建的即可。

此时,您可以结束本教程并清理 GCP 资源,也可以进一步了解如何在 Cloud TPU Pod 上运行模型。

使用 Cloud TPU Pod 扩缩模型

您可以使用 Cloud TPU Pod 扩缩模型,以便更快获得结果。完全受支持的 Mask RCNN 模型可与以下 Pod 切片配合使用:

  • v2-32
  • v3-32

使用 Cloud TPU Pod 时,首先使用 Pod 训练模型,然后使用单台 Cloud TPU 设备评估模型。

使用 Cloud TPU Pod 进行训练

如果您已经删除了 Compute Engine 实例,请按照设置资源中的步骤创建一个新实例。

以下示例训练仅运行 20 个步骤,在 v3-32 TPU 节点上完成大约需要 10 分钟。在 v3-32 TPU Pod 上,训练到收敛需要大约 11250 个步骤和大约 2 小时。

  1. 删除您为在单个 Cloud TPU 设备上训练模型而创建的 Cloud TPU 资源。

    (vm)$ ctpu delete --tpu-only --zone=us-central1-a --name=shapemask-tutorial
  2. 运行 ctpu up 命令,并使用 tpu-size 参数指定要使用的 Pod 切片。例如,以下命令使用 v3-32 Pod 切片。

    (vm)$ ctpu up --tpu-only \
      --tpu-size=v3-32  \
      --zone=us-central1-a \
      --name=shapemask-tutorial \
      --tf-version=2.3.1 
  3. 更新 TPU_NAME 和 MODEL_DIR 环境变量。

    (vm)$ export TPU_NAME=shapemask-tutorial
    (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/shapemask-pods
    
  4. 启动训练脚本。

    (vm)$ python3 /usr/share/models/official/vision/detection/main.py \
    --strategy_type=tpu \
    --tpu=${TPU_NAME} \
    --model_dir=${MODEL_DIR} \
    --mode=train \
    --model=shapemask \
    --params_override="{train: { batch_size: 128, iterations_per_loop: 500, total_steps: 20, learning_rate: {'learning_rate_levels': [0.008, 0.0008], 'learning_rate_steps': [10000, 13000] }, checkpoint: { path: ${RESNET_CHECKPOINT}, prefix: resnet50/ }, train_file_pattern: ${TRAIN_FILE_PATTERN} }, eval: { val_json_file: ${VAL_JSON_FILE}, eval_file_pattern: ${EVAL_FILE_PATTERN}} shapemask_head: {use_category_for_mask: true, shape_prior_path: ${SHAPE_PRIOR_PATH}} }"
    
    参数 说明
    tpu 用于指定 Cloud TPU 的名称。这通过指定环境变量 (TPU_NAME) 进行设置。
    model_dir 用于指定在模型训练期间存储检查点和摘要的目录。如果指定的文件夹不存在,此程序会自行创建相应文件夹。使用 Cloud TPU 时,model_dir 必须是 Cloud Storage 路径 (`gs://...`)。您可以重复使用现有的文件夹来加载当前检查点数据和存储其他检查点,只要先前的检查点是使用相同大小的 TPU 和相同 TensorFlow 版本创建的即可。
    RESNET_CHECKPOINT 用于指定预训练的检查点。ShapeMask 需要预先训练的图片分类模型(如 ResNet)作为骨干网。此示例使用通过 ResNet 演示模型创建的预训练检查点。您如果愿意,可以训练自己的 ResNet 模型,并从自己的 ResNet 模型目录中指定一个检查点。

评估模型

在此步骤中,您将使用单个 Cloud TPU 节点针对 COCO 数据集评估上述经过训练的模型。此评估大约需要 20 分钟。

  1. 删除您为在 Pod 上训练模型而创建的 Cloud TPU 资源。

    (vm)$ ctpu delete --tpu-only \
     --zone=us-central1-a \
     --name=shapemask-tutorial
  2. 启动新的 TPU 设备来运行评估。

    (vm)$ ctpu up --tpu-only \
      --tpu-size=v3-8 \
      --zone=us-central1-a \
      --tf-version=2.3.1 \
      --name=shapemask-tutorial
    
  3. 更新 TPU_NAME 环境变量。

    (vm)$ export TPU_NAME=shapemask-tutorial
    
  4. 开始评估。

    (vm)$ python3 /usr/share/models/official/vision/detection/main.py \
    --strategy_type=tpu \
    --tpu=shapemask-tutorial \
    --model_dir=${MODEL_DIR} \
    --mode=eval \
    --model=shapemask \
    --params_override="{eval: { val_json_file: ${VAL_JSON_FILE}, eval_file_pattern: ${EVAL_FILE_PATTERN}, eval_samples: 5000 } }"
    

清理

为避免因本教程中使用的资源导致您的 Google Cloud Platform 帐号产生费用,请执行以下操作:

  1. 断开与 Compute Engine 实例的连接(如果您尚未这样做):

    (vm)$ exit
    

    您的提示符现在应为 username@projectname,表明您位于 Cloud Shell 中。

  2. 在您的 Cloud Shell 中,使用您在设置 Cloud TPU 时所用的 --zone 标志运行 ctpu delete,以删除 Compute Engine 虚拟机和 Cloud TPU:

    $ ctpu delete --zone=us-central1-a \
     --name=shapemask-tutorial
    
  3. 运行以下命令以验证 Compute Engine 虚拟机和 Cloud TPU 均已关停:

    $ ctpu status --zone=us-central1-a \
      --name=shapemask-tutorial
    

    删除操作可能需要几分钟时间才能完成。 如下所示的响应表明不再有已分配的实例:

    2018/04/28 16:16:23 WARNING: Setting zone to "us-central1-a"
    No instances currently exist.
       Compute Engine VM:     --
       Cloud TPU:             --
    
  4. 如下所示运行 gsutil,将 bucket-name 替换为您为本教程创建的 Cloud Storage 存储分区的名称:

    $ gsutil rm -r gs://bucket-name
    

后续步骤

使用其他图像大小进行训练

您可以使用更大的神经网络(例如,ResNet-101 而不是 ResNet-50)进行探索。较大的输入图片和更强大的神经网络将生成耗时更长但更精确的模型。

使用其他基础

或者,您也可以探索如何利用自己的数据集预训练 ResNet 模型,并以此为基础训练 ShapeMask 模型。再进行一些工作,您就可以用新的神经网络来替换 ResNet。最后,如果您有兴趣实现自己的对象检测模型,则可以基于该骨干网进行进一步的实验。