在 Cloud TPU 上训练 Mask RCNN (TF 2.x)

概览

本教程演示了如何使用 Cloud TPU 和 COCO 数据集运行 Mask RCNN 模型。

Mask RCNN 是一种深度神经网络,旨在解决对象检测和图像分割问题,这是一项难度较大的计算机视觉挑战。

Mask RCNN 模型会为图像中对象的每个实例生成边界框和细分掩码。该模型基于特征金字塔网络 (FPN)ResNet50 骨干网络。

本教程使用 Tensorflow Keras APIs 训练模型。Keras API 是一种高级 TensorFlow API,可用于在 Cloud TPU 上构建和运行机器学习模型。此 API 可通过隐藏大部分低级实现来简化模型开发流程,从而让您更轻松地在 TPU 和其他平台(例如 GPU 或 CPU)之间切换。

以下说明假设您已熟悉如何在 Cloud TPU 上训练模型。如果您刚接触 Cloud TPU,则可以参阅快速入门查看基本介绍。

目标

  • 准备 COCO 数据集
  • 创建 Cloud Storage 存储分区以保存数据集和模型输出
  • 设置 TPU 资源以进行训练和评估
  • 在单个 Cloud TPU 或 Cloud TPU Pod 上运行训练和评估

费用

本教程使用 Google Cloud 的以下收费组件:

  • Compute Engine
  • Cloud TPU
  • Cloud Storage

请使用价格计算器根据您的预计使用情况来估算费用。 Google Cloud 新用户可能有资格申请免费试用

准备工作

在开始学习本教程之前,请检查您的 Google Cloud 项目是否已正确设置。

  1. 登录您的 Google Cloud 帐号。如果您是 Google Cloud 新手,请创建一个帐号来评估我们的产品在实际场景中的表现。新客户还可获享 $300 赠金,用于运行、测试和部署工作负载。
  2. 在 Google Cloud Console 的项目选择器页面上,选择或创建一个 Google Cloud 项目。

    转到“项目选择器”

  3. 确保您的 Cloud 项目已启用结算功能。 了解如何确认您的项目是否已启用结算功能

  4. 本演示使用 Google Cloud 的收费组件。请查看 Cloud TPU 价格页面估算您的费用。请务必在使用完您创建的资源以后清理这些资源,以免产生不必要的费用。

准备 COCO 数据集

本教程使用 COCO 数据集。Cloud Storage 存储桶上的数据集需要采用 TFRecord 格式以用于训练。

如果您已在 Cloud Storage 存储桶上准备好 COCO 数据集,该存储桶位于您将用于训练模型的可用区中,则可以直接进行单设备训练。否则,请按以下步骤准备数据集。

  1. 打开一个 Cloud Shell 窗口。

    打开 Cloud Shell

  2. Cloud Shell 中,使用以下命令创建 Cloud Storage 存储桶:

    gsutil mb -p ${PROJECT_ID} -c standard -l europe-west4 gs://bucket-name
    
  3. 启动 Compute Engine 虚拟机实例。

    此虚拟机实例将仅用于下载和预处理 COCO 数据集。在 instance-name 中填写您选择的名称。

    $ gcloud compute tpus execution-groups create \
     --vm-only \
     --name=instance-name \
     --zone=europe-west4-a \
     --disk-size=300 \
     --machine-type=n1-standard-16 \
     --tf-version=2.6.0
    

    命令标志说明

    vm-only
    仅创建虚拟机。默认情况下,gcloud compute tpus execution-groups 命令会同时创建虚拟机和 Cloud TPU。
    name
    要创建的 Cloud TPU 的名称。
    zone
    拟在其中创建 Cloud TPU 的区域
    disk-size
    gcloud compute tpus execution-groups 命令创建的虚拟机的硬盘大小(以 GB 为单位)。
    machine-type
    要创建的 Compute Engine 虚拟机的机器类型
    tf-version
    在虚拟机上安装的 Tensorflow gcloud compute tpus execution-groups 的版本。
  4. 如果您未自动登录 Compute Engine 实例,请通过运行以下 ssh 命令进行登录。登录虚拟机后,shell 提示符会从 username@projectname 更改为 username@vm-name

      $ gcloud compute ssh instance-name --zone=europe-west4-a
      

  5. 设置两个变量,一个用于先前创建的存储桶,另一个用于保存存储桶中的训练数据 (DATA_DIR) 的目录。

    (vm)$ export STORAGE_BUCKET=gs://bucket-name
    
    (vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco
  6. 安装预处理数据所需的软件包。

    (vm)$ sudo apt-get install -y python3-tk && \
      pip3 install --user Cython matplotlib opencv-python-headless pyyaml Pillow && \
      pip3 install --user "git+https://github.com/cocodataset/cocoapi#egg=pycocotools&subdirectory=PythonAPI"
    
  7. 运行 download_and_preprocess_coco.sh 脚本,将 COCO 数据集转换为训练应用所需的一组 TFRecord (*.tfrecord)。

    (vm)$ git clone https://github.com/tensorflow/tpu.git
    (vm)$ sudo bash tpu/tools/datasets/download_and_preprocess_coco.sh ./data/dir/coco
    

    这会安装所需的库,然后运行预处理脚本。它会在您的本地数据目录中输出很多 *.tfrecord 文件。COCO 下载和转换脚本大约需要 1 小时才能完成。

  8. 将数据复制到 Cloud Storage 存储分区

    将数据转换为 TFRecord 后,使用 gsutil 命令将其从本地存储空间复制到 Cloud Storage 存储分区。您还必须复制注释文件。这些文件有助于验证模型的性能。

    (vm)$ gsutil -m cp ./data/dir/coco/*.tfrecord ${DATA_DIR}
    (vm)$ gsutil cp ./data/dir/coco/raw-data/annotations/*.json ${DATA_DIR}
    
  9. 清理虚拟机资源

    将 COCO 数据集转换为 TFRecord 并将其复制到 Cloud Storage 存储桶的 DATA_DIR 后,您便可以删除 Compute Engine 实例。

    与 Compute Engine 实例断开连接:

    (vm)$ exit
    

    您的提示符现在应为 username@projectname,表明您位于 Cloud Shell 中。

  10. 删除您的 Compute Engine 实例。

      $ gcloud compute instances delete instance-name
        --zone=europe-west4-a
      

在单设备 TPU 上训练 Mask RCNN

如果您计划在 TPU Pod 切片上训练,请参阅在 TPU Pod 上训练,以了解在 Pod 切片上训练所需的更改。

  1. 打开一个 Cloud Shell 窗口。

    打开 Cloud Shell

  2. 为项目 ID 创建一个环境变量。

    export PROJECT_ID=project-id
  3. 配置 gcloud 命令行工具,以使用要在其中创建 Cloud TPU 的项目。

    gcloud config set project ${PROJECT_ID}
    

    当您第一次在新的 Cloud Shell 虚拟机中运行此命令时,系统会显示 Authorize Cloud Shell 页面。点击页面底部的 Authorize 以允许 gcloud 使用您的凭据进行 GCP API 调用。

  4. 为 Cloud TPU 项目创建服务帐号。

    gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID
    

    该命令将返回以下格式的 Cloud TPU 服务帐号:

    service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
    

  5. 导出 TPU 设置变量

    导出项目 ID、要用于 TPU 资源的名称以及将用于训练模型和存储所有与训练有关的数据的可用区

    $ export TPU_NAME=mask-rcnn-tutorial
    $ export ZONE=europe-west4-a

  6. 使用以下命令创建 Cloud Storage 存储分区:

    gsutil mb -p ${PROJECT_ID} -c standard -l europe-west4 gs://bucket-name
    

    此 Cloud Storage 存储分区存储您用于训练模型的数据和训练结果。本教程中使用的 gcloud 命令会为您设置 TPU,还会为在上一步中设置的 Cloud TPU 服务帐号设置默认权限。如果您需要更精细的权限,请查看访问级层权限

  7. 使用 gcloud 命令启动 Compute Engine 虚拟机和 Cloud TPU。 使用的命令取决于您使用的是 TPU 虚拟机还是 TPU 节点。如需详细了解这两种虚拟机架构,请参阅系统架构

    TPU 虚拟机

    $ gcloud alpha compute tpus tpu-vm create mask-rcnn-tutorial \
    --zone=europe-west4-a \
    --accelerator-type=v3-8 \
    --version=tpu-vm-tf-2.6.0
    

    命令标志说明

    zone
    拟在其中创建 Cloud TPU 的地区
    accelerator-type
    要创建的 Cloud TPU 的类型
    version
    Cloud TPU 运行时版本。

    TPU 节点

    $ gcloud compute tpus execution-groups create  \
     --zone=europe-west4 \
     --name=mask-rcnn-tutorial \
     --accelerator-type=v3-8 \
     --machine-type=n1-standard-8 \
     --disk-size=300 \
     --tf-version=2.6.0
    

    命令标志说明

    zone
    拟在其中创建 Cloud TPU 的区域
    name
    TPU 名称。如果未指定,则默认为您的用户名。
    accelerator-type
    要创建的 Cloud TPU 的类型
    machine-type
    要创建的 Compute Engine 虚拟机的机器类型
    disk-size
    Compute Engine 虚拟机的根卷大小(以 GB 为单位)。
    tf-version
    在虚拟机上安装的 Tensorflow gcloud 的版本。

    如需详细了解 gcloud 命令,请参阅 gcloud 参考文档

  8. 如果您未自动登录 Compute Engine 实例,请通过运行以下 ssh 命令进行登录。登录虚拟机后,shell 提示符会从 username@projectname 更改为 username@vm-name

    TPU 虚拟机

    gcloud alpha compute tpus tpu-vm ssh mask-rcnn-tutorial --zone=europe-west4
    

    TPU 节点

    gcloud compute ssh mask-rcnn-tutorial --zone=europe-west4
    
  9. 安装 TensorFlow 要求。

    使用的命令取决于您使用的是 TPU 虚拟机还是 TPU 节点。

    TPU 虚拟机

    (vm)$ pip3 install -r /usr/share/tpu/models/official/requirements.txt 

    TPU 节点

    (vm)$ pip3 install --user -r /usr/share/models/official/requirements.txt
    
  10. 设置 Cloud TPU 名称变量。

    TPU 虚拟机

    (vm)$ export TPU_NAME=local
    

    TPU 节点

    (vm)$ export TPU_NAME=mask-rcnn-tutorial
    
  11. 设置以下环境变量,将 bucket-name 替换为 Cloud Storage 存储分区的名称:

    (vm)$ export STORAGE_BUCKET=gs://bucket-name
    
  12. 为数据和模型目录添加环境变量。

    (vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco
    (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/mask-rcnn
    
  13. 添加一些其他必需的环境变量:

    (vm)$ export RESNET_CHECKPOINT=gs://cloud-tpu-checkpoints/retinanet/resnet50-checkpoint-2018-02-07
    (vm)$ export TRAIN_FILE_PATTERN=${DATA_DIR}/train-*
    (vm)$ export EVAL_FILE_PATTERN=${DATA_DIR}/val-*
    (vm)$ export VAL_JSON_FILE=${DATA_DIR}/instances_val2017.json
    
  14. 设置 PYTHONPATH 环境变量:

    TPU 虚拟机

    (vm)$ export PYTHONPATH="${PWD}/models:${PYTHONPATH}"
    

    TPU 节点

    (vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/models"
    
  15. 切换至存储模型的目录。

    TPU 虚拟机

    (vm)$ cd ~/models/official/vision/detection
    

    TPU 节点

    (vm)$ cd /usr/share/models/official/vision/detection
    

以下脚本在 v3-8 TPU 上运行一个示例训练,其中将仅训练 10 个步骤,完成大约需要 10 分钟。在 v3-8 TPU 上,训练到收敛需要大约 22500 个步骤和大约 6 小时。

  1. 运行以下命令以训练 Mask-RCNN 模型:

    (vm)$ python3 main.py \
       --strategy_type=tpu \
       --tpu=${TPU_NAME} \
       --model_dir=${MODEL_DIR} \
       --mode=train \
       --model=mask_rcnn \
       --params_override="{train: { total_steps: 10, checkpoint: { path: ${RESNET_CHECKPOINT}, prefix: resnet50/ }, train_file_pattern: ${TRAIN_FILE_PATTERN} }, eval: { val_json_file: ${VAL_JSON_FILE}, eval_file_pattern: ${EVAL_FILE_PATTERN}, eval_samples: 5000} }"
    

    命令标志说明

    strategy_type
    分布策略。
    tpu
    TPU 的名称。
    model_dir
    用于指定在模型训练期间存储检查点和摘要的目录。如果指定的文件夹不存在,此程序会自行创建。使用 Cloud TPU 时,model_dir 必须是 Cloud Storage 路径(“gs://...”)。您可以重复使用现有的文件夹来加载当前检查点数据和存储其他检查点,只要先前的检查点是使用相同大小的 TPU 和相同 Tensorflow 版本创建的即可。

    训练完成后,系统将显示如下所示的消息:

    Train Step: 10/10  / loss = {'total_loss': 2.6386399269104004,
    'loss': 2.6386399269104004, 'fast_rcnn_class_loss': 0.5143030881881714,
    'fast_rcnn_box_loss': 0.005997246131300926, 'mask_loss': 0.7189582586288452,
    'model_loss': 1.898547887802124, 'l2_regularization_loss': 0.7400921583175659,
    'rpn_score_loss': 0.6035243272781372, 'rpn_box_loss': 0.055764954537153244,
    'learning_rate': 0.008165999} / training metric = {'total_loss': 2.6386399269104004,
    'loss': 2.6386399269104004, 'fast_rcnn_class_loss': 0.5143030881881714,
    'fast_rcnn_box_loss': 0.005997246131300926, 'mask_loss': 0.7189582586288452,
    'model_loss': 1.898547887802124, 'l2_regularization_loss': 0.7400921583175659,
    'rpn_score_loss': 0.6035243272781372, 'rpn_box_loss': 0.055764954537153244,
    'learning_rate': 0.008165999}
    
  2. 运行评估。此过程在 v3-8 TPU 上大约需要 15 分钟:

    (vm)$ python3 main.py \
       --strategy_type=tpu \
       --tpu=${TPU_NAME} \
       --model_dir=${MODEL_DIR} \
       --checkpoint_path=${MODEL_DIR} \
       --mode=eval_once \
       --model=mask_rcnn \
       --params_override="{eval: { val_json_file: ${VAL_JSON_FILE}, eval_file_pattern: ${EVAL_FILE_PATTERN}, eval_samples: 5000 } }"
    

    命令标志说明

    strategy_type
    分布策略。
    tpu
    TPU 的名称。
    model_dir
    用于指定在模型训练期间存储检查点和摘要的目录。如果指定的文件夹不存在,此程序会自行创建。使用 Cloud TPU 时,model_dir 必须是 Cloud Storage 路径(“gs://...”)。您可以重复使用现有的文件夹来加载当前检查点数据和存储其他检查点,只要先前的检查点是使用相同大小的 TPU 和相同 Tensorflow 版本创建的即可。

    评估完成后,系统将显示类似如下内容的消息:

    DONE (t=5.41s).
    Average Precision  (AP) @[ IoU=0.50:0.95 | area=   all | maxDets=100 ] = 0.000
    Average Precision  (AP) @[ IoU=0.50      | area=   all | maxDets=100 ] = 0.000
    Average Precision  (AP) @[ IoU=0.75      | area=   all | maxDets=100 ] = 0.000
    Average Precision  (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.000
    Average Precision  (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.000
    Average Precision  (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.000
    Average Recall     (AR) @[ IoU=0.50:0.95 | area=   all | maxDets=  1 ] = 0.000
    Average Recall     (AR) @[ IoU=0.50:0.95 | area=   all | maxDets= 10 ] = 0.000
    Average Recall     (AR) @[ IoU=0.50:0.95 | area=   all | maxDets=100 ] = 0.000
    Average Recall     (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.000
    Average Recall     (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.000
    Average Recall     (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.000
    

    您现已完成单设备训练和评估。请按照以下步骤删除当前的单设备 TPU 资源。

  3. 与 Compute Engine 实例断开连接:

    (vm)$ exit
    

    您的提示符现在应为 username@projectname,表明您位于 Cloud Shell 中。

  4. 删除 TPU 资源。

    TPU 虚拟机

    $ gcloud alpha compute tpus tpu-vm delete mask-rcnn-tutorial \
    --zone=europe-west4
    

    命令标志说明

    zone
    您的 Cloud TPU 所在的可用区

    TPU 节点

    $ gcloud compute tpus execution-groups delete mask-rcnn-tutorial \
    --tpu-only \
    --zone=europe-west4
    

    命令标志说明

    tpu-only
    仅删除 Cloud TPU。虚拟机仍然可用。
    zone
    包含要删除的 TPU 的可用区

此时,您可以结束本教程并清理,也可以继续并探索在 Cloud TPU Pod 上运行模型。

使用 Cloud TPU Pod 扩缩模型

TPU Pod 训练

  1. 打开一个 Cloud Shell 窗口。

    打开 Cloud Shell

  2. 为项目 ID 创建一个变量。

    export PROJECT_ID=project-id
    
  3. 配置 gcloud 命令行工具,以使用要在其中创建 Cloud TPU 的项目。

    gcloud config set project ${PROJECT_ID}
    

    当您第一次在新的 Cloud Shell 虚拟机中运行此命令时,系统会显示 Authorize Cloud Shell 页面。点击页面底部的 Authorize 以允许 gcloud 使用您的凭据进行 GCP API 调用。

  4. 为 Cloud TPU 项目创建服务帐号。

    通过服务帐号,Cloud TPU 服务可以访问其他 Google Cloud Platform 服务。

    gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID
    

    该命令将返回以下格式的 Cloud TPU 服务帐号:

    service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
    

  5. 使用以下命令创建 Cloud Storage 存储桶,或使用您之前为项目创建的存储桶。

    在以下命令中,将 europe-west4 替换为您用于运行训练的区域的名称。将 bucket-name 替换为您要分配给存储桶的名称。

    gsutil mb -p ${PROJECT_ID} -c standard -l europe-west4 gs://bucket-name
    

    此 Cloud Storage 存储分区存储您用于训练模型的数据和训练结果。本教程中使用的 gcloud 命令会为您在上一步中设置的 Cloud TPU 服务帐号设置默认权限。如果您需要更精细的权限,请查看访问级层权限

    存储桶位置必须与 TPU 资源位于同一区域。

  6. 如果您之前已准备的 COCO 数据集并将其移至存储桶,则可以再次使用它来进行 Pod 训练。如果您尚未准备好 COCO 数据集,请立即准备并返回此处设置训练。

  7. 启动 Cloud TPU Pod

    本教程指定 v3-32 Pod。如需了解其他 Pod 选项,请参阅可用的 TPU 类型页面

    该示例训练仅运行 20 个步骤,在 v3-32 TPU 节点上完成大约需要 10 分钟。在 v3-32 TPU Pod 上,训练到收敛需要大约 11250 个步骤和大约 2 小时。

    TPU 虚拟机

    $ gcloud alpha compute tpus tpu-vm create mask-rcnn-tutorial \
    --zone=europe-west4 \
    --accelerator-type=v3-32 \
    --version=tpu-vm-tf-2.6.0-pod
    

    命令标志说明

    zone
    拟在其中创建 Cloud TPU 的地区
    accelerator-type
    要创建的 Cloud TPU 的类型
    version
    Cloud TPU 运行时版本。

    TPU 节点

    (vm)$ gcloud compute tpus execution-groups create \
    --zone=europe-west4 \
    --name=mask-rcnn-tutorial \
    --accelerator-type=v3-32  \
    --tf-version=2.6.0
    

    命令标志说明

    zone
    拟在其中创建 Cloud TPU 的区域
    tpu-only
    仅创建 Cloud TPU。默认情况下,gcloud compute tpus execution-groups 命令会同时创建虚拟机和 Cloud TPU。
    accelerator-type
    要创建的 Cloud TPU 的类型
    tf-version
    在虚拟机上安装的 Tensorflow gcloud 的版本。
  8. 如果您未自动登录 Compute Engine 实例,请通过运行以下 ssh 命令进行登录。登录虚拟机后,shell 提示符会从 username@projectname 更改为 username@vm-name

    TPU 虚拟机

    gcloud alpha compute tpus tpu-vm ssh mask-rcnn-tutorial --zone=europe-west4
    

    TPU 节点

    gcloud compute ssh mask-rcnn-tutorial --zone=europe-west4
    
  9. 安装 TensorFlow 要求。

    使用的命令取决于您使用的是 TPU 虚拟机还是 TPU 节点。

    TPU 虚拟机

    (vm)$ pip3 install -r /usr/share/tpu/models/official/requirements.txt 

    TPU 节点

    (vm)$ pip3 install --user -r /usr/share/models/official/requirements.txt
    
  10. 训练脚本需要额外的软件包。立即安装:

    (vm)$ pip3 install --user tensorflow-model-optimization>=0.1.3
    
  11. 设置 Cloud TPU 名称变量。

    (vm)$ export TPU_NAME=mask-rcnn-tutorial
    
  12. 设置以下环境变量,将 bucket-name 替换为 Cloud Storage 存储分区的名称:

    (vm)$ export STORAGE_BUCKET=gs://bucket-name
    
  13. 添加一些其他必需的环境变量:

    (vm)$ export RESNET_CHECKPOINT=gs://cloud-tpu-checkpoints/retinanet/resnet50-checkpoint-2018-02-07
    (vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco
    (vm)$ export TRAIN_FILE_PATTERN=${DATA_DIR}/train-*
    (vm)$ export EVAL_FILE_PATTERN=${DATA_DIR}/val-*
    (vm)$ export VAL_JSON_FILE=${DATA_DIR}/instances_val2017.json
    (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/mask-rcnn-pod
    
  14. 设置 PYTHONPATH 环境变量:

    TPU 虚拟机

    (vm)$ export PYTHONPATH="/usr/share/tpu/models:${PYTHONPATH}"
    (vm)$ export TPU_LOAD_LIBRARY=0
    

    TPU 节点

    (vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/models"
    
  15. 切换至存储模型的目录。

    TPU 虚拟机

    (vm)$ cd /usr/share/tpu/models/official/vision/detection

    TPU 节点

    (vm)$ cd /usr/share/models/official/vision/detection
  16. 训练模型:

    此过程基于 COCO 数据集训练模型,完成 5625 个训练步骤。此训练在 v3-32 Cloud TPU 上大约需要 1 小时。您大约每 5 分钟会看到一次检查点输出。

    TPU 虚拟机

    (vm)$ python3 main.py \
    --strategy_type=tpu \
    --tpu=${TPU_NAME} \
    --model_dir=${MODEL_DIR} \
    --mode=train \
    --model=mask_rcnn \
    --params_override="{architecture: {use_bfloat16: true}, eval: {batch_size: 40, eval_file_pattern: ${EVAL_FILE_PATTERN}, val_json_file: ${VAL_JSON_FILE}}, postprocess: {pre_nms_num_boxes: 1000}, predict: {batch_size: 40}, train: {batch_size: 256, checkpoint: {path: ${RESNET_PRETRAIN_DIR}, prefix: resnet50/}, iterations_per_loop: 500, total_steps: 5625, train_file_pattern: ${TRAIN_FILE_PATTERN}, } }" 

    命令标志说明

    tpu
    TPU 的名称。
    model_dir
    用于指定在模型训练期间存储检查点和摘要的目录。如果指定的文件夹不存在,此程序会自行创建相应文件夹。使用 Cloud TPU 时,model_dir 必须是 Cloud Storage 路径 (gs://...)。您可以重复使用现有的文件夹来加载当前检查点数据和存储其他检查点,只要先前的检查点是使用相同大小的 Cloud TPU 和 TensorFlow 版本创建的即可。
    params_override
    一个 JSON 字符串,会替换默认脚本参数。如需详细了解脚本参数,请参阅 ~/models/official/vision/detection/main.py

    TPU 节点

    (vm)$ python3 main.py \
    --strategy_type=tpu \
    --tpu=${TPU_NAME} \
    --model_dir=${MODEL_DIR} \
    --mode=train \
    --model=mask_rcnn \
    --params_override="{train: { batch_size: 128, iterations_per_loop: 500, total_steps: 20, learning_rate: {'learning_rate_levels': [0.008, 0.0008], 'learning_rate_steps': [10000, 13000] }, checkpoint: { path: ${RESNET_CHECKPOINT}, prefix: resnet50/ }, train_file_pattern: ${TRAIN_FILE_PATTERN} }, eval: { val_json_file: ${VAL_JSON_FILE}, eval_file_pattern: ${EVAL_FILE_PATTERN}} }"

    命令标志说明

    tpu
    TPU 的名称。
    model_dir
    用于指定在模型训练期间存储检查点和摘要的目录。如果指定的文件夹不存在,此程序会自行创建相应文件夹。使用 Cloud TPU 时,model_dir 必须是 Cloud Storage 路径 (gs://...)。您可以重复使用现有的文件夹来加载当前检查点数据和存储其他检查点,只要先前的检查点是使用相同大小的 Cloud TPU 和 TensorFlow 版本创建的即可。
    params_override
    一个 JSON 字符串,会替换默认脚本参数。如需详细了解脚本参数,请参阅 ~/models/official/vision/detection/main.py

训练完成后,系统将显示如下所示的消息:

 Train Step: 20/20  / loss = {'total_loss': 2.176832675933838,
 'loss': 2.176832675933838, 'fast_rcnn_class_loss': 0.2733360528945923,
 'fast_rcnn_box_loss': 0.030380848795175552, 'mask_loss': 0.6929039359092712,
 'model_loss': 1.4366037845611572, 'l2_regularization_loss': 0.7402286529541016,
 'rpn_score_loss': 0.3818075954914093, 'rpn_box_loss': 0.05817537382245064,
 'learning_rate': 0.009632} / training metric = {'total_loss': 2.176832675933838,
 'loss': 2.176832675933838, 'fast_rcnn_class_loss': 0.2733360528945923,
 'fast_rcnn_box_loss': 0.030380848795175552, 'mask_loss': 0.6929039359092712,
 'model_loss': 1.4366037845611572, 'l2_regularization_loss': 0.7402286529541016,
 'rpn_score_loss': 0.3818075954914093, 'rpn_box_loss': 0.05817537382245064,
 'learning_rate': 0.009632}
 

清理

为避免因本教程中使用的资源导致您的 Google Cloud 帐号产生费用,请删除包含这些资源的项目,或者保留项目但删除各个资源。

  1. 断开与 Compute Engine 实例的连接(如果您尚未这样做):

    (vm)$ exit
    

    您的提示符现在应为 username@projectname,表明您位于 Cloud Shell 中。

  2. 删除您的 Cloud TPU 和 Compute Engine 资源。 用于删除资源的命令取决于您使用的是 TPU 虚拟机还是 TPU 节点。如需了解详情,请参阅系统架构

    TPU 虚拟机

    $ gcloud alpha compute tpus tpu-vm delete mask-rcnn-tutorial \
    --zone=europe-west4
    

    TPU 节点

    $ gcloud compute tpus execution-groups delete mask-rcnn-tutorial \
    --zone=europe-west4
    
  3. 通过运行 gcloud compute tpus execution-groups list 验证资源是否已删除。删除操作可能需要几分钟时间才能完成。以下命令的输出不应包含本教程中创建的任何 TPU 资源:

    $ gcloud compute tpus execution-groups list --zone=europe-west4
    
  4. 如下所示运行 gsutil,将 bucket-name 替换为您为本教程创建的 Cloud Storage 存储分区的名称:

    $ gsutil rm -r gs://bucket-name
    

后续步骤

在本教程中,您已使用示例数据集训练 Mask-RCNN 模型。此训练的结果(在大多数情况下)不能用于推断。要使用模型进行推断,您可以在公开提供的数据集或您自己的数据集上训练数据。在 Cloud TPU 上训练的模型要求数据集采用 TFRecord 格式。

您可以使用数据集转换工具示例将图片分类数据集转换为 TFRecord 格式。如果您未使用图片分类模型,则必须自行将数据集转换为 TFRecord 格式。如需了解详情,请参阅 TFRecord 和 tf.Example

超参数调节

如需使用数据集提升模型的性能,您可以调节模型的超参数。您可以在 GitHub 上寻找所有 TPU 支持模型通用的超参数的相关信息。您可以在每个模型的源代码中寻找模型专用超参数的相关信息。如需详细了解超参数调节,请参阅超参数调节概览使用超参数调节服务调节超参数

推理

训练模型后,您可以使用该模型进行推断(也称为预测)。AI Platform 是一款基于云的解决方案,用于开发、训练部署机器学习模型。部署模型后,您可以使用 AI Platform Prediction 服务