在 Cloud TPU 上运行 MNIST

本教程包含 MNIST 模型的简要说明、有关下载 MNIST TensorFlow TPU 代码示例的说明,以及在 Cloud TPU 上运行代码的指南。

模型说明

MNIST 数据集包含大量 0 到 9 之间的手写数字图片,以及标识每个图片中数字的标签。

本教程将训练一个机器学习模型作为示例,以根据 MNIST 数据集对图片进行分类。经过训练之后,该模型根据从 MNIST 数据集中获取的手写图像而学到的内容,将输入图像分为 10 个类别(0 到 9)。然后,您可以向模型发送它之前未曾见过的图像,之后模型会根据其在训练期间学到的内容来识别图像中的数字。

MNIST 数据集分为以下三个部分:

  • 55000 个训练数据示例
  • 10000 个测试数据示例
  • 5000 个验证数据示例

如需详细了解该数据集,请访问 MNIST 数据库网站

此模型包含 7 个层:

  • 2 个卷积
  • 2 个池化
  • 2 个密集(全连接)
  • 1 个漏失

损失是通过 Softmax 计算的。

此版本的 MNIST 模型使用 tf.estimator(一种高级 TensorFlow API),此 API 是在 Cloud TPU 上构建和运行机器学习模型的推荐方法。

Tensorflow Estimator API 可通过隐藏大部分低级实现来简化模型开发流程,从而便于您在 TPU 和其他平台(例如 GPU 或 CPU)之间切换。

目标

  • 创建 Cloud Storage 存储分区以保存数据集和模型输出。
  • 运行训练作业。
  • 验证输出结果。

费用

本教程使用 Google Cloud 的以下收费组件:

  • Compute Engine
  • Cloud TPU
  • 云端存储

您可使用价格计算器根据您的预计使用情况来估算费用。

Google Cloud 新用户可能有资格申请免费试用

准备工作

在开始学习本教程之前,请检查您的 Google Cloud 项目是否已正确设置。

  1. 登录您的 Google 帐号。

    如果您还没有 Google 帐号,请注册一个新帐号

  2. 在 Cloud Console 的项目选择器页面上,选择或创建 Cloud 项目。

    转到项目选择器页面

  3. 确保您的 Google Cloud 项目已启用结算功能。 了解如何确认您的项目已启用结算功能

  4. 本演示使用 Google Cloud 的收费组件。请查看 Cloud TPU 价格页面估算您的费用。请务必在使用完您创建的资源以后清理这些资源,以免产生不必要的费用。

设置资源

本部分介绍如何为教程设置 Cloud Storage、虚拟机和 Cloud TPU 资源。

  1. 打开一个 Cloud Shell 窗口。

    打开 Cloud Shell

  2. 为项目 ID 创建一个变量。

    export PROJECT_ID=project-id
    
  3. 配置 gcloud 命令行工具,以使用要在其中创建 Cloud TPU 的项目。

    gcloud config set project ${PROJECT_ID}
    
  4. 使用以下命令创建 Cloud Storage 存储分区:

    gsutil mb -p ${PROJECT_ID} -c standard -l europe-west4 -b on gs://bucket-name
    

    此 Cloud Storage 存储分区存储您用于训练模型的数据和训练结果。本教程中使用的 ctpu up 工具会为 Cloud TPU 服务帐号设置默认权限。如果您需要更精细的权限,请查看访问级层权限

    存储分区位置必须与虚拟机 (VM) 和 TPU 节点位于同一区域。虚拟机和 TPU 节点位于特定地区,即区域内的细分。

  5. 使用 ctpu up 命令启动为此所需的 Compute Engine 资源。

    ctpu up --zone=europe-west4-a \
    --machine-type=n1-standard-8 \
    --tf-version=1.15.3 \
    --name=mnist-tutorial
    

    如需详细了解 CTPU 实用程序,请参阅 CTPU 参考

  6. 在出现提示时,按 y 创建 Cloud TPU 资源。

ctpu up 命令执行完毕后,验证 shell 提示符已从 username@projectname 更改为 username@vm-name。此变化表明您现已登录 Compute Engine 虚拟机。如果您未连接到 Compute Engine 实例,则可通过运行以下命令进行连接:

  gcloud compute ssh mnist-tutorial --zone=europe-west4-a

从现在开始,前缀 (vm)$ 表示您应该在 Compute Engine 虚拟机实例上运行该命令。

  1. 为存储分区和模型目录创建环境变量。 将 bucket-name 替换为 Cloud Storage 存储分区的名称
    (vm)$ export STORAGE_BUCKET=gs://bucket-name
    
    (vm)$ export TPU_NAME=mnist-tutorial
    (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/mnist
    (vm)$ export DATA_DIR=${STORAGE_BUCKET}/data
    (vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/tpu/models"
    

获取数据

MNIST 数据集托管在 MNIST 数据库网站上。请按照以下说明下载数据并将其转换为所需格式,然后将转换后的数据上传到 Cloud Storage。

下载并转换 MNIST 数据

convert_to_records.py 脚本可下载数据并将其转换为示例 MNIST 模型所需的 TFRecord 格式。

使用以下命令运行此脚本并解压缩文件:

(vm)$ python3 /usr/share/tensorflow/tensorflow/examples/how_tos/reading_data/convert_to_records.py --directory=./data
(vm)$ gunzip ./data/*.gz

将数据上传到 Cloud Storage

将数据上传到您的 Cloud Storage 存储分区,以便 Cloud TPU 服务器可以访问该数据。

(vm)$ gsutil cp -r ./data ${DATA_DIR}

运行 MNIST TPU 模型

MNIST TPU 模型已预安装到您的 Compute Engine 虚拟机上的以下目录中:

/usr/share/tpu/models/official/mnist/

MNIST TPU 模型的源代码可在 GitHub 上找到。您可以在 Cloud TPU 上运行该模型。此外,您还可以查看如何在本地机器上运行模型

在 Cloud TPU 上运行该模型

在以下步骤中,前缀 (vm)$ 表示您应该在 Compute Engine 虚拟机上运行该命令:

  1. 切换到模型目录:

      (vm)$ cd /usr/share/tpu/models/official/mnist/
    
  2. 运行 MNIST 模型:

    (vm)$ python3 mnist_tpu.py \
      --tpu=${TPU_NAME} \
      --data_dir=${DATA_DIR} \
      --model_dir=${MODEL_DIR} \
      --use_tpu=True \
      --iterations=500 \
      --train_steps=2000
     
    参数值 说明
    tpu Cloud TPU 的名称。请注意,ctpu 会将此名称以环境变量 (TPU_NAME) 的形式传递给 Compute Engine 虚拟机。如果无法连接到虚拟机或丢失了连接,您可以通过再次运行 ctpu up 进行连接。如果您通过运行 gcloud compute ssh 连接到虚拟机,系统将不会设置 TPU_NAME
    data_dir 此目录包含用于训练的文件。
    model_dir 包含模型文件的目录。在本教程中,您将使用 Cloud Storage 存储分区中的文件夹。如果该文件夹尚不存在,脚本将创建该文件夹。model_dir 必须是 Cloud Storage 路径 (gs://...)。您可以重复使用现有的文件夹来加载当前检查点数据和存储其他检查点。
    iterations 在将控制权返还给 Python 之前,要在 TPU 上运行的训练步数。如果此数值太小(例如小于 100),可能会导致通信开销过高,对性能产生负面影响。
    train_steps 训练要运行的总步(批次)数。

在本地(非 TPU)机器上运行该模型

要在非 TPU 机器上运行该模型,请省略 --tpu,并设置以下标志:

--use_tpu=False

这会使计算进入 GPU(如果存在)。如果不存在 GPU,则计算会退回至 CPU。

预期结果

默认情况下,tf.estimator 模型会按以下格式报告损失值和单步用时:

INFO:tensorflow:Calling model_fn.
INFO:tensorflow:Create CheckpointSaverHook.
INFO:tensorflow:Done calling model_fn.
INFO:tensorflow:TPU job name tpu_worker
INFO:tensorflow:Graph was finalized.
INFO:tensorflow:Running local_init_op.
INFO:tensorflow:Done running local_init_op.
INFO:tensorflow:Init TPU system
INFO:tensorflow:Start infeed thread controller
INFO:tensorflow:Starting infeed thread controller.
INFO:tensorflow:Start outfeed thread controller
INFO:tensorflow:Starting outfeed thread controller.
INFO:tensorflow:Enqueue next (500) batch(es) of data to infeed.
INFO:tensorflow:Dequeue next (500) batch(es) of data from outfeed.
INFO:tensorflow:Saving checkpoints for 500 into gs://ctpu-mnist-test/output/model.ckpt.
INFO:tensorflow:loss = 0.08896458, step = 0
INFO:tensorflow:loss = 0.08896458, step = 0
INFO:tensorflow:Enqueue next (500) batch(es) of data to infeed.
INFO:tensorflow:Dequeue next (500) batch(es) of data from outfeed.
INFO:tensorflow:Enqueue next (500) batch(es) of data to infeed.
INFO:tensorflow:Dequeue next (500) batch(es) of data from outfeed.
INFO:tensorflow:global_step/sec: 242.829
INFO:tensorflow:examples/sec: 248715
INFO:tensorflow:Enqueue next (500) batch(es) of data to infeed.
INFO:tensorflow:Dequeue next (500) batch(es) of data from outfeed.
INFO:tensorflow:Saving checkpoints for 2000 into gs://ctpu-mnist-test/output/model.ckpt.
INFO:tensorflow:Stop infeed thread controller
INFO:tensorflow:Shutting down InfeedController thread.
INFO:tensorflow:InfeedController received shutdown signal, stopping.
INFO:tensorflow:Infeed thread finished, shutting down.
INFO:tensorflow:Stop output thread controller
INFO:tensorflow:Shutting down OutfeedController thread.
INFO:tensorflow:OutfeedController received shutdown signal, stopping.
INFO:tensorflow:Outfeed thread finished, shutting down.
INFO:tensorflow:Shutdown TPU system.
INFO:tensorflow:Loss for final step: 0.044236258.

清理

为避免系统因本主题中使用的资源向您的 GCP 帐号收取费用,请执行以下操作:

  1. 与 Compute Engine 虚拟机断开连接:

    (vm)$ exit
    

    您的提示符现在应为 username@projectname,表明您位于 Cloud Shell 中。

  2. 在您的 Cloud Shell 中,使用您在设置 Cloud TPU 时所用的 --zone 标志运行 ctpu delete,以删除 Compute Engine 虚拟机和 Cloud TPU:

    $ ctpu delete --zone=europe-west4-a \
      --name=mnist-tutorial
    
  3. 运行 ctpu status 以确保未分配任何实例,避免产生不必要的 TPU 使用费。删除操作可能需要几分钟时间才能完成。 如下所示的响应表明不再有已分配的实例:

    $ ctpu status --zone=europe-west4-a
    
    2018/04/28 16:16:23 WARNING: Setting zone to "europe-west4-a"
    No instances currently exist.
        Compute Engine VM:     --
        Cloud TPU:             --
    
  4. 如下所示运行 gsutil,将 bucket-name 替换为您为本教程创建的 Cloud Storage 存储分区的名称:

    $ gsutil rm -r gs://bucket-name
    

后续步骤