搭配使用 TensorFlow 企业版与本地 Deep Learning Containers 实例

本页面介绍了如何将 TensorFlow 企业版与本地 Deep Learning Containers 实例搭配使用。

在此示例中,您将在本地机器上创建并运行 TensorFlow 企业版 Deep Learning Containers 实例。然后,您打开 JupyterLab 笔记本(默认包含在容器实例中),并运行有关将神经网络与 Keras 搭配使用的分类教程。

准备工作

完成以下步骤以安装 Cloud SDK 和 Docker,然后设置本地机器。

安装 Cloud SDK 和 Docker

完成以下步骤以在本地机器上安装 Cloud SDK 和 Docker。

  1. 在本地机器上下载并安装 Cloud SDK。Cloud SDK 是一个命令行工具,可用于连接您的实例。

  2. 下载并安装 Docker

设置本地机器

完成以下步骤即可设置本地机器。

  1. 如果您使用的是基于 Linux 的操作系统(例如 Ubuntu 或 Debian),请使用以下命令将您的用户名添加到 docker 群组,这样您就可以在不使用 sudo 的情况下运行 Docker }。将 USERNAME 替换为您的用户名。

    sudo usermod -a -G docker USERNAME
    

    在将您自己添加到 docker 群组之后,您可能需要重启系统。

  2. 打开 Docker。若要确保 Docker 正在运行,请运行以下 Docker 命令,该命令返回当前时间和日期:

    docker run busybox date
    
  3. 使用 gcloud 作为 Docker 的凭据帮助程序:

    gcloud auth configure-docker
    
  4. 可选:如果要使用支持 GPU 的容器,请确保您拥有与 CUDA 10 兼容的 GPU、关联的驱动程序、nvidia-docker }。

创建 Deep Learning Containers 实例

如需创建 TensorFlow 企业版 Deep Learning Containers 实例,请根据您要创建的本地容器类型完成以下操作。

如果您不需要使用支持 GPU 的容器,请使用以下命令。将 /path/to/local/dir 替换为您要使用的本地目录的路径。

docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-cpu.2-3

如果要使用支持 GPU 的容器,请使用以下命令。将 /path/to/local/dir 替换为您要使用的本地目录的路径。

docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-gpu.2-3

此命令以分离模式启动容器,将本地目录 /path/to/local/dir 装载到容器中的 /home,并将容器上的端口 8080 映射到本地机器上的端口 8080。

打开 JupyterLab 笔记本并运行分类教程

该容器已预先配置为启动 JupyterLab 服务器。完成以下步骤以打开 JupyterLab 笔记本并运行分类教程。

  1. 在本地浏览器中,访问 http://localhost:8080 以访问 JupyterLab 笔记本。

  2. 在左侧,双击 tutorials 以打开此文件夹,然后导航到 tutorials/tf2_course/01_Neural_nets_with_keras.ipynb 并打开。

  3. 点击运行按钮 以运行教程中的单元。

在 Google Cloud 上运行 Deep Learning Containers 实例

如需在云环境中运行 TensorFlow 企业版 Deep Learning Containers 实例,请详细了解在 Google Cloud 上运行容器的各种方案。例如,您可能需要在 Google Kubernetes Engine 集群上运行容器

后续步骤