本地 Deep Learning Containers 容器使用入门

本页面介绍如何创建和设置本地 Deep Learning Containers 容器。本指南假设您熟悉 Docker 的基本知识。

准备工作

完成以下步骤以设置 Google Cloud 账号,启用所需的 API,以及安装和激活所需的软件。

  1. 在 Google Cloud Console 中,转到管理资源页面,然后选择项目或创建项目。

    转到“管理资源”

  2. 安装并初始化 gcloud CLI

  3. 安装 Docker

    如果您使用的是基于 Linux 的操作系统(例如 Ubuntu 或 Debian),请将您的用户名添加到 docker 群组,这样您就可以在不使用 sudo 的情况下运行 Docker:

    sudo usermod -a -G docker ${USER}
    

    在将您自己添加到 docker 群组之后,您可能需要重启系统。

  4. 打开 Docker。若要确保 Docker 正在运行,请运行以下 Docker 命令,该命令返回当前时间和日期:

    docker run busybox date
    
  5. 使用 gcloud 作为 Docker 的凭据帮助程序:

    gcloud auth configure-docker
    
  6. 可选:如果要在本地使用 GPU 运行容器,请安装 nvidia-docker

创建容器

按照以下步骤创建容器。

  1. 如需查看可用容器的列表,请执行以下操作:

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    您可以查看选择容器,了解如何选择需要的容器。

  2. 如果您不需要使用启用了 GPU 的容器,请输入以下代码示例。将 tf-cpu.1-13 替换为您要使用的集群的名称。

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    如果您要使用启用了 GPU 的容器,请输入以下代码示例。将 tf-gpu.1-13 替换为您要使用的集群的名称。

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

此命令会以分离模式启动容器,将本地目录 /path/to/local/dir 装载到容器中的 /home/jupyter,并将容器上的端口 8080 映射到本地机器上的端口 8080。该容器已预先配置为启动 JupyterLab 服务器,您可以通过 http://localhost:8080 访问该服务器。

后续步骤

  • 如需详细了解如何使用容器,请参阅 Docker 文档