本地 Deep Learning Containers 容器使用入门

本页面介绍了如何创建和设置本地深度学习容器。 本指南假设您已基本熟悉 Docker

准备工作

如需完成本指南中的步骤,您可以使用 Cloud Shell 或任何可安装 Cloud SDK 的环境。

完成以下步骤以设置 Google Cloud 帐号,启用所需的 API,以及安装并激活 Cloud SDK。

  1. 在 Google Cloud Console 中,转到管理资源页面,然后选择或创建项目。

    转到“管理资源”页面

  2. 如果您使用的是 Cloud Shell,则可以跳过此步骤,因为已安装 Cloud SDK 和 Docker。否则,请完成以下步骤:

    1. 安装并初始化 Cloud SDK

    2. 安装 Docker

      如果您使用的是基于 Linux 的操作系统(例如 Ubuntu 或 Debian),请将您的用户名添加到 docker 群组,这样您就可以在不使用 sudo 的情况下运行 Docker:

      sudo usermod -a -G docker ${USER}
      

      在将您自己添加到 docker 群组之后,您可能需要重启系统。

  3. 打开 Docker。若要确保 Docker 正在运行,请运行以下 Docker 命令,该命令返回当前时间和日期:

    docker run busybox date
    
  4. 使用 gcloud 作为 Docker 的凭据帮助程序:

    gcloud auth configure-docker
    
  5. 可选:如果要在本地使用 GPU 运行容器,请安装 nvidia-docker

创建容器

请按照以下步骤创建容器。

  1. 如需查看可用的容器列表,请执行以下操作:

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    您可能需要转到选择容器,以帮助选择您需要的容器。

  2. 如果您不需要使用支持 GPU 的容器,请输入以下代码示例。将 tf-cpu.1-13 替换为您要使用的容器名称。

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    如果您要使用支持 GPU 的容器,请输入以下代码示例。将 tf-gpu.1-13 替换为您要使用的容器名称。

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

此命令以分离模式启动容器,将本地目录 /path/to/local/dir 装载到容器中的 /home/jupyter,并将容器上的端口 8080 映射到本地机器上的端口 8080。该容器已预先配置为启动 JupyterLab 服务器,您可以通过 http://localhost:8080 访问该服务器。

后续步骤