本页面介绍如何创建和设置本地 Deep Learning Containers 容器。本指南假设您熟悉 Docker 的基本知识。
准备工作
完成以下步骤以设置 Google Cloud 账号,启用所需的 API,以及安装和激活所需的软件。
在 Google Cloud Console 中,转到管理资源页面,然后选择项目或创建项目。
-
如果您使用的是基于 Linux 的操作系统(例如 Ubuntu 或 Debian),请将您的用户名添加到
docker
群组,这样您就可以在不使用sudo
的情况下运行 Docker:sudo usermod -a -G docker ${USER}
在将您自己添加到
docker
群组之后,您可能需要重启系统。 打开 Docker。若要确保 Docker 正在运行,请运行以下 Docker 命令,该命令返回当前时间和日期:
docker run busybox date
使用
gcloud
作为 Docker 的凭据帮助程序:gcloud auth configure-docker
可选:如果要在本地使用 GPU 运行容器,请安装
nvidia-docker
。
创建容器
按照以下步骤创建容器。
如需查看可用容器的列表,请执行以下操作:
gcloud container images list \ --repository="gcr.io/deeplearning-platform-release"
您可以查看选择容器,了解如何选择需要的容器。
如果您不需要使用启用了 GPU 的容器,请输入以下代码示例。将 tf-cpu.1-13 替换为您要使用的集群的名称。
docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \ gcr.io/deeplearning-platform-release/tf-cpu.1-13
如果您要使用启用了 GPU 的容器,请输入以下代码示例。将 tf-gpu.1-13 替换为您要使用的集群的名称。
docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \ gcr.io/deeplearning-platform-release/tf-gpu.1-13
此命令会以分离模式启动容器,将本地目录 /path/to/local/dir
装载到容器中的 /home/jupyter
,并将容器上的端口 8080 映射到本地机器上的端口 8080。该容器已预先配置为启动 JupyterLab 服务器,您可以通过 http://localhost:8080
访问该服务器。
后续步骤
- 如需详细了解如何使用容器,请参阅 Docker 文档。