本页面介绍了如何将 TensorFlow 企业版与本地 Deep Learning Containers 实例搭配使用。
在此示例中,您将在本地机器上创建并运行 TensorFlow 企业版 Deep Learning Containers 实例。然后,您打开 JupyterLab 笔记本(默认包含在容器实例中),并运行有关将神经网络与 Keras 搭配使用的分类教程。
准备工作
完成以下步骤以安装 Cloud SDK 和 Docker,然后设置本地机器。
安装 Cloud SDK 和 Docker
完成以下步骤以在本地机器上安装 Cloud SDK 和 Docker。
在本地机器上下载并安装 Cloud SDK。Cloud SDK 是一个命令行工具,可用于连接您的实例。
设置本地机器
完成以下步骤即可设置本地机器。
如果您使用的是基于 Linux 的操作系统(例如 Ubuntu 或 Debian),请使用以下命令将您的用户名添加到
docker
群组,这样您就可以在不使用sudo
的情况下运行 Docker }。将 USERNAME 替换为您的用户名。sudo usermod -a -G docker USERNAME
在将您自己添加到
docker
群组之后,您可能需要重启系统。打开 Docker。若要确保 Docker 正在运行,请运行以下 Docker 命令,该命令返回当前时间和日期:
docker run busybox date
使用
gcloud
作为 Docker 的凭据帮助程序:gcloud auth configure-docker
可选:如果要使用支持 GPU 的容器,请确保您拥有与 CUDA 10 兼容的 GPU、关联的驱动程序、
nvidia-docker
}。
创建 Deep Learning Containers 实例
如需创建 TensorFlow 企业版 Deep Learning Containers 实例,请根据您要创建的本地容器类型完成以下操作。
如果您不需要使用支持 GPU 的容器,请使用以下命令。将 /path/to/local/dir 替换为您要使用的本地目录的路径。
docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-cpu.2-3
如果要使用支持 GPU 的容器,请使用以下命令。将 /path/to/local/dir 替换为您要使用的本地目录的路径。
docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-gpu.2-3
此命令以分离模式启动容器,将本地目录 /path/to/local/dir
装载到容器中的 /home
,并将容器上的端口 8080 映射到本地机器上的端口 8080。
打开 JupyterLab 笔记本并运行分类教程
该容器已预先配置为启动 JupyterLab 服务器。完成以下步骤以打开 JupyterLab 笔记本并运行分类教程。
在本地浏览器中,访问 http://localhost:8080 以访问 JupyterLab 笔记本。
在左侧,双击 tutorials 以打开此文件夹,然后导航到 tutorials/tf2_course/01_Neural_nets_with_keras.ipynb 并打开。
点击运行按钮
以运行教程中的单元。
在 Google Cloud 上运行 Deep Learning Containers 实例
如需在云环境中运行 TensorFlow 企业版 Deep Learning Containers 实例,请详细了解在 Google Cloud 上运行容器的各种方案。例如,您可能需要在 Google Kubernetes Engine 集群上运行容器。
后续步骤
- 详细了解 Deep Learning Containers。
- 开始将 TensorFlow 企业版与 Deep Learning VM 搭配使用。
- 开始将 TensorFlow 企业版与笔记本搭配使用。