このページでは、ローカルのディープ ラーニング コンテナを作成し、設定する方法について説明します。このガイドでは、Docker の基本事項を理解していることを前提としています。
始める前に
次の手順で Google Cloud アカウントの設定、必要な API の有効化、必要なソフトウェアのインストールと有効化を行います。
Google Cloud Console で [リソースの管理] ページに移動し、プロジェクトを選択または作成します。
-
Ubuntu や Debian などの Linux ベースのオペレーティング システムを使用している場合は、ユーザー名を
docker
グループに追加して、sudo
を使わずに Docker を実行できるようにします。sudo usermod -a -G docker ${USER}
docker
グループにユーザー名を追加した後に、システムの再起動が必要となる場合があります。 Docker を開きます。Docker が稼働中であることを確認するには、現在の時刻と日付を返す次の Docker コマンドを実行します。
docker run busybox date
Docker 認証ヘルパーとして
gcloud
を使用します。gcloud auth configure-docker
省略可: GPU をローカルで使用してコンテナを実行する場合は、
nvidia-docker
をインストールします。
コンテナを作成する
コンテナを作成するには、次の手順を行います。
使用可能なコンテナのリストを表示するには:
gcloud container images list \ --repository="gcr.io/deeplearning-platform-release"
必要であれば、コンテナの選択を参照してコンテナを選択してください。
GPU 対応のコンテナを使用する必要がない場合は、次のサンプルコードを入力してください。tf-cpu.1-13 は、使用するコンテナの名前に置き換えます。
docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \ gcr.io/deeplearning-platform-release/tf-cpu.1-13
GPU 対応のコンテナを使用する場合は、次のサンプルコードを入力してください。tf-gpu.1-13 は、使用するコンテナの名前に置き換えます。
docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \ gcr.io/deeplearning-platform-release/tf-gpu.1-13
このコマンドは、コンテナを接続解除モードで起動して、ローカル ディレクトリ /path/to/local/dir
をコンテナ内の /home/jupyter
にマウントし、コンテナのポート 8080 をローカルマシンのポート 8080 にマッピングします。コンテナは JupyterLab サーバーを起動するように事前構成されています。このサーバーは http://localhost:8080
からアクセスできます。
次のステップ
- Docker のドキュメントで、コンテナの操作方法を確認する。