ローカルのディープ ラーニング コンテナを使ってみる

このページでは、ローカルのディープ ラーニング コンテナを作成し、設定する方法について説明します。このガイドでは、Docker の基本事項を理解していることを前提としています。

始める前に

このガイドの手順を完了するには、Cloud Shell を使用するか、Cloud SDK をインストールできる環境を使用します。

次の手順で Google Cloud アカウントの設定、必要な API の有効化、Cloud SDK のインストールと有効化を行います。

  1. Google Cloud Console で [リソースの管理] ページに移動し、プロジェクトを選択または作成します。

    [リソースの管理] ページに移動

  2. Cloud Shell を使用している場合は、Cloud SDK と Docker がすでにインストールされているため、この手順は省略できます。それ以外の場合は、次の手順を行います。

    1. Cloud SDK をインストールして初期化します

    2. Docker をインストールします

      Ubuntu や Debian などの Linux ベースのオペレーティング システムを使用している場合は、ユーザー名を docker グループに追加して、sudo を使わずに Docker を実行できるようにします。

      sudo usermod -a -G docker ${USER}
      

      docker グループにユーザー名を追加した後に、システムの再起動が必要となる場合があります。

  3. Docker を開きます。Docker が稼働中であることを確認するには、現在の時刻と日付を返す次の Docker コマンドを実行します。

    docker run busybox date
    
  4. Docker 認証ヘルパーとして gcloud を使用します。

    gcloud auth configure-docker
    
  5. 省略可: GPU をローカルで使用してコンテナを実行する場合は、nvidia-docker をインストールします。

コンテナを作成する

コンテナを作成するには、次の手順を行います。

  1. 使用可能なコンテナのリストを表示するには:

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    必要であれば、コンテナの選択を参照してコンテナを選択してください。

  2. GPU 対応のコンテナを使用する必要がない場合は、次のサンプルコードを入力してください。tf-cpu.1-13 は、使用するコンテナの名前に置き換えます。

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    GPU 対応のコンテナを使用する場合は、次のサンプルコードを入力してください。tf-gpu.1-13 は、使用するコンテナの名前に置き換えます。

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

このコマンドは、コンテナを接続解除モードで起動して、ローカル ディレクトリ /path/to/local/dir をコンテナ内の /home/jupyter にマウントし、コンテナのポート 8080 をローカルマシンのポート 8080 にマッピングします。コンテナは JupyterLab サーバーを起動するように事前構成されています。このサーバーは http://localhost:8080 からアクセスできます。

次のステップ