ローカルの Deep Learning Containers インスタンスで TensorFlow Enterprise を使用する

このページでは、ローカルの Deep Learning Containers インスタンスで TensorFlow Enterprise を使用する方法について説明します。

この例では、TensorFlow Enterprise Deep Learning Containers インスタンスを作成してローカルマシンで実行します。次に、JupyterLab ノートブックを開き(デフォルトではコンテナ インスタンスに含まれています)、Keras でニューラル ネットワークを使用する方法に関する分類チュートリアルを実行します。

始める前に

次の手順で Cloud SDK と Docker をインストールし、ローカルマシンを設定します。

Cloud SDK と Docker をインストールする

ローカルマシンに Cloud SDK と Docker をインストールするには、次の手順に従います。

  1. ローカルマシンに Cloud SDK をダウンロードしてインストールします。Cloud SDK は、インスタンスとインターフェースするために使用できるコマンドライン ツールです。

  2. Docker をダウンロードしてインストールします

ローカルマシンを設定する

ローカルマシンを設定するには、次の手順を行います。

  1. Ubuntu や Debian などの Linux ベースのオペレーティングシステムを使用している場合は、次のコマンドを使用してユーザー名をdockerこのグループを使用することで、sudo ](保存)をクリックします。USERNAME をユーザー名に置き換えます。

    sudo usermod -a -G docker USERNAME
    

    docker グループにユーザー名を追加した後に、システムの再起動が必要となる場合があります。

  2. Docker を開きます。Docker が稼働中であることを確認するには、現在の時刻と日付を返す次の Docker コマンドを実行します。

    docker run busybox date
    
  3. Docker 認証ヘルパーとして gcloud を使用します。

    gcloud auth configure-docker
    
  4. 省略可: GPU 対応のコンテナを使用する場合は、CUDA 10 互換の GPU、関連するドライバがあることを確認します。nvidia-docker がインストールされている必要があります。

Deep Learning Containers インスタンスを作成する

TensorFlow Enterprise Deep Learning Containers インスタンスを作成するには、作成するローカル コンテナのタイプに応じて、次の操作を行います。

GPU 対応のコンテナを使用する必要がない場合は、次のコマンドを使用します。/path/to/local/dir は、使用するローカル ディレクトリのパスで置き換えます。

docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-cpu.2-3

GPU 対応のコンテナを使用する場合は、次のコマンドを使用します。/path/to/local/dir は、使用するローカル ディレクトリのパスで置き換えます。

docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-gpu.2-3

このコマンドは、コンテナを接続解除モードで起動し、ローカル ディレクトリ /path/to/local/dir をコンテナ内の /home にマウントして、コンテナのポート 8080 をローカルマシンのポート 8080 にマッピングします。

JupyterLab ノートブックを開き、分類チュートリアルを実行する

このコンテナは、JupyterLab サーバーを起動するように事前構成されています。次の操作を行って、JupyterLab ノートブックを開き、分類チュートリアルを実行します。

  1. ローカル ブラウザで http://localhost:8080 にアクセスし、JupyterLab ノートブックにアクセスします。

  2. 左側の [チュートリアル] をダブルクリックしてフォルダを開き、tutorials/tf2_course/01_ニューラル_nets_with_keras.ipynb に移動して開きます。

  3. 実行ボタン をクリックして、チュートリアルのセルを実行します。

Google Cloud 上で Deep Learning Containers インスタンスを実行する

TensorFlow Enterprise Deep Learning Containers インスタンスをクラウド環境で実行するには、Google Cloud でコンテナを実行するためのオプションの詳細をご覧ください。 たとえば、Google Kubernetes Engine クラスタでコンテナを実行できます。

次のステップ