このページでは、ローカルの Deep Learning Containers インスタンスで TensorFlow Enterprise を使用する方法について説明します。
この例では、TensorFlow Enterprise Deep Learning Containers インスタンスを作成してローカルマシンで実行します。次に、JupyterLab ノートブックを開き(デフォルトではコンテナ インスタンスに含まれています)、Keras でニューラル ネットワークを使用する方法に関する分類チュートリアルを実行します。
始める前に
次の手順で Cloud SDK と Docker をインストールし、ローカルマシンを設定します。
Cloud SDK と Docker をインストールする
ローカルマシンに Cloud SDK と Docker をインストールするには、次の手順に従います。
ローカルマシンに Cloud SDK をダウンロードしてインストールします。Cloud SDK は、インスタンスとインターフェースするために使用できるコマンドライン ツールです。
ローカルマシンを設定する
ローカルマシンを設定するには、次の手順を行います。
Ubuntu や Debian などの Linux ベースのオペレーティングシステムを使用している場合は、次のコマンドを使用してユーザー名を
docker
このグループを使用することで、sudo
](保存)をクリックします。USERNAME をユーザー名に置き換えます。sudo usermod -a -G docker USERNAME
docker
グループにユーザー名を追加した後に、システムの再起動が必要となる場合があります。Docker を開きます。Docker が稼働中であることを確認するには、現在の時刻と日付を返す次の Docker コマンドを実行します。
docker run busybox date
Docker 認証ヘルパーとして
gcloud
を使用します。gcloud auth configure-docker
省略可: GPU 対応のコンテナを使用する場合は、CUDA 10 互換の GPU、関連するドライバがあることを確認します。
nvidia-docker
がインストールされている必要があります。
Deep Learning Containers インスタンスを作成する
TensorFlow Enterprise Deep Learning Containers インスタンスを作成するには、作成するローカル コンテナのタイプに応じて、次の操作を行います。
GPU 対応のコンテナを使用する必要がない場合は、次のコマンドを使用します。/path/to/local/dir は、使用するローカル ディレクトリのパスで置き換えます。
docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-cpu.2-3
GPU 対応のコンテナを使用する場合は、次のコマンドを使用します。/path/to/local/dir は、使用するローカル ディレクトリのパスで置き換えます。
docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-gpu.2-3
このコマンドは、コンテナを接続解除モードで起動し、ローカル ディレクトリ /path/to/local/dir
をコンテナ内の /home
にマウントして、コンテナのポート 8080 をローカルマシンのポート 8080 にマッピングします。
JupyterLab ノートブックを開き、分類チュートリアルを実行する
このコンテナは、JupyterLab サーバーを起動するように事前構成されています。次の操作を行って、JupyterLab ノートブックを開き、分類チュートリアルを実行します。
ローカル ブラウザで http://localhost:8080 にアクセスし、JupyterLab ノートブックにアクセスします。
左側の [チュートリアル] をダブルクリックしてフォルダを開き、tutorials/tf2_course/01_ニューラル_nets_with_keras.ipynb に移動して開きます。
実行ボタン
をクリックして、チュートリアルのセルを実行します。
Google Cloud 上で Deep Learning Containers インスタンスを実行する
TensorFlow Enterprise Deep Learning Containers インスタンスをクラウド環境で実行するには、Google Cloud でコンテナを実行するためのオプションの詳細をご覧ください。 たとえば、Google Kubernetes Engine クラスタでコンテナを実行できます。
次のステップ
- Deep Learning Containers の詳細を確認する。
- Deep Learning VM で TensorFlow Enterprise を使用します。
- ノートブックで TensorFlow Enterprise を使用する。