このページでは、TensorFlow とその他のツールがプリインストールされた TensorFlow Deep Learning VM Image インスタンスを作成する方法を説明します。TensorFlow インスタンスは、Google Cloud Console 内の Cloud Marketplace から、またはコマンドラインを使用して作成できます。
始める前に
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
- Deep Learning VM で GPU を使用する場合は、割り当てページでプロジェクトで十分な GPU を使用できることを確認してください。GPU が割り当てページのリストにない場合や、さらに GPU 割り当てが必要な場合には、割り当て量の増加をリクエストしてください。
Cloud Marketplace から TensorFlow ディープ ラーニング VM インスタンスを作成する
Cloud Marketplace から TensorFlow Deep Learning VM インスタンスを作成するには、次の手順を実行します。
Google Cloud コンソールの Deep Learning VM Cloud Marketplace ページに移動します。
[Get started] をクリックします。
デプロイ名を入力します。これは、VM 名のルートとして使用されます。Compute Engine は、この名前に
-vm
を追加してインスタンス名を設定します。ゾーンを選択
[マシンタイプ] で、VM に必要な仕様を選択します。マシンタイプの詳細。
[GPU] で、[GPU のタイプ] と [GPU の数] を選択します。 GPU を使用しない場合は、[GPU を削除] ボタンをクリックして、ステップ 7 に進みます。GPU の詳細をご覧ください。
- GPU のタイプを選択します。 すべての GPU タイプがすべてのゾーンで利用できるわけではありません。 サポートされている組み合わせを探します。
- [GPU の数] を選択します。 選択できる GPU の数は GPU によって異なります。 サポートされている組み合わせを探します。
[フレームワーク] で、TensorFlow フレームワークのバージョンのいずれかを選択します。
GPU を使用している場合は、NVIDIA ドライバが必要です。 ドライバは手動でもインストールできますが、[NVIDIA GPU ドライバを自動的にインストールする] を選択することもできます。
[SSH ではなく URL を介して JupyterLab にアクセスする(ベータ版)] を選択することもできます。このベータ機能を有効にすると、URL を使用して JupyterLab インスタンスにアクセスできます。Google Cloud プロジェクトで編集者またはオーナーのロールを持っているユーザーは誰でもこの URL にアクセスできます。現在、この機能は米国、EU、アジアでのみ機能します。
ブートディスクの種類とブートディスクのサイズを選択します。
必要なネットワーク設定を選択します。
[デプロイ] をクリックします。
NVIDIA ドライバのインストールを選択した場合、インストールが完了するまでに 3 ~ 5 分かかります。
VM がデプロイされると、ページが更新され、インスタンスにアクセスする手順が表示されます。
コマンドラインから TensorFlow Deep Learning VM インスタンスを作成する
Google Cloud CLI を使用して新しい Deep Learning VM インスタンスを作成するには、まず Google Cloud CLI をインストールして初期化しなければなりません。
- Google Cloud CLI のインストールの手順を使用して、Google Cloud CLI をダウンロードしてインストールします。
- Cloud SDK の初期化手順に沿って SDK を初期化します。
Cloud Shell で gcloud
を使用するには、Cloud Shell の起動手順に沿って Cloud Shell をアクティブにします。
TensorFlow インスタンスは、GPU の有無にかかわらず作成できます。
GPU を使用しない場合
Deep Learning VM インスタンスを GPU なしでプロビジョニングするには:
export IMAGE_FAMILY="tf-ent-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release
オプション:
--image-family
は、以下のいずれかにする必要があります。tf-ent-latest-cpu
- 最新の TensorFlow Enterprise の 2 つのイメージを取得します。- 以前の TensorFlow または TensorFlow Enterprise イメージのファミリー名(イメージの選択を参照)
--image-project
がdeeplearning-platform-release
でなければなりません。
GPU を使用する場合
Compute Engine には、仮想マシン インスタンスに GPU を追加するオプションがあります。多くの場合、GPU を使用することで複雑なデータ処理や機械学習タスクを高速化できます。GPU の詳細については、Compute Engine の GPU をご覧ください。
Deep Learning VM インスタンスに GPU をプロビジョニングするには:
export IMAGE_FAMILY="tf-ent-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release \
--maintenance-policy=TERMINATE \
--accelerator="type=nvidia-tesla-v100,count=1" \
--metadata="install-nvidia-driver=True"
オプション:
--image-family
は、以下のいずれかにする必要があります。tf-ent-latest-gpu
- 最新の TensorFlow Enterprise の 2 つのイメージを取得します。- 以前の TensorFlow または TensorFlow Enterprise イメージのファミリー名(イメージの選択を参照)
--image-project
がdeeplearning-platform-release
でなければなりません。--maintenance-policy
がTERMINATE
でなければなりません。詳細については、GPU の制限をご覧ください。--accelerator
には、使用する GPU タイプを指定します。--accelerator="type=TYPE,count=COUNT"
の形式で指定する必要があります。例:--accelerator="type=nvidia-tesla-p100,count=2"
。使用可能な GPU の種類と数のリストについては、GPU モデルの表をご覧ください。すべての GPU タイプがすべてのリージョンでサポートされているわけではありません。詳細については、GPU のリージョンとゾーンの可用性をご覧ください。
--metadata
を使用すると、NVIDIA ドライバを自動的にインストールするように指定できます。値はinstall-nvidia-driver=True
です。 指定した場合、Compute Engine の初回起動時に最新の安定したドライバが読み込まれ、必要な手順が実行されます(ドライバをアクティブにするための最後の再起動を含む)。
NVIDIA ドライバのインストールを選択した場合、インストールが完了するまでに 3~5 分かかります。
VM が完全にプロビジョニングされるまでに、最大で 5 分ほどかかることがあります。その間、マシンに SSH で接続することはできません。インストールが完了したら、ドライバのインストールが正常に完了したことを確認するために、SSH で接続して nvidia-smi
を実行します。
構成が完了すると、イメージのスナップショットを保存できます。スナップショットを使用することで、ドライバのインストールを待つことなく、派生インスタンスを起動できるようになります。
TensorFlow Enterprise について
TensorFlow Enterprise は、Google Cloud での実行に最適化された TensorFlow であり、長期的なバージョン サポートの対象となっています。
プリエンプティブル インスタンスを作成する
プリエンプティブルな Deep Learning VM インスタンスを作成できます。プリエンプティブル インスタンスは、通常のインスタンスよりはるかに低価格で作成、実行できるインスタンスです。ただし、他のタスクがリソースへのアクセスを必要とする場合、Compute Engine がこのインスタンスを停止(プリエンプト)する可能性があります。プリエンプティブル インスタンスは 24 時間後に必ず停止します。プリエンプティブル インスタンスの詳細については、プリエンプティブル VM インスタンスをご覧ください。
プリエンプティブルな Deep Learning VM インスタンスを作成するには:
上記の手順で、コマンドラインから新しいインスタンスを作成します。
gcloud compute instances create
コマンドに以下を追加します。--preemptible
次のステップ
インスタンスへの接続を参照して、新しい Deep Learning VM インスタンスに Google Cloud コンソールまたはコマンドラインから接続する方法を確認する。インスタンス名は、指定したデプロイ名に -vm
を付加したものになります。