このトピックでは、コマンドラインから新しい Deep Learning VM Images インスタンスを作成する手順について説明します。gcloud コマンドライン ツールは、お使いの SSH アプリケーションと組み合わせて使用するか、Cloud Shell で使用できます。
始める前に
Google Cloud CLI を使用して新しい Deep Learning VM インスタンスを作成するには、まず Google Cloud CLI をインストールして初期化する必要があります。
- Google Cloud CLI のインストールの手順を使用して、Google Cloud CLI をダウンロードしてインストールします。
- Cloud SDK の初期化手順に沿って SDK を初期化します。
Cloud Shell で gcloud を使用するには、Cloud Shell の起動手順に沿って Cloud Shell をアクティブにします。
次に、使用する Deep Learning VM イメージを選択します。選択するイメージは、必要なフレームワークとプロセッサの種類によって異なります。選択可能なイメージについては、イメージの選択をご覧ください。
GPU を使用しないインスタンスの作成
GPU ではなく CPU を使用する Deep Learning VM インスタンスをプロビジョニングするには、次のコマンドを実行します。
export IMAGE_FAMILY="tf-ent-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release
オプション:
- --image-familyは CPU 固有のイメージタイプのいずれかにする必要があります。詳細については、イメージの選択をご覧ください。
- --image-projectが- deeplearning-platform-releaseでなければなりません。
GPU を使用するインスタンスの作成
Compute Engine には、仮想マシン インスタンスに GPU を追加するオプションがあります。多くの場合、GPU を使用することで複雑なデータ処理や機械学習タスクを高速化できます。GPU の詳細については、Compute Engine の GPU をご覧ください。
Deep Learning VM インスタンスに 1 つ以上の GPU をプロビジョニングするには、次のコマンドを実行します。
export IMAGE_FAMILY="tf-ent-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release \
  --maintenance-policy=TERMINATE \
  --accelerator="type=nvidia-tesla-v100,count=1" \
  --metadata="install-nvidia-driver=True"
オプション:
- --image-familyは GPU 固有のイメージタイプのいずれかにする必要があります。詳細については、イメージの選択をご覧ください。
- --image-projectが- deeplearning-platform-releaseでなければなりません。
- --maintenance-policyが- TERMINATEでなければなりません。詳細については、GPU の制限をご覧ください。
- --acceleratorには、使用する GPU タイプを指定します。- --accelerator="type=TYPE,count=COUNT"の形式で指定する必要があります。サポートされている- TYPEの値は次のとおりです。- nvidia-tesla-v100(- count=1または- 8)
- nvidia-tesla-p100(- count=1、- 2、または- 4)
- nvidia-tesla-p4(- count=1、- 2、または- 4)
 - すべての GPU タイプがすべてのリージョンでサポートされているわけではありません。詳しくは、Compute Engine の GPU をご覧ください。 
- --metadataを使用すると、NVIDIA ドライバを自動的にインストールするように指定できます。値は- install-nvidia-driver=Trueです。指定した場合、初回起動時に Compute Engine によって最新の安定したドライバが読み込まれ、必要な手順が実行されます(ドライバをアクティブにするための最後の再起動を含む)。
NVIDIA ドライバのインストールを選択した場合、インストールが完了するまでに 3~5 分かかります。
VM が完全にプロビジョニングされるまでに、最大で 5 分ほどかかることがあります。その間、マシンに SSH で接続することはできません。インストールが完了したら、ドライバのインストールが正常に完了したことを確認するために、SSH で接続して nvidia-smi を実行します。
構成が完了すると、イメージのスナップショットを保存できます。スナップショットを使用することで、ドライバのインストールを待つことなく、派生インスタンスを起動できるようになります。
プリエンプティブル インスタンスを作成する
プリエンプティブルな Deep Learning VM インスタンスを作成できます。プリエンプティブル インスタンスは、通常のインスタンスよりはるかに低価格で作成、実行できるインスタンスです。ただし、他のタスクがリソースへのアクセスを必要とする場合、Compute Engine がこのインスタンスを停止(プリエンプト)する可能性があります。プリエンプティブル インスタンスは 24 時間後に必ず停止します。プリエンプティブル インスタンスの詳細については、プリエンプティブル VM インスタンスをご覧ください。
プリエンプティブルな Deep Learning VM インスタンスを作成するには:
- 上記の手順で新しいインスタンスを作成します。 - gcloud compute instances createコマンドに以下を追加します。- --preemptible 
次のステップ
 Google Cloud コンソールまたはコマンドラインから新しい Deep Learning VM インスタンスに接続する手順については、インスタンスへの接続をご覧ください。インスタンス名は、指定したデプロイ名に -vm を付加したものになります。