コマンドラインから Deep Learning VM インスタンスを作成する

このトピックでは、コマンドラインから新しい Deep Learning VM Images インスタンスを作成する手順について説明します。gcloud コマンドライン ツールは、お使いの SSH アプリケーションと組み合わせて使用するか、Cloud Shell で使用できます。

始める前に

Google Cloud CLI を使用して新しい Deep Learning VM インスタンスを作成するには、まず Google Cloud CLI をインストールして初期化しなければなりません。

  1. Google Cloud CLI のインストールの手順を使用して、Google Cloud CLI をダウンロードしてインストールします。
  2. Cloud SDK の初期化手順に沿って SDK を初期化します。

Cloud Shell で gcloud を使用するには、Cloud Shell の起動手順に沿って Cloud Shell をアクティブにします。

次に、使用する Deep Learning VM イメージを選択します。選択するイメージは、必要なフレームワークとプロセッサの種類によって異なります。選択可能なイメージについては、イメージの選択をご覧ください。

GPU を使用しないインスタンスの作成

GPU ではなく CPU を使用する Deep Learning VM インスタンスをプロビジョニングするには、次のコマンドを実行します。

export IMAGE_FAMILY="tf-ent-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release

オプション:

  • --image-family は CPU 固有のイメージタイプのいずれかにする必要があります。詳細については、イメージの選択をご覧ください。

  • --image-projectdeeplearning-platform-release でなければなりません。

GPU を使用するインスタンスの作成

Compute Engine には、仮想マシン インスタンスに GPU を追加するオプションがあります。多くの場合、GPU を使用することで複雑なデータ処理や機械学習タスクを高速化できます。GPU の詳細については、Compute Engine の GPU をご覧ください。

Deep Learning VM インスタンスに GPU をプロビジョニングするには、次のコマンドを実行します。

export IMAGE_FAMILY="tf-ent-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release \
  --maintenance-policy=TERMINATE \
  --accelerator="type=nvidia-tesla-v100,count=1" \
  --metadata="install-nvidia-driver=True"

オプション:

  • --image-family は GPU 固有のイメージタイプのいずれかにする必要があります。詳細については、イメージの選択をご覧ください。

  • --image-projectdeeplearning-platform-release でなければなりません。

  • --maintenance-policyTERMINATE でなければなりません。詳細については、GPU の制限をご覧ください。

  • --accelerator には、使用する GPU タイプを指定します。--accelerator="type=TYPE,count=COUNT" の形式で指定する必要があります。サポートされている TYPE の値は次のとおりです。

    • nvidia-tesla-v100count=1 または 8
    • nvidia-tesla-p100count=12、または 4
    • nvidia-tesla-p4count=12、または 4

    すべての GPU タイプがすべてのリージョンでサポートされているわけではありません。詳しくは、Compute Engine の GPU をご覧ください。

  • --metadata を使用すると、NVIDIA ドライバを自動的にインストールするように指定できます。値は install-nvidia-driver=True です。指定した場合、初回起動時に Compute Engine によって最新の安定したドライバが読み込まれ、必要な手順が実行されます(ドライバをアクティブにするための最後の再起動を含む)。

NVIDIA ドライバのインストールを選択した場合、インストールが完了するまでに 3~5 分かかります。

VM が完全にプロビジョニングされるまでに、最大で 5 分ほどかかることがあります。その間、マシンに SSH で接続することはできません。インストールが完了したら、ドライバのインストールが正常に完了したことを確認するために、SSH で接続して nvidia-smi を実行します。

構成が完了すると、イメージのスナップショットを保存できます。スナップショットを使用することで、ドライバのインストールを待つことなく、派生インスタンスを起動できるようになります。

プリエンプティブル インスタンスを作成する

プリエンプティブルな Deep Learning VM インスタンスを作成できます。プリエンプティブル インスタンスは、通常のインスタンスよりはるかに低価格で作成、実行できるインスタンスです。ただし、他のタスクがリソースへのアクセスを必要とする場合、Compute Engine がこのインスタンスを停止(プリエンプト)する可能性があります。プリエンプティブル インスタンスは 24 時間後に必ず停止します。プリエンプティブル インスタンスの詳細については、プリエンプティブル VM インスタンスをご覧ください。

プリエンプティブルな Deep Learning VM インスタンスを作成するには:

  • 上記の手順で新しいインスタンスを作成します。gcloud compute instances create コマンドに以下を追加します。

      --preemptible

次のステップ

インスタンスへの接続を参照して、新しい Deep Learning VM インスタンスに Google Cloud コンソールまたはコマンドラインから接続する方法を確認する。インスタンス名は、指定したデプロイ名-vm を付加したものになります。