このトピックでは、コマンドラインから新しい Deep Learning VM Images インスタンスを作成する手順について説明します。gcloud
コマンドライン ツールは、お使いの SSH アプリケーションと組み合わせて使用するか、Cloud Shell で使用できます。
始める前に
Google Cloud CLI を使用して新しい Deep Learning VM インスタンスを作成するには、まず Google Cloud CLI をインストールして初期化しなければなりません。
- Google Cloud CLI のインストールの手順を使用して、Google Cloud CLI をダウンロードしてインストールします。
- Cloud SDK の初期化手順に沿って SDK を初期化します。
Cloud Shell で gcloud
を使用するには、Cloud Shell の起動手順に沿って Cloud Shell をアクティブにします。
次に、使用する Deep Learning VM イメージを選択します。選択するイメージは、必要なフレームワークとプロセッサの種類によって異なります。選択可能なイメージについては、イメージの選択をご覧ください。
GPU を使用しないインスタンスの作成
GPU ではなく CPU を使用する Deep Learning VM インスタンスをプロビジョニングするには、次のコマンドを実行します。
export IMAGE_FAMILY="tf-ent-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release
オプション:
--image-family
は CPU 固有のイメージタイプのいずれかにする必要があります。詳細については、イメージの選択をご覧ください。--image-project
がdeeplearning-platform-release
でなければなりません。
GPU を使用するインスタンスの作成
Compute Engine には、仮想マシン インスタンスに GPU を追加するオプションがあります。多くの場合、GPU を使用することで複雑なデータ処理や機械学習タスクを高速化できます。GPU の詳細については、Compute Engine の GPU をご覧ください。
Deep Learning VM インスタンスに GPU をプロビジョニングするには、次のコマンドを実行します。
export IMAGE_FAMILY="tf-ent-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release \
--maintenance-policy=TERMINATE \
--accelerator="type=nvidia-tesla-v100,count=1" \
--metadata="install-nvidia-driver=True"
オプション:
--image-family
は GPU 固有のイメージタイプのいずれかにする必要があります。詳細については、イメージの選択をご覧ください。--image-project
がdeeplearning-platform-release
でなければなりません。--maintenance-policy
がTERMINATE
でなければなりません。詳細については、GPU の制限をご覧ください。--accelerator
には、使用する GPU タイプを指定します。--accelerator="type=TYPE,count=COUNT"
の形式で指定する必要があります。サポートされているTYPE
の値は次のとおりです。nvidia-tesla-v100
(count=1
または8
)nvidia-tesla-p100
(count=1
、2
、または4
)nvidia-tesla-p4
(count=1
、2
、または4
)
すべての GPU タイプがすべてのリージョンでサポートされているわけではありません。詳しくは、Compute Engine の GPU をご覧ください。
--metadata
を使用すると、NVIDIA ドライバを自動的にインストールするように指定できます。値はinstall-nvidia-driver=True
です。指定した場合、初回起動時に Compute Engine によって最新の安定したドライバが読み込まれ、必要な手順が実行されます(ドライバをアクティブにするための最後の再起動を含む)。
NVIDIA ドライバのインストールを選択した場合、インストールが完了するまでに 3~5 分かかります。
VM が完全にプロビジョニングされるまでに、最大で 5 分ほどかかることがあります。その間、マシンに SSH で接続することはできません。インストールが完了したら、ドライバのインストールが正常に完了したことを確認するために、SSH で接続して nvidia-smi
を実行します。
構成が完了すると、イメージのスナップショットを保存できます。スナップショットを使用することで、ドライバのインストールを待つことなく、派生インスタンスを起動できるようになります。
プリエンプティブル インスタンスを作成する
プリエンプティブルな Deep Learning VM インスタンスを作成できます。プリエンプティブル インスタンスは、通常のインスタンスよりはるかに低価格で作成、実行できるインスタンスです。ただし、他のタスクがリソースへのアクセスを必要とする場合、Compute Engine がこのインスタンスを停止(プリエンプト)する可能性があります。プリエンプティブル インスタンスは 24 時間後に必ず停止します。プリエンプティブル インスタンスの詳細については、プリエンプティブル VM インスタンスをご覧ください。
プリエンプティブルな Deep Learning VM インスタンスを作成するには:
上記の手順で新しいインスタンスを作成します。
gcloud compute instances create
コマンドに以下を追加します。--preemptible
次のステップ
インスタンスへの接続を参照して、新しい Deep Learning VM インスタンスに Google Cloud コンソールまたはコマンドラインから接続する方法を確認する。インスタンス名は、指定したデプロイ名に -vm
を付加したものになります。