Compute Engine の GPU

Google Compute Engine は、仮想マシン インスタンスに追加できるグラフィック プロセッシング ユニット(GPU)を備えています。これらの GPU を使用して、インスタンスで実行される機械学習やデータ処理などの特定のワークロードを高速化できます。

3D 表示、3D レンダリング、仮想アプリケーションなどのグラフィックを多用するワークロードが存在する場合、NVIDIA® GRID® テクノロジーを使用する仮想ワークステーションを作成できます。グラフィックを多用するアプリケーション用 GPU については、グラフィック ワークロード用 GPU をご覧ください。

インスタンスに GPU を追加する手順については、インスタンスへの GPU の追加をご覧ください。

はじめに

Compute Engine では NVIDIA® Tesla® GPU がパススルー モードでインスタンスに提供されるため、仮想マシン インスタンスで GPU と関連メモリを直接制御できます。

コンピューティング ワークロードの場合、GPU モデルは次の段階で利用できます。

  • NVIDIA® Tesla® P4: 一般提供
  • NVIDIA® Tesla® V100: 一般提供
  • NVIDIA® Tesla® P100: 一般提供
  • NVIDIA® Tesla® K80: 一般提供

グラフィック ワークロードの場合、GPU モデルは次の段階で利用できます。

  • NVIDIA® Tesla® P4 仮想ワークステーション: 一般提供
  • NVIDIA® Tesla® P100 仮想ワークステーション: 一般提供

仮想ワークステーション用 GPU については、グラフィック ワークロード用 GPU をご覧ください。

GPU を追加できるのは、ある特定のゾーンに作成できる事前定義されたマシンタイプまたはカスタム マシンタイプのインスタンスのみです。GPU は、共有コア マシンタイプメモリ最適化マシンタイプではサポートされません。

GPU 数が少ないインスタンスの場合は、vCPU の最大数に制限されます。一般的に、GPU の数が多いほど、vCPU 数が多くメモリサイズが大きいインスタンスを作成できます。

コンピューティング ワークロード用 GPU

GPU モデル GPU GPU メモリ 利用可能な vCPU 数 利用可能なメモリ 利用可能なゾーン
NVIDIA® Tesla® V100 1 GPU 16 GB HBM2 1~12 vCPU 1~78 GB
  • us-west1-a
  • us-west1-b
  • us-central1-a
  • us-central1-b
  • us-central1-f
  • europe-west4-a
  • europe-west4-b
  • europe-west4-c
  • asia-east1-c
2 GPU 32 GB HBM2 1~24 vCPU 1~156 GB
4 GPU 64 GB HBM2 1~48 vCPU 1~312 GB
8 GPU 128 GB HBM2 1~96 vCPU 1~624 GB
NVIDIA® Tesla® P100 1 GPU 16 GB HBM2 1~16 vCPU 1~104 GB
  • us-west1-a
  • us-west1-b
  • us-central1-c
  • us-central1-f
  • us-east1-b
  • us-east1-c
  • europe-west1-b
  • europe-west1-d
  • europe-west4-a
  • asia-east1-a
  • asia-east1-c
2 GPU 32 GB HBM2 1~32 vCPU 1~208 GB
4 GPU 64 GB HBM2

1~64 vCPU
(us-east1-c、europe-west1-d、europe-west1-b)

1~96 vCPU
(その他のすべてのゾーン)

1~208 GB
(us-east1-c、europe-west1-d、europe-west1-b)

1~624 GB
(その他のすべてのゾーン)

NVIDIA® Tesla® P4 1 GPU 8 GB GDDR5 1~24 vCPU 1~156 GB
  • us-west2-c
  • us-west2-b
  • us-central1-a
  • us-central1-c
  • us-east4-a
  • us-east4-b
  • us-east4-c
  • northamerica-northeast1-a
  • northamerica-northeast1-b
  • northamerica-northeast1-c
  • europe-west4-b
  • europe-west4-c
  • australia-southeast1-a
  • australia-southeast1-b
2 GPU 16 GB GDDR5 1~48 vCPU 1~312 GB
4 GPU 32 GB GDDR5 1~96 vCPU 1~624 GB
NVIDIA® Tesla® K80 1 GPU 12 GB GDDR5 1~8 vCPU 1~52 GB
  • us-west1-b
  • us-central1-a
  • us-central1-c
  • us-east1-c
  • us-east1-d
  • europe-west1-b
  • europe-west1-d
  • asia-east1-a
  • asia-east1-b
2 GPU 24 GB GDDR5 1~16 vCPU 1~104 GB
4 GPU 48 GB GDDR5 1~32 vCPU 1~208 GB
8 GPU 96 GB GDDR5 1~64 vCPU

1~416 GB
(asia-east1-a と us-east1-d)

1~208 GB
(その他のすべてのゾーン)

GPU デバイスには、vCPU と同様の継続利用割引が適用されます。GPU デバイスの時間単位の料金や月単位の料金については、Compute Engine の料金のページをご覧ください。

マルチ GPU ワークロードの場合、V100 GPU には GPU 間の通信用の高速 NVLink™ 接続が用意されています。

GPU の相互の接続および CPU との接続に関する情報を表示するには、インスタンスで次のコマンドを実行します。

nvidia-smi topo -m

NVLink とその利点については、NVIDIA デベロッパー ブログをご覧ください。

グラフィック ワークロード用 NVIDIA® GRID® GPU

3D 表示などのグラフィックを多用するワークロードが存在する場合、NVIDIA GRID® プラットフォームを使用する仮想ワークステーションを作成できます。

GRID の背景情報については、GRID の概要をご覧ください。

仮想ワークステーションの GPU を選択すると、NVIDIA GRID のライセンスがインスタンスに追加されます。

仮想ワークステーションを作成したら、Teradici® PCoIP や VMWare® Horizon View などのリモート デスクトップ プロトコルを使用して仮想ワークステーションに接続できます。

GPU モデル GPU GPU メモリ 利用可能な vCPU 数 利用可能なメモリ 利用可能なゾーン
NVIDIA® Tesla® P4 仮想ワークステーション 1 GPU 8 GB GDDR5 1~16 vCPU 1~192 GB
  • us-west2-c
  • us-west2-b
  • us-central1-a
  • us-central1-c
  • us-east4-a
  • us-east4-b
  • us-east4-c
  • northamerica-northeast1-a
  • northamerica-northeast1-b
  • northamerica-northeast1-c
  • europe-west4-b
  • europe-west4-c
2 GPU 16 GB GDDR5 1~48 vCPU 1~312 GB
4 GPU 32 GB GDDR5 1~96 vCPU 1~624 GB
NVIDIA® Tesla® P100 仮想ワークステーション 1 GPU 16 GB HBM2 1~16 vCPU 1~104 GB
  • us-west1-b
  • us-central1-c
  • us-central1-f
  • us-east1-b
  • us-east1-c
  • europe-west1-b
  • europe-west1-d
  • asia-east1-a
  • asia-east1-c
  • europe-west4-a
2 GPU 32 GB HBM2 1~32 vCPU 1~208 GB
4 GPU 64 GB HBM2

1~64 vCPU
(us-east1-c、europe-west1-d、europe-west1-b)

1~96 vCPU
(その他のすべてのゾーン)

1~208 GB
(us-east1-c、europe-west1-d、europe-west1-b)

1~624 GB
(その他のすべてのゾーン)

プリエンプティブ インスタンスの GPU

より安価なプリエンプティブ料金で GPU をプリエンプティブ VM インスタンスに追加できます。プリエンプティブ インスタンスに接続された GPU は、通常の GPU と同様に動作しますが、インスタンスの存続期間中にのみ有効になります。GPU を使用したプリエンプティブ インスタンスは、すべてのプリエンプティブ インスタンスと同じプリエンプトの処理に従います。

GPU をプリエンプティブ インスタンスに追加した場合、GPU 割り当ては通常の割り当て量になります。プリエンプティブ GPU 用の割り当てが別途必要な場合は、プリエンプティブ GPU 割り当てを別途リクエストしてください。

メンテナンス イベント中には、GPU を使用したプリエンプティブ インスタンスはデフォルトでプリエンプトされ、自動的に再起動することはできません。プリエンプトされたインスタンスを再作成する場合は、マネージド インスタンス グループを使用します。マネージド インスタンス グループは、vCPU、メモリ、および GPU リソースが利用可能であれば、インスタンスを再作成します。

インスタンスがプリエンプトされる前に警告を受けるようにする場合、またはメンテナンス イベントの終了後にインスタンスが自動的に再起動するように構成する場合は、GPU を使用したプリエンプティブ以外のインスタンスを使用します。GPU を使用したプリエンプティブ以外のインスタンスの場合は、Google からプリエンプションの 1 時間前に通知が送信されます。

非プリエンプティブ インスタンスを自動的に再起動する手順については、インスタンスのオプションの更新をご覧ください。

GPU が接続されたプリエンプティブ インスタンスの作成方法については、GPU を使用したインスタンスの作成をご覧ください。

制限事項

GPU を使用するインスタンスには固有の制約があり、他のインスタンス タイプとは異なる動作をします。

  • インスタンスで Tesla K80 GPU を使用する場合、インスタンスは Intel Skylake 以降の CPU プラットフォームを使用できません。

  • GPU インスタンスはホスト メンテナンス イベントの際に終了する必要がありますが、自動的に再起動できます。これらのメンテナンス イベントは、通常、週に 1 回実行しますが、必要に応じて頻繁に実行することもできます。これらのメンテナンス イベントが適正に処理されるようにワークロードを構成する必要があります。具体的には、機械学習や高性能コンピューティング(HPC)などの長時間実行されるワークロードでは、ホスト メンテナンス イベントの中断を処理する必要があります。GPU を使用したインスタンスでのホスト メンテナンス イベントの処理方法をご覧ください。

  • Compute Engine システムとユーザーを保護するため、新しいプロジェクトにはグローバル GPU 割り当てが設定されます。この割り当ては、サポート対象のすべてのゾーンで作成できる GPU の総数を制限するものです。GPU 割り当てをリクエストするときは、各リージョンで作成する GPU モデルの割り当てと、すべてのゾーンのすべてのタイプの GPU 総数に対する追加のグローバル割り当てをリクエストする必要があります。

  • GPU を使用するインスタンスには、インスタンスに追加する GPU ごとに、vCPU の最大数が設定されます。たとえば、各 NVIDIA® Tesla® K80 GPU では、インスタンスのマシンタイプで最大 8 個の vCPU と最大 52 GB のメモリを使用できます。各種 GPU 構成で使用可能な vCPU とメモリの範囲を確認するには、GPU リストをご覧ください。

  • 共有コア マシンタイプのインスタンスに GPU を接続することはできません。

  • GPU が正しく機能するにはデバイス ドライバが必要です。Google Compute Engine で動作する NVIDIA GPU には、次のバージョンのドライバを使用する必要があります。

    • Linux インスタンス:
      • R384 ブランチ: NVIDIA 384.111 以上のドライバ
      • R390 ブランチ: まだ使用できません
    • Windows Server インスタンス:
      • R384 ブランチ: NVIDIA 386.07 以上のドライバ
      • R390 ブランチ: まだ使用できません
  • 特定の接続済み GPU モデルを使用するインスタンスは、その接続された GPU モデルが、インスタンスが配置されているのと同じリージョンの複数のゾーンで使用できる場合にのみ、Google Compute Engine SLA の対象となります。次のゾーンでは、特定の GPU モデルが Google Compute Engine SLA の対象外となります。

    • NVIDIA® Tesla® P100:
      • us-west1-b
      • europe-west4-a
    • NVIDIA® Tesla® K80:
      • us-west1-b
      • us-central1-c
  • europe-west1-d で NVIDIA® Tesla® P100 GPU を使用するインスタンスは、ローカル SSD デバイスを使用できません。

次のステップ

このページは役立ちましたか?評価をお願いいたします。

フィードバックを送信...

Compute Engine ドキュメント