GPU について


仮想マシン(VM)インスタンスにグラフィック プロセッシング ユニット(GPU)を接続して、Compute Engine の特定のワークロードを高速化できます。

このドキュメントでは、Compute Engine で実行される GPU の機能と制限事項について説明します。

GPU とマシンシリーズ

GPU は、N1 汎用マシンとアクセラレータ最適化(A3、A2 および G2)マシンシリーズでサポートされています。N1 マシンタイプを使用する VM の場合は、VM の作成中または作成後に GPU を VM に接続します。A3、A2 または G2 マシンタイプを使用する VM の場合は、VM を作成すると、GPU が自動的に接続されます。GPU は他のマシンシリーズでは使用できません。

アクセラレータ最適化マシンシリーズ

各アクセラレータ最適化マシンタイプには、特定モデルの NVIDIA GPU が接続されています。

  • A3 アクセラレータ最適化マシンタイプには、NVIDIA H100 80 GB GPU が接続されています。
  • A2 アクセラレータ最適化マシンタイプには、NVIDIA A100 GPU がアタッチされています。これらは、A100 40 GB と A100 80 GB の両方のオプションで利用できます。
  • G2 アクセラレータ最適化マシンタイプには、NVIDIA L4 GPU が接続されています。

詳細については、アクセラレータ最適化マシンシリーズをご覧ください。

N1 汎用マシンシリーズ

他のすべての GPU タイプには、N1 共有コアを除くすべての N1 マシンタイプを使用できます。

このマシンシリーズでは、事前定義されたマシンタイプまたはカスタム マシンタイプのいずれかを使用できます。

プリエンプティブル インスタンスの GPU

より低価格なスポット価格で GPU をプリエンプティブル VM インスタンスに追加できます。プリエンプティブル インスタンスに接続された GPU は、通常の GPU と同様に動作しますが、インスタンスの存続期間中にのみ有効になります。GPU を使用したプリエンプティブル インスタンスは、すべてのプリエンプティブル インスタンスと同じプリエンプション処理に従います。

プリエンプティブル インスタンスの GPU に使用する専用の Preemptible GPU 割り当てをリクエストすることを検討してください。詳細については、プリエンプティブル VM インスタンスの割り当てをご覧ください。

メンテナンス イベント中には、GPU を使用したプリエンプティブル インスタンスはデフォルトでプリエンプトされ、自動的に再起動することはできません。プリエンプトされた後でインスタンスを再作成する場合には、マネージド インスタンス グループを使用します。マネージド インスタンス グループは、vCPU、メモリ、GPU リソースが利用可能であれば、インスタンスを再作成します。

インスタンスがプリエンプトされる前に警告を受けるようにする場合、またはメンテナンス イベントの終了後にインスタンスが自動的に再起動するように構成する場合は、GPU を使用した標準インスタンスを使用します。GPU を使用した標準インスタンスの場合は、Google からプリエンプションの 1 時間前に通知が送信されます。

インスタンスの実行が開始されてから 1 分以内にインスタンスがプリエンプトされた場合、Compute Engine では GPU に対する課金は行いません。

標準インスタンスを自動的に再起動する手順については、インスタンスのオプションの更新をご覧ください。

GPU を接続したプリエンプティブル インスタンスの作成方法については、GPU が接続された VM を作成するをご覧ください。

GPU と Confidential VMs

Confidential VMs インスタンスに GPU を接続できません。Confidential VMs の詳細については、Confidential Computing のコンセプトをご覧ください。

GPU とホストのメンテナンス

GPU が接続された VM はライブ マイグレーションできないため、ホスト メンテナンス イベントで停止する必要があります。これらのメンテナンス イベントは、2 週間に 1 回実施されます。メンテナンス イベントは、必要に応じてさらに頻繁に実施される場合があります。メンテナンス イベントの処理については、GPU ホスト メンテナンス イベントの処理をご覧ください。

GPU とブロック ストレージ

GPU がアタッチされている VM にローカル SSD を追加できます。GPU のタイプとリージョンごとのローカル SSD サポートの一覧については、GPU のリージョンとゾーンごとのローカル SSD の可用性をご覧ください。

GPU の料金

GPU を接続したほとんどの VM には、vCPU と同様の継続利用割引が適用されます。仮想ワークステーションの GPU を選択すると、NVIDIA RTX 仮想ワークステーションのライセンスが VM に追加されます。

GPU の時間単位および月単位の料金については、GPU の料金ページをご覧ください。

確約利用割引で GPU を予約する

特定のゾーンの GPU リソースを予約するには、Compute Engine ゾーンリソースの予約をご覧ください。

特定のゾーンで GPU の確約利用割引を受けるには、GPU のリソースベースのコミットメントを購入して、一致する GPU を指定する予約をコミットメントに関連付ける必要があります。詳細については、リソースベースのコミットメントに予約を関連付けるをご覧ください。

GPU の制限事項

GPU を接続した VM の場合、次の制限事項が適用されます。

  • VM で NVIDIA® K80 GPU を使用する場合、VM は Intel Skylake 以降の CPU プラットフォームを使用できません。

  • GPU は現在、汎用 N1 またはアクセラレータ最適化の A3、A2 および G2 マシンタイプでのみサポートされています。

  • Compute Engine のシステムとユーザーを保護するため、新しいプロジェクトにはグローバル GPU 割り当てが設定されます。この割り当ては、サポート対象のすべてのゾーンで作成できる GPU の総数を制限するものです。GPU 割り当てをリクエストするときは、各リージョンで作成する GPU モデルに対する割り当てに加え、すべてのゾーンにおけるすべてのタイプの GPU の総数に対するグローバル割り当てもリクエストする必要があります。

  • GPU を 1 つ以上接続している VM には、インスタンスに追加する GPU ごとに vCPU の最大数が設定されます。たとえば、各 NVIDIA K80 GPU では、インスタンスのマシンタイプで最大 8 個の vCPU と最大 52 GB のメモリを使用できます。各種 GPU 構成で使用可能な vCPU とメモリの範囲を確認するには、GPU リストをご覧ください。

  • GPU が正しく機能するにはデバイス ドライバが必要です。Compute Engine で動作する NVIDIA GPU では、最小限のドライバ バージョンを使用する必要があります。ドライバ バージョンの詳細については、必要な NVIDIA ドライバのバージョンをご覧ください。

  • 特定の接続済み GPU モデルを使用する VM は、その接続された GPU モデルが一般提供されており、同じリージョン内の複数のゾーンでサポートされている場合にのみ、Compute Engine SLA の対象となります。次のゾーンの GPU モデルは、Compute Engine SLA の対象外となります。

    • NVIDIA H100 80 GB:
      • us-east5-a
    • NVIDIA L4:
      • europe-west3-b
      • europe-west6-b
    • NVIDIA A100 80 GB:
      • asia-southeast1-c
      • us-east4-c
      • us-east5-b
    • NVIDIA A100 40 GB:
      • us-east1-b
      • us-west1-b
      • us-west3-b
      • us-west4-b
    • NVIDIA T4:
      • europe-west3-b
      • southamerica-east1-c
      • us-west3-b
    • NVIDIA V100:
      • asia-east1-c
      • us-east1-c
    • NVIDIA P100:
      • australia-southeast1-c
      • europe-west4-a
    • NVIDIA K80:
      • us-west1-b
  • Compute Engine では、GPU あたり 1 人の同時利用ユーザーがサポートされています。

次のステップ