Compute Engine の GPU

Google Compute Engine は、仮想マシン インスタンスに追加できるグラフィック プロセッシング ユニット(GPU)を備えています。これらの GPU を使用して、機械学習やデータ処理などの特定のワークロードをインスタンス上で高速化することができます。

GPU をお使いのインスタンスに追加する方法の詳細については、インスタンスへの GPU の追加をご覧ください。

はじめに

Compute Engine はインスタンスに NVIDIA® Tesla® P100 および K80 GPU をパススルー モードで提供し、仮想マシン インスタンスが GPU と関連メモリを直接制御できるようにしています。

各 GPU モデルは次の段階で利用できます。

  • NVIDIA® Tesla® P100: ベータ版
  • NVIDIA® Tesla® K80: 一般提供

ベータ版でリリースされる GPU モデルは、サービスレベル契約(SLA)または非推奨ポリシーの対象ではなく、バージョンアップ時に下位互換性が維持されない可能性があります。さらに、ベータ版でリリースされる GPU モデルは、必ずしもローカル SSD などの他の Compute Engine 機能と組み合わせて利用できるとは限りません。

共有コアタイプでなく、ゾーン内に作成可能であれば、事前定義されたマシンタイプカスタム マシンタイプのどちらでも GPU を追加できます。ただし、GPU 数が少ないインスタンスの場合は、vCPU およびシステムメモリの最大数に制限されます。一般的に、GPU の数が多ければ、vCPU 数とシステムメモリの多いインスタンスを作成できます。GPU インスタンスは、最大 208 GB のシステムメモリに制限されています。

GPU モデル GPU GPU ボード GPU メモリ 利用可能な vCPU 数 利用可能なメモリ 利用可能なゾーン
NVIDIA® Tesla® P100 1 GPU 1 ボード 16 GB HBM2 1~16 vCPU 1~104 GB
  • us-west1-b
  • us-east1-c
  • europe-west1-b
  • europe-west1-d
  • asia-east1-a
2 GPU 2 ボード 32 GB HBM2 1~32 vCPU 1~208 GB
4 GPU 4 ボード 64 GB HBM2 1~64 vCPU 1~208 GB
NVIDIA® Tesla® K80 1 GPU 1/2 ボード 12 GB GDDR5 1~8 vCPU 1~52 GB
  • us-west1-b
  • us-east1-c
  • us-east1-d
  • europe-west1-b
  • europe-west1-d
  • asia-east1-a
  • asia-east1-b
2 GPU 1 ボード 24 GB GDDR5 1~16 vCPU 1~104 GB
4 GPU 2 ボード 48 GB GDDR5 1~32 vCPU 1~208 GB
8 GPU 4 ボード 96 GB GDDR5 1~64 vCPU 1~208 GB

GPU デバイスには、vCPU と同様の継続利用割引が適用されます。GPU デバイスの時間単位の料金や月単位の料金については、Compute Engine の料金のページをご覧ください。

制限事項

GPU を使用するインスタンスには固有の制約があり、他のインスタンス タイプとは異なる動作をします。

  • GPU デバイスは、Broadwell CPU プラットフォームと最大 64 個の vCPU を持つインスタンスにのみ接続できます。

  • GPU インスタンスは、最大 208 GB のシステムメモリに制限されています。

  • GPU インスタンスは、ホスト メンテナンス イベントの場合に終了する必要がありますが、自動的に再起動できます。これらのメンテナンス イベントは、通常、週に 1 回実行しますが、必要に応じて頻繁に実行することもできます。これらのメンテナンス イベントが適正に処理されるようにワークロードを構成する必要があります。具体的には、機械学習や高性能コンピューティング(HPC)などの長時間実行されるワークロードでは、ホスト メンテナンス イベントの中断を処理する必要があります。GPU を使用したインスタンスでのホスト メンテナンス イベントの処理方法をご覧ください。

  • GPU を使用するインスタンスを作成するには、その前に GPU を割り当てる必要があります。プロジェクトで十分な GPU を使用できるかどうか、割り当てページを確認し、必要に応じて割り当ての増加を要求してください。無料トライアル アカウントには、デフォルトで GPU の割り当てがありません。

  • GPU を使用するインスタンスには、インスタンスに追加する GPU ごとに、vCPU の最大数が設定されます。たとえば、各 NVIDIA® Tesla® K80 GPU では、インスタンスのマシンタイプで最大 8 個の vCPU と最大 52 GB のシステムメモリを使用できます。さまざまな GPU 構成で使用可能な vCPU とメモリ範囲を確認するには、GPU リストをご覧ください。

  • 共有コア マシンタイプのインスタンスには GPU を接続することはできません。

  • プリエンプティブ インスタンスには、GPU を追加できません。

  • GPU が正しく機能するにはデバイス ドライバが必要です。Google Compute Engine で動作する NVIDIA GPU は、NVIDIA 375.51 ドライバ、NVIDIA 384.66 ドライバ、またはそれ以上を使用する必要があります。ほとんどのドライバのインストールでは、NVIDIA CUDA ツールキットの最新バージョンをインストールすることにより、これらのドライバを入手することができます。GPU を使用するインスタンスにドライバをインストールする方法の詳細については、GPU ドライバのインストールをご覧ください。

  • 特定の接続済み GPU モデルを使用するインスタンスは、その接続された GPU モデルが、インスタンスが配置されているのと同じリージョンの複数のゾーンで使用できる場合にのみ、Google Compute Engine SLA の対象となります。たとえば、us-west1-b ゾーンの NVIDIA® Tesla® K80 GPU を使用するインスタンスは、us-west1 リージョンの他のゾーンでその GPU モデルを提供していないため、Google Compute Engine SLA の対象にはなりません。

  • europe-west1-d で NVIDIA® Tesla® P100 GPU を使用するインスタンスは、ローカル SSD デバイスを使用できません。

次のステップ

フィードバックを送信...

Compute Engine ドキュメント