ネットワーク帯域幅が大きいほど、Compute Engine 仮想マシン(VM)インスタンスで実行される分散ワークロードのパフォーマンスが向上します。
概要
Compute Engine で GPU が接続された VM で使用可能な最大ネットワーク帯域幅は次のとおりです。
- P100、P4 GPU が接続された N1 汎用 VM の場合、32 Gbps の最大ネットワーク帯域幅を使用できます。これは、GPU が接続されていない N1 VM で使用できる最大レートと類似しています。ネットワーク帯域幅についての詳細は、下り(外向き)最大データ通信速度を参照してください。
- T4 および V100 GPU が接続された N1 汎用 VM の場合、GPU と vCPU 数の組み合わせに基づいて、最大 100 Gbps の最大ネットワーク帯域幅を使用できます。
- A2 および G2 アクセラレータ最適化 VM では、マシンタイプに応じて最大 100 Gbps の最大ネットワーク帯域幅を使用できます。
- A3 アクセラレータ最適化 VM の場合、最大 1,000 Gbps(1 Tbps)のネットワーク帯域幅を使用できます。
ネットワーク帯域幅と Google Virtual NIC(gVNIC)
GPU VM に高いネットワーク帯域幅レート(50 Gbps 以上)を適用するには、Google Virtual NIC(gVNIC)の使用をおすすめします。gVNIC を使用して GPU VM を作成する方法については、より高い帯域幅を使用する GPU VM の作成をご覧ください。
アクセラレータ最適化 VM
このセクションでは、A3、A2、G2 のアクセラレータ最適化 VM で使用できる最大ネットワーク帯域幅の概要を説明します。
A3 VM
各 A3 マシンタイプには、一定数の NVIDIA H100 80 GB GPU が接続されています。各マシンタイプには、固定の vCPU 数とメモリサイズもあります。
各a3-highgpu-8g
VM には 5 つの物理ネットワーク インターフェース カード(NIC)があり、そのうちの 4 つは同じ Peripheral Component Interconnect Express(PCIe)バスを共有します。1 つの NIC に対して 2 つの NVIDIA H100 80 GB GPU が不均一メモリアクセス(NUMA)アライメントされます。この 4 つの物理 NIC は、専用の高帯域幅の GPU 間通信に最適です。残りの 1 の物理 NIC は別の PCIe バス上にあり、他のネットワーク要件に適しています。各 NIC の最大帯域幅は 200 Gbps で、VM あたりの最大帯域幅は 1, 000 Gbps(1 Tbps)になります。マシンタイプ | GPU 数 | vCPU | メモリ | 最大ネットワーク帯域幅 |
---|---|---|---|---|
a3-highgpu-8g |
8 | 208 | 1872 GB | 1,000 Gbps |
A2 VM
各 A2 マシンタイプには、一定数の NVIDIA A100 40 GB または NVIDIA A100 80 GB GPU が接続されています。各マシンタイプには、固定の vCPU 数とメモリサイズもあります。
A100 40 GB
マシンタイプ | GPU 数 | vCPU | メモリ | 最大ネットワーク帯域幅 |
---|---|---|---|---|
a2-highgpu-1g |
1 | 12 | 85 GB | 24 Gbps |
a2-highgpu-2g |
2 | 24 | 170 GB | 32 Gbps |
a2-highgpu-4g |
4 | 48 | 340 GB | 50 Gbps |
a2-highgpu-8g |
8 | 96 | 680 GB | 100 Gbps |
a2-highgpu-16g |
16 | 96 | 1360 GB | 100 Gbps |
A100 80 GB
マシンタイプ | GPU 数 | vCPU | メモリ | 最大ネットワーク帯域幅 |
---|---|---|---|---|
a2-ultragpu-1g |
1 | 12 | 170 GB | 24 Gbps |
a2-ultragpu-2g |
2 | 24 | 340 GB | 32 Gbps |
a2-ultragpu-4g |
4 | 48 | 680 GB | 50 Gbps |
a2-ultragpu-8g |
8 | 96 | 1360 GB | 100 Gbps |
G2 VM の構成
各 G2 マシンタイプには、固定数の NVIDIA L4 GPU と vCPU がアタッチされます。各 G2 マシンタイプにはデフォルトのメモリとカスタムメモリ範囲もあります。カスタムメモリ範囲はマシンタイプごとに VM に割り当てることができるメモリの量を定義します。カスタムメモリは VM の作成時に指定できます。
マシンタイプ | GPU 数 | vCPU | デフォルトのメモリ | カスタムメモリ範囲 | 最大ネットワーク帯域幅 |
---|---|---|---|---|---|
g2-standard-4 |
1 | 4 vCPU | 16 GB | 16~32 GB | 10 Gbps |
g2-standard-8 |
1 | 8 vCPU | 32 GB | 32~54 GB | 16 Gbps |
g2-standard-12 |
1 | 12 vCPU | 48 GB | 48~54 GB | 16 Gbps |
g2-standard-16 |
1 | 16 vCPU | 64 GB | 54~64 GB | 32 Gbps |
g2-standard-24 |
2 | 24 vCPU | 96 GB | 96~108 GB | 32 Gbps |
g2-standard-32 |
1 | 32 vCPU | 128 GB | 96~128 GB | 32 Gbps |
g2-standard-48 |
4 | 48 vCPU | 192 GB | 192~216 GB | 50 Gbps |
g2-standard-96 |
8 | 96 vCPU | 384 GB | 384~432 GB | 100 Gbps |
N1 GPU VM
T4 および V100 GPU が接続された N1 汎用 VM の場合、GPU と vCPU 数の組み合わせに基づいて、最大 100 Gbps の最大ネットワーク帯域幅を使用できます。他のすべての N1 GPU VM については、概要をご覧ください。
GPU モデル、vCPU、GPU 数に基づいて、T4 VM と V100 VM で使用可能な最大ネットワーク帯域幅を計算するには、次のセクションを確認してください。
vCPU が 5 個以下の場合
vCPU が 5 個以下の T4 および V100 VM の場合、最大 10 Gbps のネットワーク帯域幅を使用できます。
vCPU が 5 個より多い場合
vCPU が 5 個より多い T4 VM および V100 VM の場合、最大ネットワーク帯域幅はその VM の vCPU と GPU 数に基づいて計算されます。
GPU モデル | GPU の数 | 最大ネットワーク帯域幅の計算 |
---|---|---|
NVIDIA V100 | 1 | min(vcpu_count * 2, 32) |
2 | min(vcpu_count * 2, 32) |
|
4 | min(vcpu_count * 2, 50) |
|
8 | min(vcpu_count * 2, 100) |
|
NVIDIA T4 | 1 | min(vcpu_count * 2, 32) |
2 | min(vcpu_count * 2, 50) |
|
4 | min(vcpu_count * 2, 100) |
高帯域幅 VM を作成する
より高いネットワーク帯域幅を使用する VM を作成するには、より高いネットワーク帯域幅を使用するをご覧ください。
任意の構成の帯域幅速度をテストまたは検証するには、ベンチマーク テストを使用します。詳細については、ネットワーク帯域幅の確認をご覧ください。
次のステップ
- GPU プラットフォームの詳細を学習する。
- GPU を接続した VM の作成方法を学習する。
- 詳しくは、より高いネットワーク帯域幅を使用するをご覧ください。
- GPU の料金について学習する。