ネットワーク帯域幅と GPU


ネットワーク帯域幅が大きいほど、Compute Engine 仮想マシン(VM)インスタンスで実行される分散ワークロードのパフォーマンスが向上します。

概要

Compute Engine で GPU が接続された VM で使用可能な最大ネットワーク帯域幅は次のとおりです。

  • P100、P4、K80 GPU が接続された N1 汎用 VM の場合、32 Gbps の最大ネットワーク帯域幅を使用できます。これは、GPU が接続されていない N1 VM で使用できる最大レートと類似しています。ネットワーク帯域幅についての詳細は、下り(外向き)最大データ通信速度を参照してください。
  • T4 および V100 GPU が接続された N1 汎用 VM の場合、GPU と vCPU 数の組み合わせに基づいて、最大 100 Gbps の最大ネットワーク帯域幅を使用できます。
  • A2 および G2 アクセラレータ最適化 VM では、マシンタイプに応じて最大 100 Gbps の最大ネットワーク帯域幅を使用できます。
  • A3 アクセラレータ最適化 VM の場合、最大 1,000 Gbps(1 Tbps)のネットワーク帯域幅を使用できます。

ネットワーク帯域幅と Google Virtual NIC(gVNIC)

GPU VM に高いネットワーク帯域幅レート(50 Gbps 以上)を適用するには、Google Virtual NIC(gVNIC)の使用をおすすめします。gVNIC を使用して GPU VM を作成する方法については、より高い帯域幅を使用する GPU VM の作成をご覧ください。

アクセラレータ最適化 VM

このセクションでは、A3、A2、G2 のアクセラレータ最適化 VM で使用できる最大ネットワーク帯域幅の概要を説明します。

A3 VM

各 A3 マシンタイプには、一定数の NVIDIA H100 80 GB GPU が接続されています。各マシンタイプには、固定の vCPU 数とメモリサイズもあります。

a3-highgpu-8g VM には 5 つの物理ネットワーク インターフェース カード(NIC)があり、そのうちの 4 つは同じ Peripheral Component Interconnect Express(PCIe)バスを共有します。1 つの NIC に対して 2 つの NVIDIA H100 80 GB GPU が不均一メモリアクセス(NUMA)アライメントされます。この 4 つの物理 NIC は、専用の高帯域幅の GPU 間通信に最適です。残りの 1 の物理 NIC は別の PCIe バス上にあり、他のネットワーク要件に適しています。各 NIC の最大帯域幅は 200 Gbps で、VM あたりの最大帯域幅は 1, 000 Gbps(1 Tbps)になります。
マシンタイプ GPU 数 vCPU メモリ 最大ネットワーク帯域幅
a3-highgpu-8g 8 208 1872 GB 1,000 Gbps

A2 VM

各 A2 マシンタイプには、一定数の NVIDIA A100 40 GB または NVIDIA A100 80 GB GPU が接続されています。各マシンタイプには、固定の vCPU 数とメモリサイズもあります。

A100 40 GB

マシンタイプ GPU 数 vCPU メモリ 最大ネットワーク帯域幅
a2-highgpu-1g 1 12 85 GB 24 Gbps
a2-highgpu-2g 2 24 170 GB 32 Gbps
a2-highgpu-4g 4 48 340 GB 50 Gbps
a2-highgpu-8g 8 96 680 GB 100 Gbps
a2-highgpu-16g 16 96 1360 GB 100 Gbps

A100 80 GB

マシンタイプ GPU 数 vCPU メモリ 最大ネットワーク帯域幅
a2-ultragpu-1g 1 12 170 GB 24 Gbps
a2-ultragpu-2g 2 24 340 GB 32 Gbps
a2-ultragpu-4g 4 48 680 GB 50 Gbps
a2-ultragpu-8g 8 96 1360 GB 100 Gbps

G2 VM の構成

各 G2 マシンタイプには、固定数の NVIDIA L4 GPU と vCPU がアタッチされます。各 G2 マシンタイプにはデフォルトのメモリとカスタムメモリ範囲もあります。カスタムメモリ範囲はマシンタイプごとに VM に割り当てることができるメモリの量を定義します。カスタムメモリは VM の作成時に指定できます。

マシンタイプ GPU 数 vCPU デフォルトのメモリ カスタムメモリ範囲 最大ネットワーク帯域幅
g2-standard-4 1 4 vCPU 16 GB 16~32 GB 10 Gbps
g2-standard-8 1 8 vCPU 32 GB 32~54 GB 16 Gbps
g2-standard-12 1 12 vCPU 48 GB 48~54 GB 16 Gbps
g2-standard-16 1 16 vCPU 64 GB 54~64 GB 32 Gbps
g2-standard-24 2 24 vCPU 96 GB 96~108 GB 32 Gbps
g2-standard-32 1 32 vCPU 128 GB 96~128 GB 32 Gbps
g2-standard-48 4 48 vCPU 192 GB 192~216 GB 50 Gbps
g2-standard-96 8 96 vCPU 384 GB 384~432 GB 100 Gbps

N1 GPU VM

T4 および V100 GPU が接続された N1 汎用 VM の場合、GPU と vCPU 数の組み合わせに基づいて、最大 100 Gbps の最大ネットワーク帯域幅を使用できます。他のすべての N1 GPU VM については、概要をご覧ください。

GPU モデル、vCPU、GPU 数に基づいて、T4 VM と V100 VM で使用可能な最大ネットワーク帯域幅を計算するには、次のセクションを確認してください。

vCPU が 5 個以下の場合

vCPU が 5 個以下の T4 および V100 VM の場合、最大 10 Gbps のネットワーク帯域幅を使用できます。

vCPU が 5 個より多い場合

vCPU が 5 個より多い T4 VM および V100 VM の場合、最大ネットワーク帯域幅はその VM の vCPU と GPU 数に基づいて計算されます。

GPU モデル GPU の数 最大ネットワーク帯域幅の計算
NVIDIA V100 1 min(vcpu_count * 2, 32)
2 min(vcpu_count * 2, 32)
4 min(vcpu_count * 2, 50)
8 min(vcpu_count * 2, 100)
NVIDIA T4 1 min(vcpu_count * 2, 32)
2 min(vcpu_count * 2, 50)
4 min(vcpu_count * 2, 100)

高帯域幅 VM を作成する

より高いネットワーク帯域幅を使用する VM を作成するには、より高いネットワーク帯域幅を使用するをご覧ください。

任意の構成の帯域幅速度をテストまたは検証するには、ベンチマーク テストを使用します。詳細については、ネットワーク帯域幅の確認をご覧ください。

次のステップ