アクセラレータ最適化マシン ファミリー

NVIDIA の新しい Ampere A100 GPU を搭載したアクセラレータ最適化仮想マシン(VM)インスタンスは、Compute Engine で利用可能な新しいマシン ファミリーで、超並列コンピューティング統合デバイス アーキテクチャ(CUDA)ワークロード(機械学習(ML)、ハイ パフォーマンス コンピューティング(HPC)など)と統合できます。

マシン ワークロード
A2 VM
  • CUDA 対応の ML トレーニングと推論
  • HPC
  • 超並列コンピューティング

各 A2 VM は一定数の A100 GPU を備えており、以前の世代の NVIDIA V100 GPU と比較して、コンピューティング速度が最大 10 倍向上しています。

要約すると、A2 VM は次の特長を備えています。

  • 業界トップクラスの NVLink スケーリング。GPU 間で 600 Gbps のピーク NVLink 帯域幅を実現します。たとえば、16 個の GPU を使用するシステムの場合、NVLink の帯域幅は合計で 9.6 TB/秒になります。これらの 16 個の GPU は、統合されたメモリ領域を備えた 1 つのハイ パフォーマンスなアクセラレータとして使用できます。これにより、最大 10 PFLOPS のコンピューティング能力と、最大 20 PFLOPS の推論コンピューティング能力を実現し、人工知能、ディープ ラーニング、機械学習のワークロードを対象として使用できます。
  • 次世代 NVIDIA A100 GPU。A100 GPU は 40 GB の GPU メモリを備えています。これは、大型の言語モデル、データベース、HPC に最適です。
  • 最大 100 Gbps の高性能なネットワーク帯域幅。
  • 仮想化の最適化。
  • オプションのローカル SSD のサポート - A2 VM により最大 3 TB のローカル SSD を取得できます。これは、高速なスクラッチ ディスクとして、または I/O のボトルネックを回避しつつデータを A100 GPU にフィードするために使用できます。

A2 VM

A2 VM は 12~96 個の vCPU を備えたさまざまなマシンタイプで、最大 1, 360 GB のメモリを提供します。より高いストレージ パフォーマンスを必要とするアプリケーションの場合、これらの VM に最大 257 TB のローカル ストレージを接続できます。

マシンタイプ vCPU1 メモリ(GB) 永続ディスク(PD)の最大数2 PD の最大合計サイズ(TB) ローカル SSD 最大下り(外向き)帯域幅(Gbps)3
a2-highgpu-1g 12 85 128 257 24
a2-highgpu-2g 24 170 128 257 32
a2-highgpu-4g 48 340 128 257 50
a2-highgpu-8g 96 680 128 257 100
a2-megagpu-16g 96 1360 128 257 100

1 vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2永続ディスクの使用量は、マシンタイプ別の料金体系とは別に課金されます。
3 最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご覧ください。

制限事項

  • A2 VM は特定のリージョンとゾーンでのみ使用できます。
  • a2-megagpu-16g マシンタイプは、Windows オペレーティング システムではサポートされていません。Windows オペレーティング システムを使用する場合は、別のマシンタイプを選択します。
  • A2 VM は、Cascade Lake プラットフォームでのみ使用できます。

次のステップ