アクセラレータ最適化マシン ファミリー

アクセラレータ最適化マシン ファミリーは、NVIDIA の新しい Ampere A100 GPU を備えた、Compute Engine で利用可能な新しいマシン ファミリーです。このファミリーのマシンタイプは、機械学習(ML)やハイ パフォーマンス コンピューティング(HPC)などの超並列 CUDA(Compute Unified Device Architecture)ワークロード用に最適化されています。

マシン ワークロード
A2 マシンタイプ
  • CUDA 対応の ML トレーニングと推論
  • HPC
  • 超並列コンピューティング

A2 シリーズのマシンタイプには、決まった数の A100 GPU があります。これにより、前世代の NVIDIA V100 GPU と比較して、コンピューティング速度が最大 10 倍向上しています。

要約すると、A2 マシンシリーズには、次の特長があります。

  • 業界トップクラスの NVLink スケーリング。GPU 間で 600 Gbps のピーク NVLink 帯域幅を実現します。たとえば、16 個の GPU を使用するシステムの場合、NVLink の帯域幅は合計で 9.6 TB/秒になります。これらの 16 個の GPU は、統合されたメモリ領域を備えた 1 つのハイ パフォーマンスなアクセラレータとして使用できます。これにより、最大 10 PFLOPS のコンピューティング能力と、最大 20 PFLOPS の推論コンピューティング能力を実現し、人工知能、ディープ ラーニング、機械学習のワークロードを対象として使用できます。
  • 次世代 NVIDIA A100 GPU。A100 GPU は 40 GB の GPU メモリを備えています。これは、大型の言語モデル、データベース、HPC に最適です。
  • 最大 100 Gbps の高性能なネットワーク帯域幅。
  • 仮想化の最適化。
  • ローカル SSD のサポート(オプション) - A2 マシンタイプで最大 3 TB のローカル SSD が手に入ります。これは、高速なスクラッチ ディスクとして、または I/O のボトルネックを回避しつつデータを A100 GPU にフィードするために使用できます。

A2 マシンシリーズ

A2 マシンシリーズには、12~96 個の vCPU と、最大 1,360 GB のメモリがあります。各 A2 マシンタイプには、決まった数の GPU が取り付けられています。このシリーズのこれらのマシンタイプは、より高いストレージ パフォーマンスを必要とするアプリケーション用に、最大 257 TB のローカル ストレージをアタッチできます。

マシンタイプ GPU 数 vCPU* メモリ(GB) 永続ディスク(PD)の最大数 PD の最大合計サイズ(TB) ローカル SSD 最大下り(外向き)帯域幅(Gbps)
a2-highgpu-1g 1 12 85 128 257 24
a2-highgpu-2g 2 24 170 128 257 32
a2-highgpu-4g 4 48 340 128 257 50
a2-highgpu-8g 8 96 680 128 257 100
a2-megagpu-16g 16 96 1360 128 257 100

* vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
永続ディスクの使用量は、マシンタイプ別の料金体系とは別に課金されます。
最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご覧ください。

制限事項

  • A2 マシンシリーズでは、リージョン永続ディスクが使用できません。
  • A2 マシンシリーズは、特定のリージョンとゾーンでのみ使用できます。
  • a2-megagpu-16g マシンタイプは、Windows オペレーティング システムではサポートされていません。Windows オペレーティング システムを使用する場合は、別のマシンタイプを選択します。
  • A2 マシンシリーズは、Cascade Lake プラットフォームでのみ使用できます。

次のステップ