加速器优化机器系列

加速器优化虚拟机 (VM) 具备 NVIDIA 的全新 Ampere A100 GPU,是 Compute Engine 中提供的一种全新机器系列,专门针对大规模并行的计算统一设备架构 (CUDA) 工作负载(例如机器学习 (ML) 和高性能计算 (HPC))进行了优化。

机器 工作负载
A2 虚拟机
  • 支持 CUDA 的机器学习训练和推断
  • HPC
  • 大规模并行计算

每个 A2 虚拟机都有固定数量的 A100 GPU,与上一代 NVIDIA V100 GPU 相比,计算速度提升了 10 倍。

A2 虚拟机具有以下功能:

  • 行业领先的 NVLink 容量,最大 GPU 到 GPU NVLink 带宽为 600 Gbps。例如,具有 16 个 GPU 的系统的总 NVLink 带宽可达 9.6 TB/秒。这 16 个 GPU 可用作具有统一内存空间的单个高性能加速器,可提供高达每秒 10 千万亿次浮点运算的计算能力和每秒 20 千万亿次浮点运算的推断计算能力,可用于人工智能、深度学习和机器学习工作负载。
  • 下一代 NVIDIA A100 GPU。A100 GPU 提供 40 GB 的 GPU 内存,非常适合大型语言模型、数据库和 HPC。
  • 高性能网络带宽,可达 100 Gbps。
  • 虚拟化优化。
  • 可选的本地 SSD 支持。使用 A2 虚拟机最多可获得 3 TB 的本地 SSD,可用作快速暂存磁盘或用于将数据输送到 A100 GPU 中,同时防止 I/O 瓶颈。

A2 虚拟机

A2 虚拟机有 12 到 96 个 vCPU 的不同机器类型,可提供高达 1360 GB 的内存。每种 A2 机器类型都挂接了固定的 GPU 数量。对于需要更高存储性能的应用,您最多可为这些虚拟机挂接 257 TB 本地存储。

机器类型 GPU 数量 vCPU 数量* 内存 (GB) 永久性磁盘 (PD) 数上限 总 PD 容量大小上限 (TB) 本地 SSD 出站带宽上限 (Gbps)
a2-highgpu-1g 1 12 85 128 257 24
a2-highgpu-2g 2 24 170 128 257 32
a2-highgpu-4g 4 48 340 128 257 50
a2-highgpu-8g 8 96 680 128 257 100
a2-megagpu-16g 16 96 1360 128 257 100

*每个 vCPU 是在其中一个可用的 CPU 平台上以单个硬件超线程的形式实现的。
永久性磁盘用量与机器类型是分别计费的。
出站带宽上限不能超过给定的数量。实际的出站带宽取决于目的地 IP 地址和其他因素。请参阅网络带宽

限制

  • 您不能将区域永久性磁盘与 A2 虚拟机搭配使用。
  • A2 虚拟机仅在部分区域和可用区提供。
  • Windows 操作系统不支持 a2-megagpu-16g 机器类型。使用 Windows 操作系统时,请选择其他机器类型。
  • A2 虚拟机仅在 Cascade Lake 平台上提供。

后续步骤