机器系列资源和比较指南


本文档介绍了您可以选择的机器家族、机器系列和机器类型,以创建具有所需资源的虚拟机 (VM) 实例或裸金属实例。创建计算实例时,您可以从某个机器家族中选择一个机器类型以确定该实例可用的资源。

您可以从多个机器家族中进行选择。每个机器家族又进一步分为机器系列和每个系列中的预定义机器类型。例如,在通用机器家族的 N2 机器系列中,您可以选择 n2-standard-4 机器类型。

除了 M2、M3 和 X4 机器系列以及 C3 裸机机器类型之外,所有机器系列均支持 Spot 虚拟机(和抢占式虚拟机)。

注意:这是 Compute Engine 机器系列的列表。如需详细了解每个机器家族,请参阅以下页面:
  • 通用 - 多种工作负载的最佳性价比。
  • 存储优化 - 最适合核心使用量低但存储密度较高的工作负载。
  • 计算优化 - Compute Engine 的每个核心的最高性能,并针对计算密集型工作负载进行了优化。
  • 内存优化 - 非常适合内存密集型工作负载,每个内核提供比其他机器系列更多的内存,可高达 12 TB 内存。
  • 加速器优化 - 非常适合大规模并行计算统一设备架构 (CUDA) 计算工作负载,例如机器学习 (ML) 和高性能计算 (HPC)。此系列是需要 GPU 的工作负载的最佳选项。

Compute Engine 术语

本文档使用以下术语:

  • 机器家族:针对特定工作负载优化的一组精选处理器和硬件配置。

  • 机器系列:机器家族按系列、世代和处理器类型进一步分类。

    • 每个系列都侧重于计算能力或性能的不同方面。例如,E 系列可提供高效且低成本的虚拟机,而 C 系列可提供更好的性能。
    • 世代由升序数字表示。例如,通用机器家族中的 N1 系列是 N2 系列的旧版本。代号或系列号越高,通常表示底层 CPU 平台或技术越新。例如,在 Intel Xeon 可扩缩处理器第 3 代 (Ice Lake) 上运行的 M3 系列比在 Intel Xeon 可扩缩处理器第 2 代 (Cascade Lake) 上运行的 M2 系列更新。
生成 Intel AMD Arm
第 4 代机器系列 N4、C4、X4 不适用 C4A
第 3 代机器系列 C3、H3、Z3、M3、A3 C3D 不适用
第 2 代机器系列 N2、E2、C2、M2、A2、G2 N2D、C2D、T2D、E2 T2A
  • 机器类型:每个机器系列至少提供一种机器类型。每种机器类型都会为您的计算实例提供一组资源,例如 vCPU、内存、磁盘和 GPU。如果预定义机器类型不能满足您的需求,您还可以为某些机器系列创建自定义机器类型

以下部分介绍了不同的机器类型。

预定义机器类型

预定义机器类型的内存和 vCPU 数量不可配置。预定义机器类型采用各种 vCPU 与内存比率:

  • highcpu - 每个 vCPU 的内存从 1 GB 到 3 GB;通常,每个 vCPU 的内存为 2 GB。
  • standard - 每个 vCPU 的内存从 3 GB 到 7 GB;通常,每个 vCPU 的内存为 4 GB。
  • highmem - 每个 vCPU 的内存从 7 GB 到 14 GB;通常,每个 vCPU 的内存为 8 GB。
  • megamem - 每个 vCPU 的内存从 14 GB 到 19 GB
  • hypermem - 每个 vCPU 19 到 24 GB 内存;通常,每个 vCPU 21 GB 内存
  • ultramem - 每个 vCPU 的内存从 24 GB 到 31 GB

例如,c3-standard-22 机器类型具有 22 个 vCPU,并且作为 standard 机器类型,它还具有 88 GB 内存。

本地 SSD 机器类型

本地 SSD 机器类型是一种特殊的预定义机器类型。机器类型名称以 -lssd 结尾。使用其中一种机器类型创建计算实例时,系统会自动将本地 SSD 磁盘附加到实例。

这些机器类型适用于 C3 和 C3D 机器系列。其他机器系列也支持本地 SSD 磁盘,但不使用 -lssd 机器类型。如需详细了解可与本地 SSD 磁盘搭配使用的机器类型,请参阅选择有效的本地 SSD 磁盘数量

裸金属机器类型

裸机类型是一种特殊的预定义机器类型。机器类型名称以 -metal 结尾。使用其中一种机器类型创建计算实例时,实例上不会安装 Hypervisor。您可以将 Hyperdisk 存储空间挂接到裸机实例,就像挂接到虚拟机实例一样。裸机实例在 VPC 网络和子网中的使用方式与虚拟机实例相同。

这些机器类型适用于 C3 和 X4 机器系列。

自定义机器类型

如果上述预定义机器类型均不符合您的工作负载需求,您可以为通用机器家族中的 N 和 E 机器系列创建具有自定义机器类型的虚拟机实例。

与等效的预定义机器类型相比,自定义机器类型的使用费用略高。此外,您可以为自定义机器类型选择的内存大小和 vCPU 数量存在一些限制。自定义机器类型的按需价格还包含相当于预定义机器类型按需和承诺价格 5% 的附加费。

借助扩展内存(仅适用于自定义机器类型),您可以为自定义机器类型指定内存量,而不会受到基于 vCPU 的限制。您可以指定扩展内存的大小(不超过机器系列的限制),而不是使用根据指定的 vCPU 数量计算得出的默认内存大小。

如需了解详情,请参阅创建使用自定义机器类型的虚拟机

共享核心机器类型

E2 和 N1 系列包含共享核心机器类型。这些机器类型分时共用一个物理核心,这是运行小型、非资源密集型应用的经济实惠的方法。

  • E2:提供 2 个 vCPU,可用于短时间爆发。

  • N1:提供 f1-microg1-small 共享核心机器类型,它们最多有 1 个 vCPU 可用于短时间爆发。

机器家族和系列建议

下表提供了针对不同工作负载的建议。

通用工作负载
N4、N2、N2D、N1 C4A、C4、C3、C3D E2 Tau T2D、Tau T2A
在多种机器类型之间实现均衡的性价比 为各种工作负载提供始终如一的高性能 以更低的费用进行日常计算 最佳每核心性能/费用(适用于横向扩容工作负载)
  • 中等流量的 Web 和应用服务器
  • 容器化的微服务
  • 商业智能应用
  • 虚拟桌面
  • CRM 应用
  • 开发和测试环境
  • 批处理
  • 存储和归档
  • 高流量 Web 服务器和应用服务器
  • 数据库
  • 内存缓存
  • 广告服务器
  • Game Servers
  • 数据分析
  • 媒体流式传输和转码
  • 基于 CPU 的机器学习训练和推理
  • 低流量 Web 服务器
  • 后台应用
  • 容器化的微服务
  • 微服务
  • 虚拟桌面
  • 开发和测试环境
  • 横向扩容工作负载
  • Web 服务
  • 容器化的微服务
  • 媒体转码
  • 大规模 Java 应用

  • 优化的工作负载
    存储优化 计算优化 内存优化 加速器优化
    Z3 H3、C2、C2D X4、M3、M2、M1 A3、A2、G2
    块存储与计算比率最高,适合处理存储密集型工作负载 超高性能,适合处理计算密集型工作负载 内存与计算比率最高,适合处理内存密集型工作负载 针对加速的高性能计算工作负载进行了优化
    • 文件服务器
    • 专为闪存优化的数据库
    • 扩容分析
    • 其他数据库
    • 受计算限制的工作负载
    • 高性能 Web 服务器
    • Game Servers
    • 高性能计算 (HPC)
    • 媒体转码
    • 建模和模拟工作负载
    • AI/机器学习
    • 中到超大型 SAP HANA 内存数据库
    • 内存中数据存储区,例如 Redis
    • 模拟
    • 高性能数据库,例如 Microsoft SQL Server、MySQL
    • 电子设计自动化
    • 生成式 AI 模型,如以下所示:
      • 大语言模型 (LLM)
      • 扩散模型
      • 生成对抗网络 (GAN)
    • 支持 CUDA 的机器学习训练和推断
    • 高性能计算 (HPC)
    • 大规模并行计算
    • BERT 自然语言处理
    • 深度学习推荐模型 (DLRM)
    • 视频转码
    • 远程可视化工作站

    创建计算实例后,您可以使用合理调整容量建议来根据工作负载优化资源利用率。如需了解详情,请参阅为虚拟机应用机器类型建议

    通用机器家族指南

    通用机器系列提供多种机器系列,这些系列具有最优性价比,适用于各种工作负载。

    Compute Engine 提供在 x86 或 Arm 架构上运行的通用机器系列。

    x86

    • C4 机器系列适用于 Intel Emerald Rapids CPU 平台,由 Titanium 提供支持。C4 机器类型经过优化,可提供一致的高性能,并可扩展到 192 个 vCPU 和 1.5 TB 的 DDR5 内存。C4 有 highcpu(每个 vCPU 2 GB)、standard(每个 vCPU 3.75 GB)和 highmem(每个 vCPU 7.75 GB)配置可供选择。
    • N4 机器系列适用于 Intel Emerald Rapids CPU 平台,由 Titanium 提供支持。N4 机器类型经过优化,可提供预定义和自定义形状,可灵活调整,并具有较低的费用,可扩容至 80 个 vCPU 和 640 GB DDR5 内存。N4 有 highcpu(每个 vCPU 2 GB)、standard(每个 vCPU 4 GB)和 highmem(每个 vCPU 8 GB)配置可供选择。
    • N2 机器系列配备多达 128 个 vCPU,并为每个 vCPU 提供最高 8 GB 内存,支持 Intel Ice Lake 和 Intel Cascade Lake CPU 平台。
    • N2D 机器系列具有多达 224 个 vCPU,并为每个 vCPU 提供最高 8 GB 内存,支持第二代 AMD EPYC Rome 和第三代 AMD EPYC Milan 平台。
    • C3 机器系列在 Intel Sapphire Rapids CPU 平台和 Titanium 上提供多达 176 个 vCPU 以及每个 vCPU 配备 2、4 或 8 GB 内存。C3 实例与底层 NUMA 架构保持一致,以提供最佳、可靠和始终如一的性能。
    • C3D 机器系列在 AMD EPYC Genoa CPU 平台和 Titanium 上提供多达 360 个 vCPU 和每个 vCPU 2、4 或 8 GB 内存。C3D 实例与底层 NUMA 架构保持一致,以提供最佳、可靠和始终如一的性能。
    • E2 机器系列最多可以有 32 个虚拟核心 (vCPU),最多 128 GB 内存,每个 vCPU 最多 8 GB,在所有机器系列中费用最低。E2 机器系列具有预定义的 CPU 平台,运行 Intel 处理器或第二代 AMD EPYC™ Rome 处理器。在创建实例时,系统会为您选择处理器。此机器系列在 Compute Engine 上以最低价格提供各种计算资源,尤其在结合承诺使用折扣时价格更优。
    • Tau T2D 机器系列提供了经过优化的横向扩容功能集。每个虚拟机实例最多可以配备 60 个 vCPU、每个 vCPU 4 GB 内存,并且可以在第三代 AMD EPYC Milan 处理器上使用。Tau T2D 机器系列不使用集群线程,因此一个 vCPU 等同于整个核心。
    • N1 机器系列虚拟机最多可包含 96 个 vCPU,每个 vCPU 最多可配备 6.5 GB 内存,可选择 Intel Sandy Bridge、Ivy Bridge、Haswell、Broadwell、Skylake 等 CPU 平台。

    Arm

    • C4A 机器系列是 Google Cloud 中第二个在 Arm 处理器上运行的机器系列,也是第一个在支持 Arm V9 架构的 Google Axion CPU 上运行的机器系列。C4A 虚拟机由具有网络分流功能的 Titanium IPU 提供支持;这通过减少主机端处理来提高虚拟机性能。

      C4A 虚拟机最多可以配备 72 个 vCPU,每个 vCPU 最多可以配备 8 GB 内存,并且支持单个 UMA 域。C4A 虚拟机不使用并发多线程 (SMT),C4A 实例中的 vCPU 等同于整个核心。

    • Tau T2A 机器系列是 Google Cloud 中 第一个在 Arm 处理器上运行的机器系列Tau T2A 机器经过优化,可提供出色的性价比。每个虚拟机最多可以配备 48 个 vCPU,每个 vCPU 具有 4 GB 内存。Tau T2A 机器系列在 64 核 Ampere Altra 处理器上运行,该处理器具有 Arm 指令集且全核频率为 3 GHz。Tau T2A 机器类型支持单个 NUMA 节点,一个 vCPU 等同于整个核心。

    存储优化机器家族指南

    存储优化机器系列非常适合横向扩容数据库、日志分析、数据仓库产品和其他数据库工作负载。此系列提供高密度、高性能的本地 SSD。

    • Z3 实例最多可以配备 176 个 vCPU、1408 GB 内存和 36 TiB 本地 SSD。Z3 在具有 DDR5 内存和 Titanium 分流处理器的 Intel Xeon 可扩展处理器(代号为 Sapphire Rapids)上运行。Z3 将最新的计算、网络和存储技术创新整合到一个平台中。Z3 实例与底层 NUMA 架构保持一致,以提供最佳、可靠和始终如一的性能。

    计算优化机器家族指南

    计算优化机器系列提供超高的每核心性能,专为运行计算受限的应用进行了优化。

    • H3 实例提供 88 个 vCPU 和 352 GB 的 DDR5 内存。H3 实例在 Intel Sapphire Rapids CPU 平台和 Titanium 分流处理器上运行。H3 实例与底层 NUMA 架构保持一致,以提供最佳、可靠和始终如一的性能。H3 为各种 HPC 工作负载(例如分子动力学、计算地理科学、财务风险分析、天气建模、前端和后端 EDA 以及计算流体动力学)提供了性能改进。
    • C2 实例可提供多达 60 个 vCPU,并为每个 vCPU 提供最高 4 GB 内存,支持 Intel Cascade Lake CPU 平台。
    • C2D 实例可提供多达 112 个 vCPU,并为每个 vCPU 提供最高 8 GB 内存,支持第三代 AMD EPYC Milan 平台。

    内存优化机器家族指南

    内存优化机器系列的机器系列非常适合 OLAP 和 OLTP SAP 工作负载、基因组建模、电子设计自动化以及您的大多数内存密集型 HPC 工作负载。此系列提供比任何其他机器系列更多的内存,可高达 32 TB 内存。

    • X4 裸金属实例最多可提供 1,920 个 vCPU,每个 vCPU 可分配 17 GB 内存。X4 提供内存分别为 16 TB、24 TB 和 32 TB 的机器类型,并且可以在 Intel Sapphire Rapids CPU 平台上使用。
    • M3 实例可提供多达 128 个 vCPU(每个 vCPU 最多可使用 30.5 GB 内存),并且可以在 Intel Ice Lake CPU 平台上使用。
    • M2 实例提供有 6 TB、9 TB 和 12 TB 机器类型,并且可以在 Intel Cascade Lake CPU 平台上使用。
    • M1 实例可提供多达 160 个 vCPU,并为每个 vCPU 提供 14.9 GB 到 24 GB 内存,可以在 Intel Skylake 和 Broadwell CPU 平台上使用。

    加速器优化机器家族指南

    加速器优化机器系列非常适合大规模并行的计算统一设备架构 (CUDA) 计算工作负载,例如机器学习 (ML) 和高性能计算 (HPC)。此系列是需要 GPU 的工作负载的最佳选择。

    • A3 实例最多可提供 208 个 vCPU,每个 vCPU 可分配 9 GB 内存。每种 A3 机器类型都挂接了 1、2、4 或 8 个 NVIDIA H100 GPU。A3 的最大网络带宽高达 1,800 Gbps,并且支持 Intel Sapphire Rapids CPU 平台。
    • A2 实例提供 12 到 96 个 vCPU,内存高达 1,360 GB。每种 A2 机器类型都挂接了 1、2、4、8 或 16 个 NVIDIA A100 GPU。A2 实例的最大网络带宽高达 100 Gbps,并且可在 Intel Cascade Lake CPU 平台上使用。
    • G2 实例提供 4 个到 96 个 vCPU,最多 432 GB 内存。每种 G2 机器类型都挂接了 1、2、4 或 8 个 NVIDIA L4 GPU。G2 实例的网络带宽上限为 100 Gbps,并且可在 Intel Cascade Lake CPU 平台上使用。

    机器系列比较

    使用下表比较每个机器家族并确定哪种机器系列适合您的工作负载。如果在查看本部分之后,您仍然不确定哪个系列最适合您的工作负载,请从通用机器家族开始。如需详细了解所有支持的处理器,请参阅 CPU 平台

    如需了解您的选择如何影响挂接到计算实例的磁盘卷的性能,请参阅:

    比较不同机器系列(从 C4A 到 G2)的特征。 您可以在选择要比较的实例属性字段中选择特定属性,以比较所有机器系列的这些属性,如下表所示。

    通用 通用 通用 通用 通用 通用 通用 通用 通用 通用 减少费用 存储优化 计算优化 计算优化 计算优化 内存优化 内存优化 内存优化 内存优化 加速器优化 加速器优化 加速器优化 加速器优化
    Google Axion Intel Emerald Rapids Intel Sapphire Rapids AMD EPYC Genoa Intel Emerald Rapids Intel Cascade Lake 和 Ice Lake AMD EPYC Rome 和 EPYC Milan Intel Skylake、Broadwell、Haswell、Sandy Bridge 和 Ivy Bridge AMD EPYC Milan Ampere Altra Intel Skylake、Broadwell 和 Haswell、AMD EPYC Rome 和 EPYC Milan Intel Sapphire Rapids Intel Sapphire Rapids Intel Cascade Lake AMD EPYC Milan Intel Sapphire Rapids Intel Ice Lake Intel Cascade Lake Intel Skylake 和 Broadwell Intel Skylake、Broadwell、Haswell、Sandy Bridge 和 Ivy Bridge Intel Sapphire Rapids Intel Cascade Lake Intel Cascade Lake
    Arm x86 x86 x86 x86 x86 x86 x86 x86 Arm x86 x86 x86 x86 x86 x86 x86 x86 x86 x86 x86 x86 x86
    1 到 72 2 - 192 4 到 176 4 到 360 2 - 80 2 到 128 2 到 224 1 到 96 1 到 60 1 到 48 0.25 到 32 88 或 176 88 4 到 60 2 到 112 960 - 1,920 32 到 128 208 到 416 40 到 160 1 到 96 208 12 到 96 4 到 96 个
    核心 会话 会话 会话 会话 会话 会话 会话 核心 核心 会话 会话 核心 会话 会话 会话 会话 会话 会话 会话 会话 会话 会话
    2 到 576 GB 2 - 1,488 GB 8 到 1,408 GB 8 到 2,880 GB 2 - 640 GB 2 到 864 GB 2 到 896 GB 1.8 到 624 GB 4 到 240 GB 4 到 192 GB 1 到 128 GB 704 或 1,408 GB 352 GB 16 到 240 GB 4 到 896 GB 16,384 - 32,768 GB 976 到 3904 GB 5888 到 11776 GB 961 到 3844 GB 3.75 到 624 GB 1872 GB 85 到 1360 GB 16 到 432 GB
    虚拟机 虚拟机 虚拟机和裸机 虚拟机 虚拟机 虚拟机 虚拟机 虚拟机 虚拟机 虚拟机 虚拟机 虚拟机 虚拟机 虚拟机 虚拟机 Bare Metal 虚拟机 虚拟机 虚拟机 虚拟机 虚拟机 虚拟机 虚拟机
    NVMe NVMe NVMe NVMe NVMe SCSI 和 NVMe SCSI 和 NVMe SCSI 和 NVMe SCSI 和 NVMe NVMe SCSI NVMe NVMe SCSI 和 NVMe SCSI 和 NVMe NVMe NVMe SCSI SCSI 和 NVMe SCSI 和 NVMe NVMe SCSI 和 NVMe NVMe
    0 0 12 TiB 12 TiB 0 9 TiB 9 TiB 9 TiB 0 0 0 36 TiB 0 3 TiB 3 TiB 0 3 TiB 0 3 TiB 9 TiB 6 TiB 3 TiB 3 TiB
    可用区和区域 可用区和区域 可用区和区域 Zonal Zonal 可用区和区域 Zonal Zonal Zonal Zonal 可用区和区域 Zonal
    Zonal Zonal 可用区和区域 可用区和区域 可用区和区域 Zonal Zonal 可用区和区域 Zonal Zonal Zonal Zonal Zonal Zonal Zonal 可用区和区域 Zonal Zonal Zonal
    Zonal Zonal 可用区和区域 可用区和区域 可用区和区域 Zonal Zonal 可用区和区域 Zonal Zonal Zonal Zonal Zonal Zonal 可用区和区域 Zonal Zonal Zonal
    gVNIC gVNIC gVNIC 和 IDPF gVNIC gVNIC gVNIC 和 VirtIO-Net gVNIC 和 VirtIO-Net gVNIC 和 VirtIO-Net gVNIC 和 VirtIO-Net gVNIC gVNIC 和 VirtIO-Net gVNIC gVNIC gVNIC 和 VirtIO-Net gVNIC 和 VirtIO-Net IDPF gVNIC gVNIC 和 VirtIO-Net gVNIC 和 VirtIO-Net gVNIC 和 VirtIO-Net gVNIC gVNIC 和 VirtIO-Net gVNIC 和 VirtIO-Net
    10 - 50 Gbps 10 到 100 Gbps 23 到 100 Gbps 20 到 200 Gbps 10 - 50 Gbps 10 到 32 Gbps 10 到 32 Gbps 2 到 32 Gbps 10 到 32 Gbps 10 到 32 Gbps 1 到 16 Gbps 23 到 100 Gbps 最高 200 Gbps 10 到 32 Gbps 10 到 32 Gbps 高达 100 Gbps 高达 32 Gbps 高达 32 Gbps 高达 32 Gbps 2 到 32 Gbps 高达 1,800 Gbps 24 到 100 Gbps 10 到 100 Gbps
    50 到 100 Gbps 50 到 200 Gbps 50 到 200 Gbps 50 到 200 Gbps 50 到 100 Gbps 50 到 100 Gbps 50 到 200 Gbps 50 到 100 Gbps 50 到 100 Gbps 50 到 100 Gbps 50 到 100 Gbps 高达 1,800 Gbps 50 到 100 Gbps 50 到 100 Gbps
    0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 8 8 16 8
    基于资源的 CUD 和灵活 CUD 基于资源的 CUD 和灵活 CUD 基于资源的 CUD 和灵活 CUD 基于资源的 CUD 和灵活 CUD 基于资源的 CUD 和灵活 CUD 基于资源的 CUD 和灵活 CUD 基于资源的 CUD 和灵活 CUD 基于资源的 CUD 和灵活 CUD 基于资源的 CUD 基于资源的 CUD 和灵活 CUD 基于资源的 CUD 和灵活 CUD 基于资源的 CUD 基于资源的 CUD 和灵活 CUD 基于资源的 CUD 和灵活 CUD 基于资源的 CUD 基于资源的 CUD 基于资源的 CUD 基于资源的 CUD 基于资源的 CUD 基于资源的 CUD 基于资源的 CUD 基于资源的 CUD
    1.28 1.46 1.00 2.29 1.04 1.43 1.50 1.00 0.96

    GPU 和计算实例

    GPU 用于加快工作负载速度,并且支持 N1、A3、A2 和 G2 虚拟机实例。对于使用 N1 机器类型的虚拟机,您可以在虚拟机创建期间或之后将 GPU 挂接到虚拟机。对于使用 A3、A2 或 G2 机器类型的虚拟机,系统会在您创建虚拟机时自动挂接 GPU。GPU 不能与任何其他机器系列搭配使用。

    GPU 数量较少的虚拟机实例会有 vCPU 数量上限的限制。通常情况下,如果 GPU 数量较多,您可以创建具有较多 vCPU 和内存的实例。如需了解详情,请参阅 Compute Engine 上的 GPU

    后续步骤