Compute Engine 上的 GPU

Google Compute Engine 提供图形处理器 (GPU),您可以将其添加到虚拟机实例。您可以使用这些 GPU 加快实例上的特定工作负载的处理速度,例如机器学习和数据处理。

如果您要处理图形密集型工作负载(例如 3D 可视化、3D 渲染或虚拟应用),则可以创建使用 NVIDIA® GRID® 技术的虚拟工作站。如需了解适用于图形密集型应用的 GPU,请参阅用于处理图形工作负载的 GPU

如需了解将 GPU 添加到实例的步骤,请参阅将 GPU 添加到实例

简介

Compute Engine 以直通模式为您的实例提供 NVIDIA® Tesla® GPU,这样您的虚拟机实例就可以直接控制 GPU 及其相关联的内存。

对于计算工作负载,可在以下阶段使用 GPU 模型:

  • NVIDIA® Tesla® P4:nvidia-tesla-p4已全面推出
  • NVIDIA® Tesla® V100:nvidia-tesla-v100已全面推出
  • NVIDIA® Tesla® P100:nvidia-tesla-p100已全面推出
  • NVIDIA® Tesla® K80:nvidia-tesla-K80已全面推出
  • NVIDIA® Tesla® T4:nvidia-tesla-t4测试版

对于图形工作负载,可在以下阶段使用 GPU 模型:

  • NVIDIA® Tesla® P4 虚拟工作站:nvidia-tesla-p4-vws已全面推出
  • NVIDIA® Tesla® P100 虚拟工作站:nvidia-tesla-p100-vws已全面推出
  • NVIDIA® Tesla® T4 虚拟工作站:nvidia-tesla-t4-vws测试版

如需了解适用于虚拟工作站的 GPU,请参阅用于处理图形工作负载的 GPU

您只能将 GPU 挂接到运行预定义自定义机器类型的实例。 共享核心内存优化机器类型不支持 GPU。

如果实例拥有的 GPU 数量较少,其 vCPU 数量上限会受到限制。通常情况下,如果 GPU 数量较多,您就能够创建配备较多 vCPU 和较高系统内存的实例。

用于处理计算工作负载的 GPU

GPU 模型 GPU 数量 GPU 内存 可用 vCPU 数量 可用内存 适用地区
NVIDIA® Tesla® T4 1 个 GPU 16 GB GDDR6 1 - 24 个 vCPU 1 - 156 GB
  • asia-northeast1-a
  • asia-south1-b
  • asia-southeast1-b
  • europe-west4-b
  • europe-west4-c
  • southamerica-east1-c
  • us-central1-a
  • us-central1-b
  • us-east1-c
  • us-east1-d(即将推出)
  • us-west1-a
  • us-west1-b
2 个 GPU 32 GB GDDR6 1 - 48 个 vCPU 1 - 312 GB
4 个 GPU 64 GB GDDR6 1 - 96 个 vCPU 1 - 624 GB
NVIDIA® Tesla® P4 1 个 GPU 8 GB GDDR5 1 - 24 个 vCPU 1 - 156 GB
  • us-west2-c
  • us-west2-b
  • us-central1-a
  • us-central1-c
  • us-east4-a
  • us-east4-b
  • us-east4-c
  • northamerica-northeast1-a
  • northamerica-northeast1-b
  • northamerica-northeast1-c
  • europe-west4-b
  • europe-west4-c
  • australia-southeast1-a
  • australia-southeast1-b
  • asia-southeast1-b
  • asia-southeast1-c
2 个 GPU 16 GB GDDR5 1 - 48 个 vCPU 1 - 312 GB
4 个 GPU 32 GB GDDR5 1 - 96 个 vCPU 1 - 624 GB
NVIDIA® Tesla® V100 1 个 GPU 16 GB HBM2 1 - 12 个 vCPU 1 - 78 GB
  • us-west1-a
  • us-west1-b
  • us-central1-a
  • us-central1-b
  • us-central1-f
  • europe-west4-a
  • europe-west4-b
  • europe-west4-c
  • asia-east1-c
2 个 GPU 32 GB HBM2 1 - 24 个 vCPU 1 - 156 GB
4 个 GPU 64 GB HBM2 1 - 48 个 vCPU 1 - 312 GB
8 个 GPU 128 GB HBM2 1 - 96 个 vCPU 1 - 624 GB
NVIDIA® Tesla® P100 1 个 GPU 16 GB HBM2 1 - 16 个 vCPU 1 - 104 GB
  • us-west1-a
  • us-west1-b
  • us-central1-c
  • us-central1-f
  • us-east1-b
  • us-east1-c
  • europe-west1-b
  • europe-west1-d
  • europe-west4-a
  • asia-east1-a
  • asia-east1-c
2 个 GPU 32 GB HBM2 1 - 32 个 vCPU 1 - 208 GB
4 个 GPU 64 GB HBM2

1 - 64 个 vCPU
(us-east1-c、europe-west1-d 和 europe-west1-b)

1 - 96 个 vCPU
(所有其他地区)

1 - 208 GB
(us-east1-c、europe-west1-d 和 europe-west1-b)

1 - 624 GB
(所有其他地区)

NVIDIA® Tesla® K80 1 个 GPU 12 GB GDDR5 1 - 8 个 vCPU 1 - 52 GB
  • us-west1-b
  • us-central1-a
  • us-central1-c
  • us-east1-c
  • us-east1-d
  • europe-west1-b
  • europe-west1-d
  • asia-east1-a
  • asia-east1-b
2 个 GPU 24 GB GDDR5 1 - 16 个 vCPU 1 - 104 GB
4 个 GPU 48 GB GDDR5 1 - 32 个 vCPU 1 - 208 GB
8 个 GPU 96 GB GDDR5 1 - 64 个 vCPU

1 - 416 GB
(asia-east1-a 和 us-east1-d)

1 - 208 GB
(所有其他地区)

注意:
  • 如需了解地区的详细说明,请参阅区域和地区
  • NVIDIA® K80® 主板分别包含两个 GPU。K80 GPU 的价格取决于单个 GPU,而不是主板。

与 vCPU 类似,GPU 设备也可以获得持续使用折扣。请参阅 Compute Engine 价格页面以了解 GPU 设备的每小时价格和每月价格。

对于多 GPU 工作负载,V100 GPU 提供了高速 NVLink™ 连接,以便 GPU 之间进行通信。

要查看有关 GPU 如何相互连接以及如何与 CPU 连接的信息,请在您的实例上运行以下命令:

nvidia-smi topo -m

如需了解 NVLink 及其优势,请参阅 NVIDIA 开发者博客

用于处理图形工作负载的 NVIDIA® GRID® GPU

如果您要处理图形密集型工作负载(例如 3D 可视化),则可以创建使用 NVIDIA GRID® 平台的虚拟工作站。

如需了解 GRID 的背景信息,请参阅 GRID 概览

当您为虚拟工作站选择 GPU 时,系统会为您的实例添加 NVIDIA GRID 许可。要支持您的虚拟工作站上的 GPU,需要安装 GPU 驱动程序

创建虚拟工作站后,您可以使用远程桌面协议(例如 Teradici® PCoIP 或 VMWare® Horizon View)连接到该工作站。

GPU 模型 GPU 数量 GPU 内存 可用 vCPU 数量 可用内存 适用地区
NVIDIA® Tesla® T4 虚拟工作站 1 个 GPU 16 GB GDDR6 1 - 24 个 vCPU 1 - 156 GB
  • asia-northeast1-a
  • asia-south1-b
  • asia-southeast1-b
  • europe-west4-b
  • europe-west4-c
  • southamerica-east1-c
  • us-central1-a
  • us-central1-b
  • us-east1-c
  • us-east1-d(即将推出)
  • us-west1-a
  • us-west1-b
2 个 GPU 32 GB GDDR6 1 - 48 个 vCPU 1 - 312 GB
4 个 GPU 64 GB GDDR6 1 - 96 个 vCPU 1 - 624 GB
NVIDIA® Tesla® P4 虚拟工作站 1 个 GPU 8 GB GDDR5 1 - 16 个 vCPU 1 - 192 GB
  • us-west2-c
  • us-west2-b
  • us-central1-a
  • us-central1-c
  • us-east4-a
  • us-east4-b
  • us-east4-c
  • northamerica-northeast1-a
  • northamerica-northeast1-b
  • northamerica-northeast1-c
  • europe-west4-b
  • europe-west4-c
  • australia-southeast1-a
  • australia-southeast1-b
  • asia-southeast1-b
  • asia-southeast1-c
2 个 GPU 16 GB GDDR5 1 - 48 个 vCPU 1 - 312 GB
4 个 GPU 32 GB GDDR5 1 - 96 个 vCPU 1 - 624 GB
NVIDIA® Tesla® P100 虚拟工作站 1 个 GPU 16 GB HBM2 1 - 16 个 vCPU 1 - 104 GB
  • us-west1-b
  • us-central1-c
  • us-central1-f
  • us-east1-b
  • us-east1-c
  • europe-west1-b
  • europe-west1-d
  • asia-east1-a
  • asia-east1-c
  • europe-west4-a
2 个 GPU 32 GB HBM2 1 - 32 个 vCPU 1 - 208 GB
4 个 GPU 64 GB HBM2

1 - 64 个 vCPU
(us-east1-c、europe-west1-d 和 europe-west1-b)

1 - 96 个 vCPU
(所有其他地区)

1 - 208 GB
(us-east1-c、europe-west1-d 和 europe-west1-b)

1 - 624 GB
(所有其他地区)

抢占式实例上的 GPU

您可按较低的抢占式 GPU 价格付费,将 GPU 添加到抢占式虚拟机实例。挂接到抢占式实例的 GPU 在工作方式上类似于普通 GPU,但只会在实例的生命周期内保留。具有 GPU 的抢占式实例遵循与所有抢占式实例相同的抢占过程

将 GPU 添加到抢占时实例时,可以使用常规 GPU 配额。如果您需要对抢占式 GPU 使用单独的配额,您可以请求一个单独的抢占式 GPU 配额

在维护事件发生时,具有 GPU 的抢占式实例会默认被抢占,并且无法自动重启。如果您要在实例被抢占后重新创建这些实例,请使用托管实例组。如果 vCPU、内存和 GPU 资源可用,则托管实例组将重新创建您的实例。

如果您希望在实例被抢占前收到警告,或者想要将实例配置为在维护事件发生后自动重启,请使用具有 GPU 的非抢占式实例。对于具有 GPU 的非抢占式实例,Google 会在抢占前提前一小时发出通知

如果 GPU 所属的实例在开始运行后的第一分钟被抢占,则 Compute Engine 不会针对这些 GPU 向您收费。

如需了解自动重启非抢占式实例的步骤,请参阅更新实例对应的选项

要了解如何创建附加了 GPU 的抢占式实例,请参阅创建具有 GPU 的实例

限制

具有 GPU 的实例存在特定限制,因而其行为方式与其他实例类型不同。

  • 如果要将 Tesla K80 GPU 与实例搭配使用,则实例无法使用 Intel Skylake 或更高版本的 CPU 平台。

  • GPU 实例必须在发生主机维护事件时终止,但可以自动重启。通常,这些维护事件每周发生一次,但必要时会更频繁地发生。您必须配置您的工作负载以彻底处理这些维护事件。具体而言,机器学习和高性能计算 (HPC) 等长时间运行的工作负载必须处理主机维护事件引起的中断情况。了解如何在挂接了 GPU 的实例上处理主机维护事件

  • 为了保护 Compute Engine 系统和用户,新项目设置具有 GPU 全球配额,这限制了您可以在任何支持的地区中创建的 GPU 总数。申请 GPU 配额时,您必须为要在每个区域中创建的 GPU 模型申请一个配额,并为所有地区中所有类型的 GPU 总数另外申请一个全球配额。

  • 如果实例挂接了一个或多个 GPU,那么您添加到实例的每个 GPU 都可以配备最多数量的 vCPU。例如,每个 NVIDIA® Tesla® K80 GPU 可让您为实例机器类型配备最多八个 vCPU 和高达 52 GB 的内存。要查看不同 GPU 配置的可用 vCPU 和内存范围,请参阅 GPU 列表

  • 不能将 GPU 挂接到运行共享核心机器类型的实例。

  • GPU 需要设备驱动程序才能正常工作。在 Google Compute Engine 上运行的 NVIDIA GPU 必须使用以下驱动程序版本:

    • Linux 实例:

      • NVIDIA 410.79 驱动程序或更高版本
    • Windows Server 实例:

      • NVIDIA 411.98 驱动程序或更高版本
  • 只有在实例所在的同一区域的多个地区中可以使用特定的挂接 GPU 模型时,具有此 GPU 模型的实例才在 Google Compute Engine 服务等级协议 (SLA) 的涵盖范围内。Google Compute Engine 服务等级协议 (SLA) 未涵盖以下地区的特定 GPU 模型:

    • NVIDIA® Tesla® P100:
      • us-west1-b
      • europe-west4-a
    • NVIDIA® Tesla® K80:
      • us-west1-b
      • us-central1-c
  • europe-west1-d 中具有 NVIDIA® Tesla® P100 GPU 的实例不能使用本地 SSD 设备。

  • Compute Engine 支持每个 GPU 运行 1 个并发用户。

后续步骤

此页内容是否有用?请给出您的反馈和评价:

发送以下问题的反馈:

此网页
Compute Engine 文档