跳转到

NVIDIA 与 Google Cloud

NVIDIA 和 Google Cloud 提供加速器优化的解决方案,可满足您最苛刻的工作负载,包括机器学习、高性能计算、数据分析、图形和游戏工作负载。

Nvidia 和 Google Cloud 徽标

优势

NVIDIA 加速计算在 Google Cloud 上的大规模计算能力

提高各种工作负载的性能

借助 Google Cloud 上最新的 NVIDIA GPU,您可以轻松预配配备 NVIDIA H100、A100、L4、T4、P100、P4 和 V100 的 Compute Engine 实例,加速处理各种要求严苛的工作负载。

按秒计费模式为您降低费用

Google Cloud 的按秒计费意味着您只为需要的服务付费,并且每月可以自动享受最高 30% 的折扣。您不但可节省预付费用,还可获享相同的正常运行时间和伸缩性能。

使用自定义机器配置来优化工作负载

您可以精确地按所需比例为实例配置处理器、内存和 NVIDIA GPU 来优化工作负载,而不必为了适应有限的系统配置而修改工作负载。

主要特性

Google Cloud 上的 NVIDIA 技术

由 NVIDIA H100 Tensor Core GPU 提供支持的 A3 虚拟机

A3 虚拟机由 NVIDIA H100 Tensor Core GPU 提供支持,专门用于训练和提供要求特别严苛的生成式 AI 工作负载和 LLM。将 NVIDIA GPU 与 Google Cloud 领先的基础设施技术相结合,可以提供巨大的规模、提高性能,并实现超级计算能力的巨大飞跃。

更多信息

由 NVIDIA A100® Tensor Core GPU 提供支持的 A2 虚拟机

加速器优化型 A2 虚拟机采用 NVIDIA Ampere A100 Tensor Core GPU。每个 A100 GPU 可提供相当于上一代产品 20 倍的计算性能。这些虚拟机旨在为 AI、数据分析和高性能计算提供各种规模的加速,以应对最棘手的计算挑战。

更多信息

由 NVIDIA L4 Tensor Core GPU 提供支持的 G2 虚拟机

G2 是业界首款由新发布的 NVIDIA L4 Tensor Core GPU 提供支持的云虚拟机,专为生成式 AI 等大型推理 AI 工作负载而打造。G2 为 AI 推理工作负载提供出色的性价比。作为通用 GPU,G2 可以显著提升 HPC、图形和视频转码工作负载的性能。

更多信息

使用 Google Kubernetes Engine 实现自动扩缩

使用 Google Kubernetes Engine (GKE),您可以通过自动扩缩 GPU 资源来无缝按需创建使用 NVIDIA GPU 的集群、进行负载均衡和最大限度降低运营费用。GKE 支持 NVIDIA A100 GPU 中的多实例 GPU (MIG),现在可以为多用户、多模型 AI 推断工作负载预配更精细的适当 GPU 加速。

采用 RTX 虚拟工作站的 NVIDIA CloudXR™

NVIDIA CloudXR 是基于 NVIDIA RTX™ 技术的突破性创新,可让您通过 NVIDIA RTX 虚拟工作站作为虚拟机映像 (VMI),使用 Google Cloud Marketplace 访问高品质 XR。用户可以轻松地设置、扩缩和使用高品质的沉浸式体验,并在云端流式传输 XR 工作流。


准备好开始使用了吗?与我们联系

文档

用于在 Google Cloud 上部署 NVIDIA 技术的技术资源

Google Cloud 基础知识
在 Compute Engine 上使用 GPU

Compute Engine 提供了可添加到虚拟机实例的 GPU。了解可以使用 GPU 处理的工作以及我们提供的 GPU 硬件类型。

Google Cloud 基础知识
在云端使用 GPU 训练模型

加速许多深度学习模型的训练过程,如图片分类、视频分析和自然语言处理。

教程
在 Google Kubernetes Engine 上使用 GPU

了解如何在您的 Google Kubernetes Engine 集群的节点中使用 GPU 硬件加速器。

Google Cloud 基础知识
将 GPU 挂接到 Dataproc 集群

将 GPU 挂接到 Dataproc 集群中的 Compute Engine 主节点和工作器节点,从而加速特定的工作负载,如机器学习和数据处理。