AI 优化了硬件、软件和消耗情况,这些因素共同提高了生产力和效率。
概览
我们的基础架构(包括 Google Cloud TPU、Google Cloud GPU、Google Cloud Storage 和底层 Jupiter 网络)在性能上经过优化,具有强大的缩放特性,能一致地为大型最先进的模型提供最快的训练速度,因此是对大型模型而言性价比最高的架构。
我们的架构经过优化,可支持最常见的工具和库,例如 Tensorflow、Pytorch 和 JAX。此外,客户还可以利用 Cloud TPU 多切片和多主机配置等技术,以及 Google Kubernetes Engine 等托管式服务。这让客户能够为常见工作负载(例如由 SLURM 编排的 NVIDIA NeMO 框架)提供开箱即用的部署服务。
我们灵活的消费模式允许客户根据自己的业务需求,选择具有承诺使用折扣的固定费用或动态的按需模式。动态工作负载调度程序可帮助客户获得所需的容量,而不会产生过度分配,因此只需为需要的资源付费。此外,Google Cloud 的费用优化工具有助于自动利用资源,减少工程师的手动任务。
工作方式
Google 开发出了 TensorFlow 等技术,是人工智能领域的领军者。你知道吗?你可以在自己的项目中利用 Google 的技术。了解 Google 在 AI 基础架构方面的创新轨迹,以及如何利用这些创新技术来处理您的工作负载。
常见用途
“我们需要 GPU 来生成对用户消息的响应。随着我们平台上的用户越来越多,我们需要更多的 GPU 来为他们提供服务。因此,我们可以在 Google Cloud 上开展实验,寻找适合特定工作负载的平台。可以灵活选择最有价值的解决方案,真是太好了。”Myle Ott,Character.AI 创始工程师
“我们需要 GPU 来生成对用户消息的响应。随着我们平台上的用户越来越多,我们需要更多的 GPU 来为他们提供服务。因此,我们可以在 Google Cloud 上开展实验,寻找适合特定工作负载的平台。可以灵活选择最有价值的解决方案,真是太好了。”Myle Ott,Character.AI 创始工程师
Google Cloud 致力于确保开放式框架在 AI Hypercomputer 架构中正常运行。
“与 Google Cloud 合作采用生成式 AI 后,我们通过聊天机器人就能提供定制旅行规划服务。我们的目标不仅仅是为客户安排行程,还要协助他们打造独特的旅行体验。”Martin Brodbeck,Priceline 首席技术官
Google Cloud 致力于确保开放式框架在 AI Hypercomputer 架构中正常运行。
“与 Google Cloud 合作采用生成式 AI 后,我们通过聊天机器人就能提供定制旅行规划服务。我们的目标不仅仅是为客户安排行程,还要协助他们打造独特的旅行体验。”Martin Brodbeck,Priceline 首席技术官
Google Cloud 提供业界领先的性价比,让您可以选择加速器来部署 AI 模型,以因应任何工作负载的需求。
提供 NVIDIA L4 GPU 的 Cloud TPU v5e 和 G2 虚拟机实例能够针对各种各样的 AI 工作负载(包括最新的 LLM 和生成式 AI 模型)进行高性能且经济实惠的推理。与以前的模型相比,两者的性价比都得到了显著提升,并且 Google Cloud 的 AI Hypercomputer 架构能够让客户将部署规模扩大到行业领先的水平。
“我们的实验结果表明,对于我们的模型,在进行大规模推理时,Cloud TPU v5e 是最具成本效益的加速器。其性价比是 G2 的 2.7 倍,是 A2 实例的 4.2 倍。”Domenic Donato,
AssemblyAI 技术副总裁
Google Cloud 提供业界领先的性价比,让您可以选择加速器来部署 AI 模型,以因应任何工作负载的需求。
提供 NVIDIA L4 GPU 的 Cloud TPU v5e 和 G2 虚拟机实例能够针对各种各样的 AI 工作负载(包括最新的 LLM 和生成式 AI 模型)进行高性能且经济实惠的推理。与以前的模型相比,两者的性价比都得到了显著提升,并且 Google Cloud 的 AI Hypercomputer 架构能够让客户将部署规模扩大到行业领先的水平。
“我们的实验结果表明,对于我们的模型,在进行大规模推理时,Cloud TPU v5e 是最具成本效益的加速器。其性价比是 G2 的 2.7 倍,是 A2 实例的 4.2 倍。”Domenic Donato,
AssemblyAI 技术副总裁