Cloud TPU

以前所未有的速度训练和运行机器学习模型。

查看文档 开始使用

加快机器学习速度

从加强网络安全到提高医疗诊断准确性,机器学习 (ML) 在各种业务和研究问题上实现了突破。由于训练和运行深度学习模型在计算方面的要求很高,我们打造了张量处理单元 (TPU)。这是一款专为机器学习设计的 ASIC,得到了我们多种主要产品的采用,包括 Google 翻译Google 照片Google 搜索Google 助理Gmail。Cloud TPU 使世界各地的企业都能采用此加速器技术来加速处理其在 Google Cloud 上的机器学习工作负载。

专为 Google Cloud 上的人工智能打造

Cloud TPU 的架构经过精心设计,利用 Google Cloud 上的人工智能服务运行最先进的机器学习模型,提供强大的计算能力,可以帮助您实现业务转型或在研究上取得新突破。凭借允许各个 TPU 协同工作来处理机器学习工作负载的自定义高速网络,Cloud TPU 可在单个 pod 中提供最高每秒 11.5 千万亿次浮点运算的性能。

更快地迭代您的机器学习解决方案

训练机器学习模型与编译代码类似。模型需要随着应用的构建、部署和优化反复训练,因此机器学习应做到快速且经济高效。Cloud TPU 提供的性能和成本非常适合机器学习团队以更快的速度对其解决方案进行迭代。

久经考验的先进模型

使用针对性能、准确性和质量进行了优化的 Google 认证参考模型,为许多实际使用场景打造解决方案。您只需提供您的数据、下载参考模型并进行训练即可。

Cloud TPU 产品

Cloud TPU v2
每秒 180 万亿次浮点运算
64 GB 高带宽内存 (HBM)

Cloud TPU v3 测试版
每秒 420 万亿次浮点运算
128 GB HBM

Cloud TPU v2 Pod Alpha 版
每秒 11.5 千万亿次浮点运算
4 TB HBM
二维环形网状网络

Cloud TPU 的特点

久经考验的参考模型
使用久经考验的 Google 认证参考模型,针对性能、准确性和质量进行优化,可用于许多实际使用场景:对象检测、语言建模、情感分析、翻译、图片分类等。
集成
Cloud TPU 及 Google Cloud 的数据和分析服务与其他 GCP 产品在核心层面全面集成,所有服务都采用统一的访问权限管理机制。在 Cloud TPU 上运行机器学习工作负载,并从 Google Cloud Platform 领先业界的存储、网络和数据分析技术中获益。
将 Cloud TPU 与自定义机器类型相关联
您可以将 Cloud TPU 与自定义虚拟机类型相关联,这有助于您根据具体工作负载以最优方式平衡处理器速度、内存和高性能存储资源。
抢占式 Cloud TPU
为容错式机器学习工作负载(例如,设有检查点、长时间运行的训练,或者基于大型数据集的批量预测)使用抢占式 Cloud TPU,从而节省资金。抢占式 Cloud TPU 的价格比按需实例低 70%,从初次实验到大规模超参数搜索,让您一切工作的成本都比以往更加经济低廉。

“Cloud TPU Pod 提供超出我们原基础架构 10 倍的速度,改变了我们的可视化购物方式。我们过去通常要花数月才能训练出一个图片识别模型,而现在,只需短短几天,我们就可以在 Cloud TPU Pod 上训练出精度高得多的模型。我们还能利用 TPU pod 所具有的额外内存,一次处理更多图片。得益于如此快速的周转时间,我们能够更快地进行迭代,并为 eBay 客户和卖家提供更出色的体验。”

- Larry Colagiovanni eBay 新品开发副总裁

此页面上列出的产品目前为内测版或公测版。如需详细了解我们的产品发布阶段,请点击此处

发送以下问题的反馈:

此网页
Cloud TPU