本页面介绍了 Vertex AI 的 TensorFlow 集成,并提供了一些介绍如何在 Vertex AI 上使用 TensorFlow 的资源。Vertex AI 的 TensorFlow 集成功能可让您更轻松地在生产环境中训练、部署和编排 TensorFlow 模型。
在笔记本中运行代码
Vertex AI 提供了两个在笔记本中运行代码的选项:Colab Enterprise 和 Vertex AI Workbench。如需详细了解这些选项,请参阅选择笔记本解决方案。
用于训练的预构建容器
Vertex AI 为模型训练提供预构建的 Docker 容器映像。这些容器按机器学习框架和框架版本进行组织,并包含您可能想要在训练代码中使用的通用依赖项。
如需了解哪些 TensorFlow 版本具有预构建训练容器以及如何使用预构建训练容器训练模型,请参阅自定义训练的预构建容器。
分布式训练
您可以在 Vertex AI 上运行 TensorFlow 模型的分布式训练。对于多工作器训练,您可以使用 Reduction Server 进一步优化性能,以实现全缩减集体操作。如需详细了解 Vertex AI 上的分布式训练,请参阅分布式训练。
用于预测的预构建容器
与用于训练的预构建容器类似,Vertex AI 提供预构建的容器映像,以从您在 Vertex AI 内部或外部创建的 TensorFlow 模型提供预测和说明。这些映像提供 HTTP 预测服务器,您可以使用这些服务器以最少的配置执行预测。
如需了解哪些 TensorFlow 版本具有预构建训练容器以及如何使用预构建训练容器训练模型,请参阅自定义训练的预构建容器。
优化的 TensorFlow 运行时
与适用于 TensorFlow 的 Vertex AI 标准预构建预测容器相比,优化的 TensorFlow 运行时使用模型优化和新的专有 Google 技术来提高预测速度并降低预测费用。
TensorFlow Profiler 集成
使用 Vertex AI 的 TensorFlow Profiler 集成来监控和优化训练作业的性能,以更低的费用更快地训练模型。TensorFlow Profiler 可帮助您了解训练操作的资源消耗情况,以便您找出并消除性能瓶颈。
如需详细了解 Vertex AI TensorFlow Profiler,请参阅使用 Profiler 分析模型训练性能。
在 Vertex AI 上使用 TensorFlow 的资源
如需了解详情并开始使用 Vertex AI 中的 TensorFlow,请参阅以下资源。
原型设计到生产环境:一个视频系列,提供了在 Vertex AI 上开发和部署自定义 TensorFlow 模型的端到端示例。
在 Vertex AI 上使用 Reduction Server 优化训练性能:一篇博文,介绍了如何使用 Reduction Server 优化 Vertex AI 上的分布式训练。
如何在 Vertex AI 上使用 TensorFlow Profiler 优化训练性能:一篇博文,介绍了如何使用 Vertex AI TensorFlow Profiler 来识别训练作业中的性能瓶颈。
具有特征过滤的自定义模型批量预测:一个笔记本教程,介绍了如何使用 Python 版 Vertex AI SDK 训练自定义表格分类模型,以及使用特征过滤执行批量预测。
Vertex AI Pipelines:使用预构建的 Google Cloud 流水线组件进行自定义训练:一个笔记本教程,介绍了如何将 Vertex AI Pipelines 与预构建的 Google Cloud 流水线组件搭配使用以进行自定义训练。
在同一虚拟机上共同托管 TensorFlow 模型以进行预测:一个 Codelab,介绍了如何在 Vertex AI 中使用共同托管模型功能在同一虚拟机上托管多个模型以进行在线预测。