批量预测组件

借助 BatchPredictionJob 资源,您可以运行异步预测请求。直接从 model 资源请求批量预测。您无需将模型部署到 endpoint。对于支持批量预测和在线预测的数据类型,您可以使用批量预测。如果您不需要立即响应并且希望使用单个请求处理累积数据,这会非常有用。

如需进行批量预测,请为 Vertex AI 指定输入源和输出位置以存储预测结果。输入和输出取决于使用的 model 类型。例如,AutoML 图片模型类型的批量预测需要输入 JSON 行文件和存储输出的 Cloud Storage 存储桶的名称。如需详细了解批量预测,请参阅获取批量预测

您可以使用 ModelBatchPredictOp 组件通过 Vertex AI Pipelines 访问此功能。

API 参考文档

教程

版本历史记录和版本说明

如需详细了解 Google Cloud 流水线组件 SDK 的版本历史记录和更改,请参阅 Google Cloud 流水线组件 SDK 版本说明

技术支持联系人

如果您有任何疑问,请联系 kubeflow-pipelines-components@google.com