借助 BatchPredictionJob
资源,您可以运行异步预测请求。直接从 model
资源请求批量预测。您无需将模型部署到 endpoint
。对于支持批量预测和在线预测的数据类型,您可以使用批量预测。如果您不需要立即响应并且希望使用单个请求处理累积数据,这会非常有用。
如需进行批量预测,请为 Vertex AI 指定输入源和输出位置以存储预测结果。输入和输出取决于使用的 model
类型。例如,AutoML 图片模型类型的批量预测需要输入 JSON 行文件和存储输出的 Cloud Storage 存储桶的名称。如需详细了解批量预测,请参阅获取批量预测。
您可以使用 ModelBatchPredictOp
组件通过 Vertex AI Pipelines 访问此资源。
API 参考文档
- 如需查看组件参考文档,请参阅批量预测组件的 Google Cloud 流水线组件 SDK 参考文档。
- 如需了解 Vertex AI API 参考文档,请参阅
BatchPredictionJob
资源页面。
教程
版本历史记录和版本说明
如需详细了解 Google Cloud 流水线组件 SDK 的版本历史记录和更改,请参阅 Google Cloud 流水线组件 SDK 版本说明。
技术支持联系人
如果您有任何疑问,请联系 kubeflow-pipelines-components@google.com。