预测结果是经过训练的机器学习模型的输出。本页面简要介绍了在 Vertex AI 上从模型获取预测结果的工作流。
Vertex AI 提供两种获取预测结果的方法:
在线预测是指向模型
endpoint
发出同步请求。在发送请求之前,您必须先将model
资源部署到endpoint
。这会将计算资源与模型相关联,以便以低延迟方式执行在线预测。如果您要发出请求以响应应用输入,或者在其他需要及时推断的情况下,可以使用在线预测。批量预测是异步请求。您可以直接从
model
资源请求batchPredictionsJob
,而无需将模型部署到端点。如果您不需要立即响应并且希望使用单个请求处理累积的数据,可使用批量预测。
从自定义训练模型获取预测结果
如需获取预测结果,您必须先导入模型。导入后,它将成为在 Vertex AI Model Registry 中显示的 model
资源。
然后,阅读以下文档以了解如何获取预测结果:
从 AutoML 模型获取预测结果
与自定义训练模型不同,AutoML 模型会在训练后自动导入 Vertex AI Model Registry。
除此之外,AutoML 模型的工作流是类似的,但会因数据类型和模型目标而略有不同。AutoML 文档随附了用于获取 AutoML 预测结果的文档。以下是相关文档的链接:
图片
了解如何从以下类型的图片 AutoML 模型获取预测结果:
表格
了解如何从以下类型的表格 AutoML 模型中获取预测结果:
文字
了解如何从以下类型的文本 AutoML 模型中获取预测结果:
视频
了解如何从以下类型的视频 AutoML 模型获取预测结果: