BatchPredictionJob
資源可讓您執行非同步預測要求。直接透過model
資源要求批次預測。您不需要將模型部署至 endpoint
。對於同時支援批次和線上預測的資料類型,您可以使用批次預測。如果您不需要立即取得回應,並想透過單一要求處理累積的資料,就適合選用這個模式。
如要進行批次預測,請指定輸入來源和輸出位置,供 Vertex AI 儲存預測結果。輸入和輸出內容取決於您使用的 model
類型。舉例來說,AutoML 圖像模型類型的批次預測需要輸入 JSON Lines 檔案,以及用來儲存輸出的 Cloud Storage bucket 名稱。如要進一步瞭解批次預測,請參閱「取得批次預測結果」。
您可以使用 ModelBatchPredictOp
元件,透過 Vertex AI Pipelines 存取這項資源。
API 參考資料
- 如需元件參考資料,請參閱「Google Cloud 批次預測元件的 SDK 參考資料」。
- 如需 Vertex AI API 參考資料,請參閱
BatchPredictionJob
資源頁面。
教學課程
版本記錄和版本資訊
如要進一步瞭解版本記錄和 Google Cloud Pipeline Components SDK 的變更,請參閱 Google Cloud Pipeline Components SDK 版本資訊。
技術支援聯絡人
如有任何問題,請洽詢 kubeflow-pipelines-components@google.com。