BatchPredictionJob
リソースを使用すると、非同期予測リクエストを実行できます。model
リソースから、バッチ予測を直接リクエストします。モデルを endpoint
にデプロイする必要はありません。バッチ予測は、バッチ予測とオンライン予測の両方をサポートするデータ型に対して使用できます。これは、すぐにレスポンスが必要なく、1 つのリクエストで累積されたデータを処理する場合に有用です。
バッチ予測を行うには、入力ソースと、Vertex AI が予測結果を保存する出力先を指定します。入力と出力は、作業する model
タイプによって異なります。たとえば、AutoML 画像モデルタイプのバッチ予測を行うには、入力 JSON Lines ファイルと、出力を保存する Cloud Storage バケットの名前が必要です。バッチ予測の詳細については、バッチ予測を取得するをご覧ください。
ModelBatchPredictOp
コンポーネントを使用すると、Vertex AI Pipelines を通じてこの機能にアクセスできます。
API リファレンス
- コンポーネントのリファレンスについては、
google_cloud_pipeline_components
SDK リファレンスをご覧ください。 - Vertex AI API リファレンスについては、
BatchPredictionJob
リソースのページをご覧ください。
チュートリアル
変更履歴とリリースノート
Google Cloud パイプライン コンポーネント SDK の変更履歴と変更点については、Google Cloud パイプライン コンポーネント SDK リリースノートをご覧ください。
テクニカル サポートの連絡先
不明な点がございましたら、kubeflow-pipelines-components@google.com までお問い合わせください。