Mit der BatchPredictionJob
-Ressource können Sie eine asynchrone Vorhersageanfrage ausführen. Fordern Sie Batchvorhersagen direkt von der model
-Ressource an. Sie müssen das Modell nicht auf einem endpoint
bereitstellen. Für Datentypen, die sowohl Batch- als auch Onlinevorhersagen unterstützen, können Sie Batchvorhersagen verwenden.
Dies ist hilfreich, wenn Sie keine sofortige Antwort benötigen und kumulierte Daten in einer einzigen Anfrage verarbeiten möchten.
Für eine Batchvorhersage geben Sie eine Eingabequelle sowie einen Ausgabespeicherort für Vertex AI an, an dem die Vorhersageergebnisse gespeichert werden sollen. Die Ein- und Ausgaben hängen vom model
-Typ ab, mit dem Sie arbeiten. Batchvorhersagen für den AutoML-Bildmodelltyp erfordern beispielsweise eine JSON Lines-Eingabedatei und den Namen eines Cloud Storage-Buckets, um die Ausgabe zu speichern.
Weitere Informationen zur Batchvorhersage finden Sie unter Batchvorhersagen abrufen.
Mit der Komponente ModelBatchPredictOp
können Sie über Vertex AI Pipelines auf diese Ressource zugreifen.
API-Referenz
- Weitere Informationen zur Komponentenreferenz finden Sie in der SDK-Referenz zu Google Cloud Pipeline-Komponenten für Batchvorhersagekomponenten.
- Die Referenz zur Vertex AI API finden Sie auf der Seite
BatchPredictionJob
-Ressource.
Anleitungen
Versionsverlauf und Versionshinweise
Weitere Informationen zum Versionsverlauf und zu Änderungen am Google Cloud Pipeline Components SDK finden Sie in den Versionshinweisen zum Google Cloud Pipeline Components SDK.
Technische Supportkontakte
Bei Fragen senden Sie eine E-Mail an kubeflow-pipelines-components@google.com.