Batchvorhersagekomponente

Mit der BatchPredictionJob-Ressource können Sie eine asynchrone Vorhersageanfrage ausführen. Fordern Sie Batchvorhersagen direkt von der model-Ressource an. Sie müssen das Modell nicht für einen endpoint bereitstellen. Für Datentypen, die sowohl Batch- als auch Onlinevorhersagen unterstützen, können Sie Batchvorhersagen verwenden. Dies ist hilfreich, wenn Sie keine sofortige Antwort benötigen und kumulierte Daten in einer einzigen Anfrage verarbeiten möchten.

Für eine Batchvorhersage geben Sie eine Eingabequelle sowie einen Ausgabespeicherort für Vertex AI an, an dem die Vorhersageergebnisse gespeichert werden sollen. Die Ein- und Ausgaben hängen vom model-Typ ab, mit dem Sie arbeiten. Batchvorhersagen für den AutoML-Bildmodelltyp erfordern beispielsweise eine JSON Lines-Eingabedatei und den Namen eines Cloud Storage-Buckets, um die Ausgabe zu speichern. Weitere Informationen zur Batchvorhersage finden Sie unter Batchvorhersagen abrufen.

Mit der Komponente ModelBatchPredictOp können Sie über Vertex AI Pipelines auf diese Funktion zugreifen.

API-Referenz

Tutorials

Versionsverlauf und Versionshinweise

Weitere Informationen zum Versionsverlauf und zu Änderungen am Google Cloud Pipeline Components SDK finden Sie in den Versionshinweisen zum Google Cloud Pipeline Components SDK.

Technische Supportkontakte

Bei Fragen senden Sie eine E-Mail an kubeflow-pipelines-components@google.com.