La risorsa BatchPredictionJob
ti consente di eseguire un'istanza
richiesta di previsione. Richiedi previsioni batch direttamente da model
risorsa. Non è necessario eseguire il deployment del modello in un endpoint
. Per i tipi di dati
che supportano sia le previsioni batch che quelle online.
È utile quando non hai bisogno di una risposta immediata e vuoi elaborare
dati accumulati attraverso una singola richiesta.
Per fare una previsione batch, specifica un'origine di input e una posizione di output
affinché Vertex AI archivi i risultati delle previsioni. Gli input e gli output
dipendono dal tipo di model
con cui stai lavorando. Ad esempio, batch
le previsioni per il tipo di modello di immagine AutoML richiedono un input
Righe JSON
e il nome di un bucket Cloud Storage in cui archiviare l'output.
Per ulteriori informazioni sulla previsione batch, consulta
Ottieni previsioni batch.
Puoi utilizzare il componente ModelBatchPredictOp
per accedere a questa risorsa tramite Vertex AI Pipelines.
Riferimento API
- Per informazioni di riferimento sui componenti, consulta la documentazione di riferimento dell'SDK dei componenti della pipeline di Google Cloud per i componenti delle previsioni batch.
- Per informazioni di riferimento sull'API Vertex AI, consulta la pagina della risorsa
BatchPredictionJob
.
Tutorial
Cronologia delle versioni e note di rilascio
Per saperne di più sulla cronologia delle versioni e sulle modifiche all'SDK dei componenti della pipeline di Google Cloud, consulta le note di rilascio dell'SDK per i componenti della pipeline di Google Cloud.
Contatti dell'assistenza tecnica
In caso di domande, contatta kubeflow-pipelines-components@google.com.