La risorsa BatchPredictionJob
consente di eseguire una richiesta di previsione asincrona. Richiedi le previsioni batch direttamente dalla risorsa model
. Non è necessario eseguire il deployment del modello in un endpoint
. Per i tipi di dati
che supportano sia le previsioni in batch che quelle online, puoi utilizzare le previsioni batch.
Questa opzione è utile quando non hai bisogno di una risposta immediata e vuoi elaborare i dati accumulati utilizzando una singola richiesta.
Per fare una previsione batch, specifica un'origine di input e una posizione di output
affinché Vertex AI archivi i risultati delle previsioni. Gli input e gli output
dipendono dal tipo di model
con cui stai lavorando. Ad esempio, le previsioni batch per il tipo di modello di immagine AutoML richiedono un file JSON Lines di input e il nome di un bucket Cloud Storage in cui archiviare l'output.
Per ulteriori informazioni sulle previsioni batch, consulta
Ottenere previsioni batch.
Puoi utilizzare il componente ModelBatchPredictOp
per accedere a questa risorsa tramite Vertex AI Pipelines.
Riferimento API
- Per il riferimento ai componenti, consulta la documentazione di riferimento dell'SDK Google Cloud Pipeline Components per i componenti di previsione batch.
- Per informazioni di riferimento sull'API Vertex AI, consulta la pagina della risorsa
BatchPredictionJob
.
Tutorial
Cronologia delle versioni e note di rilascio
Per scoprire di più sulla cronologia delle versioni e sulle modifiche all'SDK Google Cloud Pipeline Components, consulta le note di rilascio dell'SDK Google Cloud Pipeline Components.
Contatti dell'assistenza tecnica
In caso di domande, scrivi all'indirizzo kubeflow-pipelines-components@google.com.