La risorsa BatchPredictionJob
consente di eseguire una richiesta
di previsione asincrona. Richiedi previsioni batch direttamente dalla risorsa model
. Non è necessario eseguire il deployment del modello in un endpoint
. Per i tipi di dati che supportano sia le previsioni batch che online, puoi utilizzare le previsioni batch.
Questo è utile quando non hai bisogno di una risposta immediata e vuoi elaborare
i dati accumulati utilizzando un'unica richiesta.
Per eseguire una previsione batch, specifica un'origine di input e una località di output
in modo che Vertex AI possa archiviare i risultati delle previsioni. Gli input e gli output dipendono dal tipo di model
con cui stai lavorando. Ad esempio, le previsioni batch per il tipo di modello di immagine AutoML richiedono un file JSON Lines di input e il nome di un bucket Cloud Storage per archiviare l'output.
Per maggiori informazioni sulla previsione batch, consulta
Ottenere previsioni batch.
Puoi utilizzare il componente ModelBatchPredictOp
per accedere a questa funzionalità tramite Vertex AI Pipelines.
Riferimento API
- Per informazioni sui componenti, consulta la documentazione di riferimento dell'SDK
google_cloud_pipeline_components
. - Per informazioni di riferimento sull'API Vertex AI, consulta la pagina della risorsa
BatchPredictionJob
.
Tutorial
Cronologia delle versioni e note di rilascio
Per saperne di più sulla cronologia delle versioni e sulle modifiche all'SDK Google Cloud Pipeline Componenti, consulta le note di rilascio dell'SDK Google Cloud Pipeline Componenti.
Contatti dell'assistenza tecnica
In caso di domande, scrivi all'indirizzo kubeflow-pipelines-components@google.com.