Componenti della previsione batch

La risorsa BatchPredictionJob ti consente di eseguire un'istanza richiesta di previsione. Richiedi previsioni batch direttamente da model risorsa. Non è necessario eseguire il deployment del modello in un endpoint. Per i tipi di dati che supportano sia le previsioni batch che quelle online. È utile quando non hai bisogno di una risposta immediata e vuoi elaborare dati accumulati attraverso una singola richiesta.

Per fare una previsione batch, specifica un'origine di input e una posizione di output affinché Vertex AI archivi i risultati delle previsioni. Gli input e gli output dipendono dal tipo di model con cui stai lavorando. Ad esempio, batch le previsioni per il tipo di modello di immagine AutoML richiedono un input Righe JSON e il nome di un bucket Cloud Storage in cui archiviare l'output. Per ulteriori informazioni sulla previsione batch, consulta Ottieni previsioni batch.

Puoi utilizzare il componente ModelBatchPredictOp per accedere a questa risorsa tramite Vertex AI Pipelines.

Riferimento API

Tutorial

Cronologia delle versioni e note di rilascio

Per saperne di più sulla cronologia delle versioni e sulle modifiche all'SDK dei componenti della pipeline di Google Cloud, consulta le note di rilascio dell'SDK per i componenti della pipeline di Google Cloud.

Contatti dell'assistenza tecnica

In caso di domande, contatta kubeflow-pipelines-components@google.com.