Componente di previsione batch

La risorsa BatchPredictionJob consente di eseguire una richiesta di previsione asincrona. Richiedi previsioni batch direttamente dalla risorsa model. Non è necessario eseguire il deployment del modello in un endpoint. Per i tipi di dati che supportano sia le previsioni batch che online, puoi utilizzare le previsioni batch. Questo è utile quando non hai bisogno di una risposta immediata e vuoi elaborare i dati accumulati utilizzando un'unica richiesta.

Per eseguire una previsione batch, specifica un'origine di input e una località di output in modo che Vertex AI possa archiviare i risultati delle previsioni. Gli input e gli output dipendono dal tipo di model con cui stai lavorando. Ad esempio, le previsioni batch per il tipo di modello di immagine AutoML richiedono un file JSON Lines di input e il nome di un bucket Cloud Storage per archiviare l'output. Per maggiori informazioni sulla previsione batch, consulta Ottenere previsioni batch.

Puoi utilizzare il componente ModelBatchPredictOp per accedere a questa funzionalità tramite Vertex AI Pipelines.

Riferimento API

Tutorial

Cronologia delle versioni e note di rilascio

Per saperne di più sulla cronologia delle versioni e sulle modifiche all'SDK Google Cloud Pipeline Componenti, consulta le note di rilascio dell'SDK Google Cloud Pipeline Componenti.

Contatti dell'assistenza tecnica

In caso di domande, scrivi all'indirizzo kubeflow-pipelines-components@google.com.