Componenti di previsione batch

La risorsa BatchPredictionJob consente di eseguire una richiesta di previsione asincrona. Richiedi le previsioni batch direttamente dalla risorsa model. Non è necessario eseguire il deployment del modello in un endpoint. Per i tipi di dati che supportano sia le previsioni in batch che quelle online, puoi utilizzare le previsioni batch. Questa opzione è utile quando non hai bisogno di una risposta immediata e vuoi elaborare i dati accumulati utilizzando una singola richiesta.

Per effettuare una previsione batch, specifica un'origine di input e una posizione di output in cui Vertex AI memorizzerà i risultati delle previsioni. Gli input e gli output dipendono dal tipo di model con cui stai lavorando. Ad esempio, le previsioni batch per il tipo di modello di immagine AutoML richiedono un file JSON Lines di input e il nome di un bucket Cloud Storage in cui archiviare l'output. Per ulteriori informazioni sulle previsioni batch, consulta Ottenere previsioni batch.

Puoi utilizzare il componente ModelBatchPredictOp per accedere a questa risorsa tramite Vertex AI Pipelines.

Riferimento API

Tutorial

Cronologia delle versioni e note di rilascio

Per scoprire di più sulla cronologia delle versioni e sulle modifiche all'SDK Google Cloud Pipeline Components, consulta le note di rilascio dell'SDK Google Cloud Pipeline Components.

Contatti dell'assistenza tecnica

Per qualsiasi domanda, scrivi all'indirizzo kubeflow-pipelines-components@google.com.