O recurso BatchPredictionJob
permite-lhe executar um pedido de previsão assíncrono. Peça previsões em lote diretamente do recurso model
. Não precisa de implementar o modelo num endpoint
. Para tipos de dados que suportam previsões em lote e online, pode usar previsões em lote.
Isto é útil quando não precisa de uma resposta imediata e quer processar
dados acumulados através de um único pedido.
Para fazer uma previsão em lote, especifique uma origem de entrada e uma localização de saída para o Vertex AI armazenar os resultados das previsões. As entradas e as saídas dependem do tipo de model
com o qual está a trabalhar. Por exemplo, as previsões em lote para o tipo de modelo de imagem do AutoML requerem um ficheiro JSON Lines de entrada e o nome de um contentor do Cloud Storage para armazenar o resultado.
Para mais informações sobre a previsão em lote, consulte o artigo
Obtenha previsões em lote.
Pode usar o componente ModelBatchPredictOp
para aceder a este recurso através dos Vertex AI Pipelines.
Referência da API
- Para referência de componentes, consulte a Google Cloud referência do SDK para componentes de previsão em lote.
- Para consultar a referência da API Vertex AI, consulte a página do recurso
BatchPredictionJob
.
Tutoriais
Histórico de versões e notas de lançamento
Para saber mais sobre o histórico de versões e as alterações ao Google Cloud SDK de componentes de pipeline, consulte as Google Cloud notas de lançamento do SDK de componentes de pipeline.
Contactos do apoio técnico
Se tiver dúvidas, contacte kubeflow-pipelines-components@google.com.