O recurso BatchPredictionJob
permite executar uma solicitação
de previsão assíncrona. Solicite previsões em lote diretamente do recurso model
. Não é necessário implantar o modelo em um endpoint
. Para tipos de dados compatíveis com previsões em lote e on-line, use previsões em lote.
Isso é útil quando você não precisa de uma resposta imediata e quer processar os dados acumulados usando uma única solicitação.
Para fazer uma previsão em lote, especifique uma origem de entrada e um local de saída
para a Vertex AI armazenar resultados de previsões. As entradas e saídas dependem do tipo de model
com que você está trabalhando. Por exemplo, as previsões
em lote para o tipo de modelo de imagem do AutoML exigem um arquivo de
linhas JSON
de entrada e o nome de um bucket do Cloud Storage para armazenamento da saída.
Para mais informações sobre previsão em lote, consulte
Receber previsões em lote.
Use o componente ModelBatchPredictOp
para acessar essa funcionalidade pelo Vertex AI Pipelines.
Referência da API
- Para conferir a referência de componentes, consulte a referência do SDK de componentes de pipeline do Google Cloud para componentes de previsão em lote.
- Para ver a referência da API Vertex AI, consulte a página Recurso
BatchPredictionJob
.
Tutoriais
Histórico de versões e notas da versão
Para saber mais sobre o histórico de versões e as mudanças no SDK dos componentes do Google Cloud Pipeline, consulte as Notas de lançamento do SDK dos componentes do Google Cloud Pipeline.
Contatos do suporte técnico
Se você tiver alguma dúvida, entre em contato com kubeflow-pipelines-components@google.com.