O recurso BatchPredictionJob
permite executar uma solicitação
de previsão assíncrona. Solicite previsões em lote diretamente do recurso model
. Não é necessário implantar o modelo em um endpoint
. Para tipos de dados compatíveis com previsões em lote e on-line, use previsões em lote.
Isso é útil quando você não precisa de uma resposta imediata e quer processar os dados acumulados usando uma única solicitação.
Para fazer uma previsão em lote, especifique uma origem de entrada e um local de saída
para a Vertex AI armazenar resultados de previsões. As entradas e saídas dependem do tipo de model
com que você está trabalhando. Por exemplo, as previsões
em lote para o tipo de modelo de imagem do AutoML exigem um arquivo de
linhas JSON
de entrada e o nome de um bucket do Cloud Storage para armazenamento da saída.
Para mais informações sobre previsão em lote, consulte
Receber previsões em lote.
Use o componente ModelBatchPredictOp
para acessar essa funcionalidade pelo Vertex AI Pipelines.
Referência da API
- Para conferir a referência de componentes, consulte a referência do SDKGoogle Cloud de componentes de pipeline para componentes de previsão em lote.
- Para ver a referência da API Vertex AI, consulte a página Recurso
BatchPredictionJob
.
Tutoriais
Histórico de versões e notas da versão
Para saber mais sobre o histórico de versões e as mudanças no SDK de componentes de pipeline Google Cloud , consulte as Notas de lançamento do SDK de componentes de pipelineGoogle Cloud .
Contatos do suporte técnico
Se você tiver alguma dúvida, entre em contato com kubeflow-pipelines-components@google.com.