Componentes da previsão em lote

O recurso BatchPredictionJob permite executar uma solicitação de previsão assíncrona. Solicite previsões em lote diretamente do recurso model. Não é necessário implantar o modelo em um endpoint. Para tipos de dados compatíveis com previsões em lote e on-line, use previsões em lote. Isso é útil quando você não precisa de uma resposta imediata e quer processar os dados acumulados usando uma única solicitação.

Para fazer uma previsão em lote, especifique uma origem de entrada e um local de saída para a Vertex AI armazenar resultados de previsões. As entradas e saídas dependem do tipo de model com que você está trabalhando. Por exemplo, as previsões em lote para o tipo de modelo de imagem do AutoML exigem um arquivo de linhas JSON de entrada e o nome de um bucket do Cloud Storage para armazenamento da saída. Para mais informações sobre previsão em lote, consulte Receber previsões em lote.

Use o componente ModelBatchPredictOp para acessar essa funcionalidade pelo Vertex AI Pipelines.

Referência da API

Tutoriais

Histórico de versões e notas da versão

Para saber mais sobre o histórico de versões e as mudanças no SDK de componentes de pipeline Google Cloud , consulte as Notas de lançamento do SDK de componentes de pipelineGoogle Cloud .

Contatos do suporte técnico

Se você tiver alguma dúvida, entre em contato com kubeflow-pipelines-components@google.com.