Componente de previsão em lote

O recurso BatchPredictionJob permite executar uma solicitação de previsão assíncrona. Solicite previsões em lote diretamente do recurso model. Não é necessário implantar o modelo em um endpoint. Para tipos de dados compatíveis com previsões em lote e on-line, use previsões em lote. Isso é útil quando você não precisa de uma resposta imediata e quer processar os dados acumulados usando uma única solicitação.

Para fazer uma previsão em lote, especifique uma origem de entrada e um local de saída para a Vertex AI armazenar resultados de previsões. As entradas e saídas dependem do tipo de model com que você está trabalhando. Por exemplo, as previsões em lote para o tipo de modelo de imagem do AutoML exigem um arquivo de linhas JSON de entrada e o nome de um bucket do Cloud Storage para armazenar a saída. Para mais informações sobre previsão em lote, consulte Receber previsões em lote.

Use o componente ModelBatchPredictOp para acessar essa funcionalidade pelo Vertex AI Pipelines.

Referência da API

Tutoriais

Histórico de versões e notas da versão

Para saber mais sobre o histórico de versões e as mudanças no SDK dos componentes do Google Cloud Pipeline, consulte as Notas de lançamento do SDK dos componentes do Google Cloud Pipeline.

Contatos do suporte técnico

Se você tiver alguma dúvida, entre em contato com kubeflow-pipelines-components@google.com.