Vista geral da obtenção de inferências no Vertex AI

Uma inferência é o resultado de um modelo de aprendizagem automática preparado. Esta página oferece uma vista geral do fluxo de trabalho para obter inferências dos seus modelos no Vertex AI.

O Vertex AI oferece dois métodos para obter inferências:

  • As inferências online são pedidos síncronos feitos a um modelo implementado num Endpoint. Por conseguinte, antes de enviar um pedido, tem de implementar primeiro o recurso Model num ponto final. Isto associa recursos de computação ao modelo para que o modelo possa publicar inferências online com baixa latência. Use inferências online quando estiver a fazer pedidos em resposta à entrada da aplicação ou em situações que exijam inferência atempada.
  • As inferências em lote são pedidos assíncronos feitos a um modelo que não está implementado num ponto final. Envia o pedido (como um recurso BatchPredictionJob) diretamente para o recurso Model. Use inferências em lote quando não precisar de uma resposta imediata e quiser processar dados acumulados através de um único pedido.

Obtenha inferências de modelos personalizados preparados

Para receber inferências, tem de importar primeiro o seu modelo. Depois de importado, torna-se um recurso Model visível no Registo de modelos da Vertex AI.

Em seguida, leia a seguinte documentação para saber como obter inferências:

Obtenha inferências de modelos da AutoML

Ao contrário dos modelos preparados personalizados, os modelos do AutoML são importados automaticamente para o Vertex AI Model Registry após a preparação.

Fora isso, o fluxo de trabalho para os modelos do AutoML é semelhante, mas varia ligeiramente com base no tipo de dados e no objetivo do modelo. A documentação para obter inferências do AutoML encontra-se junto à outra documentação do AutoML. Seguem-se links para a documentação:

Imagem

Saiba como obter inferências dos seguintes tipos de modelos AutoML de imagens:

Tabular

Saiba como obter inferências dos seguintes tipos de modelos AutoML tabulares:

Obtenha inferências de modelos do BigQuery ML

Pode obter inferências de modelos do BigQuery ML de duas formas:

  • Peça inferências em lote diretamente do modelo no BigQuery ML.
  • Registar os modelos diretamente no Model Registry, sem os exportar do BigQuery ML nem os importar para o Model Registry.