Uma inferência é o resultado de um modelo de aprendizagem automática preparado. Esta página oferece uma vista geral do fluxo de trabalho para obter inferências dos seus modelos no Vertex AI.
O Vertex AI oferece dois métodos para obter inferências:
-
As inferências online são pedidos síncronos feitos a um modelo implementado num
Endpoint
. Por conseguinte, antes de enviar um pedido, tem de implementar primeiro o recursoModel
num ponto final. Isto associa recursos de computação ao modelo para que o modelo possa publicar inferências online com baixa latência. Use inferências online quando estiver a fazer pedidos em resposta à entrada da aplicação ou em situações que exijam inferência atempada. -
As inferências em lote são pedidos assíncronos feitos a um modelo que não está implementado num ponto final. Envia o pedido (como um recurso
BatchPredictionJob
) diretamente para o recursoModel
. Use inferências em lote quando não precisar de uma resposta imediata e quiser processar dados acumulados através de um único pedido.
Obtenha inferências de modelos personalizados preparados
Para receber inferências, tem de importar primeiro o seu modelo. Depois de importado, torna-se um recurso Model
visível no Registo de modelos da Vertex AI.
Em seguida, leia a seguinte documentação para saber como obter inferências:
Obtenha inferências de modelos da AutoML
Ao contrário dos modelos preparados personalizados, os modelos do AutoML são importados automaticamente para o Vertex AI Model Registry após a preparação.
Fora isso, o fluxo de trabalho para os modelos do AutoML é semelhante, mas varia ligeiramente com base no tipo de dados e no objetivo do modelo. A documentação para obter inferências do AutoML encontra-se junto à outra documentação do AutoML. Seguem-se links para a documentação:
Imagem
Saiba como obter inferências dos seguintes tipos de modelos AutoML de imagens:
Tabular
Saiba como obter inferências dos seguintes tipos de modelos AutoML tabulares:
Modelos de classificação e regressão tabulares
Modelos de previsão tabulares (apenas inferências em lote)
Obtenha inferências de modelos do BigQuery ML
Pode obter inferências de modelos do BigQuery ML de duas formas:
- Peça inferências em lote diretamente do modelo no BigQuery ML.
- Registar os modelos diretamente no Model Registry, sem os exportar do BigQuery ML nem os importar para o Model Registry.