Vista geral da inferência do modelo
Este documento descreve os tipos de inferência em lote suportados pelo BigQuery ML, que incluem:
A inferência da aprendizagem automática é o processo de introduzir pontos de dados num modelo de aprendizagem automática para calcular um resultado, como uma única pontuação numérica. Este processo também é conhecido como "operacionalizar um modelo de aprendizagem automática" ou "colocar um modelo de aprendizagem automática em produção".
Previsão em lote
As secções seguintes descrevem as formas disponíveis de realizar a previsão no BigQuery ML.
Inferência com modelos preparados do BigQuery ML
A previsão no BigQuery ML é usada não só para modelos de aprendizagem supervisionada, mas também para modelos de aprendizagem não supervisionada.
O BigQuery ML suporta funcionalidades de previsão através da função ML.PREDICT
com os seguintes modelos:
Categoria do modelo | Tipos de modelos | O que o ML.PREDICT faz |
---|---|---|
Aprendizagem supervisionada |
Regressão linear e logística Árvores melhoradas Floresta aleatória Redes neurais profundas Wide-and-Deep AutoML Tables |
Prever a etiqueta, que pode ser um valor numérico para tarefas de regressão ou um valor de categoria para tarefas de classificação. |
Aprendizagem não supervisionada | K-means | Atribua o cluster à entidade. |
PCA | Aplique a redução da dimensionalidade à entidade transformando-a no espaço abrangido pelos vetores próprios. | |
Autoencoder | Transformar a entidade no espaço incorporado. |
Inferência com modelos importados
Com esta abordagem, cria e prepara um modelo fora do
BigQuery, importa-o através da
declaração CREATE MODEL
e, em seguida, executa a inferência no mesmo através da
função ML.PREDICT
.
Todo o processamento de inferências ocorre no BigQuery, usando dados do
BigQuery. Os modelos importados podem realizar aprendizagem supervisionada ou não supervisionada.
O BigQuery ML suporta os seguintes tipos de modelos importados:
- Open Neural Network Exchange (ONNX) para modelos preparados no PyTorch, scikit-learn e outras frameworks de ML populares.
- TensorFlow
- TensorFlow Lite
- XGBoost
Use esta abordagem para tirar partido de modelos personalizados desenvolvidos com uma variedade de frameworks de ML, enquanto tira partido da velocidade de inferência e da colocação conjunta com os dados do BigQuery ML.
Para saber mais, experimente um dos seguintes tutoriais:
- Faça previsões com modelos do TensorFlow importados
- Faça previsões com modelos scikit-learn no formato ONNX
- Faça previsões com modelos PyTorch no formato ONNX
Inferência com modelos remotos
Com esta abordagem, pode criar uma referência a um modelo alojado na Vertex AI Inference usando a declaração CREATE MODEL
e, em seguida, executar a inferência no mesmo usando a função ML.PREDICT
.
Todo o processamento de inferências ocorre no Vertex AI, usando dados do
BigQuery. Os modelos remotos podem realizar aprendizagem supervisionada ou não supervisionada.
Use esta abordagem para executar a inferência em modelos grandes que requerem o suporte de hardware de GPU fornecido pela Vertex AI. Se a maioria dos seus modelos estiver alojada no Vertex AI, isto também lhe permite executar a inferência em relação a estes modelos através do SQL, sem ter de criar manualmente pipelines de dados para transferir dados para o Vertex AI e trazer os resultados da previsão de volta para o BigQuery.
Para instruções passo a passo, consulte o artigo Faça previsões com modelos remotos no Vertex AI.
Inferência em lote com modelos do BigQuery no Vertex AI
O BigQuery ML tem suporte integrado para a previsão em lote, sem a
necessidade de usar o Vertex AI. Também é possível registar um modelo do BigQuery ML no Registo de modelos para fazer a previsão em lote no Vertex AI usando uma tabela do BigQuery como entrada. No entanto, isto só pode ser feito através da API Vertex AI e definindo
InstanceConfig.instanceType
como object
.
Previsão online
A capacidade de inferência integrada do BigQuery ML está otimizada para exemplos de utilização em grande escala, como a previsão em lote. Embora o BigQuery ML forneça resultados de inferência de baixa latência ao processar pequenos dados de entrada, pode alcançar uma previsão online mais rápida através da integração perfeita com o Vertex AI.
Pode gerir modelos do BigQuery ML no ambiente do Vertex AI, o que elimina a necessidade de exportar modelos do BigQuery ML antes de os implementar como pontos finais do Vertex AI. Ao gerir modelos na Vertex AI, tem acesso a todas as capacidades de MLOps da Vertex AI e também a funcionalidades como o Vertex AI Feature Store.
Além disso, tem a flexibilidade de exportar modelos do BigQuery ML para o Cloud Storage para disponibilidade noutras plataformas de alojamento de modelos.
O que se segue?
- Para mais informações sobre a utilização de modelos da Vertex AI para gerar texto e incorporações, consulte o artigo Vista geral da IA generativa.
- Para mais informações sobre a utilização das APIs de IA da nuvem para realizar tarefas de IA, consulte a vista geral da aplicação de IA.
Para mais informações sobre as funções e as declarações SQL suportadas para diferentes tipos de modelos, consulte os seguintes documentos: