Vista geral da inferência do modelo
Este documento descreve os tipos de inferência em lote suportados pelo BigQuery ML, que incluem:
A inferência da aprendizagem automática é o processo de introduzir pontos de dados num modelo de aprendizagem automática para calcular um resultado, como uma única pontuação numérica. Este processo também é conhecido como "operacionalizar um modelo de aprendizagem automática" ou "colocar um modelo de aprendizagem automática em produção".
Previsão em lote
As secções seguintes descrevem as formas disponíveis de realizar a previsão no BigQuery ML.
Inferência com modelos preparados do BigQuery ML
A previsão no BigQuery ML é usada não só para modelos de aprendizagem supervisionada, mas também para modelos de aprendizagem não supervisionada.
O BigQuery ML suporta funcionalidades de previsão através da função ML.PREDICT com os seguintes modelos:
| Categoria do modelo | Tipos de modelos | O que o ML.PREDICT faz | 
  
|---|---|---|
| Aprendizagem supervisionada | 
    Regressão linear e logística Árvores melhoradas Floresta aleatória Redes neurais profundas Wide-and-Deep AutoML Tables  | 
    Prever a etiqueta, que pode ser um valor numérico para tarefas de regressão ou um valor de categoria para tarefas de classificação. | 
| Aprendizagem não supervisionada | K-means | Atribua o cluster à entidade. | 
| PCA | Aplique a redução da dimensionalidade à entidade transformando-a no espaço abrangido pelos vetores próprios. | |
| Autoencoder | Transformar a entidade no espaço incorporado. | 
Inferência com modelos importados
Com esta abordagem, cria e prepara um modelo fora do
BigQuery, importa-o através da
declaração CREATE MODEL
e, em seguida, executa a inferência no mesmo através da
função ML.PREDICT.
Todo o processamento de inferências ocorre no BigQuery, usando dados do
BigQuery. Os modelos importados podem realizar aprendizagem supervisionada ou não supervisionada.
O BigQuery ML suporta os seguintes tipos de modelos importados:
- Open Neural Network Exchange (ONNX) para modelos preparados no PyTorch, scikit-learn e outras frameworks de ML populares.
 - TensorFlow
 - TensorFlow Lite
 - XGBoost
 
Use esta abordagem para tirar partido de modelos personalizados desenvolvidos com uma variedade de frameworks de ML, enquanto tira partido da velocidade de inferência e da colocação conjunta com os dados do BigQuery ML.
Para saber mais, experimente um dos seguintes tutoriais:
- Faça previsões com modelos do TensorFlow importados
 - Faça previsões com modelos scikit-learn no formato ONNX
 - Faça previsões com modelos PyTorch no formato ONNX
 
Inferência com modelos remotos
Com esta abordagem, pode criar uma referência a um modelo alojado na Vertex AI Inference usando a declaração CREATE MODEL e, em seguida, executar a inferência no mesmo usando a função ML.PREDICT.
Todo o processamento de inferências ocorre no Vertex AI, usando dados do
BigQuery. Os modelos remotos podem realizar aprendizagem supervisionada ou não supervisionada.
Use esta abordagem para executar a inferência em modelos grandes que requerem o suporte de hardware de GPU fornecido pela Vertex AI. Se a maioria dos seus modelos estiver alojada no Vertex AI, isto também lhe permite executar a inferência em relação a estes modelos através do SQL, sem ter de criar manualmente pipelines de dados para transferir dados para o Vertex AI e trazer os resultados da previsão de volta para o BigQuery.
Para instruções passo a passo, consulte o artigo Faça previsões com modelos remotos no Vertex AI.
Inferência em lote com modelos do BigQuery no Vertex AI
O BigQuery ML tem suporte integrado para a previsão em lote, sem a
necessidade de usar o Vertex AI. Também é possível registar um modelo do BigQuery ML no Registo de modelos para fazer a previsão em lote no Vertex AI usando uma tabela do BigQuery como entrada. No entanto, isto só pode ser feito através da API Vertex AI e definindo
InstanceConfig.instanceType
como object.
Previsão online
A capacidade de inferência integrada do BigQuery ML está otimizada para exemplos de utilização em grande escala, como a previsão em lote. Embora o BigQuery ML forneça resultados de inferência de baixa latência ao processar pequenos dados de entrada, pode alcançar uma previsão online mais rápida através da integração perfeita com o Vertex AI.
Pode gerir modelos do BigQuery ML no ambiente do Vertex AI, o que elimina a necessidade de exportar modelos do BigQuery ML antes de os implementar como pontos finais do Vertex AI. Ao gerir modelos na Vertex AI, tem acesso a todas as capacidades de MLOps da Vertex AI e também a funcionalidades como o Vertex AI Feature Store.
Além disso, tem a flexibilidade de exportar modelos do BigQuery ML para o Cloud Storage para disponibilidade noutras plataformas de alojamento de modelos.
O que se segue?
- Para mais informações sobre a utilização de modelos da Vertex AI para gerar texto e incorporações, consulte o artigo Vista geral da IA generativa.
 - Para mais informações sobre a utilização das APIs de IA da nuvem para realizar tarefas de IA, consulte a vista geral da aplicação de IA.
 Para mais informações sobre as funções e as declarações SQL suportadas para diferentes tipos de modelos, consulte os seguintes documentos: