Vista geral da inferência do modelo

Este documento descreve os tipos de inferência em lote suportados pelo BigQuery ML, que incluem:

A inferência da aprendizagem automática é o processo de introduzir pontos de dados num modelo de aprendizagem automática para calcular um resultado, como uma única pontuação numérica. Este processo também é conhecido como "operacionalizar um modelo de aprendizagem automática" ou "colocar um modelo de aprendizagem automática em produção".

Previsão em lote

As secções seguintes descrevem as formas disponíveis de realizar a previsão no BigQuery ML.

Inferência com modelos preparados do BigQuery ML

A previsão no BigQuery ML é usada não só para modelos de aprendizagem supervisionada, mas também para modelos de aprendizagem não supervisionada.

O BigQuery ML suporta funcionalidades de previsão através da função ML.PREDICT com os seguintes modelos:

Categoria do modelo Tipos de modelos O que o ML.PREDICT faz
Aprendizagem supervisionada Regressão linear e logística

Árvores melhoradas

Floresta aleatória

Redes neurais profundas

Wide-and-Deep

AutoML Tables
Prever a etiqueta, que pode ser um valor numérico para tarefas de regressão ou um valor de categoria para tarefas de classificação.
Aprendizagem não supervisionada K-means Atribua o cluster à entidade.
PCA Aplique a redução da dimensionalidade à entidade transformando-a no espaço abrangido pelos vetores próprios.
Autoencoder Transformar a entidade no espaço incorporado.

Inferência com modelos importados

Com esta abordagem, cria e prepara um modelo fora do BigQuery, importa-o através da declaração CREATE MODEL e, em seguida, executa a inferência no mesmo através da função ML.PREDICT. Todo o processamento de inferências ocorre no BigQuery, usando dados do BigQuery. Os modelos importados podem realizar aprendizagem supervisionada ou não supervisionada.

O BigQuery ML suporta os seguintes tipos de modelos importados:

Use esta abordagem para tirar partido de modelos personalizados desenvolvidos com uma variedade de frameworks de ML, enquanto tira partido da velocidade de inferência e da colocação conjunta com os dados do BigQuery ML.

Para saber mais, experimente um dos seguintes tutoriais:

Inferência com modelos remotos

Com esta abordagem, pode criar uma referência a um modelo alojado na Vertex AI Inference usando a declaração CREATE MODEL e, em seguida, executar a inferência no mesmo usando a função ML.PREDICT. Todo o processamento de inferências ocorre no Vertex AI, usando dados do BigQuery. Os modelos remotos podem realizar aprendizagem supervisionada ou não supervisionada.

Use esta abordagem para executar a inferência em modelos grandes que requerem o suporte de hardware de GPU fornecido pela Vertex AI. Se a maioria dos seus modelos estiver alojada no Vertex AI, isto também lhe permite executar a inferência em relação a estes modelos através do SQL, sem ter de criar manualmente pipelines de dados para transferir dados para o Vertex AI e trazer os resultados da previsão de volta para o BigQuery.

Para instruções passo a passo, consulte o artigo Faça previsões com modelos remotos no Vertex AI.

Inferência em lote com modelos do BigQuery no Vertex AI

O BigQuery ML tem suporte integrado para a previsão em lote, sem a necessidade de usar o Vertex AI. Também é possível registar um modelo do BigQuery ML no Registo de modelos para fazer a previsão em lote no Vertex AI usando uma tabela do BigQuery como entrada. No entanto, isto só pode ser feito através da API Vertex AI e definindo InstanceConfig.instanceType como object.

Previsão online

A capacidade de inferência integrada do BigQuery ML está otimizada para exemplos de utilização em grande escala, como a previsão em lote. Embora o BigQuery ML forneça resultados de inferência de baixa latência ao processar pequenos dados de entrada, pode alcançar uma previsão online mais rápida através da integração perfeita com o Vertex AI.

Pode gerir modelos do BigQuery ML no ambiente do Vertex AI, o que elimina a necessidade de exportar modelos do BigQuery ML antes de os implementar como pontos finais do Vertex AI. Ao gerir modelos na Vertex AI, tem acesso a todas as capacidades de MLOps da Vertex AI e também a funcionalidades como o Vertex AI Feature Store.

Além disso, tem a flexibilidade de exportar modelos do BigQuery ML para o Cloud Storage para disponibilidade noutras plataformas de alojamento de modelos.

O que se segue?