Visão geral da IA generativa

Neste documento, descrevemos os recursos de inteligência artificial (IA) generativa compatíveis com o BigQuery ML. Esses recursos permitem executar tarefas de IA no BigQuery ML usando modelos de fundação pré-treinados da Vertex AI. Veja a seguir algumas das tarefas disponíveis:

Acesse um modelo da Vertex AI para executar uma dessas funções criando um modelo remoto no BigQuery ML que representa o endpoint do modelo da Vertex AI. Depois de criar um modelo remoto no modelo da Vertex AI que você quer usar, acesse os recursos desse modelo executando uma função do BigQuery ML no modelo remoto.

Com essa abordagem, é possível usar os recursos desses modelos da Vertex AI para analisar dados do BigQuery usando SQL.

Fluxo de trabalho

É possível usar modelos remotos em vez de modelos da Vertex AI e modelos remotos em vez de serviços do Cloud AI com as funções de ML do BigQuery para realizar tarefas complexas de análise de dados e IA generativa.

O diagrama a seguir mostra alguns fluxos de trabalho típicos em que é possível usar esses recursos juntos:

Diagrama mostrando fluxos de trabalho comuns para modelos remotos que usam modelos da Vertex AI ou serviços do Cloud AI.

IA generativa

É possível usar modelos de linguagem grandes (LLMs) para realizar tarefas como resumo e geração de textos ou análise de conteúdo visual. Por exemplo, é possível resumir um relatório longo ou gerar um texto que descreva o conteúdo visual. Também é possível usar modelos de linguagem visual (VLMs) para analisar conteúdo visual, como imagens e vídeos, para tarefas como legendagem visual e perguntas e respostas visuais.

Para executar tarefas generativas de análise visual ou linguagem natural, crie uma referência a um modelo de fundação pré-treinado da Vertex AI criando um modelo remoto e especificando o nome dele para o valor ENDPOINT. Os seguintes modelos da Vertex AI têm suporte:

  • gemini-pro
  • gemini-pro-vision (Pré-lançamento)
  • text-bison
  • text-bison-32k
  • text-unicorn

Quando você cria um modelo remoto que se refere a qualquer versão de um modelo da Vertex AI text-bison modelo, é possível configurar ajuste supervisionado (Prévia) ao mesmo tempo.

Depois de criar o modelo, use a função ML.GENERATE_TEXT para interagir com ele. Para modelos remotos baseados em modelos de texto, a função ML.GENERATE_TEXT funciona com texto em tabelas padrão. Para modelos remotos baseados em modelos multimodais, a função ML.GENERATE_TEXT trabalha com conteúdo visual em tabelas de objetos. Toda inferência ocorre na Vertex AI. Os resultados são armazenados no BigQuery.

Para saber mais, tente gerar texto com a função ML.GENERATE_TEXT.

Incorporação

O embedding pode ser usado para identificar itens semanticamente semelhantes. Por exemplo, é possível usar o embedding de texto para identificar como dois textos são semelhantes. Se dois textos forem semanticamente parecidos, os respectivos embeddings serão localizados próximos um do outro no espaço vetorial de embedding.

É possível usar modelos do BigQuery ML para criar os seguintes tipos de embeddings:

Depois de criar o modelo, use a função ML.GENERATE_EMBEDDING para interagir com ele. Para todos os tipos de modelos com suporte, ML.GENERATE_EMBEDDING trabalha com dados em tabelas padrão. Para modelos de incorporação multimodais, ML.GENERATE_EMBEDDING também funciona com conteúdo visual em tabelas de objetos. Para modelos remotos, toda a inferência ocorre na Vertex AI. Para outros tipos de modelo, toda a inferência ocorre no BigQuery. Os resultados são armazenados no BigQuery.

Para saber mais, tente criar embeddings de texto e de imagem com a função ML.GENERATE_EMBEDDING.

Para uma incorporação de texto menor e leve, tente usar um modelo do TensorFlow pré-treinado, como NNLM, SWIVEL ou BERT.

Para informações sobre como escolher o melhor modelo para seu caso de uso de embedding, consulte Como escolher um modelo de embedding de texto.

A seguir