Como gerar embeddings de texto usando a função ML.GENERATE_CoordinateDING
Neste tutorial, mostramos como criar um
modelo remoto
do BigQuery ML
que faz referência ao modelo de fundação de incorporação da Vertex AI.
Em seguida, use esse modelo com a função ML.GENERATE_EMBEDDING
para criar embeddings de texto usando dados de uma tabela padrão do BigQuery.
Funções exigidas
Para criar uma conexão, você precisa da associação no seguinte papel do Identity and Access Management (IAM):
roles/bigquery.connectionAdmin
Para conceder permissões à conta de serviço da conexão, você precisa da seguinte permissão:
resourcemanager.projects.setIamPolicy
Para criar o modelo usando o BigQuery ML, você precisa das seguintes permissões do IAM:
bigquery.jobs.create
bigquery.models.create
bigquery.models.getData
bigquery.models.updateData
bigquery.models.updateMetadata
Para executar a inferência, você precisa das seguintes permissões:
bigquery.tables.getData
na tabelabigquery.models.getData
no modelobigquery.jobs.create
Antes de começar
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the BigQuery, BigQuery Connection, and Vertex AI APIs.
crie um conjunto de dados
Crie um conjunto de dados do BigQuery para armazenar o modelo de ML:
No console do Google Cloud, acesse a página do BigQuery.
No painel Explorer, clique no nome do seu projeto.
Clique em
Conferir ações > Criar conjunto de dados.Na página Criar conjunto de dados, faça o seguinte:
Para o código do conjunto de dados, insira
bqml_tutorial
.Em Tipo de local, selecione Multirregião e EUA (várias regiões nos Estados Unidos).
Os conjuntos de dados públicos são armazenados na multirregião
US
. Para simplificar, armazene seus conjuntos de dados no mesmo local.Mantenha as configurações padrão restantes e clique em Criar conjunto de dados.
Criar uma conexão
Crie uma Conexão de recursos do Cloud e tenha acesso à conta de serviço da conexão. Crie a conexão no mesmo local do conjunto de dados criado na etapa anterior.
Selecione uma das seguintes opções:
Console
Acessar a página do BigQuery.
Para criar uma conexão, clique em
Adicionar e em Conexões com fontes de dados externas.Na lista Tipo de conexão, selecione Modelos remotos da Vertex AI, funções remotas e BigLake (Cloud Resource).
No campo ID da conexão, insira um nome para a conexão.
Clique em Criar conexão.
Clique em Ir para conexão.
No painel Informações da conexão, copie o ID da conta de serviço para uso em uma etapa posterior.
bq
Em um ambiente de linha de comando, crie uma conexão:
bq mk --connection --location=REGION --project_id=PROJECT_ID \ --connection_type=CLOUD_RESOURCE CONNECTION_ID
O parâmetro
--project_id
substitui o projeto padrão.Substitua:
REGION
: sua região de conexãoPROJECT_ID
: o ID do projeto do Google CloudCONNECTION_ID
: um ID para sua conexão
Quando você cria um recurso de conexão, o BigQuery cria uma conta de serviço do sistema exclusiva e a associa à conexão.
Solução de problemas: se você receber o seguinte erro de conexão, atualize o SDK Google Cloud:
Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
Recupere e copie o ID da conta de serviço para uso em uma etapa posterior:
bq show --connection PROJECT_ID.REGION.CONNECTION_ID
O resultado será assim:
name properties 1234.REGION.CONNECTION_ID {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
Terraform
Anexe a seguinte seção ao seu arquivo main.tf
.
## This creates a cloud resource connection. ## Note: The cloud resource nested object has only one output only field - serviceAccountId. resource "google_bigquery_connection" "connection" { connection_id = "CONNECTION_ID" project = "PROJECT_ID" location = "REGION" cloud_resource {} }Substitua:
CONNECTION_ID
: um ID para sua conexãoPROJECT_ID
: o ID do projeto do Google CloudREGION
: sua região de conexão
Conceder acesso à conta de serviço
Conceda à sua conta de serviço a permissão para usar a conexão. Deixar de conceder a permissão resulta em erro. Selecione uma das seguintes opções:
Console
Acesse a página IAM e administrador.
Clique em
CONCEDER ACESSO.A caixa de diálogo Adicionar principais é aberta.
No campo Novos principais, digite o ID da conta de serviço que você copiou anteriormente.
No campo Selecionar um papel, selecione Vertex AI e, em seguida, selecione Usuário da Vertex AI.
Clique em Salvar.
gcloud
Use o comando gcloud projects add-iam-policy-binding
(em inglês).
gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/aiplatform.user' --condition=None
Substitua:
PROJECT_NUMBER
: o ID do seu projetoMEMBER
: o ID da conta de serviço que você copiou anteriormente
Criar um modelo
No Console do Google Cloud, acesse a página BigQuery.
Usando o editor de SQL, crie um modelo remoto:
CREATE OR REPLACE MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME` REMOTE WITH CONNECTION `CONNECTION_ID` OPTIONS (ENDPOINT = 'ENDPOINT');
Substitua:
PROJECT_ID
: ID do projetoDATASET_ID
: o ID do conjunto de dados para conter o modeloMODEL_NAME
: o nome do modeloCONNECTION_ID
: o ID da conexão do BigQueryQuando você visualiza os detalhes da conexão no console do Google Cloud, esse é o valor na última seção do ID da conexão totalmente qualificado, mostrado em ID da conexão, por exemplo
projects/myproject/locations/connection_location/connections/myconnection
ENDPOINT
: o modelo embedding para usar.
Gerar embeddings de texto usando dados de uma tabela
Gere embeddings de texto com a função ML.GENERATE_EMBEDDING
usando dados de texto de uma coluna da tabela.
Normalmente, você quer usar um modelo text-embedding
ou text-multilingual-embedding
para casos de uso somente de texto e um modelo multimodalembedding
para casos de uso de pesquisa multimodal, em que os embeddings para conteúdo de texto e visual são gerados no mesmo espaço semântico.
embedding de texto
Gere embeddings de texto usando um modelo remoto em um modelo de embedding:
SELECT * FROM ML.GENERATE_EMBEDDING( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(FLATTEN_JSON AS flatten_json_output, TASK_TYPE AS task_type, OUTPUT_DIMENSIONALITY AS output_dimensionality) );
Substitua:
PROJECT_ID
: o ID do projeto.DATASET_ID
: o ID do conjunto de dados que contém o modelo.MODEL_NAME
: o nome do modelo remoto sobre um modelo de embedding.TABLE_NAME
: o nome da tabela que contém o texto a ser incorporado. Essa tabela precisa ter uma tabela chamadacontent
ou é possível utilizar um alias para usar uma coluna com um nome diferente.FLATTEN_JSON
: um valorBOOL
que indica se é necessário analisar a incorporação em uma coluna separada. O valor padrão éTRUE
.TASK_TYPE
: um literalSTRING
que especifica o aplicativo downstream pretendido para ajudar o modelo a produzir embeddings de melhor qualidade.TASK_TYPE
aceita os seguintes valores:RETRIEVAL_QUERY
: especifica que o texto é uma consulta em uma configuração de pesquisa ou recuperação.RETRIEVAL_DOCUMENT
: especifica que o texto é um documento em uma configuração de pesquisa ou recuperação.Ao usar esse tipo de tarefa, vale a pena incluir o título do documento na declaração de consulta para melhorar a qualidade da incorporação. Você pode usar a opção
title
para especificar o nome da coluna que contém o título do documento. Caso contrário, o título do documento precisa estar em uma coluna chamadatitle
ou com o alias comotitle
, por exemplo:SELECT * FROM ML.GENERATE_EMBEDDING( MODEL
mydataset.embedding_model
, (SELECT abstract as content, header as title, publication_number FROMmydataset.publications
), STRUCT(TRUE AS flatten_json_output, 'RETRIEVAL_DOCUMENT' as task_type) );SEMANTIC_SIMILARITY
: especifica o texto a ser usado para similaridade textual semântica (STS).CLASSIFICATION
: especifica que os embeddings serão usados para classificação.CLUSTERING
: especifica que os embeddings serão usados para clustering.
OUTPUT_DIMENSIONALITY
: umINT64
valor que especifica o número de dimensões a serem usadas ao gerar os embeddings de vários tipos. Por exemplo, se você especificar256 AS output_dimensionality
, oml_generate_embedding_result
a coluna de saída contém 256 embeddings para cada valor de entrada.Esse argumento só poderá ser usado se o modelo remoto que você especificar no argumento
model
usa um dos seguintes modelos como um endpoint:text-embedding-004
ou posteriortext-multilingual-embedding-002
ou posterior
embedding multimodal
Gere embeddings de texto usando um modelo remoto no
LLM multimodalembedding
:
SELECT * FROM ML.GENERATE_EMBEDDING( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(FLATTEN_JSON AS flatten_json_output) );
Substitua:
PROJECT_ID
: o ID do projeto.DATASET_ID
: o ID do conjunto de dados que contém o modelo.MODEL_NAME
: o nome do modelo remoto em um modelomultimodalembedding@001
.TABLE_NAME
: o nome da tabela que contém o texto a ser incorporado. Essa tabela precisa ter uma tabela chamadacontent
ou é possível utilizar um alias para usar uma coluna com um nome diferente.FLATTEN_JSON
: umBOOL
que indica se é necessário analisar a incorporação em uma coluna separada. O valor padrão éTRUE
.
Gerar embeddings de texto usando dados de uma consulta
Gerar embeddings de texto com a
função ML.GENERATE_EMBEDDING
usando dados de texto fornecidos por uma consulta e um modelo remoto em vez de estar incorporado.
Normalmente, você quer usar um modelo text-embedding
ou text-multilingual-embedding
para casos de uso somente de texto e um modelo multimodalembedding
para casos de uso de pesquisa multimodal, em que os embeddings para conteúdo de texto e visual são gerados no mesmo espaço semântico.
embedding de texto
Gere embeddings de texto usando um modelo remoto em vez de incorporado:
SELECT * FROM ML.GENERATE_EMBEDDING( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (CONTENT_QUERY), STRUCT(FLATTEN_JSON AS flatten_json_output, TASK_TYPE AS task_type, OUTPUT_DIMENSIONALITY AS output_dimensionality) );
Substitua:
PROJECT_ID
: o ID do projeto.DATASET_ID
: o ID do conjunto de dados que contém o modelo.MODEL_NAME
: o nome do modelo remoto sobre um modelo de embedding.CONTENT_QUERY
: uma consulta cujo resultado contém uma colunaSTRING
chamadacontent
.FLATTEN_JSON
: um valorBOOL
que indica se é necessário analisar a incorporação em uma coluna separada. O valor padrão éTRUE
.TASK_TYPE
: um literalSTRING
que especifica o aplicativo downstream pretendido para ajudar o modelo a produzir embeddings de melhor qualidade.TASK_TYPE
aceita os seguintes valores:RETRIEVAL_QUERY
: especifica que o texto é uma consulta em uma configuração de pesquisa ou recuperação.RETRIEVAL_DOCUMENT
: especifica que o texto é um documento em uma configuração de pesquisa ou recuperação.Ao usar esse tipo de tarefa, vale a pena incluir o título do documento na declaração de consulta para melhorar a qualidade da incorporação. Você pode usar a opção
title
para especificar o nome da coluna que contém o título do documento. Caso contrário, o título do documento precisa estar em uma coluna chamadatitle
ou com o alias comotitle
, por exemplo:SELECT * FROM ML.GENERATE_EMBEDDING( MODEL
mydataset.embedding_model
, (SELECT abstract as content, header as title, publication_number FROMmydataset.publications
), STRUCT(TRUE AS flatten_json_output, 'RETRIEVAL_DOCUMENT' as task_type) );SEMANTIC_SIMILARITY
: especifica o texto a ser usado para similaridade textual semântica (STS).CLASSIFICATION
: especifica que os embeddings serão usados para classificação.CLUSTERING
: especifica que os embeddings serão usados para clustering.
OUTPUT_DIMENSIONALITY
: umINT64
que especifica o número de dimensões a serem usadas ao gerar os embeddings de vários tipos. Por exemplo, se você especificar256 AS output_dimensionality
, oml_generate_embedding_result
a coluna de saída contém 256 embeddings para cada valor de entrada.Esse argumento só poderá ser usado se o modelo remoto que você especificar no argumento
model
usa um dos seguintes modelos como um endpoint:text-embedding-004
ou posteriortext-multilingual-embedding-002
ou posterior
embedding multimodal
Gere embeddings de texto usando um modelo remoto no
LLM multimodalembedding
:
SELECT * FROM ML.GENERATE_EMBEDDING( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (CONTENT_QUERY), STRUCT(FLATTEN_JSON AS flatten_json_output) );
Substitua:
PROJECT_ID
: o ID do projeto.DATASET_ID
: o ID do conjunto de dados que contém o modelo.MODEL_NAME
: o nome do modelo remoto em um modelomultimodalembedding@001
.CONTENT_QUERY
: uma consulta cujo resultado contém uma colunaSTRING
chamadacontent
.FLATTEN_JSON
: umBOOL
que indica se é necessário analisar a incorporação em uma coluna separada. O valor padrão éTRUE
.
Exemplos
Os exemplos a seguir mostram como chamar a função ML.GENERATE_EMBEDDING
em uma tabela e uma consulta.
Incorporar texto em uma tabela
O exemplo a seguir mostra uma solicitação para incorporar a coluna content
da tabela text_data
:
SELECT * FROM ML.GENERATE_EMBEDDING( MODEL `mydataset.embedding_model`, TABLE mydataset.text_data, STRUCT(TRUE AS flatten_json_output, 'CLASSIFICATION' AS task_type) );
Usar incorporações para classificar semelhança semântica
O exemplo a seguir incorpora uma coleção de avaliações de filmes e as ordena pela distância do cosseno à avaliação "Este filme foi médio" usando a função ML.DISTANCE
.
Uma distância menor indica mais semelhança semântica.
WITH movie_review_embeddings AS ( SELECT * FROM ML.GENERATE_EMBEDDING( MODEL `bqml_tutorial.embedding_model`, ( SELECT "Movie 1" AS title, "This movie was fantastic" AS content UNION ALL SELECT "Movie 2" AS title, "This was the best movie I've ever seen!!" AS content UNION ALL SELECT "Movie 3" AS title, "This movie was just okay..." AS content UNION ALL SELECT "Movie 4" AS title, "This movie was terrible." AS content ), STRUCT(TRUE AS flatten_json_output) ) ), average_review_embedding AS ( SELECT ml_generate_embedding_result FROM ML.GENERATE_EMBEDDING( MODEL `bqml_tutorial.embedding_model`, (SELECT "This movie was average" AS content), STRUCT(TRUE AS flatten_json_output) ) ) SELECT content, ML.DISTANCE( (SELECT ml_generate_embedding_result FROM average_review_embedding), ml_generate_embedding_result, 'COSINE' ) AS distance_to_average_review FROM movie_review_embeddings ORDER BY distance_to_average_review;
O resultado é o seguinte:
+------------------------------------------+----------------------------+ | content | distance_to_average_review | +------------------------------------------+----------------------------+ | This movie was just okay... | 0.47399255715360622 | | This movie was fantastic | 0.10028859431058901 | | This movie was terrible. | 0.142427236973374 | | This was the best movie I've ever seen!! | 0.46742391210381995 | +------------------------------------------+----------------------------+