Gere incorporações de texto usando um modelo aberto e a função ML.GENERATE_EMBEDDING
Este tutorial mostra como criar um
modelo remoto
com base no
modelo de incorporação de texto de código aberto Qwen3-Embedding-0.6B
e, em seguida, como usar esse modelo com a
função ML.GENERATE_EMBEDDING
para incorporar críticas de filmes da tabela pública bigquery-public-data.imdb.reviews
.
Autorizações necessárias
Para executar este tutorial, precisa das seguintes funções de gestão de identidade e de acesso (IAM):
- Criar e usar conjuntos de dados, ligações e modelos do BigQuery:
Administrador do BigQuery (
roles/bigquery.admin
). - Conceda autorizações à conta de serviço da associação: administrador de IAM do projeto (
roles/resourcemanager.projectIamAdmin
). - Implemente e desimplante modelos na Vertex AI: administrador da Vertex AI
(
roles/aiplatform.admin
).
Estas funções predefinidas contêm as autorizações necessárias para realizar as tarefas descritas neste documento. Para ver as autorizações exatas necessárias, expanda a secção Autorizações necessárias:
Autorizações necessárias
- Crie um conjunto de dados:
bigquery.datasets.create
- Crie, delegue e use uma associação:
bigquery.connections.*
- Defina a ligação predefinida:
bigquery.config.*
- Defina as autorizações da conta de serviço:
resourcemanager.projects.getIamPolicy
eresourcemanager.projects.setIamPolicy
- Implemente e anule a implementação de um modelo do Vertex AI:
aiplatform.endpoints.deploy
aiplatform.endpoints.undeploy
- Crie um modelo e execute a inferência:
bigquery.jobs.create
bigquery.models.create
bigquery.models.getData
bigquery.models.updateData
bigquery.models.updateMetadata
Também pode conseguir estas autorizações com funções personalizadas ou outras funções predefinidas.
Custos
Neste documento, usa os seguintes componentes faturáveis do Google Cloud:
- BigQuery ML: You incur costs for the data that you process in BigQuery.
- Vertex AI: You incur costs for calls to the Vertex AI model that's represented by the remote model.
Para gerar uma estimativa de custos com base na sua utilização projetada,
use a calculadora de preços.
Para mais informações acerca dos preços do BigQuery, consulte os preços do BigQuery na documentação do BigQuery.
Os modelos abertos que implementar no Vertex AI são cobrados por hora de máquina. Isto significa que a faturação começa assim que o ponto final estiver totalmente configurado e continua até o anular. Para mais informações sobre os preços do Vertex AI, consulte a página de preços do Vertex AI.
Antes de começar
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator
), which contains theresourcemanager.projects.create
permission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the BigQuery, BigQuery Connection, and Vertex AI APIs.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin
), which contains theserviceusage.services.enable
permission. Learn how to grant roles.
Implemente um modelo Qwen3-Embedding-0.6B no Vertex AI
Implemente o modelo do Hugging Face no Vertex AI seguindo as instruções em Implemente modelos do Hugging Face.Qwen/Qwen3-Embedding-0.6B
Durante a implementação, tem de selecionar Público (ponto final partilhado) como o valor
para o campo Acesso ao ponto final no fluxo de trabalho de implementação.
Crie um conjunto de dados
Crie um conjunto de dados do BigQuery para armazenar o seu modelo de ML.
Consola
Na Google Cloud consola, aceda à página BigQuery.
No painel Explorador, clique no nome do projeto.
Clique em
Ver ações > Criar conjunto de dadosNa página Criar conjunto de dados, faça o seguinte:
Para o ID do conjunto de dados, introduza
bqml_tutorial
.Em Tipo de localização, selecione Várias regiões e, de seguida, selecione EUA (várias regiões nos Estados Unidos).
Deixe as restantes predefinições como estão e clique em Criar conjunto de dados.
bq
Para criar um novo conjunto de dados, use o comando
bq mk
com a flag --location
. Para uma lista completa de parâmetros possíveis, consulte a referência do comando bq mk --dataset
.
Crie um conjunto de dados com o nome
bqml_tutorial
com a localização dos dados definida comoUS
e uma descrição deBigQuery ML tutorial dataset
:bq --location=US mk -d \ --description "BigQuery ML tutorial dataset." \ bqml_tutorial
Em vez de usar a flag
--dataset
, o comando usa o atalho-d
. Se omitir-d
e--dataset
, o comando cria um conjunto de dados por predefinição.Confirme que o conjunto de dados foi criado:
bq ls
API
Chame o método datasets.insert
com um recurso de conjunto de dados definido.
{ "datasetReference": { "datasetId": "bqml_tutorial" } }
DataFrames do BigQuery
Antes de experimentar este exemplo, siga as instruções de configuração dos DataFrames do BigQuery no início rápido do BigQuery com os DataFrames do BigQuery. Para mais informações, consulte a documentação de referência do BigQuery DataFrames.
Para se autenticar no BigQuery, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure o ADC para um ambiente de desenvolvimento local.
Crie o modelo remoto
Crie um modelo remoto que represente um modelo do Vertex AI alojado:
Na Google Cloud consola, aceda à página BigQuery.
No editor de consultas, execute a seguinte declaração:
CREATE OR REPLACE MODEL `bqml_tutorial.qwen3_embedding_model` REMOTE WITH CONNECTION DEFAULT OPTIONS (ENDPOINT = 'https://ENDPOINT_REGION-aiplatform.googleapis.com/v1/projects/ENDPOINT_PROJECT_ID/locations/ENDPOINT_REGION/endpoints/ENDPOINT_ID');
Substitua o seguinte:
ENDPOINT_REGION
: a região na qual o modelo aberto é implementado.ENDPOINT_PROJECT_ID
: o projeto no qual o modelo aberto está implementado.ENDPOINT_ID
: o ID do ponto final HTTPS usado pelo modelo aberto. Pode obter o ID do ponto final localizando o modelo aberto na página Previsão online e copiando o valor no campo ID.
O exemplo seguinte mostra o formato de um ponto final HTTP válido:
https://us-central1-aiplatform.googleapis.com/v1/projects/myproject/locations/us-central1/endpoints/1234
.
A consulta demora vários segundos a ser concluída. Depois, o qwen3_embedding_model
modelo aparece no conjunto de dados bqml_tutorial
no painel Explorador.
Uma vez que a consulta usa uma declaração CREATE MODEL
para criar um modelo, não existem resultados da consulta.
Realize a incorporação de texto
Realize a incorporação de texto em críticas cinematográficas do IMDB usando o modelo remoto e a função ML.GENERATE_EMBEDDING
:
Na Google Cloud consola, aceda à página BigQuery.
No editor de consultas, introduza a seguinte declaração para realizar a incorporação de texto em cinco críticas de filmes:
SELECT * FROM ML.GENERATE_EMBEDDING( MODEL `bqml_tutorial.qwen3_embedding_model`, ( SELECT review AS content, * FROM `bigquery-public-data.imdb.reviews` LIMIT 5 ) );
Os resultados incluem as seguintes colunas:
ml_generate_embedding_result
: uma matriz de números de vírgula flutuante de precisão dupla para representar as incorporações geradas.ml_generate_embedding_status
: o estado da resposta da API para a linha correspondente. Se a operação tiver sido bem-sucedida, este valor está vazio.content
: o texto de entrada a partir do qual extrair incorporações.- Todas as colunas da tabela
bigquery-public-data.imdb.reviews
.
Anule a implementação do modelo
Se optar por não eliminar o projeto conforme recomendado, certifique-se de que anula a implementação do modelo de incorporação Qwen3 no Vertex AI para evitar a faturação contínua do mesmo.
Limpar
- In the Google Cloud console, go to the Manage resources page.
- In the project list, select the project that you want to delete, and then click Delete.
- In the dialog, type the project ID, and then click Shut down to delete the project.
O que se segue?
- Saiba como usar incorporações de texto para pesquisa semântica e geração aumentada de recuperação (RAG).