O Cloud SQL permite-lhe obter previsões online no seu código SQL chamando a função ml_predict_row()
. Para mais informações, consulte o artigo Crie aplicações de IA generativa com o Cloud SQL.
Antes de começar
Antes de poder invocar previsões online a partir de uma instância do Cloud SQL, tem de preparar a base de dados e selecionar um modelo de ML adequado.
Prepare a sua base de dados
Para preparar a sua base de dados, configure a integração entre o Cloud SQL e a Vertex AI.
Conceda autorizações aos utilizadores da base de dados para usar a função
ml_predict_row()
para executar previsões:Associe um cliente
psql
à instância principal, conforme descrito em Estabeleça ligação através de um cliente psql.Na linha de comandos
psql
, estabeleça ligação à base de dados e conceda autorizações:\c DB_NAME GRANT EXECUTE ON FUNCTION ml_predict_row TO USER_NAME;
Substitua o seguinte:
DB_NAME: o nome da base de dados para a qual está a conceder autorizações
USER_NAME: o nome do utilizador ao qual está a conceder autorizações
Selecione um modelo de ML
Quando chama a função ml_predict_row()
,
tem de especificar a localização de um modelo de ML. O modelo que especificar
pode ser um dos seguintes:
Um modelo que está a ser executado no Vertex AI Model Garden.
A função
ml_predict_row()
suporta a invocação de previsões apenas em modelos tabulares ou personalizados.Um modelo do Vertex AI com um ponto final ativo ao qual tem autorização da gestão de identidade e de acesso (IAM) para aceder.
O Cloud SQL não suporta pontos finais privados para receber previsões online.
Invocar previsões online
Pode usar a função SQL ml_predict_row()
para invocar previsões online com base nos seus dados.
O formato do argumento inicial da função depende de o modelo de ML que quer usar estar no Vertex AI Model Garden ou ser um ponto final em execução num Google Cloud projeto.
Use um modelo no Vertex AI Model Garden
Para invocar uma previsão online através de um modelo de ML que esteja a ser executado no
Vertex AI Model Garden, use a seguinte sintaxe para a função SQL ml_predict_row()
:
sql
SELECT ML_PREDICT_ROW('publishers/google/models/MODEL_ID', '{ "instances": [ INSTANCES ], "parameters":
PARAMETERS }');
Faça as seguintes substituições:
MODEL_ID: o ID do modelo de ML a usar (por exemplo,
gemini-2.0
)INSTANCES: as entradas para a chamada de previsão, no formato JSON
PARAMETERS: os parâmetros da chamada de previsão, no formato JSON
SELECT ML_PREDICT_ROW('publishers/google/models/MODEL_ID', '{ "instances": [ INSTANCES ], "parameters":
PARAMETERS }');
Use um ponto final do modelo do Vertex AI
Para invocar uma previsão online através de um ponto final do modelo do Vertex AI, use a seguinte sintaxe para a função SQL ml_predict_row()
:
sql
SELECT ML_PREDICT_ROW('endpoints/ENDPOINT_ID', '{ "instances": [ INSTANCES ], "parameters":
PARAMETERS }');
Faça as seguintes substituições:
ENDPOINT_ID: o ID do ponto final do modelo
INSTANCES: as entradas para a chamada de previsão, no formato JSON
PARAMETERS: os parâmetros da chamada de previsão, no formato JSON
Para obter informações sobre as mensagens de resposta JSON do modelo, consulte o artigo PredictResponse.
Exemplos de invocações
O exemplo seguinte usa o
PaLM 2 para texto, disponível
no Model Garden, para gerar texto com base num comando curto que é
fornecido como um argumento literal para ml_predict_row()
:
select ML_PREDICT_ROW('projects/PROJECT_ID/locations/us-central1/publishers/google/models/text-bison', '{"instances":[{"prompt": "What are three advantages of using Cloud SQL as my SQL database server?"}], "parameters":{"maxOutputTokens":1024, "topK": 40, "topP":0.8, "temperature":0.2}}');
A resposta é um objeto JSON. Para mais informações sobre o formato do objeto, consulte o artigo Corpo da resposta.
O exemplo seguinte modifica o anterior das seguintes formas:
O exemplo usa o conteúdo da coluna
messages.message
da base de dados atual como entrada.O exemplo demonstra a utilização da função
json_build_object()
como ajuda para formatar os parâmetros da função.
select ML_PREDICT_ROW('projects/PROJECT_ID/locations/us-central1/publishers/google/models/text-bison', json_build_object('instances', json_build_object('prompt', message), 'parameters', json_build_object('maxOutputTokens', 1024,'topK', 40,'topP', 0.8,'temperature', 0.2))) from messages;
Para cada linha na tabela messages
, o objeto JSON devolvido contém agora uma entrada na respetiva matriz predictions
.
Uma vez que a resposta é um objeto JSON, pode extrair campos específicos do mesmo:
Para ver mais exemplos de argumentos para ml_predict_row()
, consulte o artigo
Experimente a API Gemini do Vertex AI.