Esegui previsioni online dai database AlloyDB

Questa pagina mostra come richiamare le previsioni online da un database AlloyDB per PostgreSQL.

AlloyDB ti consente di ottenere previsioni online nel tuo codice SQL chiamando la funzione ml_predict_row(). Per saperne di più sull'utilizzo dei modelli di machine learning (ML) con AlloyDB, consulta Creare applicazioni di AI generativa.

Prima di iniziare

Prima di poter richiamare le previsioni online da un database AlloyDB, devi preparare il database e selezionare un modello ML appropriato.

Prepara il database

  1. Configura l'integrazione tra il tuo database e Vertex AI.

  2. Concedi agli utenti del database l'autorizzazione per eseguire la funzione ml_predict_row() per eseguire le previsioni:

    1. Connetti un client psql all'istanza principale del cluster, come descritto in Connetti un client psql a un'istanza.

    2. Al prompt dei comandi psql, connettiti al database e concedi le autorizzazioni:

      \c DB_NAME
      
      GRANT EXECUTE ON FUNCTION ml_predict_row TO USER_NAME;
      

      Sostituisci quanto segue:

      • DB_NAME: il nome del database su cui devono essere concesse le autorizzazioni

      • USER_NAME: il nome dell'utente a cui devono essere concesse le autorizzazioni

Seleziona un modello ML

Quando chiami la funzione ml_predict_row(), devi specificare la posizione di un modello ML. Il modello specificato può essere uno dei seguenti:

  • Un modello in esecuzione in Vertex AI Model Garden.

    La funzione ml_predict_row() supporta l'invocazione delle previsioni solo su modelli tabulari o personalizzati.

  • Un modello Vertex AI con un endpoint attivo a cui disponi dell'autorizzazione Identity and Access Management (IAM) per accedere.

    AlloyDB non supporta gli endpoint privati per ottenere le previsioni online.

Richiamare le previsioni online

Utilizza la funzione SQL ml_predict_row() per richiamare le previsioni online in base ai tuoi dati.

Il formato dell'argomento iniziale della funzione dipende dal fatto che il modello di ML che vuoi utilizzare si trovi nel Model Garden di Vertex AI o sia un endpoint in esecuzione in un progetto Google Cloud .

Utilizzare un modello in Model Garden di Vertex AI

Per richiamare una previsione online utilizzando un modello ML in esecuzione in Vertex AI Model Garden, utilizza la seguente sintassi per la funzione SQL ml_predict_row():

SELECT ml_predict_row('projects/PROJECT_ID/locations/REGION_ID/publishers/google/models/MODEL_ID', '{ CONTENTS }');

Sostituisci quanto segue:

  • PROJECT_ID: l'ID del tuo progetto Google Cloud

  • REGION_ID: l'ID della regione Google Cloud in cui si trova il modello, ad esempio us-central1 per gemini-pro

  • MODEL_ID: l'ID del modello ML da utilizzare, ad esempio gemini-pro

  • CONTENTS: gli input alla chiamata di previsione, in formato JSON

Se il modello di ML è archiviato nello stesso progetto e nella stessa regione del cluster AlloyDB, puoi abbreviare il primo argomento di questa funzione:

SELECT ml_predict_row('publishers/google/models/MODEL_ID', '{ CONTENTS }');

Per informazioni sui messaggi di risposta JSON del modello, consulta la documentazione di riferimento del modello di base dell'IA generativa.

Per esempi, consulta Chiamate di esempio.

Utilizzare un endpoint del modello Vertex AI

Per richiamare una previsione online utilizzando un endpoint del modello Vertex AI, utilizza la seguente sintassi per la funzione SQL ml_predict_row():

SELECT ml_predict_row('projects/PROJECT_ID/locations/REGION_ID/endpoints/ENDPOINT_ID', '{ CONTENTS }');

Sostituisci quanto segue:

  • PROJECT_ID: l'ID del progetto Google Cloud in cui si trova il modello

  • REGION_ID: l'ID della regione Google Cloud in cui si trova il modello, ad esempio us-central1

  • ENDPOINT_ID: l'ID dell'endpoint del modello

  • CONTENTS: gli input alla chiamata di previsione, in formato JSON

Se l'endpoint si trova nello stesso progetto e nella stessa regione del cluster AlloyDB, puoi abbreviare il primo argomento di questa funzione:

SELECT ml_predict_row('endpoints/ENDPOINT_ID', '{ CONTENTS }');

Per informazioni sui messaggi di risposta JSON del modello, consulta PredictResponse.

Chiamate di esempio

Il seguente esempio utilizza gemini-pro, disponibile in Model Garden, per generare testo in base a un breve prompt fornito come argomento letterale a ml_predict_row():

select ML_PREDICT_ROW('projects/PROJECT_ID/locations/us-central1/publishers/google/models/gemini-1.0-pro:generateContent', '{
  "contents": [{
    "role": "user",
    "parts": [{
      "text": "What is AlloyDB?"
    }]
  }]
}');

La risposta è un oggetto JSON. Per ulteriori informazioni sul formato dell'oggetto, consulta Corpo della risposta.

L'esempio seguente modifica quello precedente nei seguenti modi:

  • L'esempio utilizza i contenuti della colonna messages.message del database corrente come input.

  • L'esempio mostra l'utilizzo della funzione json_build_object() come aiuto per la formattazione dei parametri della funzione.


select ML_PREDICT_ROW('projects/PROJECT_ID/locations/us-central1/publishers/google/models/gemini-1.0-pro:generateContent', json_build_object('contents', json_build_object('text', message))) from messages;

L'oggetto JSON restituito ora contiene una voce nell'array predictions per ogni riga della tabella messages.

Poiché la risposta è un oggetto JSON, puoi estrarre campi specifici utilizzando l'operatore freccia di PostgreSQL:

select ML_PREDICT_ROW('projects/PROJECT_ID/locations/us-central1/publishers/google/models/gemini-1.0-pro:generateContent', json_build_object('contents', json_build_object('text', message)))->'predictions'->0->'content' FROM messages;

Per altri esempi di argomenti per ml_predict_row(), consulta la guida rapida all'utilizzo dell'API Vertex AI.