Genera testo utilizzando la funzione ML.GENERATE_TEXT
Questo documento mostra come creare un modello remoto BigQuery ML che faccia riferimento a un modello di base di Vertex AI.
Puoi quindi utilizzare quel modello in combinazione con la funzione ML.GENERATE_TEXT
per analizzare contenuti testuali o visivi in una tabella BigQuery.
Autorizzazioni obbligatorie
Per creare una connessione, devi far parte del seguente ruolo IAM (Identity and Access Management):
roles/bigquery.connectionAdmin
Per concedere le autorizzazioni all'account di servizio della connessione, devi disporre della seguente autorizzazione:
resourcemanager.projects.setIamPolicy
Per creare il modello utilizzando BigQuery ML, devi disporre delle seguenti autorizzazioni IAM:
bigquery.jobs.create
bigquery.models.create
bigquery.models.getData
bigquery.models.updateData
bigquery.models.updateMetadata
Per eseguire l'inferenza, devi disporre delle seguenti autorizzazioni:
bigquery.tables.getData
sul tavolobigquery.models.getData
sul modellobigquery.jobs.create
Prima di iniziare
-
Nella pagina del selettore di progetti della console Google Cloud, seleziona o crea un progetto Google Cloud.
-
Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.
-
Abilita le API BigQuery, BigQuery Connection, and Vertex AI.
Se vuoi utilizzare ML.GENERATE_TEXT
con un modello gemini-pro-vision
per analizzare i contenuti visivi in una tabella degli oggetti, devi avere una prenotazione Enterprise o Enterprise Plus.
Per maggiori informazioni, vedi
Creare prenotazioni.
Crea una connessione
Crea una connessione alle risorse cloud e recupera l'account di servizio della connessione.
Seleziona una delle seguenti opzioni:
Console
Vai alla pagina BigQuery.
Per creare una connessione, fai clic su
Aggiungi e poi su Connessioni a origini dati esterne.Nell'elenco Tipo di connessione, seleziona Modelli remoti Vertex AI, funzioni remote e BigLake (risorsa Cloud).
Nel campo ID connessione, inserisci un nome per la connessione.
Fai clic su Crea connessione.
Fai clic su Vai alla connessione.
Nel riquadro Informazioni sulla connessione, copia l'ID account di servizio da utilizzare in un passaggio successivo.
bq
In un ambiente a riga di comando, crea una connessione:
bq mk --connection --location=REGION --project_id=PROJECT_ID \ --connection_type=CLOUD_RESOURCE CONNECTION_ID
Il parametro
--project_id
sostituisce il progetto predefinito.Sostituisci quanto segue:
REGION
: la tua regione di connessionePROJECT_ID
: l'ID del tuo progetto Google CloudCONNECTION_ID
: un ID per la tua connessione
Quando crei una risorsa di connessione, BigQuery crea un account di servizio di sistema univoco e lo associa alla connessione.
Risoluzione dei problemi: se visualizzi il seguente errore di connessione, aggiorna Google Cloud SDK:
Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
Recupera e copia l'ID account di servizio per utilizzarlo in un passaggio successivo:
bq show --connection PROJECT_ID.REGION.CONNECTION_ID
L'output è simile al seguente:
name properties 1234.REGION.CONNECTION_ID {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
Terraform
Aggiungi la sezione seguente al file main.tf
.
## This creates a cloud resource connection. ## Note: The cloud resource nested object has only one output only field - serviceAccountId. resource "google_bigquery_connection" "connection" { connection_id = "CONNECTION_ID" project = "PROJECT_ID" location = "REGION" cloud_resource {} }Sostituisci quanto segue:
CONNECTION_ID
: un ID per la tua connessionePROJECT_ID
: l'ID del tuo progetto Google CloudREGION
: la tua regione di connessione
Concedere l'accesso all'account di servizio
Concedi all'account di servizio l'autorizzazione a utilizzare la connessione. La mancata concessione dell'autorizzazione comporta un errore. Seleziona una delle seguenti opzioni:
Console
Vai alla pagina IAM e amministrazione.
Fai clic su
Aggiungi.Viene visualizzata la finestra di dialogo Aggiungi entità.
Nel campo Nuove entità, inserisci l'ID account di servizio che hai copiato in precedenza.
Nel campo Seleziona un ruolo, seleziona Vertex AI e poi Utente Vertex AI.
Fai clic su Salva.
gcloud
Utilizza il comando gcloud projects add-iam-policy-binding
:
gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/aiplatform.user' --condition=None
Sostituisci quanto segue:
PROJECT_NUMBER
: il numero del tuo progettoMEMBER
: l'ID account di servizio che hai copiato in precedenza
Crea un modello
Nella console Google Cloud, vai alla pagina BigQuery.
Utilizzando l'editor SQL, crea un modello remoto:
CREATE OR REPLACE MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME` REMOTE WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID` OPTIONS (ENDPOINT = 'ENDPOINT');
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progettoDATASET_ID
: l'ID del set di dati che conterrà il modello. Questo set di dati deve trovarsi nella stessa località della connessione in uso.MODEL_NAME
: il nome del modelloREGION
: la regione utilizzata dalla connessioneCONNECTION_ID
: l'ID della tua connessione BigQueryQuando vengono visualizzati i dettagli della connessione nella console Google Cloud, si tratta del valore nell'ultima sezione dell'ID connessione completo mostrato in ID connessione, ad esempio
projects/myproject/locations/connection_location/connections/myconnection
ENDPOINT
: il nome del modello Vertex AI supportato da utilizzare. Ad esempio:ENDPOINT='gemini-pro'
.Per alcuni tipi di modelli, puoi specificare una particolare versione del modello aggiungendo
@version
al suo nome. Ad esempio:text-bison@001
. Per informazioni sulle versioni dei modelli supportate per i diversi tipi di modello, consultaENDPOINT
.
Genera testo dai dati di testo utilizzando un prompt in una tabella
Genera il testo utilizzando la funzione ML.GENERATE_TEXT
con un modello remoto basato su un modello di testo dell'API Vertex AI Gemini o dell'API Vertex AI PaLM supportato e un prompt da una colonna della tabella:
gemini-pro
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_NAME
: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna denominataprompt
. In alternativa, puoi utilizzare un alias per utilizzare una colonna con nome diverso.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,8192]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.Valori più bassi di
temperature
sono ideali per prompt che richiedono una risposta più deterministica e meno aperta o creativa, mentre valori più alti ditemperature
possono portare a risultati più diversificati o creativi. Un valore di0
pertemperature
è deterministico, il che significa che viene sempre selezionata la risposta con la probabilità più alta.TOP_K
: un valoreINT64
nell'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è40
.TOP_P
: un valore diFLOAT64
nell'intervallo[0.0,1.0]
aiuta a determinare quali token del pool determinati daTOP_K
vengono selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe corrispondono esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.
Esempio
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza la colonna
prompt
della tabellaprompts
per il prompt. - Restituisce una risposta breve e moderatamente probabile.
- Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, TABLE mydataset.prompts, STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, 40 AS top_k, TRUE AS flatten_json_output));
text-bison
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_NAME
: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna denominataprompt
. In alternativa, puoi utilizzare un alias per utilizzare una colonna con nome diverso.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,1024]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.Valori più bassi di
temperature
sono ideali per prompt che richiedono una risposta più deterministica e meno aperta o creativa, mentre valori più alti ditemperature
possono portare a risultati più diversificati o creativi. Un valore di0
pertemperature
è deterministico, il che significa che viene sempre selezionata la risposta con la probabilità più alta.TOP_K
: un valoreINT64
nell'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è40
.TOP_P
: un valore diFLOAT64
nell'intervallo[0.0,1.0]
aiuta a determinare quali token del pool determinati daTOP_K
vengono selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe corrispondono esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.
Esempio
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza la colonna
prompt
della tabellaprompts
per il prompt. - Restituisce una risposta breve e moderatamente probabile.
- Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, TABLE mydataset.prompts, STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, 40 AS top_k, TRUE AS flatten_json_output));
text-bison32
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_NAME
: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna denominataprompt
. In alternativa, puoi utilizzare un alias per utilizzare una colonna con nome diverso.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,8192]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.Valori più bassi di
temperature
sono ideali per prompt che richiedono una risposta più deterministica e meno aperta o creativa, mentre valori più alti ditemperature
possono portare a risultati più diversificati o creativi. Un valore di0
pertemperature
è deterministico, il che significa che viene sempre selezionata la risposta con la probabilità più alta.TOP_K
: un valoreINT64
nell'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è40
.TOP_P
: un valore diFLOAT64
nell'intervallo[0.0,1.0]
aiuta a determinare quali token del pool determinati daTOP_K
vengono selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe corrispondono esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.
Esempio
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza la colonna
prompt
della tabellaprompts
per il prompt. - Restituisce una risposta breve e moderatamente probabile.
- Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, TABLE mydataset.prompts, STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, 40 AS top_k, TRUE AS flatten_json_output));
text-unicorn
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_NAME
: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna denominataprompt
. In alternativa, puoi utilizzare un alias per utilizzare una colonna con nome diverso.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,1024]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.Valori più bassi di
temperature
sono ideali per prompt che richiedono una risposta più deterministica e meno aperta o creativa, mentre valori più alti ditemperature
possono portare a risultati più diversificati o creativi. Un valore di0
pertemperature
è deterministico, il che significa che viene sempre selezionata la risposta con la probabilità più alta.TOP_K
: un valoreINT64
nell'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è40
.TOP_P
: un valore diFLOAT64
nell'intervallo[0.0,1.0]
aiuta a determinare quali token del pool determinati daTOP_K
vengono selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe corrispondono esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.
Esempio
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza la colonna
prompt
della tabellaprompts
per il prompt. - Restituisce una risposta breve e moderatamente probabile.
- Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, TABLE mydataset.prompts, STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, 40 AS top_k, TRUE AS flatten_json_output));
Genera testo da dati di testo utilizzando un prompt di una query
Genera il testo utilizzando la funzione ML.GENERATE_TEXT
con un modello remoto basato su un modello di testo dell'API Gemini o dell'API PaLM supportato e una query che fornisca il prompt:
gemini-pro
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.PROMPT_QUERY
: una query che fornisce i dati del prompt.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,8192]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.Valori più bassi di
temperature
sono ideali per prompt che richiedono una risposta più deterministica e meno aperta o creativa, mentre valori più alti ditemperature
possono portare a risultati più diversificati o creativi. Un valore di0
pertemperature
è deterministico, il che significa che viene sempre selezionata la risposta con la probabilità più alta.TOP_K
: un valoreINT64
nell'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è40
.TOP_P
: un valore diFLOAT64
nell'intervallo[0.0,1.0]
aiuta a determinare quali token del pool determinati daTOP_K
vengono selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe corrispondono esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.
Esempio 1
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Richiede un riepilogo del testo nella colonna
body
della tabellaarticles
. - Restituisce una risposta moderatamente lunga e più probabile.
- Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT( 0.2 AS temperature, 650 AS max_output_tokens, 0.2 AS top_p, 15 AS top_k, TRUE AS flatten_json_output));
Esempio 2
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza una query per creare i dati dei prompt concatenando le stringhe che forniscono prefissi dei prompt con colonne della tabella.
- Restituisce una risposta breve e moderatamente probabile.
- Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, 30 AS top_k, FALSE AS flatten_json_output));
text-bison
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.PROMPT_QUERY
: una query che fornisce i dati del prompt.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,1024]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.Valori più bassi di
temperature
sono ideali per prompt che richiedono una risposta più deterministica e meno aperta o creativa, mentre valori più alti ditemperature
possono portare a risultati più diversificati o creativi. Un valore di0
pertemperature
è deterministico, il che significa che viene sempre selezionata la risposta con la probabilità più alta.TOP_K
: un valoreINT64
nell'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è40
.TOP_P
: un valore diFLOAT64
nell'intervallo[0.0,1.0]
aiuta a determinare quali token del pool determinati daTOP_K
vengono selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe corrispondono esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.
Esempio 1
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Richiede un riepilogo del testo nella colonna
body
della tabellaarticles
. - Restituisce una risposta moderatamente lunga e più probabile.
- Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT( 0.2 AS temperature, 650 AS max_output_tokens, 0.2 AS top_p, 15 AS top_k, TRUE AS flatten_json_output));
Esempio 2
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza una query per creare i dati dei prompt concatenando le stringhe che forniscono prefissi dei prompt con colonne della tabella.
- Restituisce una risposta breve e moderatamente probabile.
- Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, 30 AS top_k, FALSE AS flatten_json_output));
text-bison32
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.PROMPT_QUERY
: una query che fornisce i dati del prompt.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,8192]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.Valori più bassi di
temperature
sono ideali per prompt che richiedono una risposta più deterministica e meno aperta o creativa, mentre valori più alti ditemperature
possono portare a risultati più diversificati o creativi. Un valore di0
pertemperature
è deterministico, il che significa che viene sempre selezionata la risposta con la probabilità più alta.TOP_K
: un valoreINT64
nell'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è40
.TOP_P
: un valore diFLOAT64
nell'intervallo[0.0,1.0]
aiuta a determinare quali token del pool determinati daTOP_K
vengono selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe corrispondono esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.
Esempio 1
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Richiede un riepilogo del testo nella colonna
body
della tabellaarticles
. - Restituisce una risposta moderatamente lunga e più probabile.
- Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT( 0.2 AS temperature, 650 AS max_output_tokens, 0.2 AS top_p, 15 AS top_k, TRUE AS flatten_json_output));
Esempio 2
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza una query per creare i dati dei prompt concatenando le stringhe che forniscono prefissi dei prompt con colonne della tabella.
- Restituisce una risposta breve e moderatamente probabile.
- Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, 30 AS top_k, FALSE AS flatten_json_output));
text-unicorn
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.PROMPT_QUERY
: una query che fornisce i dati del prompt.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,1024]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.Valori più bassi di
temperature
sono ideali per prompt che richiedono una risposta più deterministica e meno aperta o creativa, mentre valori più alti ditemperature
possono portare a risultati più diversificati o creativi. Un valore di0
pertemperature
è deterministico, il che significa che viene sempre selezionata la risposta con la probabilità più alta.TOP_K
: un valoreINT64
nell'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è40
.TOP_P
: un valore diFLOAT64
nell'intervallo[0.0,1.0]
aiuta a determinare quali token del pool determinati daTOP_K
vengono selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe corrispondono esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.
Esempio 1
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Richiede un riepilogo del testo nella colonna
body
della tabellaarticles
. - Restituisce una risposta moderatamente lunga e più probabile.
- Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT( 0.2 AS temperature, 650 AS max_output_tokens, 0.2 AS top_p, 15 AS top_k, TRUE AS flatten_json_output));
Esempio 2
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza una query per creare i dati dei prompt concatenando le stringhe che forniscono prefissi dei prompt con colonne della tabella.
- Restituisce una risposta breve e moderatamente probabile.
- Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, 30 AS top_k, FALSE AS flatten_json_output));
Genera un testo che descriva i contenuti visivi
Genera il testo utilizzando la funzioneML.GENERATE_TEXT
con un modello remoto basato su un modello multimodale gemini-pro-vision
:
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(PROMPT AS prompt, TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_NAME
: il nome della tabella dell'oggetto che contiene i contenuti visivi da analizzare. Per saperne di più sui tipi di contenuti visivi che puoi analizzare, consulta l'articolo Contenuti visivi supportati.Il bucket Cloud Storage utilizzato dalla tabella degli oggetti deve trovarsi nello stesso progetto in cui hai creato il modello e in cui stai chiamando la funzione
ML.GENERATE_TEXT
.PROMPT
: il prompt da utilizzare per analizzare i contenuti visivi.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,2048]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è2048
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0.4
.Valori più bassi di
temperature
sono ideali per prompt che richiedono una risposta più deterministica e meno aperta o creativa, mentre valori più alti ditemperature
possono portare a risultati più diversificati o creativi. Un valore di0
pertemperature
è deterministico, il che significa che viene sempre selezionata la risposta con la probabilità più alta.TOP_K
: un valoreINT64
nell'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è32
.TOP_P
: un valore diFLOAT64
nell'intervallo[0.0,1.0]
aiuta a determinare quali token del pool determinati daTOP_K
vengono selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe corrispondono esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.
Esempio
Questo esempio analizza i contenuti visivi di una tabella di oggetti denominata videos
e descrive i contenuti di ogni video:
SELECT uri, ml_generate_text_llm_result FROM ML.GENERATE_TEXT( MODEL `mydataset.gemini_pro_vision_model` TABLE `mydataset.videos` STRUCT('What is happening in this video?' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));