Generare testo utilizzando la funzione ML.GENERATE_TEXT
Questo documento mostra come creare un
modello remoto
BigQuery ML che rappresenti un modello Vertex AI ospitato. Il
modello Vertex AI ospitato può essere un
modello di testo o multimodale Vertex AI integrato o un
modello Claude di Anthropic.
A seconda del modello Vertex AI scelto, puoi
utilizza la
Funzione ML.GENERATE_TEXT
di analizzare i dati non strutturati
tabelle di oggetti o testo
tabelle standard.
Autorizzazioni obbligatorie
Per creare una connessione, devi disporre di quanto segue Ruolo IAM (Identity and Access Management):
roles/bigquery.connectionAdmin
Per concedere le autorizzazioni all'account di servizio della connessione, devi disporre della seguente autorizzazione:
resourcemanager.projects.setIamPolicy
Per creare il modello utilizzando BigQuery ML, è necessario quanto segue Autorizzazioni IAM:
bigquery.jobs.create
bigquery.models.create
bigquery.models.getData
bigquery.models.updateData
bigquery.models.updateMetadata
Per eseguire l'inferenza, devi disporre delle seguenti autorizzazioni:
bigquery.tables.getData
sul tavolobigquery.models.getData
sul modellobigquery.jobs.create
Prima di iniziare
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the BigQuery, BigQuery Connection, and Vertex AI APIs.
Crea una connessione
Crea un Connessione alle risorse cloud e recuperare l'account di servizio della connessione.
Seleziona una delle seguenti opzioni:
Console
Vai alla pagina BigQuery.
Per creare una connessione, fai clic su
Aggiungi e poi su Connessioni a origini dati esterne.Nell'elenco Tipo di connessione, seleziona Modelli remoti Vertex AI, funzioni remote e BigLake (risorsa Cloud).
Nel campo ID connessione, inserisci un nome per connessione.
Fai clic su Crea connessione.
Fai clic su Vai alla connessione.
Nel riquadro Informazioni sulla connessione, copia l'ID account di servizio da utilizzare in un passaggio successivo.
bq
In un ambiente a riga di comando, crea una connessione:
bq mk --connection --location=REGION --project_id=PROJECT_ID \ --connection_type=CLOUD_RESOURCE CONNECTION_ID
Il parametro
--project_id
sostituisce il progetto predefinito.Sostituisci quanto segue:
REGION
: la regione di connessionePROJECT_ID
: il tuo ID progetto Google CloudCONNECTION_ID
: un ID per la connessione
Quando crei una risorsa di connessione, BigQuery crea un account di servizio di sistema unico e lo associa alla connessione.
Risoluzione dei problemi: se ricevi il seguente errore di connessione, aggiorna Google Cloud SDK:
Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
Recupera e copia l'ID account di servizio per utilizzarlo in un passaggio successivo:
bq show --connection PROJECT_ID.REGION.CONNECTION_ID
L'output è simile al seguente:
name properties 1234.REGION.CONNECTION_ID {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
Terraform
Aggiungi la seguente sezione al tuo file main.tf
.
## This creates a cloud resource connection. ## Note: The cloud resource nested object has only one output only field - serviceAccountId. resource "google_bigquery_connection" "connection" { connection_id = "CONNECTION_ID" project = "PROJECT_ID" location = "REGION" cloud_resource {} }
CONNECTION_ID
: un ID per la connessionePROJECT_ID
: l'ID del tuo progetto Google CloudREGION
: la regione di connessione
Concedi all'account di servizio l'accesso
Concedi all'account di servizio della connessione il ruolo Vertex AI User.
Se prevedi di specificare l'endpoint come URL quando crei il modello remoto, ad esempio endpoint = 'https://us-central1-aiplatform.googleapis.com/v1/projects/myproject/locations/us-central1/publishers/google/models/text-embedding-004'
, concedi questo ruolo nello stesso progetto specificato nell'URL.
Se prevedi di specificare l'endpoint utilizzando il nome del modello quando crei il modello remoto, ad esempio endpoint = 'text-embedding-004'
, concedi questo ruolo nello stesso progetto in cui prevedi di creare il modello remoto.
La concessione del ruolo in un altro progetto genera l'errore bqcx-1234567890-xxxx@gcp-sa-bigquery-condel.iam.gserviceaccount.com does not have the permission to access resource
.
Per concedere il ruolo:
Console
Vai alla sezione IAM e Console di amministrazione.
Fai clic su
Aggiungi.Viene visualizzata la finestra di dialogo Aggiungi entità.
Nel campo Nuove entità, inserisci l'ID account di servizio che hai copiato in precedenza.
Nel campo Seleziona un ruolo, seleziona Vertex AI e poi Utente Vertex AI.
Fai clic su Salva.
gcloud
Utilizza la
Comando gcloud projects add-iam-policy-binding
.
gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/aiplatform.user' --condition=None
Sostituisci quanto segue:
PROJECT_NUMBER
: il numero del tuo progettoMEMBER
: l'ID dell'account di servizio che copiato in precedenza
Attiva il modello Vertex AI
Questo passaggio è necessario solo se utilizzi un modello Claude.
Nella console Google Cloud, vai al Model Garden di Vertex AI .
Cerca o sfoglia per trovare il modello Claude che vuoi utilizzare.
Fai clic sulla scheda del modello.
Nella pagina del modello, fai clic su Attiva.
Compila le informazioni di abilitazione richieste e fai clic su Avanti.
Nella sezione Termini e condizioni, seleziona la casella di controllo.
Fai clic su Accetto per accettare i termini e le condizioni e attivare il modello.
Creare un modello remoto BigQuery ML
Nella console Google Cloud, vai alla pagina BigQuery.
Utilizza l'editor SQL per creare un modello remoto:
CREATE OR REPLACE MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME` REMOTE WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID` OPTIONS (ENDPOINT = 'ENDPOINT');
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progettoDATASET_ID
: l'ID del set di dati che deve contenere il modello. Questo set di dati deve trovarsi nella stessa località della connessione che stai utilizzandoMODEL_NAME
: il nome del modelloREGION
: la regione utilizzata dalla connessioneCONNECTION_ID
: l'ID della connessione BigQueryQuando visualizzi i dettagli della connessione nella console Google Cloud, questo è il valore nell'ultima sezione dell'ID connessione visualizzato in ID connessione, ad esempio
projects/myproject/locations/connection_location/connections/myconnection
ENDPOINT
: il nome del modello Vertex AI supportato da utilizzare.Per alcuni tipi di modelli, puoi specificare versione del modello. Per informazioni sulle versioni dei modelli supportate per i diversi tipi di modelli, consulta
ENDPOINT
.
Generare testo da dati di testo utilizzando un prompt di una tabella
Genera testo utilizzando
Funzione ML.GENERATE_TEXT
con un modello remoto e utilizzando i dati di prompt di una colonna di tabella:
gemini-1.5-flash
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_NAME
: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna denominataprompt
oppure puoi usare un alias per usare un'altra denominata colonna.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,8192]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,2.0]
che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è0
.Valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti ditemperature
possono portare a una maggiore diversità o risultati creativi. Un valore di0
pertemperature
è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità di token selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
:ARRAY<STRING>
valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.GROUND_WITH_GOOGLE_SEARCH
: un valoreBOOL
che determina se il modello Vertex AI utilizza la coerenza con la Ricerca Google durante la generazione delle risposte. La fondatezza consente al modello di utilizzare informazioni aggiuntive di internet durante la generazione di una risposta, in modo da rendere le risposte del modello più specifiche e oggettive. Seflatten_json_output
e questo campo sono impostati suTrue
, nei risultati viene inclusa un'ulteriore colonnaml_generate_text_grounding_result
, che fornisce le origini utilizzate dal modello per raccogliere ulteriori informazioni. Il valore predefinito èFALSE
.SAFETY_SETTINGS
: un valoreARRAY<STRUCT<STRING AS category, STRING AS threshold>>
che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento della struttura specifica una categoria di danno e il secondo elemento della struttura specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ogni categoria una sola volta. Ad esempio, non puoi specificare siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
. Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza diBLOCK_MEDIUM_AND_ABOVE
.Le categorie supportate sono le seguenti:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Le soglie supportate sono le seguenti:
BLOCK_NONE
(con limitazioni)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(valore predefinito)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e soglia di blocco.
Esempio
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza la colonna
prompt
della tabellaprompts
per il prompt. - Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT(TRUE AS flatten_json_output));
gemini-1.5-pro
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_NAME
: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna denominataprompt
oppure puoi usare un alias per usare un'altra denominata colonna.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,8192]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,2.0]
che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è0
.Valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti ditemperature
possono portare a una maggiore diversità o risultati creativi. Un valore di0
pertemperature
è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità di token selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
:ARRAY<STRING>
valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe vengono associate esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.GROUND_WITH_GOOGLE_SEARCH
: un valoreBOOL
che determina se il modello Vertex AI utilizza la coerenza con la Ricerca Google durante la generazione delle risposte. La fondatezza consente al modello di utilizzare informazioni aggiuntive di internet durante la generazione di una risposta, in modo da rendere le risposte del modello più specifiche e oggettive. Quando siaflatten_json_output
sia questo campo sono impostati suTrue
, nei risultati viene inclusa un'altra colonnaml_generate_text_grounding_result
che fornisce le origini utilizzate dal modello per raccogliere informazioni aggiuntive. Il valore predefinito èFALSE
.SAFETY_SETTINGS
: un valoreARRAY<STRUCT<STRING AS category, STRING AS threshold>>
che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento della struttura specifica una categoria di danno e il secondo elemento della struttura specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ogni categoria una sola volta. Ad esempio, non puoi specificare siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
. Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza diBLOCK_MEDIUM_AND_ABOVE
.Le categorie supportate sono le seguenti:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Le soglie supportate sono le seguenti:
BLOCK_NONE
(con limitazioni)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(valore predefinito)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e di soglia di blocco.
Esempio
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza la colonna
prompt
della tabellaprompts
per il prompt. - Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT(TRUE AS flatten_json_output));
gemini-pro
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_NAME
: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna denominataprompt
oppure puoi usare un alias per usare un'altra denominata colonna.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,8192]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.I valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre i valori più alti pertemperature
possono portare a risultati più diversificati o creativi. Un valore di0
pertemperature
è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.TOP_K
: un valoreINT64
nel l'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è40
.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità di token selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe vengono associate esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.GROUND_WITH_GOOGLE_SEARCH
: un valoreBOOL
che determina se il modello Vertex AI utilizza il monitoraggio con la Ricerca Google durante la generazione delle risposte. La fondatezza consente al modello di utilizzare informazioni aggiuntive di internet durante la generazione di una risposta, in modo da rendere le risposte del modello più specifiche e oggettive. Quando siaflatten_json_output
sia questo campo sono impostati suTrue
, nei risultati viene inclusa un'altra colonnaml_generate_text_grounding_result
che fornisce le origini utilizzate dal modello per raccogliere informazioni aggiuntive. Il valore predefinito èFALSE
.SAFETY_SETTINGS
: un valoreARRAY<STRUCT<STRING AS category, STRING AS threshold>>
che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento della struttura specifica una categoria di danno e il secondo elemento della struttura specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ogni categoria una sola volta. Ad esempio, non puoi specificare siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
. Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza diBLOCK_MEDIUM_AND_ABOVE
.Le categorie supportate sono le seguenti:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Le soglie supportate sono le seguenti:
BLOCK_NONE
(Accesso limitato)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(valore predefinito)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e soglia di blocco.
Esempio
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza la colonna
prompt
della tabellaprompts
per il prompt. - Restituisce una risposta breve e moderatamente probabile.
- Appiattisce la risposta JSON in colonne separate.
- Recupera e restituisce i dati web pubblici per il grounding della risposta.
- Filtra le risposte non sicure utilizzando due impostazioni di sicurezza.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, 40 AS top_k, TRUE AS flatten_json_output, TRUE AS ground_with_google_search, [STRUCT('HARM_CATEGORY_HATE_SPEECH' AS category, 'BLOCK_LOW_AND_ABOVE' AS threshold), STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)] AS safety_settings));
Claude
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_NAME
: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna denominataprompt
oppure puoi usare un alias per usare un'altra denominata colonna.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,4096]
. Specifica un valore più basso per risposte più brevi e un valore più alto per più lunghe. Il valore predefinito è128
.TOP_K
: un valoreINT64
nell'intervallo[1,40]
che determina il pool iniziale di token preso in considerazione dal modello per la selezione. Specifica un valore più basso per risposte meno random e un valore più alto per risposte più casuali. Se non specifichi un valore, il modello ne determina uno appropriato.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità di token selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Se non specifichi un valore, il modello ne determina uno appropriato.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.
Esempio
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza la colonna
prompt
della tabellaprompts
per il prompt. - Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT(TRUE AS flatten_json_output));
text-bison
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_NAME
: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna denominataprompt
oppure puoi usare un alias per usare un'altra denominata colonna.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,1024]
. Specifica un valore più basso per risposte più brevi e un valore più alto per più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.I valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre i valori più alti pertemperature
possono portare a risultati più diversificati o creativi. Un valore di0
pertemperature
è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.TOP_K
: un valoreINT64
nel l'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è40
.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità di token selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.
Esempio
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza la colonna
prompt
della tabellaprompts
per il prompt. - Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT(TRUE AS flatten_json_output));
text-bison32
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_NAME
: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna denominataprompt
oppure puoi usare un alias per usare un'altra denominata colonna.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,8192]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.I valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre i valori più alti pertemperature
possono portare a risultati più diversificati o creativi. Un valore di0
pertemperature
è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.TOP_K
: un valoreINT64
nel l'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è40
.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità di token selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.
Esempio
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza la colonna
prompt
della tabellaprompts
per il prompt. - Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT(TRUE AS flatten_json_output));
text-unicorn
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_NAME
: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna denominataprompt
oppure puoi usare un alias per usare un'altra denominata colonna.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,1024]
. Specifica un valore più basso per risposte più brevi e un valore più alto per più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.I valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre i valori più alti pertemperature
possono portare a risultati più diversificati o creativi. Un valore di0
pertemperature
è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.TOP_K
: un valoreINT64
nel l'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è40
.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità di token selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.
Esempio
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza la colonna
prompt
della tabellaprompts
per il prompt. - Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT(TRUE AS flatten_json_output));
Genera testo da dati di testo utilizzando un prompt da una query
Genera il testo utilizzando la
funzione ML.GENERATE_TEXT
con un modello remoto e una query che fornisce i dati del prompt:
gemini-1.5-flash
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.PROMPT_QUERY
: una query che fornisce i dati del prompt.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,8192]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,2.0]
che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è0
.Valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti ditemperature
possono portare a una maggiore diversità o risultati creativi. Un valore di0
pertemperature
è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità di token selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe vengono associate esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.GROUND_WITH_GOOGLE_SEARCH
: un valoreBOOL
che determina se il modello Vertex AI utilizza il monitoraggio con la Ricerca Google durante la generazione delle risposte. La fondatezza consente al modello di utilizzare informazioni aggiuntive di internet durante la generazione di una risposta, in modo da rendere le risposte del modello più specifiche e oggettive. Seflatten_json_output
e questo campo sono impostati suTrue
, nei risultati viene inclusa un'ulteriore colonnaml_generate_text_grounding_result
, che fornisce le origini utilizzate dal modello per raccogliere ulteriori informazioni. Il valore predefinito èFALSE
.SAFETY_SETTINGS
: un valoreARRAY<STRUCT<STRING AS category, STRING AS threshold>>
che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento della struttura specifica una categoria di danno e il secondo elemento della struttura specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ogni categoria una sola volta. Ad esempio, non puoi specificare siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
. Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza diBLOCK_MEDIUM_AND_ABOVE
.Le categorie supportate sono le seguenti:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Le soglie supportate sono le seguenti:
BLOCK_NONE
(Accesso limitato)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(valore predefinito)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e soglia di blocco.
Esempio 1
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Richiede un riepilogo del testo nella colonna
body
di la tabellaarticles
. - Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Esempio 2
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza una query per creare i dati del prompt concatenando stringhe che fornire prefissi di prompt con colonne delle tabelle.
- Restituisce una risposta breve.
- Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
gemini-1.5-pro
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.PROMPT_QUERY
: una query che fornisce i dati del prompt.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,8192]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,2.0]
che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è0
.Valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti ditemperature
possono portare a una maggiore diversità o risultati creativi. Un valore di0
pertemperature
è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità di token selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe vengono associate esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.GROUND_WITH_GOOGLE_SEARCH
: un valoreBOOL
che determina se il modello Vertex AI utilizza la coerenza con la Ricerca Google durante la generazione delle risposte. Il grounding consente al modello di utilizzare informazioni aggiuntive da internet quando genera una risposta, al fine di rendere le risposte del modello più specifiche e oggettive. Quando siaflatten_json_output
sia questo campo sono impostati suTrue
, nei risultati viene inclusa un'altra colonnaml_generate_text_grounding_result
che fornisce le origini utilizzate dal modello per raccogliere informazioni aggiuntive. Il valore predefinito èFALSE
.SAFETY_SETTINGS
: un valoreARRAY<STRUCT<STRING AS category, STRING AS threshold>>
che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento della struttura specifica una categoria di danno e il secondo elemento della struttura specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ogni categoria una sola volta. Ad esempio, non puoi specificare siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
. Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza diBLOCK_MEDIUM_AND_ABOVE
.Le categorie supportate sono le seguenti:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Le soglie supportate sono le seguenti:
BLOCK_NONE
(con limitazioni)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(valore predefinito)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e di soglia di blocco.
Esempio 1
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Richiede un riepilogo del testo nella colonna
body
di la tabellaarticles
. - Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Esempio 2
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza una query per creare i dati del prompt concatenando stringhe che forniscono i prefissi dei prompt con le colonne della tabella.
- Restituisce una risposta breve.
- Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
gemini-pro
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.PROMPT_QUERY
: una query che fornisce i dati del prompt.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,8192]
. Specifica un valore più basso per risposte più brevi e un valore più alto per più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.I valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre i valori più alti pertemperature
possono portare a risultati più diversificati o creativi. Un valore di0
pertemperature
è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.TOP_K
: un valoreINT64
nel l'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è40
.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità di token selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe vengono associate esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.GROUND_WITH_GOOGLE_SEARCH
: un valoreBOOL
che determina se il modello Vertex AI utilizza la coerenza con la Ricerca Google durante la generazione delle risposte. La fondatezza consente al modello di utilizzare informazioni aggiuntive di internet durante la generazione di una risposta, in modo da rendere le risposte del modello più specifiche e oggettive. Seflatten_json_output
e questo campo sono impostati suTrue
, nei risultati viene inclusa un'ulteriore colonnaml_generate_text_grounding_result
, che fornisce le origini utilizzate dal modello per raccogliere ulteriori informazioni. Il valore predefinito èFALSE
.SAFETY_SETTINGS
: un valoreARRAY<STRUCT<STRING AS category, STRING AS threshold>>
che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento della struttura specifica una categoria di danno e il secondo elemento della struttura specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ogni categoria una sola volta. Ad esempio, non puoi specificare siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
. Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza diBLOCK_MEDIUM_AND_ABOVE
.Le categorie supportate sono le seguenti:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Le soglie supportate sono le seguenti:
BLOCK_NONE
(Accesso limitato)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(valore predefinito)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e soglia di blocco.
Esempio 1
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Richiede un riepilogo del testo nella colonna
body
di la tabellaarticles
. - Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Esempio 2
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza una query per creare i dati del prompt concatenando stringhe che fornire prefissi di prompt con colonne delle tabelle.
- Restituisce una risposta breve.
- Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
Esempio 3
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Richiede un riepilogo del testo nella colonna
body
della tabellaarticles
. - Appiattisce la risposta JSON in colonne separate.
- Recupera e restituisce i dati web pubblici per il grounding della risposta.
- Filtra le risposte non sicure utilizzando due impostazioni di sicurezza.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT( TRUE AS flatten_json_output, TRUE AS ground_with_google_search, [STRUCT('HARM_CATEGORY_HATE_SPEECH' AS category, 'BLOCK_LOW_AND_ABOVE' AS threshold), STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)] AS safety_settings));
Claude
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output) );
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.PROMPT_QUERY
: una query che fornisce i dati del prompt.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,4096]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è128
.TOP_K
: un valoreINT64
nell'intervallo[1,40]
che determina il pool iniziale di token preso in considerazione dal modello per la selezione. Specifica un valore più basso per risposte meno random e un valore più alto per risposte più casuali. Se non specifichi un valore, il modello ne determina uno appropriato.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità di token selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Se non specifichi un valore, il modello ne determina uno appropriato.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.
Esempio 1
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Richiede un riepilogo del testo nella colonna
body
di la tabellaarticles
. - Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Esempio 2
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza una query per creare i dati del prompt concatenando stringhe che forniscono i prefissi dei prompt con le colonne della tabella.
- Restituisce una risposta breve.
- Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
text-bison
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.PROMPT_QUERY
: una query che fornisce i dati del prompt.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,1024]
. Specifica un valore più basso per risposte più brevi e un valore più alto per più lunghe. L'impostazione predefinita è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.I valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre i valori più alti pertemperature
possono portare a risultati più diversificati o creativi. Un valore di0
pertemperature
è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.TOP_K
: un valoreINT64
nel l'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è40
.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità di token selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe vengono associate esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.
Esempio 1
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Richiede un riepilogo del testo nella colonna
body
di la tabellaarticles
. - Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Esempio 2
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza una query per creare i dati del prompt concatenando stringhe che fornire prefissi di prompt con colonne delle tabelle.
- Restituisce una risposta breve.
- Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
text-bison32
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.PROMPT_QUERY
: una query che fornisce i dati del prompt.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,8192]
. Specifica un valore più basso per risposte più brevi e un valore più alto per più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.I valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre i valori più alti pertemperature
possono portare a risultati più diversificati o creativi. Un valore di0
pertemperature
è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.TOP_K
: un valoreINT64
nel l'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è40
.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità di token selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe vengono associate esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.
Esempio 1
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Richiede un riepilogo del testo nella colonna
body
di la tabellaarticles
. - Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Esempio 2
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza una query per creare i dati del prompt concatenando stringhe che forniscono i prefissi dei prompt con le colonne della tabella.
- Restituisce una risposta breve.
- Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
text-unicorn
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.PROMPT_QUERY
: una query che fornisce i dati del prompt.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,1024]
. Specifica un valore più basso per risposte più brevi e un valore più alto per più lunghe. L'impostazione predefinita è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.I valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre i valori più alti pertemperature
possono portare a risultati più diversificati o creativi. Un valore di0
pertemperature
è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.TOP_K
: un valoreINT64
nel l'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è40
.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità di token selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe vengono associate esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.
Esempio 1
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Richiede un riepilogo del testo nella colonna
body
di la tabellaarticles
. - Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Esempio 2
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza una query per creare i dati del prompt concatenando stringhe che forniscono i prefissi dei prompt con le colonne della tabella.
- Restituisce una risposta breve.
- Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
Genera testo dai dati della tabella degli oggetti
Genera testo utilizzando
Funzione ML.GENERATE_TEXT
con un modello remoto, utilizzando una tabella di oggetti per fornire i contenuti da analizzare
e fornendo i dati del prompt nel parametro prompt
:
gemini-1.5-flash
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(PROMPT AS prompt, TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, SAFETY_SETTINGS AS safety_settings) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_NAME
: il nome della tabella di oggetti che contiene i contenuti da analizzare. Per ulteriori informazioni sui tipi di contenuti che puoi analizzare, consulta Input.Il bucket Cloud Storage utilizzato dalla tabella degli oggetti deve essere nel percorso nello stesso progetto in cui hai creato il modello e in cui chiami Funzione
ML.GENERATE_TEXT
. Se vuoi chiamare il FunzioneML.GENERATE_TEXT
in un progetto diverso da quello che contiene il bucket Cloud Storage utilizzato dalla tabella degli oggetti, devi concedere il ruolo Amministratore Storage a livello di bucket all'account di servizioservice-A@gcp-sa-aiplatform.iam.gserviceaccount.com
.PROMPT
: la richiesta da utilizzare per analizzare i contenuti.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,8192]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,2.0]
che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è0
.Valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti ditemperature
possono portare a una maggiore diversità o risultati creativi. Un valore di0
pertemperature
è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità di token selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe vengono associate esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.SAFETY_SETTINGS
: un valoreARRAY<STRUCT<STRING AS category, STRING AS threshold>>
che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento della struttura specifica una categoria di danno e il secondo elemento della struttura specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ciascuna categoria una sola volta. Ad esempio, non puoi specificare siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
. Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza diBLOCK_MEDIUM_AND_ABOVE
.Le categorie supportate sono le seguenti:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Le soglie supportate sono le seguenti:
BLOCK_NONE
(Accesso limitato)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(valore predefinito)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e soglia di blocco.
Esempi
Questo esempio analizza i contenuti video di una tabella di oggetti denominata
videos
e descrive i contenuti di ogni video:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.video_model`, TABLE `mydataset.videos`, STRUCT('What is happening in this video?' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
Questo esempio traduce e trascrive i contenuti audio da una tabella di oggetti
che ha il nome feedback
:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.audio_model`, TABLE `mydataset.feedback`, STRUCT('What is the content of this audio clip, translated into Spanish?' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
Questo esempio classifica i contenuti PDF da una tabella di oggetti
che ha il nome invoices
:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.classify_model`, TABLE `mydataset.invoices`, STRUCT('Classify this document based on the invoice total, using the following categories: 0 to 100, 101 to 200, greater than 200' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
gemini-1.5-pro
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(PROMPT AS prompt, TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, SAFETY_SETTINGS AS safety_settings) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_NAME
: il nome della tabella di oggetti che contiene i contenuti da analizzare. Per ulteriori informazioni sui tipi di contenuti che puoi analizzare, consulta Input.Il bucket Cloud Storage utilizzato dalla tabella degli oggetti deve trovarsi nello stesso progetto in cui hai creato il modello e in cui chiami la funzione
ML.GENERATE_TEXT
. Se vuoi chiamare il FunzioneML.GENERATE_TEXT
in un progetto diverso da quello che contiene il bucket Cloud Storage utilizzato dalla tabella degli oggetti, devi concedere il ruolo Amministratore Storage a livello di bucket all'account di servizioservice-A@gcp-sa-aiplatform.iam.gserviceaccount.com
.PROMPT
: il prompt da utilizzare per analizzare i contenuti.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,8192]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,2.0]
che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è0
.Valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti ditemperature
possono portare a una maggiore diversità o risultati creativi. Un valore di0
pertemperature
è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità di token selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe vengono associate esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.SAFETY_SETTINGS
: un valoreARRAY<STRUCT<STRING AS category, STRING AS threshold>>
che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento della struttura specifica una categoria di danno e il secondo elemento della struttura specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ciascuna categoria una sola volta. Ad esempio, non puoi specificare siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
. Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza diBLOCK_MEDIUM_AND_ABOVE
.Le categorie supportate sono le seguenti:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Le soglie supportate sono le seguenti:
BLOCK_NONE
(con limitazioni)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(valore predefinito)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e soglia di blocco.
Esempi
Questo esempio analizza i contenuti video di una tabella di oggetti denominata
videos
e descrive i contenuti di ogni video:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.video_model`, TABLE `mydataset.videos`, STRUCT('What is happening in this video?' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
Questo esempio traduce e trascrive i contenuti audio da una tabella di oggetti
che ha il nome feedback
:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.audio_model`, TABLE `mydataset.feedback`, STRUCT('What is the content of this audio clip, translated into Spanish?' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
Questo esempio classifica i contenuti PDF da una tabella di oggetti
che ha il nome invoices
:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.classify_model`, TABLE `mydataset.invoices`, STRUCT('Classify this document based on the invoice total, using the following categories: 0 to 100, 101 to 200, greater than 200' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
gemini-pro-vision
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(PROMPT AS prompt, TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, SAFETY_SETTINGS AS safety_settings) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_NAME
: il nome del tabella degli oggetti che include i contenuti da analizzare. Per ulteriori informazioni sui tipi di contenuti che puoi analizzare, Ingresso.Il bucket Cloud Storage utilizzato dalla tabella degli oggetti deve trovarsi nello stesso progetto in cui hai creato il modello e in cui chiami la funzione
ML.GENERATE_TEXT
. Se vuoi chiamare il FunzioneML.GENERATE_TEXT
in un progetto diverso da quello che contiene il bucket Cloud Storage utilizzato dalla tabella degli oggetti, devi concedere il ruolo Amministratore Storage a livello di bucket all'account di servizioservice-A@gcp-sa-aiplatform.iam.gserviceaccount.com
.PROMPT
: la richiesta da utilizzare per analizzare i contenuti.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,2048]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è2048
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0.4
.Valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti ditemperature
possono portare a una maggiore diversità o risultati creativi. Un valore0
pertemperature
è deterministico, il che significa che viene sempre selezionata la risposta con la probabilità più alta.TOP_K
: un valoreINT64
nell'intervallo[1,40]
che determina il pool iniziale di token preso in considerazione dal modello per la selezione. Specifica un valore più basso per risposte meno random e un valore più alto per risposte più casuali. Il valore predefinito è32
.TOP_P
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
consente di determinare la probabilità dei token selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe vengono associate esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.SAFETY_SETTINGS
: un valoreARRAY<STRUCT<STRING AS category, STRING AS threshold>>
che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento della struttura specifica una categoria di danno e il secondo elemento della struttura specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ciascuna categoria una sola volta. Ad esempio, non puoi specificare siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
. Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza diBLOCK_MEDIUM_AND_ABOVE
.Le categorie supportate sono le seguenti:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Le soglie supportate sono le seguenti:
BLOCK_NONE
(con limitazioni)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(valore predefinito)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e di soglia di blocco.
Esempi
Questo esempio analizza i contenuti video di una tabella di oggetti denominata
videos
e descrive i contenuti di ogni video:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.video_model`, TABLE `mydataset.videos`, STRUCT('What is happening in this video?' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));