Generare testo utilizzando la funzione ML.GENERATE_TEXT

Questo documento mostra come creare un modello BigQuery ML modello remoto che fa riferimento a una Vertex AI modello di base. A seconda del modello Vertex AI scelto, puoi: utilizza la Funzione ML.GENERATE_TEXT di analizzare i dati non strutturati tabelle di oggetti o testo tabelle standard.

Autorizzazioni obbligatorie

  • Per creare una connessione, devi disporre di quanto segue Ruolo IAM (Identity and Access Management):

    • roles/bigquery.connectionAdmin
  • Per concedere le autorizzazioni all'account di servizio della connessione, è necessario il seguente autorizzazione:

    • resourcemanager.projects.setIamPolicy
  • Per creare il modello utilizzando BigQuery ML, è necessario quanto segue Autorizzazioni IAM:

    • bigquery.jobs.create
    • bigquery.models.create
    • bigquery.models.getData
    • bigquery.models.updateData
    • bigquery.models.updateMetadata
  • Per eseguire l'inferenza, devi disporre delle seguenti autorizzazioni:

    • bigquery.tables.getData in tavola
    • bigquery.models.getData sul modello
    • bigquery.jobs.create

Prima di iniziare

  1. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  2. Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.

  3. Abilita le API BigQuery, BigQuery Connection, and Vertex AI.

    Abilita le API

Crea una connessione

Crea un Connessione alle risorse cloud e recuperare l'account di servizio della connessione.

Seleziona una delle seguenti opzioni:

Console

  1. Vai alla pagina BigQuery.

    Vai a BigQuery

  2. Per creare una connessione, fai clic su Aggiungi e poi fai clic su Connessioni a origini dati esterne.

  3. Nell'elenco Tipo di connessione, seleziona Modelli remoti Vertex AI, funzioni remote e BigLake (risorsa Cloud).

  4. Nel campo ID connessione, inserisci un nome per connessione.

  5. Fai clic su Crea connessione.

  6. Fai clic su Vai alla connessione.

  7. Nel riquadro Informazioni sulla connessione, copia l'ID account di servizio per utilizzarlo in una passaggio successivo.

bq

  1. In un ambiente a riga di comando, crea una connessione:

    bq mk --connection --location=REGION --project_id=PROJECT_ID \
        --connection_type=CLOUD_RESOURCE CONNECTION_ID
    

    Il parametro --project_id sostituisce il progetto predefinito.

    Sostituisci quanto segue:

    • REGION: il tuo regione di connessione
    • PROJECT_ID: l'ID del tuo progetto Google Cloud
    • CONNECTION_ID: un ID per connessione

    Quando crei una risorsa di connessione, BigQuery crea di account di servizio di sistema univoco e lo associa alla connessione.

    Risoluzione dei problemi: se ricevi il seguente errore di connessione, Aggiorna Google Cloud SDK:

    Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
    
  2. Recupera e copia l'ID account di servizio per utilizzarlo in un secondo momento passaggio:

    bq show --connection PROJECT_ID.REGION.CONNECTION_ID
    

    L'output è simile al seguente:

    name                          properties
    1234.REGION.CONNECTION_ID     {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
    

Terraform

Aggiungi la seguente sezione al tuo file main.tf.

 ## This creates a cloud resource connection.
 ## Note: The cloud resource nested object has only one output only field - serviceAccountId.
 resource "google_bigquery_connection" "connection" {
    connection_id = "CONNECTION_ID"
    project = "PROJECT_ID"
    location = "REGION"
    cloud_resource {}
}        
Sostituisci quanto segue:

  • CONNECTION_ID: un ID per connessione
  • PROJECT_ID: l'ID del tuo progetto Google Cloud
  • REGION: il tuo regione di connessione

Concedi all'account di servizio l'accesso

Concedi al tuo account di servizio l'autorizzazione per utilizzare la connessione. Errore per fornire l'autorizzazione restituisce un errore. Seleziona una delle seguenti opzioni:

Console

  1. Vai alla sezione IAM e Console di amministrazione.

    Vai a IAM e Amministratore

  2. Fai clic su Aggiungi.

    Si apre la finestra di dialogo Aggiungi entità.

  3. Nel campo Nuove entità, inserisci l'ID account di servizio che copiato in precedenza.

  4. Nel campo Seleziona un ruolo, seleziona Vertex AI, quindi seleziona Utente Vertex AI.

  5. Fai clic su Salva.

gcloud

Utilizza la Comando gcloud projects add-iam-policy-binding.

gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/aiplatform.user' --condition=None

Sostituisci quanto segue:

  • PROJECT_NUMBER: il numero del tuo progetto
  • MEMBER: l'ID dell'account di servizio che copiato in precedenza

Crea un modello

  1. Nella console Google Cloud, vai alla pagina BigQuery.

    Vai a BigQuery

  2. Con l'editor SQL, crea un'istanza modello remoto:

    CREATE OR REPLACE MODEL
    `PROJECT_ID.DATASET_ID.MODEL_NAME`
    REMOTE WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID`
    OPTIONS (ENDPOINT = 'ENDPOINT');
    

    Sostituisci quanto segue:

    • PROJECT_ID: il tuo ID progetto
    • DATASET_ID: l'ID del set di dati da che contiene il modello. Questo set di dati deve essere nello stesso location come connessione che stai utilizzando
    • MODEL_NAME: il nome del modello
    • REGION: la regione utilizzata dalla connessione
    • CONNECTION_ID: l'ID del tuo Connessione BigQuery

      Quando visualizzi i dettagli della connessione nella console Google Cloud, questo è il valore riportato nell'ultima sezione l'ID connessione completo mostrato ID connessione, ad esempio projects/myproject/locations/connection_location/connections/myconnection

    • ENDPOINT: il nome del modello Vertex AI supportato. Ad esempio: ENDPOINT='gemini-pro'.

      Per alcuni tipi di modelli, puoi specificare versione del modello. Per informazioni su versioni del modello supportate per diversi tipi di modello, consulta ENDPOINT.

Genera testo da dati di testo utilizzando un prompt da una tabella

Genera testo utilizzando Funzione ML.GENERATE_TEXT con un modello remoto e utilizzando i dati di prompt di una colonna della tabella:

gemini-1.5-flash

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences,
  GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search,
  SAFETY_SETTINGS AS safety_settings)
);

Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • TABLE_NAME: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna denominata prompt oppure puoi usare un alias per usare un'altra denominata colonna.
  • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,8192]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è 128.
  • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,2.0] che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è 0.

    Valori più bassi per temperature sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti di temperature possono portare a una maggiore diversità o risultati creativi. Un valore di 0 per temperature è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.

  • TOP_P: un valore FLOAT64 nel l'intervallo [0.0,1.0] aiuta a determinare la probabilità selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è 0.95.
  • FLATTEN_JSON: un valore BOOL che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito è FALSE.
  • STOP_SEQUENCES: ARRAY<STRING> valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.
  • GROUND_WITH_GOOGLE_SEARCH: un valore BOOL che determina se il modello Vertex AI utilizza il monitoraggio con la Ricerca Google durante la generazione delle risposte. Il grounding consente al modello di utilizzare informazioni aggiuntive presenti su internet quando genera una risposta, in modo da rendere le risposte del modello più specifiche e oggettive. Se flatten_json_output e questo campo sono impostati su True, nei risultati viene inclusa un'ulteriore colonna ml_generate_text_grounding_result, che fornisce le origini utilizzate dal modello per raccogliere ulteriori informazioni. Il valore predefinito è FALSE.
  • SAFETY_SETTINGS: un valore ARRAY<STRUCT<STRING AS category, STRING AS threshold>> che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento dello struct specifica una categoria di danno, mentre il secondo dello struct specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ciascuna categoria una sola volta. Ad esempio, non puoi specificare sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold) sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold). Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza di BLOCK_MEDIUM_AND_ABOVE.

    Le categorie supportate sono le seguenti:

    • HARM_CATEGORY_HATE_SPEECH
    • HARM_CATEGORY_DANGEROUS_CONTENT
    • HARM_CATEGORY_HARASSMENT
    • HARM_CATEGORY_SEXUALLY_EXPLICIT

    Le soglie supportate sono le seguenti:

    • BLOCK_NONE (con limitazioni)
    • BLOCK_LOW_AND_ABOVE
    • BLOCK_MEDIUM_AND_ABOVE (valore predefinito)
    • BLOCK_ONLY_HIGH
    • HARM_BLOCK_THRESHOLD_UNSPECIFIED

    Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e di soglia di blocco.

Esempio

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Utilizza la colonna prompt della tabella prompts per la richiesta.
  • Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    TABLE mydataset.prompts,
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, TRUE AS flatten_json_output));

gemini-1.5-pro

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences,
  GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search,
  SAFETY_SETTINGS AS safety_settings)
);

Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • TABLE_NAME: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna denominata prompt oppure puoi usare un alias per usare un'altra denominata colonna.
  • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,8192]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è 128.
  • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,2.0] che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è 0.

    Valori più bassi per temperature sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti di temperature possono portare a una maggiore diversità o risultati creativi. Un valore di 0 per temperature è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.

  • TOP_P: un valore FLOAT64 nel l'intervallo [0.0,1.0] aiuta a determinare la probabilità selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è 0.95.
  • FLATTEN_JSON: un valore BOOL che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito è FALSE.
  • STOP_SEQUENCES: ARRAY<STRING> valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.
  • GROUND_WITH_GOOGLE_SEARCH: un valore BOOL che determina se il modello Vertex AI utilizza il monitoraggio con la Ricerca Google durante la generazione delle risposte. Il grounding consente al modello di utilizzare informazioni aggiuntive presenti su internet quando genera una risposta, in modo da rendere le risposte del modello più specifiche e oggettive. Se flatten_json_output e questo campo sono impostati su True, nei risultati viene inclusa un'ulteriore colonna ml_generate_text_grounding_result, che fornisce le origini utilizzate dal modello per raccogliere ulteriori informazioni. Il valore predefinito è FALSE.
  • SAFETY_SETTINGS: un valore ARRAY<STRUCT<STRING AS category, STRING AS threshold>> che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento dello struct specifica una categoria di danno, mentre il secondo dello struct specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ciascuna categoria una sola volta. Ad esempio, non puoi specificare sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold) sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold). Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza di BLOCK_MEDIUM_AND_ABOVE.

    Le categorie supportate sono le seguenti:

    • HARM_CATEGORY_HATE_SPEECH
    • HARM_CATEGORY_DANGEROUS_CONTENT
    • HARM_CATEGORY_HARASSMENT
    • HARM_CATEGORY_SEXUALLY_EXPLICIT

    Le soglie supportate sono le seguenti:

    • BLOCK_NONE (con limitazioni)
    • BLOCK_LOW_AND_ABOVE
    • BLOCK_MEDIUM_AND_ABOVE (valore predefinito)
    • BLOCK_ONLY_HIGH
    • HARM_BLOCK_THRESHOLD_UNSPECIFIED

    Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e di soglia di blocco.

Esempio

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Utilizza la colonna prompt della tabella prompts per la richiesta.
  • Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    TABLE mydataset.prompts,
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, TRUE AS flatten_json_output));

gemini-pro

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences,
  GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search,
  SAFETY_SETTINGS AS safety_settings)
);

Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • TABLE_NAME: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna denominata prompt oppure puoi usare un alias per usare un'altra denominata colonna.
  • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,8192]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è 128.
  • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,1.0] che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è 0.

    Valori più bassi per temperature sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti di temperature possono portare a una maggiore diversità o risultati creativi. Un valore di 0 per temperature è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.

  • TOP_K: un valore INT64 nel l'intervallo [1,40] che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è 40.
  • TOP_P: un valore FLOAT64 nel l'intervallo [0.0,1.0] aiuta a determinare la probabilità selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è 0.95.
  • FLATTEN_JSON: un valore BOOL che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito è FALSE.
  • STOP_SEQUENCES: ARRAY<STRING> valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.
  • GROUND_WITH_GOOGLE_SEARCH: un valore BOOL che determina se il modello Vertex AI utilizza il monitoraggio con la Ricerca Google durante la generazione delle risposte. Il grounding consente al modello di utilizzare informazioni aggiuntive presenti su internet quando genera una risposta, in modo da rendere le risposte del modello più specifiche e oggettive. Se flatten_json_output e questo campo sono impostati su True, nei risultati viene inclusa un'ulteriore colonna ml_generate_text_grounding_result, che fornisce le origini utilizzate dal modello per raccogliere ulteriori informazioni. Il valore predefinito è FALSE.
  • SAFETY_SETTINGS: un valore ARRAY<STRUCT<STRING AS category, STRING AS threshold>> che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento dello struct specifica una categoria di danno, mentre il secondo dello struct specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ciascuna categoria una sola volta. Ad esempio, non puoi specificare sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold) sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold). Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza di BLOCK_MEDIUM_AND_ABOVE.

    Le categorie supportate sono le seguenti:

    • HARM_CATEGORY_HATE_SPEECH
    • HARM_CATEGORY_DANGEROUS_CONTENT
    • HARM_CATEGORY_HARASSMENT
    • HARM_CATEGORY_SEXUALLY_EXPLICIT

    Le soglie supportate sono le seguenti:

    • BLOCK_NONE (con limitazioni)
    • BLOCK_LOW_AND_ABOVE
    • BLOCK_MEDIUM_AND_ABOVE (valore predefinito)
    • BLOCK_ONLY_HIGH
    • HARM_BLOCK_THRESHOLD_UNSPECIFIED

    Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e di soglia di blocco.

Esempio

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Utilizza la colonna prompt della tabella prompts per la richiesta.
  • Restituisce una risposta breve e moderatamente probabile.
  • Appiattisce la risposta JSON in colonne separate.
  • Recupera e restituisce i dati web pubblici per il grounding della risposta.
  • Filtra le risposte non sicure utilizzando due impostazioni di sicurezza.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    TABLE mydataset.prompts,
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      40 AS top_k, TRUE AS flatten_json_output,
      TRUE AS ground_with_google_search,
      [STRUCT('HARM_CATEGORY_HATE_SPEECH' AS category,
        'BLOCK_LOW_AND_ABOVE' AS threshold),
      STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category,
        'BLOCK_MEDIUM_AND_ABOVE' AS threshold)] AS safety_settings));

text-bison

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • TABLE_NAME: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna denominata prompt oppure puoi usare un alias per usare un'altra denominata colonna.
  • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,1024]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è 128.
  • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,1.0] che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è 0.

    Valori più bassi per temperature sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti di temperature possono portare a una maggiore diversità o risultati creativi. Un valore di 0 per temperature è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.

  • TOP_K: un valore INT64 nel l'intervallo [1,40] che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è 40.
  • TOP_P: un valore FLOAT64 nel l'intervallo [0.0,1.0] aiuta a determinare la probabilità selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è 0.95.
  • FLATTEN_JSON: un valore BOOL che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito è FALSE.
  • STOP_SEQUENCES: ARRAY<STRING> valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.

Esempio

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Utilizza la colonna prompt della tabella prompts per la richiesta.
  • Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    TABLE mydataset.prompts,
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, TRUE AS flatten_json_output));

text-bison32

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • TABLE_NAME: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna denominata prompt oppure puoi usare un alias per usare un'altra denominata colonna.
  • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,8192]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è 128.
  • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,1.0] che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è 0.

    Valori più bassi per temperature sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti di temperature possono portare a una maggiore diversità o risultati creativi. Un valore di 0 per temperature è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.

  • TOP_K: un valore INT64 nel l'intervallo [1,40] che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è 40.
  • TOP_P: un valore FLOAT64 nel l'intervallo [0.0,1.0] aiuta a determinare la probabilità selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è 0.95.
  • FLATTEN_JSON: un valore BOOL che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito è FALSE.
  • STOP_SEQUENCES: ARRAY<STRING> valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.

Esempio

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Utilizza la colonna prompt della tabella prompts per la richiesta.
  • Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    TABLE mydataset.prompts,
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, TRUE AS flatten_json_output));

text-unicorn

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • TABLE_NAME: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna denominata prompt oppure puoi usare un alias per usare un'altra denominata colonna.
  • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,1024]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è 128.
  • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,1.0] che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è 0.

    Valori più bassi per temperature sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti di temperature possono portare a una maggiore diversità o risultati creativi. Un valore di 0 per temperature è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.

  • TOP_K: un valore INT64 nel l'intervallo [1,40] che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è 40.
  • TOP_P: un valore FLOAT64 nel l'intervallo [0.0,1.0] aiuta a determinare la probabilità selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è 0.95.
  • FLATTEN_JSON: un valore BOOL che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito è FALSE.
  • STOP_SEQUENCES: ARRAY<STRING> valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.

Esempio

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Utilizza la colonna prompt della tabella prompts per la richiesta.
  • Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    TABLE mydataset.prompts,
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, TRUE AS flatten_json_output));

Genera testo da dati di testo utilizzando un prompt da una query

Genera testo utilizzando Funzione ML.GENERATE_TEXT con un modello remoto e utilizzando una query che fornisce i dati del prompt:

gemini-1.5-flash

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (PROMPT_QUERY),
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences,
  GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search,
  SAFETY_SETTINGS AS safety_settings)
);
Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • PROMPT_QUERY: una query che fornisce il prompt e i dati di Google Cloud.
  • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,8192]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è 128.
  • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,2.0] che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è 0.

    Valori più bassi per temperature sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti di temperature possono portare a una maggiore diversità o risultati creativi. Un valore di 0 per temperature è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.

  • TOP_P: un valore FLOAT64 nel l'intervallo [0.0,1.0] aiuta a determinare la probabilità selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è 0.95.
  • FLATTEN_JSON: un valore BOOL che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito è FALSE.
  • STOP_SEQUENCES: ARRAY<STRING> valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.
  • GROUND_WITH_GOOGLE_SEARCH: un valore BOOL che determina se il modello Vertex AI utilizza il monitoraggio con la Ricerca Google durante la generazione delle risposte. Il grounding consente al modello di utilizzare informazioni aggiuntive presenti su internet quando genera una risposta, in modo da rendere le risposte del modello più specifiche e oggettive. Se flatten_json_output e questo campo sono impostati su True, nei risultati viene inclusa un'ulteriore colonna ml_generate_text_grounding_result, che fornisce le origini utilizzate dal modello per raccogliere ulteriori informazioni. Il valore predefinito è FALSE.
  • SAFETY_SETTINGS: un valore ARRAY<STRUCT<STRING AS category, STRING AS threshold>> che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento dello struct specifica una categoria di danno, mentre il secondo dello struct specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ciascuna categoria una sola volta. Ad esempio, non puoi specificare sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold) sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold). Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza di BLOCK_MEDIUM_AND_ABOVE.

    Le categorie supportate sono le seguenti:

    • HARM_CATEGORY_HATE_SPEECH
    • HARM_CATEGORY_DANGEROUS_CONTENT
    • HARM_CATEGORY_HARASSMENT
    • HARM_CATEGORY_SEXUALLY_EXPLICIT

    Le soglie supportate sono le seguenti:

    • BLOCK_NONE (con limitazioni)
    • BLOCK_LOW_AND_ABOVE
    • BLOCK_MEDIUM_AND_ABOVE (valore predefinito)
    • BLOCK_ONLY_HIGH
    • HARM_BLOCK_THRESHOLD_UNSPECIFIED

    Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e di soglia di blocco.

Esempio 1

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Richiede un riepilogo del testo nella colonna body di la tabella articles.
  • Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      0.2 AS temperature, 650 AS max_output_tokens, TRUE AS flatten_json_output));

Esempio 2

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Utilizza una query per creare i dati del prompt concatenando stringhe che fornire prefissi di prompt con colonne delle tabelle.
  • Restituisce una risposta breve.
  • Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt
      FROM mydataset.input_table
    ),
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      FALSE AS flatten_json_output));

gemini-1.5-pro

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (PROMPT_QUERY),
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences,
  GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search,
  SAFETY_SETTINGS AS safety_settings)
);
Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • PROMPT_QUERY: una query che fornisce il prompt e i dati di Google Cloud.
  • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,8192]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è 128.
  • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,2.0] che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è 0.

    Valori più bassi per temperature sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti di temperature possono portare a una maggiore diversità o risultati creativi. Un valore di 0 per temperature è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.

  • TOP_P: un valore FLOAT64 nel l'intervallo [0.0,1.0] aiuta a determinare la probabilità selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è 0.95.
  • FLATTEN_JSON: un valore BOOL che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito è FALSE.
  • STOP_SEQUENCES: ARRAY<STRING> valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.
  • GROUND_WITH_GOOGLE_SEARCH: un valore BOOL che determina se il modello Vertex AI utilizza il monitoraggio con la Ricerca Google durante la generazione delle risposte. Il grounding consente al modello di utilizzare informazioni aggiuntive presenti su internet quando genera una risposta, in modo da rendere le risposte del modello più specifiche e oggettive. Se flatten_json_output e questo campo sono impostati su True, nei risultati viene inclusa un'ulteriore colonna ml_generate_text_grounding_result, che fornisce le origini utilizzate dal modello per raccogliere ulteriori informazioni. Il valore predefinito è FALSE.
  • SAFETY_SETTINGS: un valore ARRAY<STRUCT<STRING AS category, STRING AS threshold>> che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento dello struct specifica una categoria di danno, mentre il secondo dello struct specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ciascuna categoria una sola volta. Ad esempio, non puoi specificare sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold) sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold). Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza di BLOCK_MEDIUM_AND_ABOVE.

    Le categorie supportate sono le seguenti:

    • HARM_CATEGORY_HATE_SPEECH
    • HARM_CATEGORY_DANGEROUS_CONTENT
    • HARM_CATEGORY_HARASSMENT
    • HARM_CATEGORY_SEXUALLY_EXPLICIT

    Le soglie supportate sono le seguenti:

    • BLOCK_NONE (con limitazioni)
    • BLOCK_LOW_AND_ABOVE
    • BLOCK_MEDIUM_AND_ABOVE (valore predefinito)
    • BLOCK_ONLY_HIGH
    • HARM_BLOCK_THRESHOLD_UNSPECIFIED

    Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e di soglia di blocco.

Esempio 1

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Richiede un riepilogo del testo nella colonna body di la tabella articles.
  • Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      0.2 AS temperature, 650 AS max_output_tokens, TRUE AS flatten_json_output));

Esempio 2

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Utilizza una query per creare i dati del prompt concatenando stringhe che fornire prefissi di prompt con colonne delle tabelle.
  • Restituisce una risposta breve.
  • Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt
      FROM mydataset.input_table
    ),
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      FALSE AS flatten_json_output));

gemini-pro

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (PROMPT_QUERY),
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences,
  GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search,
  SAFETY_SETTINGS AS safety_settings)
);
Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • PROMPT_QUERY: una query che fornisce il prompt e i dati di Google Cloud.
  • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,8192]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è 128.
  • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,1.0] che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è 0.

    Valori più bassi per temperature sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti di temperature possono portare a una maggiore diversità o risultati creativi. Un valore di 0 per temperature è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.

  • TOP_K: un valore INT64 nel l'intervallo [1,40] che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è 40.
  • TOP_P: un valore FLOAT64 nel l'intervallo [0.0,1.0] aiuta a determinare la probabilità selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è 0.95.
  • FLATTEN_JSON: un valore BOOL che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito è FALSE.
  • STOP_SEQUENCES: ARRAY<STRING> valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.
  • GROUND_WITH_GOOGLE_SEARCH: un valore BOOL che determina se il modello Vertex AI utilizza il monitoraggio con la Ricerca Google durante la generazione delle risposte. Il grounding consente al modello di utilizzare informazioni aggiuntive presenti su internet quando genera una risposta, in modo da rendere le risposte del modello più specifiche e oggettive. Se flatten_json_output e questo campo sono impostati su True, nei risultati viene inclusa un'ulteriore colonna ml_generate_text_grounding_result, che fornisce le origini utilizzate dal modello per raccogliere ulteriori informazioni. Il valore predefinito è FALSE.
  • SAFETY_SETTINGS: un valore ARRAY<STRUCT<STRING AS category, STRING AS threshold>> che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento dello struct specifica una categoria di danno, mentre il secondo dello struct specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ciascuna categoria una sola volta. Ad esempio, non puoi specificare sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold) sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold). Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza di BLOCK_MEDIUM_AND_ABOVE.

    Le categorie supportate sono le seguenti:

    • HARM_CATEGORY_HATE_SPEECH
    • HARM_CATEGORY_DANGEROUS_CONTENT
    • HARM_CATEGORY_HARASSMENT
    • HARM_CATEGORY_SEXUALLY_EXPLICIT

    Le soglie supportate sono le seguenti:

    • BLOCK_NONE (con limitazioni)
    • BLOCK_LOW_AND_ABOVE
    • BLOCK_MEDIUM_AND_ABOVE (valore predefinito)
    • BLOCK_ONLY_HIGH
    • HARM_BLOCK_THRESHOLD_UNSPECIFIED

    Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e di soglia di blocco.

Esempio 1

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Richiede un riepilogo del testo nella colonna body di la tabella articles.
  • Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      0.2 AS temperature, 650 AS max_output_tokens, TRUE AS flatten_json_output));

Esempio 2

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Utilizza una query per creare i dati del prompt concatenando stringhe che fornire prefissi di prompt con colonne delle tabelle.
  • Restituisce una risposta breve.
  • Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt
      FROM mydataset.input_table
    ),
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      FALSE AS flatten_json_output));

Esempio 3

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Richiede un riepilogo del testo nella colonna body di la tabella articles.
  • Appiattisce la risposta JSON in colonne separate.
  • Recupera e restituisce i dati web pubblici per il grounding della risposta.
  • Filtra le risposte non sicure utilizzando due impostazioni di sicurezza.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      TRUE AS flatten_json_output, TRUE AS ground_with_google_search,
      [STRUCT('HARM_CATEGORY_HATE_SPEECH' AS category,
        'BLOCK_LOW_AND_ABOVE' AS threshold),
      STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category,
        'BLOCK_MEDIUM_AND_ABOVE' AS threshold)] AS safety_settings));

text-bison

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (PROMPT_QUERY),
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);
Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • PROMPT_QUERY: una query che fornisce il prompt e i dati di Google Cloud.
  • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,1024]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è 128.
  • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,1.0] che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è 0.

    Valori più bassi per temperature sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti di temperature possono portare a una maggiore diversità o risultati creativi. Un valore di 0 per temperature è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.

  • TOP_K: un valore INT64 nel l'intervallo [1,40] che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è 40.
  • TOP_P: un valore FLOAT64 nel l'intervallo [0.0,1.0] aiuta a determinare la probabilità selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è 0.95.
  • FLATTEN_JSON: un valore BOOL che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito è FALSE.
  • STOP_SEQUENCES: ARRAY<STRING> valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.

Esempio 1

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Richiede un riepilogo del testo nella colonna body di la tabella articles.
  • Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      0.2 AS temperature, 650 AS max_output_tokens, TRUE AS flatten_json_output));

Esempio 2

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Utilizza una query per creare i dati del prompt concatenando stringhe che fornire prefissi di prompt con colonne delle tabelle.
  • Restituisce una risposta breve.
  • Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt
      FROM mydataset.input_table
    ),
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      FALSE AS flatten_json_output));

text-bison32

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (PROMPT_QUERY),
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);
Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • PROMPT_QUERY: una query che fornisce il prompt e i dati di Google Cloud.
  • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,8192]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è 128.
  • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,1.0] che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è 0.

    Valori più bassi per temperature sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti di temperature possono portare a una maggiore diversità o risultati creativi. Un valore di 0 per temperature è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.

  • TOP_K: un valore INT64 nel l'intervallo [1,40] che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è 40.
  • TOP_P: un valore FLOAT64 nel l'intervallo [0.0,1.0] aiuta a determinare la probabilità selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è 0.95.
  • FLATTEN_JSON: un valore BOOL che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito è FALSE.
  • STOP_SEQUENCES: ARRAY<STRING> valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.

Esempio 1

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Richiede un riepilogo del testo nella colonna body di la tabella articles.
  • Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      0.2 AS temperature, 650 AS max_output_tokens, TRUE AS flatten_json_output));

Esempio 2

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Utilizza una query per creare i dati del prompt concatenando stringhe che fornire prefissi di prompt con colonne delle tabelle.
  • Restituisce una risposta breve.
  • Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt
      FROM mydataset.input_table
    ),
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      FALSE AS flatten_json_output));

text-unicorn

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (PROMPT_QUERY),
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);
Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • PROMPT_QUERY: una query che fornisce il prompt e i dati di Google Cloud.
  • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,1024]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è 128.
  • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,1.0] che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è 0.

    Valori più bassi per temperature sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti di temperature possono portare a una maggiore diversità o risultati creativi. Un valore di 0 per temperature è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.

  • TOP_K: un valore INT64 nel l'intervallo [1,40] che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è 40.
  • TOP_P: un valore FLOAT64 nel l'intervallo [0.0,1.0] aiuta a determinare la probabilità selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è 0.95.
  • FLATTEN_JSON: un valore BOOL che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito è FALSE.
  • STOP_SEQUENCES: ARRAY<STRING> valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.

Esempio 1

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Richiede un riepilogo del testo nella colonna body di la tabella articles.
  • Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      0.2 AS temperature, 650 AS max_output_tokens, TRUE AS flatten_json_output));

Esempio 2

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Utilizza una query per creare i dati del prompt concatenando stringhe che fornire prefissi di prompt con colonne delle tabelle.
  • Restituisce una risposta breve.
  • Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt
      FROM mydataset.input_table
    ),
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      FALSE AS flatten_json_output));

Genera testo dai dati della tabella degli oggetti

Genera testo utilizzando Funzione ML.GENERATE_TEXT con un modello remoto, utilizzando una tabella di oggetti per fornire i contenuti da analizzare e fornendo i dati del prompt nel parametro prompt:

gemini-1.5-flash

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(PROMPT AS prompt, TOKENS AS max_output_tokens,
  TEMPERATURE AS temperature, TOP_P AS top_p,
  FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences,
  SAFETY_SETTINGS AS safety_settings)
);

Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • TABLE_NAME: il nome del tabella degli oggetti che include i contenuti da analizzare. Per ulteriori informazioni sui tipi di contenuti che puoi analizzare, Ingresso.

    Il bucket Cloud Storage utilizzato dalla tabella degli oggetti deve essere nel nello stesso progetto in cui hai creato il modello e in cui chiami Funzione ML.GENERATE_TEXT.

  • PROMPT: la richiesta da utilizzare per analizzare i contenuti.
  • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,8192]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è 128.
  • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,2.0] che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è 0.

    Valori più bassi per temperature sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti di temperature possono portare a una maggiore diversità o risultati creativi. Un valore di 0 per temperature è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.

  • TOP_P: un valore FLOAT64 nel l'intervallo [0.0,1.0] aiuta a determinare la probabilità selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è 0.95.
  • FLATTEN_JSON: un valore BOOL che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito è FALSE.
  • STOP_SEQUENCES: ARRAY<STRING> valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.
  • SAFETY_SETTINGS: un valore ARRAY<STRUCT<STRING AS category, STRING AS threshold>> che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento dello struct specifica una categoria di danno, mentre il secondo dello struct specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ciascuna categoria una sola volta. Ad esempio, non puoi specificare sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold) sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold). Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza di BLOCK_MEDIUM_AND_ABOVE.

    Le categorie supportate sono le seguenti:

    • HARM_CATEGORY_HATE_SPEECH
    • HARM_CATEGORY_DANGEROUS_CONTENT
    • HARM_CATEGORY_HARASSMENT
    • HARM_CATEGORY_SEXUALLY_EXPLICIT

    Le soglie supportate sono le seguenti:

    • BLOCK_NONE (con limitazioni)
    • BLOCK_LOW_AND_ABOVE
    • BLOCK_MEDIUM_AND_ABOVE (valore predefinito)
    • BLOCK_ONLY_HIGH
    • HARM_BLOCK_THRESHOLD_UNSPECIFIED

    Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e di soglia di blocco.

Esempi

Questo esempio analizza i contenuti video di una tabella di oggetti denominata videos e descrive i contenuti di ogni video:

SELECT * FROM
  ML.GENERATE_TEXT(
    MODEL
      `mydataset.video_model`,
        TABLE `mydataset.videos`,
          STRUCT('What is happening in this video?' AS PROMPT,
          TRUE AS FLATTEN_JSON_OUTPUT));

Questo esempio traduce e trascrive i contenuti audio da una tabella di oggetti che ha il nome feedback:

SELECT * FROM
  ML.GENERATE_TEXT(
    MODEL
      `mydataset.audio_model`,
        TABLE `mydataset.feedback`,
          STRUCT('What is the content of this audio clip, translated into Spanish?' AS PROMPT,
          TRUE AS FLATTEN_JSON_OUTPUT));

Questo esempio classifica i contenuti PDF da una tabella di oggetti che ha il nome invoices:

SELECT * FROM
  ML.GENERATE_TEXT(
    MODEL
      `mydataset.classify_model`,
        TABLE `mydataset.invoices`,
          STRUCT('Classify this document based on the invoice total, using the following categories: 0 to 100, 101 to 200, greater than 200' AS PROMPT,
          TRUE AS FLATTEN_JSON_OUTPUT));

gemini-1.5-pro

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(PROMPT AS prompt, TOKENS AS max_output_tokens,
  TEMPERATURE AS temperature, TOP_P AS top_p,
  FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences,
  SAFETY_SETTINGS AS safety_settings)
);

Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • TABLE_NAME: il nome del tabella degli oggetti che include i contenuti da analizzare. Per ulteriori informazioni sui tipi di contenuti che puoi analizzare, Ingresso.

    Il bucket Cloud Storage utilizzato dalla tabella degli oggetti deve essere nel nello stesso progetto in cui hai creato il modello e in cui chiami Funzione ML.GENERATE_TEXT.

  • PROMPT: la richiesta da utilizzare per analizzare i contenuti.
  • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,8192]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è 128.
  • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,2.0] che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è 0.

    Valori più bassi per temperature sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti di temperature possono portare a una maggiore diversità o risultati creativi. Un valore di 0 per temperature è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.

  • TOP_P: un valore FLOAT64 nel l'intervallo [0.0,1.0] aiuta a determinare la probabilità selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è 0.95.
  • FLATTEN_JSON: un valore BOOL che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito è FALSE.
  • STOP_SEQUENCES: ARRAY<STRING> valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.
  • SAFETY_SETTINGS: un valore ARRAY<STRUCT<STRING AS category, STRING AS threshold>> che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento dello struct specifica una categoria di danno, mentre il secondo dello struct specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ciascuna categoria una sola volta. Ad esempio, non puoi specificare sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold) sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold). Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza di BLOCK_MEDIUM_AND_ABOVE.

    Le categorie supportate sono le seguenti:

    • HARM_CATEGORY_HATE_SPEECH
    • HARM_CATEGORY_DANGEROUS_CONTENT
    • HARM_CATEGORY_HARASSMENT
    • HARM_CATEGORY_SEXUALLY_EXPLICIT

    Le soglie supportate sono le seguenti:

    • BLOCK_NONE (con limitazioni)
    • BLOCK_LOW_AND_ABOVE
    • BLOCK_MEDIUM_AND_ABOVE (valore predefinito)
    • BLOCK_ONLY_HIGH
    • HARM_BLOCK_THRESHOLD_UNSPECIFIED

    Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e di soglia di blocco.

Esempi

Questo esempio analizza i contenuti video di una tabella di oggetti denominata videos e descrive i contenuti di ogni video:

SELECT * FROM
  ML.GENERATE_TEXT(
    MODEL
      `mydataset.video_model`,
        TABLE `mydataset.videos`,
          STRUCT('What is happening in this video?' AS PROMPT,
          TRUE AS FLATTEN_JSON_OUTPUT));

Questo esempio traduce e trascrive i contenuti audio da una tabella di oggetti che ha il nome feedback:

SELECT * FROM
  ML.GENERATE_TEXT(
    MODEL
      `mydataset.audio_model`,
        TABLE `mydataset.feedback`,
          STRUCT('What is the content of this audio clip, translated into Spanish?' AS PROMPT,
          TRUE AS FLATTEN_JSON_OUTPUT));

Questo esempio classifica i contenuti PDF da una tabella di oggetti che ha il nome invoices:

SELECT * FROM
  ML.GENERATE_TEXT(
    MODEL
      `mydataset.classify_model`,
        TABLE `mydataset.invoices`,
          STRUCT('Classify this document based on the invoice total, using the following categories: 0 to 100, 101 to 200, greater than 200' AS PROMPT,
          TRUE AS FLATTEN_JSON_OUTPUT));

gemini-pro-vision

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(PROMPT AS prompt, TOKENS AS max_output_tokens,
  TEMPERATURE AS temperature, TOP_K AS top_k,
  TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences,
  SAFETY_SETTINGS AS safety_settings)
);

Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • TABLE_NAME: il nome del tabella degli oggetti che include i contenuti da analizzare. Per ulteriori informazioni sui tipi di contenuti che puoi analizzare, Ingresso.

    Il bucket Cloud Storage utilizzato dalla tabella degli oggetti deve essere nel nello stesso progetto in cui hai creato il modello e in cui chiami Funzione ML.GENERATE_TEXT.

  • PROMPT: la richiesta da utilizzare per analizzare i contenuti.
  • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,2048]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è 2048.
  • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,1.0] che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è 0.4.

    Valori più bassi per temperature sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti di temperature possono portare a una maggiore diversità o risultati creativi. Un valore di 0 per temperature è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.

  • TOP_K: un valore INT64 nel l'intervallo [1,40] che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è 32.
  • TOP_P: un valore FLOAT64 nel l'intervallo [0.0,1.0] aiuta a determinare la probabilità selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è 0.95.
  • FLATTEN_JSON: un valore BOOL che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito è FALSE.
  • STOP_SEQUENCES: ARRAY<STRING> valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.
  • SAFETY_SETTINGS: un valore ARRAY<STRUCT<STRING AS category, STRING AS threshold>> che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento dello struct specifica una categoria di danno, mentre il secondo dello struct specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ciascuna categoria una sola volta. Ad esempio, non puoi specificare sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold) sia STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold). Se non esiste un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezza di BLOCK_MEDIUM_AND_ABOVE.

    Le categorie supportate sono le seguenti:

    • HARM_CATEGORY_HATE_SPEECH
    • HARM_CATEGORY_DANGEROUS_CONTENT
    • HARM_CATEGORY_HARASSMENT
    • HARM_CATEGORY_SEXUALLY_EXPLICIT

    Le soglie supportate sono le seguenti:

    • BLOCK_NONE (con limitazioni)
    • BLOCK_LOW_AND_ABOVE
    • BLOCK_MEDIUM_AND_ABOVE (valore predefinito)
    • BLOCK_ONLY_HIGH
    • HARM_BLOCK_THRESHOLD_UNSPECIFIED

    Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e di soglia di blocco.

Esempi

Questo esempio analizza i contenuti video di una tabella di oggetti denominata videos e descrive i contenuti di ogni video:

SELECT * FROM
  ML.GENERATE_TEXT(
    MODEL
      `mydataset.video_model`,
        TABLE `mydataset.videos`,
          STRUCT('What is happening in this video?' AS PROMPT,
          TRUE AS FLATTEN_JSON_OUTPUT));