Ottimizza un modello utilizzando i tuoi dati

Questo documento mostra come creare un modello remoto BigQuery ML che faccia riferimento a qualsiasi versione del modello di base di Vertex AI per linguaggio naturale, nonché di configurare il modello per eseguire l'ottimizzazione supervisionata.text-bison Dopo aver creato il modello remoto, puoi utilizzare la funzione ML.EVALUATE per valutarlo e confermare che le sue prestazioni si adattano al tuo caso d'uso. Puoi quindi utilizzare il modello in combinazione con la funzione ML.GENERATE_TEXT per analizzare il testo in una tabella BigQuery.

Autorizzazioni obbligatorie

  • Per creare una connessione, devi far parte del seguente ruolo IAM (Identity and Access Management):

    • roles/bigquery.connectionAdmin
  • Per concedere le autorizzazioni all'account di servizio della connessione, devi disporre della seguente autorizzazione:

    • resourcemanager.projects.setIamPolicy
  • Per creare il modello utilizzando BigQuery ML, devi disporre delle seguenti autorizzazioni IAM:

    • bigquery.jobs.create
    • bigquery.models.create
    • bigquery.models.getData
    • bigquery.models.updateData
    • bigquery.models.updateMetadata
  • Per eseguire l'inferenza, devi disporre delle seguenti autorizzazioni:

    • bigquery.tables.getData sul tavolo
    • bigquery.models.getData sul modello
    • bigquery.jobs.create

Prima di iniziare

  1. Nella pagina del selettore di progetti della console Google Cloud, seleziona o crea un progetto Google Cloud.

    Vai al selettore progetti

  2. Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.

  3. Abilita le API BigQuery, BigQuery Connection,Vertex AI, and Compute Engine.

    Abilita le API

Crea una connessione

Crea una connessione alle risorse cloud e recupera l'account di servizio della connessione.

Seleziona una delle seguenti opzioni:

Console

  1. Vai alla pagina BigQuery.

    Vai a BigQuery

  2. Per creare una connessione, fai clic su Aggiungi e poi su Connessioni a origini dati esterne.

  3. Nell'elenco Tipo di connessione, seleziona Modelli remoti Vertex AI, funzioni remote e BigLake (risorsa Cloud).

  4. Nel campo ID connessione, inserisci un nome per la connessione.

  5. Fai clic su Crea connessione.

  6. Fai clic su Vai alla connessione.

  7. Nel riquadro Informazioni sulla connessione, copia l'ID account di servizio da utilizzare in un passaggio successivo.

bq

  1. In un ambiente a riga di comando, crea una connessione:

    bq mk --connection --location=REGION --project_id=PROJECT_ID \
        --connection_type=CLOUD_RESOURCE CONNECTION_ID
    

    Il parametro --project_id sostituisce il progetto predefinito.

    Sostituisci quanto segue:

    • REGION: la tua regione di connessione
    • PROJECT_ID: l'ID del tuo progetto Google Cloud
    • CONNECTION_ID: un ID per la tua connessione

    Quando crei una risorsa di connessione, BigQuery crea un account di servizio di sistema univoco e lo associa alla connessione.

    Risoluzione dei problemi: se visualizzi il seguente errore di connessione, aggiorna Google Cloud SDK:

    Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
    
  2. Recupera e copia l'ID account di servizio per utilizzarlo in un passaggio successivo:

    bq show --connection PROJECT_ID.REGION.CONNECTION_ID
    

    L'output è simile al seguente:

    name                          properties
    1234.REGION.CONNECTION_ID     {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
    

Terraform

Aggiungi la sezione seguente al file main.tf.

 ## This creates a cloud resource connection.
 ## Note: The cloud resource nested object has only one output only field - serviceAccountId.
 resource "google_bigquery_connection" "connection" {
    connection_id = "CONNECTION_ID"
    project = "PROJECT_ID"
    location = "REGION"
    cloud_resource {}
}        
Sostituisci quanto segue:

  • CONNECTION_ID: un ID per la tua connessione
  • PROJECT_ID: l'ID del tuo progetto Google Cloud
  • REGION: la tua regione di connessione

Concedere l'accesso all'account di servizio della connessione

Concedi al tuo account di servizio l'autorizzazione ad accedere a Vertex AI. Se non fornisci l'autorizzazione, viene visualizzato un errore. Seleziona una delle seguenti opzioni:

Console

  1. Vai alla pagina IAM e amministrazione.

    Vai a IAM e amministrazione

  2. Fai clic su Concedi l'accesso.

  3. In Nuove entità, inserisci l'ID account di servizio che hai copiato in precedenza.

  4. Fai clic su Seleziona un ruolo.

  5. In Filtro, digita Vertex AI Service Agent e seleziona il ruolo.

  6. Fai clic su Salva.

gcloud

Utilizza il comando gcloud projects add-iam-policy-binding:

gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/aiplatform.serviceAgent' --condition=None

Sostituisci quanto segue:

  • PROJECT_NUMBER: il numero del tuo progetto.
  • MEMBER: l'ID account di servizio che hai copiato in precedenza.

L'account di servizio associato alla connessione è un'istanza dell'agente di servizio per la delega di connessioni BigQuery, quindi puoi assegnargli un ruolo di agente di servizio.

Concedere l'accesso all'account di servizio predefinito di Compute Engine

Quando abiliti l'API Compute Engine, all'account di servizio predefinito di Compute Engine viene automaticamente concesso il ruolo Editor sul progetto, a meno che tu non abbia disabilitato questo comportamento per il progetto. In questo caso, devi concedere nuovamente il ruolo Editor all'accesso all'account di servizio predefinito di Compute Engine in modo che abbia autorizzazioni sufficienti per creare e ottimizzare un modello remoto.

Console

  1. Vai alla pagina IAM e amministrazione.

    Vai a IAM e amministrazione

  2. Fai clic su Concedi l'accesso.

  3. In Nuove entità, inserisci l'ID account di servizio, che è PROJECT_NUMBER-compute@developer.gserviceaccount.com.

  4. Fai clic su Seleziona un ruolo.

  5. In Seleziona un ruolo, scegli Di base e poi seleziona Editor.

  6. Fai clic su Salva.

gcloud

Utilizza il comando gcloud projects add-iam-policy-binding:

gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/editor' --condition=None

Sostituisci quanto segue:

  • PROJECT_NUMBER: il numero del tuo progetto.
  • MEMBER: l'ID account di servizio, che è PROJECT_NUMBER-compute@developer.gserviceaccount.com.

Crea un modello con ottimizzazione supervisionato

  1. Nella console Google Cloud, vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nell'editor query, esegui la query seguente per creare un modello remoto:

    CREATE OR REPLACE MODEL
    `PROJECT_ID.DATASET_ID.MODEL_NAME`
    REMOTE WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID`
    OPTIONS (
      ENDPOINT = 'ENDPOINT',
      MAX_ITERATIONS = MAX_ITERATIONS,
      EARLY_STOP = EARLY_STOP,
      LEARNING_RATE_MULTIPLIER = LEARNING_RATE_MULTIPLIER,
      ACCELERATOR_TYPE = 'ACCELERATOR_TYPE',
      DATA_SPLIT_METHOD = 'DATA_SPLIT_METHOD',
      DATA_SPLIT_EVAL_FRACTION = DATA_SPLIT_EVAL_FRACTION,
      DATA_SPLIT_COL = 'DATA_SPLIT_COL',
      EVALUATION_TASK = 'EVALUATION_TASK',
      PROMPT_COL = 'INPUT_PROMPT_COL',
      INPUT_LABEL_COLS = INPUT_LABEL_COLS)
    AS SELECT PROMPT_COLUMN, LABEL_COLUMN
    FROM `TABLE_PROJECT_ID.TABLE_DATASET.TABLE_NAME`;
    

    Sostituisci quanto segue:

    • PROJECT_ID: l'ID del progetto in cui creare il modello.
    • DATASET_ID: l'ID del set di dati che conterrà il modello. Questo set di dati deve trovarsi in una regione supportata per il caricamento del modello e del job della pipeline.
    • MODEL_NAME: il nome del modello.
    • REGION: la regione utilizzata dalla connessione.
    • CONNECTION_ID: l'ID della tua connessione BigQuery. Questa connessione deve trovarsi nella stessa località del set di dati in uso.

      Quando vengono visualizzati i dettagli della connessione nella console Google Cloud, si tratta del valore nell'ultima sezione dell'ID connessione completo mostrato in ID connessione, ad esempio projects/myproject/locations/connection_location/connections/myconnection.

    • ENDPOINT: un valore STRING che specifica il nome del testo LLM da utilizzare, che in questo caso deve essere qualsiasi versione del modello text-bison.
    • MAX_ITERATIONS: un valore INT64 che specifica il numero di passaggi da eseguire per l'ottimizzazione supervisionata. Il valore MAX_ITERATIONS deve essere compreso tra 1 e 2400. In genere, il completamento di 100 passi richiede circa un'ora. Il valore predefinito è 300.

      Il valore MAX_ITERATIONS in combinazione con il valore ACCELERATOR_TYPE influisce sulle dimensioni del batch utilizzate nell'addestramento del modello. Per ulteriori indicazioni sulla scelta del numero di passaggi di addestramento, consulta Configurazioni consigliate.

      Per maggiori informazioni, vedi MAX_ITERATIONS.

    • EARLY_STOP: un valore BOOL che determina se interrompere l'ottimizzazione supervisionata prima di completare tutti i passaggi dell'ottimizzazione. Se il criterio viene impostato su TRUE, l'ottimizzazione supervisionata viene interrotta se le prestazioni del modello, misurate in base all'accuratezza dei token previsti, non migliorano sufficientemente tra le esecuzioni della valutazione. Se il criterio viene impostato su FALSE, l'ottimizzazione supervisionata continua fino al completamento di tutti i passaggi dell'ottimizzazione. Il valore predefinito è FALSE.
    • LEARNING_RATE_MULTIPLIER: un FLOAT64 moltiplicatore da applicare al tasso di apprendimento suggerito. Il valore predefinito è 1.0.
    • ACCELERATOR_TYPE: un valore STRING che specifica il tipo di acceleratore da utilizzare per l'ottimizzazione supervisionata. Le opzioni valide sono le seguenti:
      • GPU: utilizza GPU A100 da 80 GB per l'ottimizzazione supervisionata.
      • TPU: utilizza 64 core del pod TPU v3 per l'ottimizzazione supervisionata. Se scegli questa opzione, si verifica quanto segue:
        • Devi eseguire la query nella regione europe-west4. Per informazioni su come modificare le opzioni di query, ad esempio la località, consulta Eseguire una query interattiva.
        • I calcoli dell'ottimizzazione supervisionata vengono eseguiti nella regione europe-west4 perché è qui che si trovano le risorse TPU.

      Il valore predefinito è GPU. Qualunque sia l'opzione che utilizzi, assicurati di avere una quota sufficiente.

    • DATA_SPLIT_METHOD: un valore STRING che specifica il metodo utilizzato per suddividere i dati di input in set di addestramento e valutazione. Le opzioni valide sono le seguenti:
      • AUTO_SPLIT: BigQuery ML suddivide automaticamente i dati. Il modo in cui i dati vengono suddivisi varia in base al numero di righe nella tabella di input. Questo è il valore predefinito.
      • RANDOM: i dati vengono randomizzati prima di essere suddivisi in set. Per personalizzare la suddivisione dei dati, puoi utilizzare questa opzione con l'opzione DATA_SPLIT_EVAL_FRACTION.
      • CUSTOM: i dati vengono suddivisi utilizzando la colonna fornita nell'opzione DATA_SPLIT_COL. Il valore DATA_SPLIT_COL deve essere il nome di una colonna di tipo BOOL. Le righe con valore TRUE o NULL vengono utilizzate come dati di valutazione, mentre le righe con valore FALSE vengono utilizzate come dati di addestramento.
      • SEQ: suddividi i dati utilizzando la colonna fornita nell'opzione DATA_SPLIT_COL. Il valore DATA_SPLIT_COL deve essere il nome di una colonna di uno dei seguenti tipi:
        • NUMERIC
        • BIGNUMERIC
        • STRING
        • TIMESTAMP

        I dati vengono ordinati dal più piccolo al più grande in base alla colonna specificata.

        Le prime n righe vengono utilizzate come dati di valutazione, dove n è il valore specificato per DATA_SPLIT_EVAL_FRACTION. Le righe rimanenti vengono utilizzate come dati di addestramento.

      • NO_SPLIT: nessuna suddivisione dei dati; tutti i dati di input vengono utilizzati come dati di addestramento.

      Per maggiori informazioni su queste opzioni di suddivisione dati, consulta DATA_SPLIT_METHOD.

    • DATA_SPLIT_EVAL_FRACTION: un valore FLOAT64 che specifica la frazione di dati da utilizzare come dati di valutazione durante l'esecuzione dell'ottimizzazione supervisionata. Deve essere un valore compreso nell'intervallo [0, 1.0]. Il valore predefinito è 0.2.

      Utilizza questa opzione quando specifichi RANDOM o SEQ come valore per l'opzione DATA_SPLIT_METHOD. Per personalizzare la suddivisione dei dati, puoi utilizzare l'opzione DATA_SPLIT_METHOD con l'opzione DATA_SPLIT_EVAL_FRACTION.

    • DATA_SPLIT_COL: un valore STRING che specifica il nome della colonna da utilizzare per ordinare i dati di input nel set di addestramento o valutazione. Da utilizzare quando specifichi CUSTOM o SEQ come valore per l'opzione DATA_SPLIT_METHOD.
    • EVALUATION_TASK: un valore STRING che specifica il tipo di attività che vuoi ottimizzare il modello per eseguire. Le opzioni valide sono:
      • TEXT_GENERATION
      • CLASSIFICATION
      • SUMMARIZATION
      • QUESTION_ANSWERING
      • UNSPECIFIED

      Il valore predefinito è UNSPECIFIED.

    • INPUT_PROMPT_COL: un valore STRING che contiene il nome della colonna del prompt nella tabella dei dati di addestramento da utilizzare durante l'esecuzione dell'ottimizzazione supervisionata. Il valore predefinito è prompt.
    • INPUT_LABEL_COLS: un valore ARRAY<<STRING> che contiene il nome della colonna dell'etichetta nella tabella dei dati di addestramento da utilizzare nell'ottimizzazione supervisionata. Puoi specificare un solo elemento dell'array. Il valore predefinito è un array vuoto. Questo fa sì che label sia il valore predefinito dell'argomento LABEL_COLUMN.
    • PROMPT_COLUMN: la colonna nella tabella dei dati di addestramento che contiene la richiesta di valutazione dei contenuti nella colonna LABEL_COLUMN. Questa colonna deve essere di tipo STRING o essere trasmessa a STRING. Se specifichi un valore per l'opzione INPUT_PROMPT_COL, devi specificare lo stesso valore per PROMPT_COLUMN. In caso contrario, questo valore deve essere prompt. Se la tabella non ha una colonna prompt, utilizza un alias per specificare una colonna esistente della tabella. Ad esempio, AS SELECT hint AS prompt, label FROM mydataset.mytable.
    • LABEL_COLUMN: la colonna nella tabella dei dati di addestramento che contiene gli esempi con cui addestrare il modello. Questa colonna deve essere di tipo STRING o essere trasmessa a STRING. Se specifichi un valore per l'opzione INPUT_LABEL_COLS, devi specificare lo stesso valore per LABEL_COLUMN. In caso contrario, questo valore deve essere label. Se la tabella non ha una colonna label, utilizza un alias per specificare una colonna esistente della tabella. Ad esempio, AS SELECT prompt, feature AS label FROM mydataset.mytable.
    • TABLE_PROJECT_ID: l'ID del progetto che contiene la tabella di dati di addestramento.
    • TABLE_DATASET: il nome del set di dati che contiene la tabella di dati di addestramento.
    • TABLE_NAME: il nome della tabella che contiene i dati da utilizzare per addestrare il modello.

Valuta il modello ottimizzato

  1. Nella console Google Cloud, vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nell'editor query, esegui la query seguente per valutare il modello ottimizzato:

    SELECT
    *
    FROM
    ML.EVALUATE(
      MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
      TABLE `TABLE_PROJECT_ID.TABLE_DATASET.TABLE_NAME`,
      STRUCT('TASK_TYPE' AS task_type, TOKENS AS max_output_tokens,
        TEMPERATURE AS temperature, TOP_K AS top_k,
        TOP_P AS top_p));
    

    Sostituisci quanto segue:

    • PROJECT_ID: l'ID del progetto che contiene il modello.
    • DATASET_ID: l'ID del set di dati che contiene il modello.
    • MODEL_NAME: il nome del modello.
    • TABLE_PROJECT_ID: l'ID del progetto che contiene la tabella dei dati di valutazione.
    • TABLE_DATASET: il nome del set di dati che contiene la tabella dei dati di valutazione.
    • TABLE_NAME: il nome della tabella che contiene i dati di valutazione.

      La tabella deve avere una colonna il cui nome corrisponde al nome della colonna del prompt fornito durante l'addestramento del modello. Puoi fornire questo valore utilizzando l'opzione prompt_col durante l'addestramento del modello. Se prompt_col non è specificato, viene utilizzata la colonna denominata prompt nei dati di addestramento. Se non esiste una colonna denominata prompt, viene restituito un errore.

      La tabella deve avere una colonna il cui nome corrisponde al nome della colonna dell'etichetta fornito durante l'addestramento del modello. Puoi fornire questo valore utilizzando l'opzione input_label_cols durante l'addestramento del modello. Se input_label_cols non è specificato, viene utilizzata la colonna denominata label nei dati di addestramento. Se non esistono colonne con il nome label, viene restituito un errore.

    • TASK_TYPE: un valore STRING che specifica il tipo di attività per cui vuoi valutare il modello. Le opzioni valide sono:
      • TEXT_GENERATION
      • CLASSIFICATION
      • SUMMARIZATION
      • QUESTION_ANSWERING
      • UNSPECIFIED
    • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,1024]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è 128.
    • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,1.0] che controlla il grado di casualità nella selezione dei token. Il valore predefinito è 0.

      Valori più bassi di temperature sono ideali per prompt che richiedono una risposta più deterministica e meno aperta o creativa, mentre valori più alti di temperature possono portare a risultati più diversificati o creativi. Un valore di 0 per temperature è deterministico, il che significa che viene sempre selezionata la risposta con la probabilità più alta.

    • TOP_K: un valore INT64 nell'intervallo [1,40] che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è 40.
    • TOP_P: un valore di FLOAT64 nell'intervallo [0.0,1.0] aiuta a determinare quali token del pool determinati da TOP_K vengono selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è 0.95.

Genera testo

Genera testo con la funzione ML.GENERATE_TEXT:

Colonna Prompt

Genera il testo utilizzando una colonna di tabella per fornire il prompt.

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • TABLE_NAME: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna il cui nome corrisponde al nome della colonna delle funzionalità nell'LLM ottimizzato. Il nome della colonna delle funzionalità nell'LLM può essere impostato utilizzando l'opzione PROMPT_COL durante la creazione del modello. In caso contrario, il nome della colonna delle funzionalità nell'LLM è prompt per impostazione predefinita oppure puoi utilizzare un alias per utilizzare una colonna con nome diverso.
  • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,1024]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è 128.
  • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,1.0] che controlla il grado di casualità nella selezione dei token. Il valore predefinito è 0.

    Valori più bassi di temperature sono ideali per prompt che richiedono una risposta più deterministica e meno aperta o creativa, mentre valori più alti di temperature possono portare a risultati più diversificati o creativi. Un valore di 0 per temperature è deterministico, il che significa che viene sempre selezionata la risposta con la probabilità più alta.

  • TOP_K: un valore INT64 nell'intervallo [1,40] che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è 40.
  • TOP_P: un valore di FLOAT64 nell'intervallo [0.0,1.0] aiuta a determinare quali token del pool determinati da TOP_K vengono selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è 0.95.
  • FLATTEN_JSON: un valore BOOL che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito è FALSE.
  • STOP_SEQUENCES: un valore ARRAY<STRING> che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe corrispondono esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Utilizza la colonna prompt della tabella prompts per il prompt.
  • Restituisce una risposta breve e moderatamente probabile.
  • Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    TABLE mydataset.prompts,
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      40 AS top_k, TRUE AS flatten_json_output));

Query richiesta

Genera testo utilizzando una query per fornire il prompt.

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (PROMPT_QUERY),
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • PROMPT_QUERY: una query che fornisce i dati del prompt.
  • TOKENS: un valore INT64 che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo [1,1024]. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è 128.
  • TEMPERATURE: un valore FLOAT64 nell'intervallo [0.0,1.0] che controlla il grado di casualità nella selezione dei token. Il valore predefinito è 0.

    Valori più bassi di temperature sono ideali per prompt che richiedono una risposta più deterministica e meno aperta o creativa, mentre valori più alti di temperature possono portare a risultati più diversificati o creativi. Un valore di 0 per temperature è deterministico, il che significa che viene sempre selezionata la risposta con la probabilità più alta.

  • TOP_K: un valore INT64 nell'intervallo [1,40] che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è 40.
  • TOP_P: un valore di FLOAT64 nell'intervallo [0.0,1.0] aiuta a determinare quali token del pool determinati da TOP_K vengono selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è 0.95.
  • FLATTEN_JSON: un valore BOOL che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito è FALSE.
  • STOP_SEQUENCES: un valore ARRAY<STRING> che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe corrispondono esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.

Esempio 1

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Richiede un riepilogo del testo nella colonna body della tabella articles.
  • Restituisce una risposta moderatamente lunga e più probabile.
  • Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      0.2 AS temperature, 650 AS max_output_tokens, 0.2 AS top_p,
      15 AS top_k, TRUE AS flatten_json_output));

Esempio 2

L'esempio seguente mostra una richiesta con le seguenti caratteristiche:

  • Utilizza una query per creare i dati dei prompt concatenando le stringhe che forniscono prefissi dei prompt con colonne della tabella.
  • Restituisce una risposta breve e moderatamente probabile.
  • Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_tuned_model`,
    (
      SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt
      FROM mydataset.input_table
    ),
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      30 AS top_k, FALSE AS flatten_json_output));