Ottimizza un modello utilizzando i tuoi dati
Questo documento mostra come creare un modello BigQuery ML
modello remoto
che fa riferimento a Vertex AI gemini-1.0-pro-002
model o versione
Vertex AI text-bison
modello,
e poi configurare il modello affinché esegua l'ottimizzazione supervisionata.
Dopo aver creato il modello remoto, puoi utilizzare
Funzione ML.EVALUATE
per valutare il modello e confermare che le sue prestazioni siano adatte al tuo utilizzo
per verificare se è così. Puoi quindi utilizzare il modello insieme
Funzione ML.GENERATE_TEXT
per analizzare il testo in una tabella BigQuery.
Per ulteriori informazioni, vedi Ottimizzazione supervisionata del modello dell'API Vertex AI Gemini oppure ottimizzazione supervisionata del modello di testo dell'API Vertex AI PaLM.
Autorizzazioni obbligatorie
Per creare una connessione, devi disporre di quanto segue Ruolo IAM (Identity and Access Management):
roles/bigquery.connectionAdmin
Per concedere le autorizzazioni all'account di servizio della connessione, è necessario il seguente autorizzazione:
resourcemanager.projects.setIamPolicy
Per creare il modello utilizzando BigQuery ML, è necessario quanto segue Autorizzazioni IAM:
bigquery.jobs.create
bigquery.models.create
bigquery.models.getData
bigquery.models.updateData
bigquery.models.updateMetadata
Per eseguire l'inferenza, devi disporre delle seguenti autorizzazioni:
bigquery.tables.getData
in tavolabigquery.models.getData
sul modellobigquery.jobs.create
Prima di iniziare
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.
-
Abilita le API BigQuery, BigQuery Connection,Vertex AI, and Compute Engine.
Crea una connessione
Crea un Connessione alle risorse cloud e recuperare l'account di servizio della connessione.
Seleziona una delle seguenti opzioni:
Console
Vai alla pagina BigQuery.
Per creare una connessione, fai clic su
Aggiungi e poi fai clic su Connessioni a origini dati esterne.Nell'elenco Tipo di connessione, seleziona Modelli remoti Vertex AI, funzioni remote e BigLake (risorsa Cloud).
Nel campo ID connessione, inserisci un nome per connessione.
Fai clic su Crea connessione.
Fai clic su Vai alla connessione.
Nel riquadro Informazioni sulla connessione, copia l'ID account di servizio per utilizzarlo in una passaggio successivo.
bq
In un ambiente a riga di comando, crea una connessione:
bq mk --connection --location=REGION --project_id=PROJECT_ID \ --connection_type=CLOUD_RESOURCE CONNECTION_ID
Il parametro
--project_id
sostituisce il progetto predefinito.Sostituisci quanto segue:
REGION
: il tuo regione di connessionePROJECT_ID
: l'ID del tuo progetto Google CloudCONNECTION_ID
: un ID per connessione
Quando crei una risorsa di connessione, BigQuery crea di account di servizio di sistema univoco e lo associa alla connessione.
Risoluzione dei problemi: se ricevi il seguente errore di connessione, Aggiorna Google Cloud SDK:
Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
Recupera e copia l'ID account di servizio per utilizzarlo in un secondo momento passaggio:
bq show --connection PROJECT_ID.REGION.CONNECTION_ID
L'output è simile al seguente:
name properties 1234.REGION.CONNECTION_ID {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
Terraform
Aggiungi la seguente sezione al tuo file main.tf
.
## This creates a cloud resource connection. ## Note: The cloud resource nested object has only one output only field - serviceAccountId. resource "google_bigquery_connection" "connection" { connection_id = "CONNECTION_ID" project = "PROJECT_ID" location = "REGION" cloud_resource {} }Sostituisci quanto segue:
CONNECTION_ID
: un ID per connessionePROJECT_ID
: l'ID del tuo progetto Google CloudREGION
: il tuo regione di connessione
Concedi l'accesso all'account di servizio della connessione
Concedi al tuo account di servizio l'autorizzazione per accedere a Vertex AI. La mancata concessione dell'autorizzazione genera un errore. Seleziona una delle seguenti opzioni opzioni:
Console
Vai alla sezione IAM e Console di amministrazione.
Fai clic su
Concedi l'accesso.In Nuove entità, inserisci l'ID account di servizio che hai copiato in precedenza.
Fai clic su Seleziona un ruolo.
In Filtro, digita
Vertex AI Service Agent
e seleziona quel ruolo.Fai clic su Salva.
gcloud
Utilizza la
Comando gcloud projects add-iam-policy-binding
:
gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/aiplatform.serviceAgent' --condition=None
Sostituisci quanto segue:
PROJECT_NUMBER
: il numero del progetto.MEMBER
: l'ID dell'account di servizio che copiato in precedenza.
L'account di servizio associato alla connessione è un'istanza Agente di servizio per la delega della connessione BigQuery, quindi puoi assegnargli un ruolo di agente di servizio.
Concedi all'account di servizio predefinito di Compute Engine l'accesso
Quando abiliti l'API Compute Engine, Account di servizio predefinito Compute Engine riceve automaticamente il ruolo Editor sul progetto, a meno che tu non abbia ha disattivato questo comportamento per il tuo progetto. In questo caso, devi concedere nuovamente il ruolo Editor a l'accesso all'account di servizio predefinito di Compute Engine, in modo che abbia autorizzazioni per creare e ottimizzare un modello remoto.
Console
Vai alla sezione IAM e Console di amministrazione.
Fai clic su
Concedi l'accesso.In Nuove entità, inserisci l'ID account di servizio, che
PROJECT_NUMBER-compute@developer.gserviceaccount.com
.Fai clic su Seleziona un ruolo.
In Seleziona un ruolo, scegli Di base e poi seleziona Editor.
Fai clic su Salva.
gcloud
Utilizza la
Comando gcloud projects add-iam-policy-binding
:
gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/editor' --condition=None
Sostituisci quanto segue:
PROJECT_NUMBER
: il numero del progetto.MEMBER
: l'ID dell'account di servizio, che èPROJECT_NUMBER-compute@developer.gserviceaccount.com
.
Crea l'agente di servizio di ottimizzazione
Crea un agente di servizio per eseguire il job di ottimizzazione.
Crea un agente di servizio per un modello gemini-1.0-pro-002
Crea un'istanza del metodo Agente di servizio di ottimizzazione sicura di Vertex AI:
Utilizza la Comando
gcloud beta services identity create
per creare l'agente di servizio di ottimizzazione:gcloud beta services identity create --service=aiplatform.googleapis.com --project=PROJECT_NUMBER
Sostituisci
PROJECT_NUMBER
con il numero del tuo progetto.Utilizza la Comando
gcloud projects add-iam-policy-binding
per concedere all'agente di servizio di ottimizzazione Ruolo Agente di servizio ottimizzazione Vertex AI (roles/aiplatform.tuningServiceAgent
):gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:service-PROJECT_NUMBER@gcp-sa-vertex-tune.iam.gserviceaccount.com' --role='roles/aiplatform.tuningServiceAgent'
Sostituisci
PROJECT_NUMBER
con il numero del tuo progetto.
Crea un agente di servizio per un modello text-bison
Crea un'istanza del metodo Agente di servizio AI Platform Fine Tuning:
Utilizza la Comando
gcloud beta services identity create
per creare l'agente di servizio di ottimizzazione:gcloud beta services identity create --service=aiplatform.googleapis.com --project=PROJECT_NUMBER
Sostituisci
PROJECT_NUMBER
con il numero del tuo progetto.Utilizza la Comando
gcloud projects add-iam-policy-binding
per concedere all'agente di servizio di ottimizzazione Ruolo Agente di servizio Vertex AI (roles/aiplatform.serviceAgent
):gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:service-PROJECT_NUMBER@gcp-sa-aiplatform-ft.iam.gserviceaccount.com' --role='roles/aiplatform.serviceAgent'
Sostituisci
PROJECT_NUMBER
con il numero del tuo progetto.
Creare un modello con l'ottimizzazione supervisionata
Nella console Google Cloud, vai alla pagina BigQuery.
Nell'editor query, esegui questa query per creare modello remoto:
gemini-1.0-pro-002
CREATE OR REPLACE MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME` REMOTE WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID` OPTIONS ( ENDPOINT = 'ENDPOINT', MAX_ITERATIONS = MAX_ITERATIONS, LEARNING_RATE_MULTIPLIER = LEARNING_RATE_MULTIPLIER, DATA_SPLIT_METHOD = 'DATA_SPLIT_METHOD', DATA_SPLIT_EVAL_FRACTION = DATA_SPLIT_EVAL_FRACTION, DATA_SPLIT_COL = 'DATA_SPLIT_COL', EVALUATION_TASK = 'EVALUATION_TASK', PROMPT_COL = 'INPUT_PROMPT_COL', INPUT_LABEL_COLS = INPUT_LABEL_COLS) AS SELECT PROMPT_COLUMN, LABEL_COLUMN FROM `TABLE_PROJECT_ID.TABLE_DATASET.TABLE_NAME`;
Sostituisci quanto segue:
PROJECT_ID
: l'ID del progetto in cui creare il modello.DATASET_ID
: l'ID del set di dati da che contiene il modello. Questo set di dati deve trovarsi in una il job di pipeline e la regione di caricamento del modello supportati.MODEL_NAME
: il nome del modello.REGION
: la regione utilizzata dalla connessione.CONNECTION_ID
: l'ID del tuo Connessione BigQuery. Questa connessione deve trovarsi nella stessa location come set di dati che stai utilizzando.Quando visualizzi i dettagli della connessione nella console Google Cloud, questo è il valore riportato nell'ultima sezione l'ID connessione completo mostrato ID connessione, ad esempio
projects/myproject/locations/connection_location/connections/myconnection
.ENDPOINT
: un valoreSTRING
che specifica il nome del modello da utilizzare, che in questo caso deve esseregemini-1.0-pro-002
.MAX_ITERATIONS
: un valoreINT64
che specifica il numero di passaggi da eseguire ottimizzazione supervisionata. Il valoreMAX_ITERATIONS
deve essere compreso tra1
e∞
.Il modello
gemini-1.0-pro-002
viene addestrato utilizzando invece le epoche dei passaggi, quindi BigQuery ML converteMAX_ITERATIONS
nelle epoche. Il valore predefinito perMAX_ITERATIONS
è di righe nei dati di input, che equivale a un'epoca. A utilizzare più epoche, specifica un multiplo del numero di righe dati di addestramento. Ad esempio, se hai 100 righe di dati di input e Se vuoi usare due epoche, specifica200
come valore dell'argomento. Se fornisci un valore che non è un multiplo del numero di righe in i dati di input, BigQuery ML lo arrotonda all'epoca più vicina. Ad esempio, se hai 100 righe di dati di input e specifichi101
per il valoreMAX_ITERATIONS
, l'addestramento viene eseguito con due epoche.Per ulteriori informazioni sui parametri utilizzati per ottimizzare
gemini-1.0-pro-002
modelli, vedi Crea un job di ottimizzazione.LEARNING_RATE_MULTIPLIER
: unFLOAT64
Un moltiplicatore da applicare all'apprendimento consigliato di conversione. Il valore predefinito è1.0
.DATA_SPLIT_METHOD
: un valoreSTRING
che specifica il metodo utilizzato per suddividere i dati di input in di valutazione. Le opzioni valide sono le seguenti:AUTO_SPLIT
: BigQuery ML automaticamente suddivide i dati. Il modo in cui i dati vengono suddivisi varia a seconda il numero di righe nella tabella di input. Questo è il valore predefinito.RANDOM
: i dati vengono randomizzati prima di essere suddivisi in set. Per personalizzare la suddivisione dati, puoi utilizzare questa opzione con il OpzioneDATA_SPLIT_EVAL_FRACTION
.CUSTOM
: i dati vengono suddivisi utilizzando la colonna forniti nell'opzioneDATA_SPLIT_COL
. Il valoreDATA_SPLIT_COL
deve essere il nome di una colonna di tipoBOOL
. Righe con il valoreTRUE
o Vengono utilizzateNULL
come dati di valutazione e le righe con il valoreFALSE
vengono utilizzati come dati di addestramento.SEQ
: consente di suddividere i dati utilizzando la colonna forniti nell'opzioneDATA_SPLIT_COL
. Il valoreDATA_SPLIT_COL
deve essere il nome di una colonna di uno dei seguenti tipi:NUMERIC
BIGNUMERIC
STRING
TIMESTAMP
I dati sono ordinati dal più piccolo al più grande in base alla colonna specificata.
Le prime n righe vengono utilizzate come dati di valutazione, dove n è il valore specificato per
DATA_SPLIT_EVAL_FRACTION
. Le righe rimanenti utilizzate come dati di addestramento.NO_SPLIT
: nessuna suddivisione dati; tutti i dati di input vengono utilizzati dati di addestramento.
Per ulteriori informazioni su queste opzioni di suddivisione dati, consulta
DATA_SPLIT_METHOD
DATA_SPLIT_EVAL_FRACTION
: un Il valoreFLOAT64
che specifica la frazione del dati da utilizzare come dati di valutazione durante l'esecuzione dell'ottimizzazione supervisionata. Deve essere un valore compreso nell'intervallo[0, 1.0]
. Il valore predefinito è0.2
.Utilizza questa opzione quando specifichi
RANDOM
oSEQ
come per l'opzioneDATA_SPLIT_METHOD
. A personalizzare la suddivisione dati, puoi utilizzare OpzioneDATA_SPLIT_METHOD
conDATA_SPLIT_EVAL_FRACTION
.DATA_SPLIT_COL
: un valoreSTRING
che specifica il nome della colonna da utilizzare per ordinare i dati di input l'addestramento o la valutazione. Utilizza le funzionalità di quando specifichiCUSTOM
oSEQ
come per l'opzioneDATA_SPLIT_METHOD
.EVALUATION_TASK
: un valoreSTRING
che specifica il tipo di attività su cui vuoi ottimizzare il modello eseguire il deployment. Le opzioni valide sono:TEXT_GENERATION
CLASSIFICATION
SUMMARIZATION
QUESTION_ANSWERING
UNSPECIFIED
Il valore predefinito è
UNSPECIFIED
.INPUT_PROMPT_COL
: unSTRING
valore che contiene il nome della colonna dei prompt in la tabella dei dati di addestramento da utilizzare durante l'ottimizzazione supervisionata. Il valore predefinito èprompt
.INPUT_LABEL_COLS
: un ValoreARRAY<<STRING>
che contiene il nome dell'etichetta nella tabella dei dati di addestramento da utilizzare nell'ottimizzazione supervisionata. Puoi specificare un solo elemento nell'array. Il valore predefinito è un array vuoto. Questo fa sì chelabel
sia il valore predefinito di dall'argomentoLABEL_COLUMN
.PROMPT_COLUMN
: la colonna in la tabella dei dati di addestramento che contiene la richiesta di valutazione contenuti nella colonnaLABEL_COLUMN
. Questa colonna deve essere di DigitaSTRING
o esegui la trasmissione aSTRING
. Se specifichi per l'opzioneINPUT_PROMPT_COL
, devi specificare lo stesso valore diPROMPT_COLUMN
. In caso contrario, questo valore deve essereprompt
. Se la tabella non ha unprompt
utilizza un alias per specificare una colonna di tabella esistente. Ad esempio:AS SELECT hint AS prompt, label FROM mydataset.mytable
.LABEL_COLUMN
: la colonna nei dati di addestramento che contiene gli esempi con cui addestrare il modello. Questa colonna deve essere di DigitaSTRING
o esegui la trasmissione aSTRING
. Se specifichi per l'opzioneINPUT_LABEL_COLS
, devi specificare lo stesso valore diLABEL_COLUMN
. In caso contrario, questo valore deve esserelabel
. Se la tabella non ha unlabel
utilizza un alias per specificare una colonna di tabella esistente. Ad esempio:AS SELECT prompt, feature AS label FROM mydataset.mytable
.TABLE_PROJECT_ID
: l'ID progetto del che contiene la tabella dei dati di addestramento.TABLE_DATASET
: il nome del contenente la tabella dei dati di addestramento.TABLE_NAME
: il nome della tabella che contiene i dati da utilizzare per addestrare il modello.
text-bison
CREATE OR REPLACE MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME` REMOTE WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID` OPTIONS ( ENDPOINT = 'ENDPOINT', MAX_ITERATIONS = MAX_ITERATIONS, LEARNING_RATE_MULTIPLIER = LEARNING_RATE_MULTIPLIER, EARLY_STOP = EARLY_STOP, ACCELERATOR_TYPE = 'ACCELERATOR_TYPE', DATA_SPLIT_METHOD = 'DATA_SPLIT_METHOD', DATA_SPLIT_EVAL_FRACTION = DATA_SPLIT_EVAL_FRACTION, DATA_SPLIT_COL = 'DATA_SPLIT_COL', EVALUATION_TASK = 'EVALUATION_TASK', PROMPT_COL = 'INPUT_PROMPT_COL', INPUT_LABEL_COLS = INPUT_LABEL_COLS) AS SELECT PROMPT_COLUMN, LABEL_COLUMN FROM `TABLE_PROJECT_ID.TABLE_DATASET.TABLE_NAME`;
Sostituisci quanto segue:
PROJECT_ID
: l'ID del progetto in cui creare il modello.DATASET_ID
: l'ID del set di dati da che contiene il modello. Questo set di dati deve trovarsi in una il job di pipeline e la regione di caricamento del modello supportati.MODEL_NAME
: il nome del modello.REGION
: la regione utilizzata dalla connessione.CONNECTION_ID
: l'ID del tuo Connessione BigQuery. Questa connessione deve trovarsi nella stessa location come set di dati che stai utilizzando.Quando visualizzi i dettagli della connessione nella console Google Cloud, questo è il valore riportato nell'ultima sezione l'ID connessione completo mostrato ID connessione, ad esempio
projects/myproject/locations/connection_location/connections/myconnection
.ENDPOINT
: un valoreSTRING
che specifica il nome del modello da utilizzare, che in questo caso deve essere qualsiasi versione del modellotext-bison
.MAX_ITERATIONS
: un valoreINT64
che specifica il numero di passaggi da eseguire ottimizzazione supervisionata. Il valoreMAX_ITERATIONS
deve essere compreso tra1
e∞
. In genere, per completare 100 passaggi è necessaria circa un'ora. Il valore predefinito è300
.MAX_ITERATIONS
in combinazione con il valoreACCELERATOR_TYPE
influisce la dimensione del batch usata nell'addestramento del modello. Per ulteriori informazioni viene determinata la dimensione del batch,MAX_ITERATIONS
Per ulteriori indicazioni sulla scelta del numero di passaggi di addestramento, vedi Configurazioni consigliate.LEARNING_RATE_MULTIPLIER
: unFLOAT64
Un moltiplicatore da applicare all'apprendimento consigliato di conversione. Il valore predefinito è1.0
.EARLY_STOP
: un valoreBOOL
che determina se interrompere l'ottimizzazione supervisionata prima di completare tutte le i passaggi di ottimizzazione. Se impostato suTRUE
, l'ottimizzazione supervisionata viene interrotta se il modello le prestazioni, come misurate dall'accuratezza dei token previsti, migliorare abbastanza tra le esecuzioni di valutazione. Se impostato suFALSE
, l'ottimizzazione supervisionata continua fino al completamento di tutti i passaggi dell'ottimizzazione. La il valore predefinito èFALSE
.ACCELERATOR_TYPE
: un valoreSTRING
che specifica il tipo di acceleratore da usare per l'ottimizzazione supervisionata. Il valore sono le seguenti:GPU
: utilizza GPU A100 da 80 GB per l'ottimizzazione supervisionata.TPU
: utilizza 64 core del pod TPU v3 per l'ottimizzazione supervisionata. Se scegli questa opzione, si verifica quanto segue:- Devi eseguire la query nella regione
europe-west4
. Per informazioni sulla modifica delle opzioni di query come la località, consulta Esegui una query interattiva. - I calcoli di ottimizzazione supervisionati vengono eseguiti in
europe-west4
, perché è qui che le risorse TPU in cui si trovano.
- Devi eseguire la query nella regione
Il valore predefinito è
GPU
. Qualunque sia l'opzione utilizzata, di avere abbastanza quota.DATA_SPLIT_METHOD
: un valoreSTRING
che specifica il metodo utilizzato per suddividere i dati di input in di valutazione. Le opzioni valide sono le seguenti:AUTO_SPLIT
: BigQuery ML automaticamente suddivide i dati. Il modo in cui i dati vengono suddivisi varia a seconda il numero di righe nella tabella di input. Questo è il valore predefinito.RANDOM
: i dati vengono randomizzati prima di essere suddivisi in set. Per personalizzare la suddivisione dati, puoi utilizzare questa opzione con il OpzioneDATA_SPLIT_EVAL_FRACTION
.CUSTOM
: i dati vengono suddivisi utilizzando la colonna forniti nell'opzioneDATA_SPLIT_COL
. Il valoreDATA_SPLIT_COL
deve essere il nome di una colonna di tipoBOOL
. Righe con il valoreTRUE
o Vengono utilizzateNULL
come dati di valutazione e le righe con il valoreFALSE
vengono utilizzati come dati di addestramento.SEQ
: consente di suddividere i dati utilizzando la colonna forniti nell'opzioneDATA_SPLIT_COL
. Il valoreDATA_SPLIT_COL
deve essere il nome di una colonna di uno dei seguenti tipi:NUMERIC
BIGNUMERIC
STRING
TIMESTAMP
I dati sono ordinati dal più piccolo al più grande in base alla colonna specificata.
Le prime n righe vengono utilizzate come dati di valutazione, dove n è il valore specificato per
DATA_SPLIT_EVAL_FRACTION
. Le righe rimanenti utilizzate come dati di addestramento.NO_SPLIT
: nessuna suddivisione dati; tutti i dati di input vengono utilizzati dati di addestramento.
Per ulteriori informazioni su queste opzioni di suddivisione dati, consulta
DATA_SPLIT_METHOD
DATA_SPLIT_EVAL_FRACTION
: un Il valoreFLOAT64
che specifica la frazione del dati da utilizzare come dati di valutazione durante l'esecuzione dell'ottimizzazione supervisionata. Deve essere un valore compreso nell'intervallo[0, 1.0]
. Il valore predefinito è0.2
.Utilizza questa opzione quando specifichi
RANDOM
oSEQ
come per l'opzioneDATA_SPLIT_METHOD
. A personalizzare la suddivisione dati, puoi utilizzare OpzioneDATA_SPLIT_METHOD
conDATA_SPLIT_EVAL_FRACTION
.DATA_SPLIT_COL
: un valoreSTRING
che specifica il nome della colonna da utilizzare per ordinare i dati di input l'addestramento o la valutazione. Utilizza le funzionalità di quando specifichiCUSTOM
oSEQ
come per l'opzioneDATA_SPLIT_METHOD
.EVALUATION_TASK
: un valoreSTRING
che specifica il tipo di attività su cui vuoi ottimizzare il modello eseguire il deployment. Le opzioni valide sono:TEXT_GENERATION
CLASSIFICATION
SUMMARIZATION
QUESTION_ANSWERING
UNSPECIFIED
Il valore predefinito è
UNSPECIFIED
.INPUT_PROMPT_COL
: unSTRING
valore che contiene il nome della colonna dei prompt in la tabella dei dati di addestramento da utilizzare durante l'ottimizzazione supervisionata. Il valore predefinito èprompt
.INPUT_LABEL_COLS
: un ValoreARRAY<<STRING>
che contiene il nome dell'etichetta nella tabella dei dati di addestramento da utilizzare nell'ottimizzazione supervisionata. Puoi specificare un solo elemento nell'array. Il valore predefinito è un array vuoto. Questo fa sì chelabel
sia il valore predefinito di dall'argomentoLABEL_COLUMN
.PROMPT_COLUMN
: la colonna in la tabella dei dati di addestramento che contiene la richiesta di valutazione contenuti nella colonnaLABEL_COLUMN
. Questa colonna deve essere di DigitaSTRING
o esegui la trasmissione aSTRING
. Se specifichi per l'opzioneINPUT_PROMPT_COL
, devi specificare lo stesso valore diPROMPT_COLUMN
. In caso contrario, questo valore deve essereprompt
. Se la tabella non ha unprompt
utilizza un alias per specificare una colonna di tabella esistente. Ad esempio:AS SELECT hint AS prompt, label FROM mydataset.mytable
.LABEL_COLUMN
: la colonna nei dati di addestramento che contiene gli esempi con cui addestrare il modello. Questa colonna deve essere di DigitaSTRING
o esegui la trasmissione aSTRING
. Se specifichi per l'opzioneINPUT_LABEL_COLS
, devi specificare lo stesso valore diLABEL_COLUMN
. In caso contrario, questo valore deve esserelabel
. Se la tabella non ha unlabel
utilizza un alias per specificare una colonna di tabella esistente. Ad esempio:AS SELECT prompt, feature AS label FROM mydataset.mytable
.TABLE_PROJECT_ID
: l'ID progetto del che contiene la tabella dei dati di addestramento.TABLE_DATASET
: il nome del contenente la tabella dei dati di addestramento.TABLE_NAME
: il nome della tabella che contiene i dati da utilizzare per addestrare il modello.
valuta il modello ottimizzato
Nella console Google Cloud, vai alla pagina BigQuery.
Nell'editor query, esegui questa query per valutare il modello ottimizzato:
SELECT * FROM ML.EVALUATE( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE `TABLE_PROJECT_ID.TABLE_DATASET.TABLE_NAME`, STRUCT('TASK_TYPE' AS task_type, TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p));
Sostituisci quanto segue:
PROJECT_ID
: l'ID del progetto che contiene il modello.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_PROJECT_ID
: l'ID progetto del contenente la tabella dei dati di valutazione.TABLE_DATASET
: il nome del set di dati che contiene la tabella dei dati di valutazione.TABLE_NAME
: il nome della tabella che contiene i dati di valutazione.La tabella deve avere una colonna il cui nome corrisponde al nome della colonna del prompt fornito durante l'addestramento del modello. Tu può fornire questo valore utilizzando l'opzione
prompt_col
durante durante l'addestramento del modello. Seprompt_col
non è specificato, la colonna denominatoprompt
nei dati di addestramento. Errore: viene restituito se non è presente una colonna denominataprompt
.La tabella deve avere una colonna il cui nome corrisponde al nome della colonna dell'etichetta che è forniti durante l'addestramento del modello. Puoi fornire questo valore utilizzando il metodo Opzione
input_label_cols
durante l'addestramento del modello. Seinput_label_cols
non è specificato, la colonna denominata Viene utilizzatolabel
nei dati di addestramento. Viene restituito un errore se non esiste una colonna denominatalabel
.TASK_TYPE
: un valoreSTRING
che specifica il tipo di attività per cui vuoi valutare il modello. Le opzioni valide sono:TEXT_GENERATION
CLASSIFICATION
SUMMARIZATION
QUESTION_ANSWERING
UNSPECIFIED
TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,1024]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.Valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti ditemperature
possono portare a una maggiore diversità o risultati creativi. Un valore di0
pertemperature
è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.TOP_K
: un valoreINT64
nel l'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è40
.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare quali token dal pool determinati daTOP_K
. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.
Genera testo
Genera testo con
Funzione ML.GENERATE_TEXT
:
Colonna Richiesta
Genera il testo utilizzando una colonna della tabella per fornire il prompt.
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_NAME
: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna il cui nome corrisponde al nome della colonna delle caratteristiche nell'LLM ottimizzato. La funzionalità il nome della colonna nell'LLM può essere impostato utilizzando ilPROMPT_COL
quando crei il modello. In caso contrario, il nome della colonna delle caratteristiche nel L'LLM èprompt
per impostazione predefinita. In alternativa, puoi utilizzare un alias per utilizzare un con un nome diverso.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,1024]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è0
.Valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti ditemperature
possono portare a una maggiore diversità o risultati creativi. Un valore di0
pertemperature
è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.TOP_K
: un valoreINT64
nel l'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è40
.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
:ARRAY<STRING>
valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza la colonna
prompt
della tabellaprompts
per la richiesta. - Restituisce una risposta breve e moderatamente probabile.
- Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, TABLE mydataset.prompts, STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, 40 AS top_k, TRUE AS flatten_json_output));
Query con prompt
Genera testo utilizzando una query per fornire il prompt.
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.PROMPT_QUERY
: una query che fornisce il prompt e i dati di Google Cloud.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,1024]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. L'impostazione predefinita è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. L'impostazione predefinita è0
.Valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre valori più alti ditemperature
possono portare a una maggiore diversità o risultati creativi. Un valore di0
pertemperature
è deterministica, il che significa che la risposta con la probabilità più alta sempre selezionata.TOP_K
: un valoreINT64
nel l'intervallo[1,40]
che determina il pool iniziale di token che il modello prende in considerazione per la selezione. Specifica un valore più basso per l'opzione meno casuale e un valore più alto per risposte più casuali. L'impostazione predefinita è40
.TOP_P
: un valoreFLOAT64
nel l'intervallo[0.0,1.0]
aiuta a determinare la probabilità selezionati. Specifica un valore più basso per risposte meno casuali e un un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
:ARRAY<STRING>
valore che rimuove le stringhe specificate se sono incluse nel risposte da parte del modello. Le stringhe corrispondono esattamente, tra cui maiuscole/minuscole. Il valore predefinito è un array vuoto.
Esempio 1
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Richiede un riepilogo del testo nella colonna
body
di la tabellaarticles
. - Restituisce una risposta moderatamente lunga e più probabile.
- Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT( 0.2 AS temperature, 650 AS max_output_tokens, 0.2 AS top_p, 15 AS top_k, TRUE AS flatten_json_output));
Esempio 2
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza una query per creare i dati del prompt concatenando stringhe che fornire prefissi di prompt con colonne delle tabelle.
- Restituisce una risposta breve e moderatamente probabile.
- Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_tuned_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, 30 AS top_k, FALSE AS flatten_json_output));