Generare incorporamenti di testo utilizzando la funzione ML.GENERATE_YOURDING

Questo documento mostra come creare un modello BigQuery ML modello remoto che fa riferimento a un incorporamento di Vertex AI . Poi lo userai con Funzione ML.GENERATE_EMBEDDING per creare incorporamenti di testo utilizzando i dati di una tabella standard.

Ruoli obbligatori

  • Per creare una connessione, devi disporre di quanto segue Ruolo IAM (Identity and Access Management):

    • roles/bigquery.connectionAdmin
  • Per concedere le autorizzazioni all'account di servizio della connessione, è necessario il seguente autorizzazione:

    • resourcemanager.projects.setIamPolicy
  • Per creare il modello utilizzando BigQuery ML, sono necessarie le seguenti autorizzazioni IAM:

    • bigquery.jobs.create
    • bigquery.models.create
    • bigquery.models.getData
    • bigquery.models.updateData
    • bigquery.models.updateMetadata
  • Per eseguire l'inferenza, devi disporre delle seguenti autorizzazioni:

    • bigquery.tables.getData in tavola
    • bigquery.models.getData sul modello
    • bigquery.jobs.create

Prima di iniziare

  1. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  2. Make sure that billing is enabled for your Google Cloud project.

  3. Enable the BigQuery, BigQuery Connection, and Vertex AI APIs.

    Enable the APIs

Crea un set di dati

Crea un set di dati BigQuery per archiviare il tuo modello ML:

  1. Nella console Google Cloud, vai alla pagina BigQuery.

    Vai alla pagina BigQuery

  2. Nel riquadro Explorer, fai clic sul nome del tuo progetto.

  3. Fai clic su Visualizza azioni > Crea set di dati.

    Crea il set di dati.

  4. Nella pagina Crea set di dati:

    • In ID set di dati, inserisci bqml_tutorial.

    • Per Tipo di località, seleziona Più regioni e poi Stati Uniti (più regioni negli Stati Uniti).

      I set di dati pubblici sono archiviati nella US multiregione. Per semplicità, per archiviare il set di dati nella stessa posizione.

    • Lascia invariate le restanti impostazioni predefinite e fai clic su Crea il set di dati.

      Pagina Crea set di dati.

Crea una connessione

Crea un Connessione alle risorse cloud e recuperare l'account di servizio della connessione. Crea la connessione in nella stessa località del set di dati che hai creato passaggio precedente.

Seleziona una delle seguenti opzioni:

Console

  1. Vai alla pagina BigQuery.

    Vai a BigQuery

  2. Per creare una connessione, fai clic su Aggiungi e poi fai clic su Connessioni a origini dati esterne.

  3. Nell'elenco Tipo di connessione, seleziona Modelli remoti Vertex AI, funzioni remote e BigLake (risorsa Cloud).

  4. Nel campo ID connessione, inserisci un nome per connessione.

  5. Fai clic su Crea connessione.

  6. Fai clic su Vai alla connessione.

  7. Nel riquadro Informazioni sulla connessione, copia l'ID account di servizio da utilizzare in una passaggio successivo.

bq

  1. In un ambiente a riga di comando, crea una connessione:

    bq mk --connection --location=REGION --project_id=PROJECT_ID \
        --connection_type=CLOUD_RESOURCE CONNECTION_ID

    Il parametro --project_id sostituisce il progetto predefinito.

    Sostituisci quanto segue:

    • REGION: la regione di connessione
    • PROJECT_ID: l'ID del tuo progetto Google Cloud
    • CONNECTION_ID: un ID per connessione

    Quando crei una risorsa di connessione, BigQuery crea di account di servizio di sistema univoco e lo associa alla connessione.

    Risoluzione dei problemi: se ricevi il seguente errore di connessione, Aggiorna Google Cloud SDK:

    Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
    
  2. Recupera e copia l'ID account di servizio per utilizzarlo in un passaggio successivo:

    bq show --connection PROJECT_ID.REGION.CONNECTION_ID

    L'output è simile al seguente:

    name                          properties
    1234.REGION.CONNECTION_ID     {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
    

Terraform

Aggiungi la seguente sezione al tuo file main.tf.

 ## This creates a cloud resource connection.
 ## Note: The cloud resource nested object has only one output only field - serviceAccountId.
 resource "google_bigquery_connection" "connection" {
    connection_id = "CONNECTION_ID"
    project = "PROJECT_ID"
    location = "REGION"
    cloud_resource {}
}        
Sostituisci quanto segue:

  • CONNECTION_ID: un ID per la connessione
  • PROJECT_ID: l'ID del tuo progetto Google Cloud
  • REGION: la regione di connessione

Concedi all'account di servizio l'accesso

Concedi all'account di servizio della connessione il ruolo Vertex AI User.

Se prevedi di specificare l'endpoint come URL quando crei il modello remoto, ad esempio endpoint = 'https://us-central1-aiplatform.googleapis.com/v1/projects/myproject/locations/us-central1/publishers/google/models/text-embedding-004', concedi questo ruolo nello stesso progetto specificato nell'URL.

Se prevedi di specificare l'endpoint utilizzando il nome del modello quando crei il modello remoto, ad esempio endpoint = 'text-embedding-004', concedi questo ruolo nello stesso progetto in cui prevedi di creare il modello remoto.

La concessione del ruolo in un altro progetto genera l'errore bqcx-1234567890-xxxx@gcp-sa-bigquery-condel.iam.gserviceaccount.com does not have the permission to access resource.

Per concedere il ruolo:

Console

  1. Vai alla pagina IAM e amministrazione.

    Vai a IAM e amministrazione

  2. Fai clic su Concedi l'accesso.

    Viene visualizzata la finestra di dialogo Aggiungi entità.

  3. Nel campo Nuove entità, inserisci l'ID account di servizio che copiato in precedenza.

  4. Nel campo Seleziona un ruolo, seleziona Vertex AI, quindi seleziona Utente Vertex AI.

  5. Fai clic su Salva.

gcloud

Utilizza il comando gcloud projects add-iam-policy-binding:

gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/aiplatform.user' --condition=None

Sostituisci quanto segue:

  • PROJECT_NUMBER: il numero del tuo progetto
  • MEMBER: l'ID account di servizio che hai copiato in precedenza

crea un modello

  1. Nella console Google Cloud, vai alla pagina BigQuery.

    Vai a BigQuery

  2. Con l'editor SQL, crea un'istanza modello remoto:

    CREATE OR REPLACE MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`
    REMOTE WITH CONNECTION `CONNECTION_ID`
    OPTIONS (ENDPOINT = 'ENDPOINT');

    Sostituisci quanto segue:

    • PROJECT_ID: il tuo ID progetto
    • DATASET_ID: l'ID del set di dati da contiene il modello
    • MODEL_NAME: il nome del modello
    • CONNECTION_ID: l'ID della connessione BigQuery

      Quando visualizzi i dettagli della connessione nella console Google Cloud, questo è il valore riportato nell'ultima sezione l'ID connessione completo mostrato ID connessione, ad esempio projects/myproject/locations/connection_location/connections/myconnection

    • ENDPOINT: l'incorporamento modello per l'utilizzo.

Genera incorporamenti di testo utilizzando i dati di una tabella

Genera embedding di testo con la funzione ML.GENERATE_EMBEDDING utilizzando i dati di testo di una colonna della tabella.

In genere, è consigliabile utilizzare un modello text-embedding o text-multilingual-embedding per i casi d'uso di solo testo e un modello multimodalembedding per i casi d'uso di ricerca cross-modale, in cui gli embedding per i contenuti di testo e visivi vengono generati nello stesso spazio semantico.

text embedding

Genera incorporamenti di testo utilizzando un modello remoto rispetto a un modello di incorporamento:

SELECT *
FROM ML.GENERATE_EMBEDDING(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(FLATTEN_JSON AS flatten_json_output,
    TASK_TYPE AS task_type,
    OUTPUT_DIMENSIONALITY AS output_dimensionality)
);

Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello remoto su un modello di incorporamento.
  • TABLE_NAME: il nome della tabella che contiene il testo da incorporare. Questa tabella deve avere una colonna denominata content oppure puoi utilizzare un alias per utilizzare una colonna con un nome diverso.
  • FLATTEN_JSON: un valore BOOL che indica se analizzare l'embedding in una colonna separata. Il valore predefinito è TRUE.
  • TASK_TYPE: un valore letterale STRING che specifica l'applicazione downstream che intende aiutare il modello per produrre incorporamenti di qualità migliore. TASK_TYPE accetta i seguenti valori:
    • RETRIEVAL_QUERY: specifica che il testo specificato è una query in un'impostazione di ricerca o recupero.
    • RETRIEVAL_DOCUMENT: specifica che il testo specificato è di un documento in un'impostazione di ricerca o recupero.

      Quando utilizzi questo tipo di attività, è utile includere il titolo del documento nell'istruzione di query per migliorare la qualità dell'embedding. Tu puoi utilizzare l'opzione title per specificare il nome della colonna contenga il titolo del documento, altrimenti il titolo deve essere specificato una colonna denominata title o con alias title, ad esempio:

            SELECT *
            FROM
              ML.GENERATE_EMBEDDING(
                MODEL mydataset.embedding_model,
                (SELECT abstract as content, header as title, publication_number
                FROM mydataset.publications),
                STRUCT(TRUE AS flatten_json_output, 'RETRIEVAL_DOCUMENT' as task_type)
            );
            
    • SEMANTIC_SIMILARITY: specifica che il testo specificato verrà utilizzato per la somiglianza testuale semantica (STS).
    • CLASSIFICATION: specifica che gli incorporamenti saranno utilizzati per la classificazione.
    • CLUSTERING: specifica che gli incorporamenti verranno utilizzati per il clustering.
  • OUTPUT_DIMENSIONALITY: INT64 valore che specifica il numero di dimensioni da utilizzare durante la generazione incorporamenti. Ad esempio, se specifichi 256 AS output_dimensionality, poi il ml_generate_embedding_result contiene 256 incorporamenti per ogni valore di input.

    Puoi utilizzare questo argomento solo se il modello remoto specificato nell'argomento model utilizza uno dei seguenti modelli come endpoint:

    • text-embedding-004 o versioni successive
    • text-multilingual-embedding-002 o versioni successive

embedding multimodale

Genera rappresentazioni distribuite di testo utilizzando un modello remoto sul modello multimodalembedding:

SELECT *
FROM ML.GENERATE_EMBEDDING(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(FLATTEN_JSON AS flatten_json_output
  OUTPUT_DIMENSIONALITY AS output_dimensionality)
);

Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello remoto rispetto a un modello multimodalembedding@001.
  • TABLE_NAME: il nome della tabella che contiene il testo da incorporare. Questa tabella deve avere una colonna denominata content oppure puoi utilizzare un alias per utilizzare una colonna con un nome diverso.
  • FLATTEN_JSON: un BOOL che indica se analizzare l'incorporamento in una colonna separata. Il valore predefinito è TRUE.
  • OUTPUT_DIMENSIONALITY: INT64 valore che specifica il numero di dimensioni da utilizzare durante la generazione incorporamenti. I valori validi sono 128, 256, 512 e 1408. Il valore predefinito è 1408. Ad esempio, se specifichi 256 AS output_dimensionality, poi il ml_generate_embedding_result contiene 256 incorporamenti per ogni valore di input.

Genera embedding di testo utilizzando i dati di una query

Genera incorporamenti di testo con la funzione ML.GENERATE_EMBEDDING utilizzando i dati di testo forniti da una query e un modello remoto su un modello di incorporamento.

In genere, è consigliabile utilizzare text-embedding o text-multilingual-embedding per i casi d'uso di solo testo e utilizzare un modello multimodalembedding per i casi d'uso di ricerca intermodale, in cui gli incorporamenti per testo e contenuti visivi vengono generati nello stesso spazio semantico.

text embedding

Genera rappresentazioni distribuite di testo utilizzando un modello remoto sul modello di embedding:

SELECT *
FROM ML.GENERATE_EMBEDDING(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (CONTENT_QUERY),
  STRUCT(FLATTEN_JSON AS flatten_json_output,
    TASK_TYPE AS task_type,
    OUTPUT_DIMENSIONALITY AS output_dimensionality)
  );

Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello remoto su un modello di incorporamento.
  • CONTENT_QUERY: una query il cui risultato contiene una colonna STRING denominata content.
  • FLATTEN_JSON: un valore BOOL che indica se analizzare l'embedding in una colonna separata. Il valore predefinito è TRUE.
  • TASK_TYPE: un valore letterale STRING che specifica l'applicazione a valle prevista per aiutare il modello a produrre incorporamenti di qualità migliore. TASK_TYPE accetta i seguenti valori:
    • RETRIEVAL_QUERY: specifica che il testo specificato è un una query in un'impostazione di ricerca o recupero.
    • RETRIEVAL_DOCUMENT: specifica che il testo specificato è un documento in un'impostazione di ricerca o recupero.

      Quando utilizzi questo tipo di attività, è utile includere il titolo del documento nell'istruzione della query al fine di migliorare la qualità dell'incorporamento. Puoi utilizzare l'opzione title per specificare il nome della colonna che contiene il titolo del documento, altrimenti il titolo del documento deve essere in una colonna denominata title o con alias title, ad esempio:

                SELECT *
                FROM
                  ML.GENERATE_EMBEDDING(
                    MODEL mydataset.embedding_model,
                    (SELECT abstract as content, header as title, publication_number
                    FROM mydataset.publications),
                    STRUCT(TRUE AS flatten_json_output, 'RETRIEVAL_DOCUMENT' as task_type)
                );
                
    • SEMANTIC_SIMILARITY: specifica che il testo specificato verrà utilizzato per la somiglianza testuale semantica (STS).
    • CLASSIFICATION: specifica che gli incorporamenti saranno utilizzati per la classificazione.
    • CLUSTERING: specifica che verranno utilizzati gli incorporamenti per il clustering.
  • OUTPUT_DIMENSIONALITY: INT64 valore che specifica il numero di dimensioni da utilizzare durante la generazione incorporamenti. Ad esempio, se specifichi 256 AS output_dimensionality, la colonna di output ml_generate_embedding_result contiene 256 embedding per ogni valore di input.

    Puoi utilizzare questo argomento solo se il modello remoto specificato nell'argomento model utilizza uno dei seguenti modelli come un endpoint:

    • text-embedding-004 o versioni successive
    • text-multilingual-embedding-002 o versioni successive

embedding multimodale

Genera rappresentazioni distribuite di testo utilizzando un modello remoto sul modello multimodalembedding:

SELECT *
FROM ML.GENERATE_EMBEDDING(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (CONTENT_QUERY),
  STRUCT(FLATTEN_JSON AS flatten_json_output,
  OUTPUT_DIMENSIONALITY AS output_dimensionality)
);

Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello remoto su un modello multimodalembedding@001.
  • CONTENT_QUERY: una query il cui risultato contiene una colonna STRING denominata content.
  • FLATTEN_JSON: un BOOL che indica se analizzare l'incorporamento in una colonna separata. Il valore predefinito è TRUE.
  • OUTPUT_DIMENSIONALITY: INT64 valore che specifica il numero di dimensioni da utilizzare durante la generazione incorporamenti. I valori validi sono 128, 256, 512 e 1408. Il valore predefinito è 1408. Ad esempio, se specifichi 256 AS output_dimensionality, poi il ml_generate_embedding_result contiene 256 incorporamenti per ogni valore di input.

Esempi

I seguenti esempi mostrano come chiamare ML.GENERATE_EMBEDDING su una tabella e su una query.

Incorporare testo in una tabella

L'esempio seguente mostra una richiesta di incorporamento della colonna content della tabella text_data:

SELECT *
FROM
  ML.GENERATE_EMBEDDING(
    MODEL `mydataset.embedding_model`,
    TABLE mydataset.text_data,
    STRUCT(TRUE AS flatten_json_output, 'CLASSIFICATION' AS task_type)
  );

Utilizzare gli embedding per classificare la somiglianza semantica

L'esempio seguente incorpora una raccolta di recensioni di film e le ordina in base alla distanza di coseno rispetto alla recensione "Questo film era nella media" utilizzando la funzione ML.DISTANCE. Una distanza minore indica una maggiore somiglianza semantica.

WITH movie_review_embeddings AS (
  SELECT *
  FROM
    ML.GENERATE_EMBEDDING(
      MODEL `bqml_tutorial.embedding_model`,
      (
        SELECT "Movie 1" AS title, "This movie was fantastic" AS content
        UNION ALL
        SELECT "Movie 2" AS title, "This was the best movie I've ever seen!!" AS content
        UNION ALL
        SELECT "Movie 3" AS title, "This movie was just okay..." AS content
        UNION ALL
        SELECT "Movie 4" AS title, "This movie was terrible." AS content
      ),
      STRUCT(TRUE AS flatten_json_output)
    )
),
average_review_embedding AS (
  SELECT ml_generate_embedding_result
  FROM
    ML.GENERATE_EMBEDDING(
      MODEL `bqml_tutorial.embedding_model`,
      (SELECT "This movie was average" AS content),
      STRUCT(TRUE AS flatten_json_output)
    )
)
SELECT
  content,
  ML.DISTANCE(
    (SELECT ml_generate_embedding_result FROM average_review_embedding),
    ml_generate_embedding_result,
    'COSINE'
  ) AS distance_to_average_review
FROM
  movie_review_embeddings
ORDER BY distance_to_average_review;

Il risultato è il seguente:

+------------------------------------------+----------------------------+
| content                                  | distance_to_average_review |
+------------------------------------------+----------------------------+
| This movie was just okay...              | 0.062789813467745592       |
| This movie was fantastic                 |  0.18579561313064263       |
| This movie was terrible.                 |  0.35707466240930985       |
| This was the best movie I've ever seen!! |  0.41844932504542975       |
+------------------------------------------+----------------------------+