Modell mit Ihren Daten abstimmen

In diesem Dokument erfahren Sie, wie Sie ein BigQuery ML Remote-Modell erstellen, das auf eine beliebige Version des text-bison Vertex AI Natural Language Foundation Models verweist und das Modell für die Ausführung einer überwachten Abstimmung konfiguriert. Nachdem Sie das Remote-Modell erstellt haben, verwenden Sie die Funktion ML.EVALUATE, um das Modell zu bewerten und zu bestätigen, dass die Leistung des Modells zu Ihrem Anwendungsfall entspricht. Anschließend können Sie das Modell in Verbindung mit der Funktion ML.GENERATE_TEXT verwenden, um Text in einer BigQuery-Tabelle zu analysieren.

Erforderliche Berechtigungen

  • Zum Erstellen einer Verbindung benötigen Sie die Mitgliedschaft in der folgenden IAM-Rolle (Identity and Access Management):

    • roles/bigquery.connectionAdmin
  • Zum Erteilen von Berechtigungen für das Dienstkonto der Verbindung benötigen Sie die folgende Berechtigung:

    • resourcemanager.projects.setIamPolicy
  • Zum Erstellen des Modells mit BigQuery ML benötigen Sie die folgenden IAM-Berechtigungen:

    • bigquery.jobs.create
    • bigquery.models.create
    • bigquery.models.getData
    • bigquery.models.updateData
    • bigquery.models.updateMetadata
  • Zum Ausführen von Inferenzen benötigen Sie die folgenden Berechtigungen:

    • bigquery.tables.getData für die Tabelle
    • bigquery.models.getData für das Modell
    • bigquery.jobs.create

Hinweis

  1. Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.

    Zur Projektauswahl

  2. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  3. BigQuery, BigQuery Connection,Vertex AI, and Compute Engine APIs aktivieren.

    Aktivieren Sie die APIs

Verbindung herstellen

Erstellen Sie eine Cloud-Ressourcenverbindung und rufen Sie das Dienstkonto der Verbindung ab.

Wählen Sie eine der folgenden Optionen aus:

Console

  1. Rufen Sie die Seite BigQuery auf.

    BigQuery aufrufen

  2. Klicken Sie auf Hinzufügen und dann auf Verbindungen zu externen Datenquellen, um eine Verbindung zu erstellen.

  3. Wählen Sie in der Liste Verbindungstyp die Option Vertex AI-Remote-Modelle, Remote-Funktionen und BigLake (Cloud Resource) aus.

  4. Geben Sie im Feld Verbindungs-ID einen Namen für die Verbindung ein.

  5. Klicken Sie auf Verbindung erstellen.

  6. Klicken Sie auf Zur Verbindung.

  7. Kopieren Sie im Bereich Verbindungsinformationen die Dienstkonto-ID zur Verwendung in einem späteren Schritt.

bq

  1. Erstellen Sie in einer Befehlszeilenumgebung eine Verbindung:

    bq mk --connection --location=REGION --project_id=PROJECT_ID \
        --connection_type=CLOUD_RESOURCE CONNECTION_ID
    

    Der Parameter --project_id überschreibt das Standardprojekt.

    Ersetzen Sie Folgendes:

    • REGION: Ihre Verbindungsregion
    • PROJECT_ID: Ihre Google Cloud-Projekt-ID
    • CONNECTION_ID: eine ID für Ihre Verbindung

    Wenn Sie eine Verbindungsressource herstellen, erstellt BigQuery ein eindeutiges Systemdienstkonto und ordnet es der Verbindung zu.

    Fehlerbehebung:Wird der folgende Verbindungsfehler angezeigt, aktualisieren Sie das Google Cloud SDK:

    Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
    
  2. Rufen Sie die Dienstkonto-ID ab und kopieren Sie sie zur Verwendung in einem späteren Schritt:

    bq show --connection PROJECT_ID.REGION.CONNECTION_ID
    

    Die Ausgabe sieht in etwa so aus:

    name                          properties
    1234.REGION.CONNECTION_ID     {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
    

Terraform

Hängen Sie folgenden Abschnitt an Ihre main.tf-Datei an.

 ## This creates a cloud resource connection.
 ## Note: The cloud resource nested object has only one output only field - serviceAccountId.
 resource "google_bigquery_connection" "connection" {
    connection_id = "CONNECTION_ID"
    project = "PROJECT_ID"
    location = "REGION"
    cloud_resource {}
}        
Ersetzen Sie Folgendes:

  • CONNECTION_ID: eine ID für Ihre Verbindung
  • PROJECT_ID: Ihre Google Cloud-Projekt-ID
  • REGION: Ihre Verbindungsregion

Dem Dienstkonto der Verbindung Zugriff gewähren

Gewähren Sie Ihrem Dienstkonto Zugriff auf Vertex AI. Wenn Sie keine Berechtigung erteilen, tritt ein Fehler auf. Wählen Sie eine der folgenden Optionen aus:

Console

  1. Zur Seite IAM & Verwaltung.

    IAM & Verwaltung aufrufen

  2. Klicken Sie auf Zugriff gewähren.

  3. Geben Sie unter Neue Hauptkonten die Dienstkonto-ID ein, die Sie zuvor kopiert haben.

  4. Klicken Sie auf Rolle auswählen.

  5. Geben Sie unter Filter Vertex AI Service Agent ein und wählen Sie dann diese Rolle aus.

  6. Klicken Sie auf Speichern.

gcloud

Führen Sie den Befehl gcloud projects add-iam-policy-binding aus:

gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/aiplatform.serviceAgent' --condition=None

Ersetzen Sie Folgendes:

  • PROJECT_NUMBER: Ihre Projektnummer.
  • MEMBER: Die Dienstkonto-ID, die Sie zuvor kopiert haben.

Das mit Ihrer Verbindung verknüpfte Dienstkonto ist eine Instanz des BigQuery Connection Delegation Service-Agents. Daher kann ihm eine Dienst-Agent-Rolle zugewiesen werden.

Dem Compute Engine-Standarddienstkonto Zugriff gewähren

Wenn Sie die Compute Engine API aktivieren, wird dem Compute Engine-Standarddienstkonto automatisch die Bearbeiterrolle für das Projekt zugewiesen, es sei denn, Sie haben dieses Verhalten für Ihr Projekt deaktiviert. In diesem Fall müssen Sie dem Compute Engine-Standarddienstkonto die Bearbeiterrolle wieder zuweisen, damit es über ausreichende Berechtigungen zum Erstellen und Optimieren eines Remote-Modells verfügt.

Console

  1. Zur Seite IAM & Verwaltung.

    IAM & Verwaltung aufrufen

  2. Klicken Sie auf Zugriff gewähren.

  3. Geben Sie unter Neue Hauptkonten die Dienstkonto-ID PROJECT_NUMBER-compute@developer.gserviceaccount.com ein.

  4. Klicken Sie auf Rolle auswählen.

  5. Wählen Sie unter Rolle auswählen die Option Einfach und dann Bearbeiter aus.

  6. Klicken Sie auf Speichern.

gcloud

Führen Sie den Befehl gcloud projects add-iam-policy-binding aus:

gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/editor' --condition=None

Ersetzen Sie Folgendes:

  • PROJECT_NUMBER: Ihre Projektnummer.
  • MEMBER: die Dienstkonto-ID (PROJECT_NUMBER-compute@developer.gserviceaccount.com).

Modell mit überwachter Abstimmung erstellen

  1. Öffnen Sie in der Google Cloud Console die Seite BigQuery.

    BigQuery aufrufen

  2. Führen Sie im Abfrageeditor die folgende Abfrage aus, um ein Remote-Modell zu erstellen:

    CREATE OR REPLACE MODEL
    `PROJECT_ID.DATASET_ID.MODEL_NAME`
    REMOTE WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID`
    OPTIONS (
      ENDPOINT = 'ENDPOINT',
      MAX_ITERATIONS = MAX_ITERATIONS,
      EARLY_STOP = EARLY_STOP,
      LEARNING_RATE_MULTIPLIER = LEARNING_RATE_MULTIPLIER,
      ACCELERATOR_TYPE = 'ACCELERATOR_TYPE',
      DATA_SPLIT_METHOD = 'DATA_SPLIT_METHOD',
      DATA_SPLIT_EVAL_FRACTION = DATA_SPLIT_EVAL_FRACTION,
      DATA_SPLIT_COL = 'DATA_SPLIT_COL',
      EVALUATION_TASK = 'EVALUATION_TASK',
      PROMPT_COL = 'INPUT_PROMPT_COL',
      INPUT_LABEL_COLS = INPUT_LABEL_COLS)
    AS SELECT PROMPT_COLUMN, LABEL_COLUMN
    FROM `TABLE_PROJECT_ID.TABLE_DATASET.TABLE_NAME`;
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID ist die Projekt-ID des Projekts, in dem das Modell erstellt werden soll.
    • DATASET_ID ist die ID des Datasets, das das Modell enthalten soll. Dieses Dataset muss sich in einer unterstützten Pipelinejob- und Modelluploadregion befinden.
    • MODEL_NAME ist der Name des Modells.
    • REGION ist die Region, die von der Verbindung verwendet wird.
    • CONNECTION_ID ist die ID Ihrer BigQuery-Verbindung. Diese Verbindung muss sich am selben Standort wie das von Ihnen verwendete Dataset befinden.

      Wenn Sie sich Verbindungsdetails in der Google Cloud Console ansehen, ist dies der Wert im letzten Abschnitt der voll qualifizierten Verbindungs-ID, der unter Verbindungs-ID angezeigt wird, z. B. projects/myproject/locations/connection_location/connections/myconnection.

    • ENDPOINT: ein STRING-Wert, der den Namen des zu verwendenden Text-LLM angibt. In diesem Fall muss es eine beliebige Version des Modells text-bison sein.
    • MAX_ITERATIONS: ein INT64-Wert, der die Anzahl der Schritte angibt, die für die überwachte Abstimmung ausgeführt werden sollen. Der MAX_ITERATIONS-Wert muss zwischen 1 und 2400 liegen. Normalerweise dauern 100 Schritte etwa eine Stunde. Der Standardwert ist 300.

      Der MAX_ITERATIONS-Wert in Kombination mit dem ACCELERATOR_TYPE-Wert wirkt sich auf die Batchgröße aus, die im Modelltraining verwendet wird. Weitere Informationen zur Auswahl der Anzahl der Trainingsschritte finden Sie unter Empfohlene Konfigurationen.

      Weitere Informationen finden Sie unter MAX_ITERATIONS.

    • EARLY_STOP: ein BOOL-Wert, der bestimmt, ob die überwachte Abstimmung beendet werden soll, bevor alle Abstimmungsschritte ausgeführt werden. Wenn dieser auf TRUE festgelegt ist, wird die überwachte Abstimmung beendet, wenn sich die Modellleistung, gemessen über die Accuracy der vorhergesagten Tokens, zwischen den Bewertungsausführungen nicht verbessert. Wenn dieser auf FALSE festgelegt ist, wird die überwachte Abstimmung fortgesetzt, bis alle Abstimmungsschritte abgeschlossen sind. Der Standardwert ist FALSE.
    • LEARNING_RATE_MULTIPLIER: Ein FLOAT64-Multiplikator, der auf die empfohlene Lernrate anzuwenden ist. Der Standardwert ist 1.0.
    • ACCELERATOR_TYPE: ein STRING-Wert, der den Beschleunigertyp angibt, der für die überwachte Abstimmung verwendet werden soll. Gültige Optionen sind:
      • GPU: Verwendet A100-GPUs mit 80 GB für die überwachte Abstimmung.
      • TPU: Verwendet 64 Kerne des TPU v3-Pods für die Optimierung. Wenn Sie diese Option auswählen, gilt Folgendes:
        • Sie müssen Ihre Abfrage in der Region europe-west4 ausführen. Informationen zum Ändern von Abfrageoptionen wie dem Standort finden Sie unter Interaktive Abfrage ausführen.
        • Die überwachten Abstimmungsberechnungen werden in der Region europe-west4 durchgeführt, da sich dort die TPU-Ressourcen befinden.

      Der Standardwert ist GPU. Unabhängig von der verwendeten Option sollten Sie darauf achten, dass Ihr Kontingent ausreicht.

    • DATA_SPLIT_METHOD: ein STRING-Wert, der die Methode angibt, mit der Eingabedaten in Trainings- und Bewertungs-Datasets aufgeteilt werden. Gültige Optionen sind:
      • AUTO_SPLIT: BigQuery ML teilt die Daten automatisch auf. Die Art und Weise, wie die Daten aufgeteilt werden, hängt von der Anzahl der Zeilen in der Eingabetabelle ab. Dies ist der Standardwert.
      • RANDOM: Die Daten werden zufällig angeordnet, bevor sie in Datasets aufgeteilt werden. Wenn Sie die Datenaufteilung anpassen möchten, können Sie diese Option mit der Option DATA_SPLIT_EVAL_FRACTION verwenden.
      • CUSTOM: Daten werden mithilfe der Spalte in der Option DATA_SPLIT_COL aufgeteilt. Der Wert DATA_SPLIT_COL muss der Name einer Spalte vom Typ BOOL sein. Zeilen mit einem der Werte TRUE oder NULL werden als Bewertungsdaten, Zeilen mit dem Wert FALSE werden als Trainingsdaten verwendet.
      • SEQ: Teilen Sie Daten mithilfe der Spalte in der Option DATA_SPLIT_COL auf. Der Wert DATA_SPLIT_COL muss der Name einer Spalte eines der folgenden Typen sein:
        • NUMERIC
        • BIGNUMERIC
        • STRING
        • TIMESTAMP

        Die Daten werden basierend auf der angegebenen Spalte vom kleinsten zum größten Wert sortiert.

        Die ersten n Zeilen werden als Bewertungsdaten verwendet, wobei n der für DATA_SPLIT_EVAL_FRACTION angegebene Wert ist. Die restlichen Zeilen werden als Trainingsdaten verwendet.

      • NO_SPLIT: keine Datenaufteilung. Alle Eingabedaten werden als Trainingsdaten verwendet.

      Weitere Informationen zu diesen Datenaufteilungsoptionen finden Sie unter DATA_SPLIT_METHOD.

    • DATA_SPLIT_EVAL_FRACTION: ein FLOAT64-Wert, der den Anteil der Daten angibt, die bei der überwachten Abstimmung als Evaluationsdaten verwendet werden sollen. Muss ein Wert im Bereich [0, 1.0] sein. Der Standardwert ist 0.2.

      Verwenden Sie diese Option, wenn Sie RANDOM oder SEQ als Wert für die Option DATA_SPLIT_METHOD angeben. Wenn Sie die Datenaufteilung anpassen möchten, können Sie die Option DATA_SPLIT_METHOD mit der Option DATA_SPLIT_EVAL_FRACTION verwenden.

    • DATA_SPLIT_COL: ein STRING-Wert, der den Namen der Spalte angibt, die zum Sortieren von Eingabedaten in die Trainings- oder Bewertungs-Datasets verwendet werden soll. Verwenden Sie diese Option, wenn Sie CUSTOM oder SEQ als Wert für die Option DATA_SPLIT_METHOD angeben.
    • EVALUATION_TASK: ein STRING-Wert, der die Art der Aufgabe angibt, für die das Modell optimiert werden soll. Gültige Optionen sind:
      • TEXT_GENERATION
      • CLASSIFICATION
      • SUMMARIZATION
      • QUESTION_ANSWERING
      • UNSPECIFIED

      Der Standardwert ist UNSPECIFIED.

    • INPUT_PROMPT_COL: ein STRING-Wert, der den Namen der Prompt-Spalte in der Trainingsdatentabelle enthält, die bei der überwachten Abstimmung verwendet werden soll. Der Standardwert ist prompt.
    • INPUT_LABEL_COLS: ein ARRAY<<STRING>-Wert, der den Namen der Labelspalte in der Trainingsdatentabelle enthält, die für die überwachte Abstimmung verwendet werden soll. Sie können nur ein Element im Array angeben. Der Standardwert ist ein leerer String. Dadurch ist label der Standardwert des Arguments LABEL_COLUMN.
    • PROMPT_COLUMN: die Spalte in der Trainingsdatentabelle, die die Eingabeaufforderung zum Auswerten des Inhalts in der Spalte LABEL_COLUMN enthält. Diese Spalte muss vom Typ STRING sein oder in STRING übertragen worden sein. Wenn Sie einen Wert für die Option INPUT_PROMPT_COL angeben, müssen Sie denselben Wert für PROMPT_COLUMN angeben. Andernfalls muss dieser Wert prompt sein. Wenn die Tabelle keine prompt-Spalte enthält, verwenden Sie einen Alias, um eine vorhandene Tabellenspalte anzugeben. Beispiel: AS SELECT hint AS prompt, label FROM mydataset.mytable.
    • LABEL_COLUMN: die Spalte in der Trainingsdatentabelle, die die Beispiele zum Trainieren des Modells enthält. Diese Spalte muss vom Typ STRING sein oder in STRING übertragen worden sein. Wenn Sie einen Wert für die Option INPUT_LABEL_COLS angeben, müssen Sie denselben Wert für LABEL_COLUMN angeben. Andernfalls muss dieser Wert label sein. Wenn die Tabelle keine label-Spalte enthält, verwenden Sie einen Alias, um eine vorhandene Tabellenspalte anzugeben. Beispiel: AS SELECT prompt, feature AS label FROM mydataset.mytable.
    • TABLE_PROJECT_ID: Die Projekt-ID des Projekts, das die Trainingsdatentabelle enthält.
    • TABLE_DATASET: der Name des Datasets, das die Trainingsdatentabelle enthält.
    • TABLE_NAME: der Name der Tabelle, die die Daten enthält, die zum Trainieren des Modells verwendet werden sollen.

Abgestimmtes Modell bewerten

  1. Öffnen Sie in der Google Cloud Console die Seite BigQuery.

    BigQuery aufrufen

  2. Führen Sie im Abfrageeditor die folgende Abfrage aus, um das abgestimmte Modell zu bewerten:

    SELECT
    *
    FROM
    ML.EVALUATE(
      MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
      TABLE `TABLE_PROJECT_ID.TABLE_DATASET.TABLE_NAME`,
      STRUCT('TASK_TYPE' AS task_type, TOKENS AS max_output_tokens,
        TEMPERATURE AS temperature, TOP_K AS top_k,
        TOP_P AS top_p));
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: die ID des Projekts, das das Modell enthält
    • DATASET_ID ist die ID des Datasets, das das Modell enthält.
    • MODEL_NAME ist der Name des Modells.
    • TABLE_PROJECT_ID: Die Projekt-ID des Projekts, das die Bewertungsdatentabelle enthält.
    • TABLE_DATASET: der Name des Datasets, das die Bewertungsdatentabelle enthält.
    • TABLE_NAME: Der Name der Tabelle, die die Bewertungsdaten enthält.

      Die Tabelle muss eine Spalte enthalten, deren Name mit dem Spaltennamen übereinstimmt, der während des Modelltrainings bereitgestellt wird. Sie können diesen Wert während des Modelltrainings mit der Option prompt_col angeben. Wenn prompt_col nicht angegeben ist, wird in den Trainingsdaten die Spalte prompt verwendet. Wenn keine Spalte namens prompt vorhanden ist, wird ein Fehler zurückgegeben.

      Die Tabelle muss eine Spalte enthalten, deren Name mit dem Namen der Labelspalte übereinstimmt, die während des Modelltrainings angegeben wird. Sie können diesen Wert während des Modelltrainings mit der Option input_label_cols angeben. Wenn input_label_cols nicht angegeben ist, wird in den Trainingsdaten die Spalte label verwendet. Wenn keine Spalte namens label vorhanden ist, wird ein Fehler zurückgegeben.

    • TASK_TYPE: ein STRING-Wert, der die Art der Aufgabe angibt, für die Sie das Modell bewerten möchten. Gültige Optionen sind:
      • TEXT_GENERATION
      • CLASSIFICATION
      • SUMMARIZATION
      • QUESTION_ANSWERING
      • UNSPECIFIED
    • TOKENS: ein INT64-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich [1,1024] liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist 128.
    • TEMPERATURE: ein FLOAT64-Wert im Bereich [0.0,1.0], der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist 0.

      Niedrigere Werte für temperature eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte für temperature zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von 0 für temperature ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.

    • TOP_K: ein INT64-Wert im Bereich [1,40], der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 40.
    • TOP_P: ein FLOAT64-Wert im Bereich [0.0,1.0] hilft dabei, zu ermitteln, welche Token aus dem durch TOP_K bestimmten Pool ausgewählt werden. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 0.95.

Text generieren

Generieren Sie Text mit der Funktion ML.GENERATE_TEXT:

Prompt-Spalte

Generieren Sie Text mithilfe einer Tabellenspalte, um den Prompt bereitzustellen.

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

Ersetzen Sie Folgendes:

  • PROJECT_ID ist Ihre Projekt-ID.
  • DATASET_ID ist die ID des Datasets, das das Modell enthält.
  • MODEL_NAME ist der Name des Modells.
  • TABLE_NAME: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte enthalten, deren Name mit dem Namen der Featurespalte im abgestimmten LLM übereinstimmt. Der Name der Featurespalte im LLM kann beim Erstellen des Modells mit der Option PROMPT_COL festgelegt werden. Andernfalls lautet der Name der Featurespalte in der LLM standardmäßig prompt. Sie können auch einen Alias verwenden, um eine Spalte mit einem anderen Namen zu verwenden.
  • TOKENS: ein INT64-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich [1,1024] liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist 128.
  • TEMPERATURE: ein FLOAT64-Wert im Bereich [0.0,1.0], der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist 0.

    Niedrigere Werte für temperature eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte für temperature zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von 0 für temperature ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.

  • TOP_K: ein INT64-Wert im Bereich [1,40], der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 40.
  • TOP_P: ein FLOAT64-Wert im Bereich [0.0,1.0] hilft dabei, zu ermitteln, welche Token aus dem durch TOP_K bestimmten Pool ausgewählt werden. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 0.95.
  • FLATTEN_JSON: ein BOOL-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert ist FALSE.
  • STOP_SEQUENCES: ein ARRAY<STRING>-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.

Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:

  • Verwendet die Spalte prompt der Tabelle prompts für den Prompt.
  • Gibt eine kurze und moderat wahrscheinliche Antwort zurück.
  • Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    TABLE mydataset.prompts,
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      40 AS top_k, TRUE AS flatten_json_output));

Abfrage eingeben

Generieren Sie Text mithilfe einer Abfrage, um den Prompt bereitzustellen.

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (PROMPT_QUERY),
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

Ersetzen Sie Folgendes:

  • PROJECT_ID ist Ihre Projekt-ID.
  • DATASET_ID ist die ID des Datasets, das das Modell enthält.
  • MODEL_NAME ist der Name des Modells.
  • PROMPT_QUERY: eine Abfrage, die die Prompt-Daten bereitstellt.
  • TOKENS: ein INT64-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich [1,1024] liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist 128.
  • TEMPERATURE: ein FLOAT64-Wert im Bereich [0.0,1.0], der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist 0.

    Niedrigere Werte für temperature eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte für temperature zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von 0 für temperature ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.

  • TOP_K: ein INT64-Wert im Bereich [1,40], der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 40.
  • TOP_P: ein FLOAT64-Wert im Bereich [0.0,1.0] hilft dabei, zu ermitteln, welche Token aus dem durch TOP_K bestimmten Pool ausgewählt werden. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 0.95.
  • FLATTEN_JSON: ein BOOL-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert ist FALSE.
  • STOP_SEQUENCES: ein ARRAY<STRING>-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.

Beispiel 1

Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:

  • Aufforderungen für eine Zusammenfassung des Texts in der Spalte body der Tabelle articles.
  • Gibt eine relativ lange und wahrscheinlichere Antwort zurück.
  • Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      0.2 AS temperature, 650 AS max_output_tokens, 0.2 AS top_p,
      15 AS top_k, TRUE AS flatten_json_output));

Beispiel 2

Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:

  • Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
  • Gibt eine kurze und moderat wahrscheinliche Antwort zurück.
  • Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_tuned_model`,
    (
      SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt
      FROM mydataset.input_table
    ),
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      30 AS top_k, FALSE AS flatten_json_output));