Text mit der Funktion ML.GENERATE_TEXT generieren

In dieser Anleitung wird gezeigt, wie Sie ein BigQuery ML-Remote-Modell erstellen, das auf das Foundation Model der Vertex AI verweist. Sie können dieses Modell dann in Verbindung mit der Funktion ML.GENERATE_TEXT verwenden, um Text oder visuelle Inhalte in einer BigQuery-Tabelle zu analysieren.

Erforderliche Berechtigungen

  • Zum Erstellen einer Verbindung benötigen Sie die Mitgliedschaft in der folgenden IAM-Rolle (Identity and Access Management):

    • roles/bigquery.connectionAdmin
  • Zum Erteilen von Berechtigungen für das Dienstkonto der Verbindung benötigen Sie die folgende Berechtigung:

    • resourcemanager.projects.setIamPolicy
  • Zum Erstellen des Modells mit BigQuery ML benötigen Sie die folgenden IAM-Berechtigungen:

    • bigquery.jobs.create
    • bigquery.models.create
    • bigquery.models.getData
    • bigquery.models.updateData
    • bigquery.models.updateMetadata
  • Zum Ausführen von Inferenzen benötigen Sie die folgenden Berechtigungen:

    • bigquery.tables.getData für die Tabelle
    • bigquery.models.getData für das Modell
    • bigquery.jobs.create

Hinweise

  1. Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.

    Zur Projektauswahl

  2. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  3. BigQuery, BigQuery Connection, and Vertex AI APIs aktivieren.

    Aktivieren Sie die APIs

Wenn Sie ML.GENERATE_TEXT mit einem gemini-pro-vision-Modell verwenden möchten, um visuelle Inhalte in einer Objekttabelle zu analysieren, benötigen Sie eine Enterprise oder Enterprise Plus-Reservierung. Weitere Informationen finden Sie unter Reservierungen erstellen.

Verbindung herstellen

Erstellen Sie eine Cloud-Ressourcenverbindung und rufen Sie das Dienstkonto der Verbindung ab.

Wählen Sie eine der folgenden Optionen aus:

Console

  1. Rufen Sie die Seite BigQuery auf.

    BigQuery aufrufen

  2. Klicken Sie auf Hinzufügen und dann auf Verbindungen zu externen Datenquellen, um eine Verbindung zu erstellen.

  3. Wählen Sie in der Liste Verbindungstyp die Option Vertex AI-Remote-Modelle, Remote-Funktionen und BigLake (Cloud Resource) aus.

  4. Geben Sie im Feld Verbindungs-ID einen Namen für die Verbindung ein.

  5. Klicken Sie auf Verbindung erstellen.

  6. Klicken Sie auf Zur Verbindung.

  7. Kopieren Sie im Bereich Verbindungsinformationen die Dienstkonto-ID zur Verwendung in einem späteren Schritt.

bq

  1. Erstellen Sie in einer Befehlszeilenumgebung eine Verbindung:

    bq mk --connection --location=REGION --project_id=PROJECT_ID \
        --connection_type=CLOUD_RESOURCE CONNECTION_ID
    

    Der Parameter --project_id überschreibt das Standardprojekt.

    Ersetzen Sie Folgendes:

    • REGION: Ihre Verbindungsregion
    • PROJECT_ID: Ihre Google Cloud-Projekt-ID
    • CONNECTION_ID: eine ID für Ihre Verbindung

    Wenn Sie eine Verbindungsressource herstellen, erstellt BigQuery ein eindeutiges Systemdienstkonto und ordnet es der Verbindung zu.

    Fehlerbehebung:Wird der folgende Verbindungsfehler angezeigt, aktualisieren Sie das Google Cloud SDK:

    Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
    
  2. Rufen Sie die Dienstkonto-ID ab und kopieren Sie sie zur Verwendung in einem späteren Schritt:

    bq show --connection PROJECT_ID.REGION.CONNECTION_ID
    

    Die Ausgabe sieht in etwa so aus:

    name                          properties
    1234.REGION.CONNECTION_ID     {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
    

Terraform

Hängen Sie folgenden Abschnitt an Ihre main.tf-Datei an.

 ## This creates a cloud resource connection.
 ## Note: The cloud resource nested object has only one output only field - serviceAccountId.
 resource "google_bigquery_connection" "connection" {
    connection_id = "CONNECTION_ID"
    project = "PROJECT_ID"
    location = "REGION"
    cloud_resource {}
}        
Ersetzen Sie Folgendes:

  • CONNECTION_ID: eine ID für Ihre Verbindung
  • PROJECT_ID: Ihre Google Cloud-Projekt-ID
  • REGION: Ihre Verbindungsregion

Dem Dienstkonto Zugriff gewähren

Gewähren Sie Ihrem Dienstkonto die Berechtigung, die Verbindung zu verwenden. Wenn Sie keine Berechtigung erteilen, tritt ein Fehler auf. Wählen Sie eine der folgenden Optionen aus:

Console

  1. Zur Seite IAM & Verwaltung.

    IAM & Verwaltung aufrufen

  2. Klicken Sie auf Hinzufügen.

    Das Dialogfeld Principals hinzufügen wird geöffnet.

  3. Geben Sie im Feld Neue Hauptkonten die Dienstkonto-ID ein, die Sie zuvor kopiert haben.

  4. Wählen Sie im Feld Rolle auswählen die Option Vertex AI und dann Vertex AI-Nutzer aus.

  5. Klicken Sie auf Speichern.

gcloud

Führen Sie den Befehl gcloud projects add-iam-policy-binding aus:

gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/aiplatform.user' --condition=None

Ersetzen Sie Folgendes:

  • PROJECT_NUMBER: Ihre Projektnummer
  • MEMBER: Die Dienstkonto-ID, die Sie zuvor kopiert haben

Modell erstellen

  1. Öffnen Sie in der Google Cloud Console die Seite BigQuery.

    BigQuery aufrufen

  2. Erstellen Sie mit dem SQL-Editor ein Remote-Modell:

    CREATE OR REPLACE MODEL
    `PROJECT_ID.DATASET_ID.MODEL_NAME`
    REMOTE WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID`
    OPTIONS (ENDPOINT = 'ENDPOINT');
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: Ihre Projekt-ID.
    • DATASET_ID ist die ID des Datasets, das das Modell enthalten soll. Dieses Dataset muss sich am selben Standort wie die von Ihnen verwendete Verbindung befinden
    • MODEL_NAME ist der Name des Modells.
    • REGION ist die Region, die von der Verbindung verwendet wird.
    • CONNECTION_ID: die ID Ihrer BigQuery-Verbindung.

      Wenn Sie sich Verbindungsdetails in der Google Cloud Console ansehen, ist dies der Wert im letzten Abschnitt der voll qualifizierten Verbindungs-ID, der unter Verbindungs-ID angezeigt wird, z. B. projects/myproject/locations/connection_location/connections/myconnection.

    • ENDPOINT: der Name des unterstützten Vertex AI-Modells, das verwendet werden soll. Beispiel: ENDPOINT='gemini-pro'

      Für einige Modelltypen können Sie eine bestimmte Version des Modells angeben, indem Sie @version an den Modellnamen anhängen. Beispiel: text-bison@001 Informationen zu unterstützten Modellversionen für verschiedene Modelltypen finden Sie unter ENDPOINT.

Text aus Textdaten mithilfe eines Prompts aus einer Tabelle generieren

Text generieren mit derML.GENERATE_TEXT Funktion mit einem Remote-Modell, das basiert auf einem unterstütztenVertex AI Gemini API- oder Vertex AI PaLM API-Textmodell und einem Prompt aus einer Tabellenspalte:

gemini-pro

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

Ersetzen Sie Folgendes:

  • PROJECT_ID ist Ihre Projekt-ID.
  • DATASET_ID ist die ID des Datasets, das das Modell enthält.
  • MODEL_NAME ist der Name des Modells.
  • TABLE_NAME: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namens prompt enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.
  • TOKENS: ein INT64-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich [1,8192] liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist 128.
  • TEMPERATURE: ein FLOAT64-Wert im Bereich [0.0,1.0], der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist 0.

    Niedrigere Werte für temperature eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte für temperature zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von 0 für temperature ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.

  • TOP_K: ein INT64-Wert im Bereich [1,40], der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 40.
  • TOP_P: ein FLOAT64-Wert im Bereich [0.0,1.0] hilft dabei, zu ermitteln, welche Token aus dem durch TOP_K bestimmten Pool ausgewählt werden. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 0.95.
  • FLATTEN_JSON: ein BOOL-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert ist FALSE.
  • STOP_SEQUENCES: ein ARRAY<STRING>-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.

Beispiel

Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:

  • Verwendet die Spalte prompt der Tabelle prompts für den Prompt.
  • Gibt eine kurze und moderat wahrscheinliche Antwort zurück.
  • Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    TABLE mydataset.prompts,
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      40 AS top_k, TRUE AS flatten_json_output));

text-bison

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

Ersetzen Sie Folgendes:

  • PROJECT_ID ist Ihre Projekt-ID.
  • DATASET_ID ist die ID des Datasets, das das Modell enthält.
  • MODEL_NAME ist der Name des Modells.
  • TABLE_NAME: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namens prompt enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.
  • TOKENS: ein INT64-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich [1,1024] liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist 128.
  • TEMPERATURE: ein FLOAT64-Wert im Bereich [0.0,1.0], der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist 0.

    Niedrigere Werte für temperature eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte für temperature zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von 0 für temperature ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.

  • TOP_K: ein INT64-Wert im Bereich [1,40], der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 40.
  • TOP_P: ein FLOAT64-Wert im Bereich [0.0,1.0] hilft dabei, zu ermitteln, welche Token aus dem durch TOP_K bestimmten Pool ausgewählt werden. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 0.95.
  • FLATTEN_JSON: ein BOOL-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert ist FALSE.
  • STOP_SEQUENCES: ein ARRAY<STRING>-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.

Beispiel

Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:

  • Verwendet die Spalte prompt der Tabelle prompts für den Prompt.
  • Gibt eine kurze und moderat wahrscheinliche Antwort zurück.
  • Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    TABLE mydataset.prompts,
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      40 AS top_k, TRUE AS flatten_json_output));

text-bison32

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

Ersetzen Sie Folgendes:

  • PROJECT_ID ist Ihre Projekt-ID.
  • DATASET_ID ist die ID des Datasets, das das Modell enthält.
  • MODEL_NAME ist der Name des Modells.
  • TABLE_NAME: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namens prompt enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.
  • TOKENS: ein INT64-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich [1,8192] liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist 128.
  • TEMPERATURE: ein FLOAT64-Wert im Bereich [0.0,1.0], der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist 0.

    Niedrigere Werte für temperature eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte für temperature zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von 0 für temperature ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.

  • TOP_K: ein INT64-Wert im Bereich [1,40], der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 40.
  • TOP_P: ein FLOAT64-Wert im Bereich [0.0,1.0] hilft dabei, zu ermitteln, welche Token aus dem durch TOP_K bestimmten Pool ausgewählt werden. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 0.95.
  • FLATTEN_JSON: ein BOOL-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert ist FALSE.
  • STOP_SEQUENCES: ein ARRAY<STRING>-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.

Beispiel

Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:

  • Verwendet die Spalte prompt der Tabelle prompts für den Prompt.
  • Gibt eine kurze und moderat wahrscheinliche Antwort zurück.
  • Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    TABLE mydataset.prompts,
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      40 AS top_k, TRUE AS flatten_json_output));

text-unicorn

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

Ersetzen Sie Folgendes:

  • PROJECT_ID ist Ihre Projekt-ID.
  • DATASET_ID ist die ID des Datasets, das das Modell enthält.
  • MODEL_NAME ist der Name des Modells.
  • TABLE_NAME: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namens prompt enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.
  • TOKENS: ein INT64-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich [1,1024] liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist 128.
  • TEMPERATURE: ein FLOAT64-Wert im Bereich [0.0,1.0], der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist 0.

    Niedrigere Werte für temperature eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte für temperature zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von 0 für temperature ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.

  • TOP_K: ein INT64-Wert im Bereich [1,40], der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 40.
  • TOP_P: ein FLOAT64-Wert im Bereich [0.0,1.0] hilft dabei, zu ermitteln, welche Token aus dem durch TOP_K bestimmten Pool ausgewählt werden. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 0.95.
  • FLATTEN_JSON: ein BOOL-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert ist FALSE.
  • STOP_SEQUENCES: ein ARRAY<STRING>-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.

Beispiel

Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:

  • Verwendet die Spalte prompt der Tabelle prompts für den Prompt.
  • Gibt eine kurze und moderat wahrscheinliche Antwort zurück.
  • Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    TABLE mydataset.prompts,
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      40 AS top_k, TRUE AS flatten_json_output));

Text aus Textdaten mithilfe eines Prompts aus einer Abfrage generieren

Text generieren mit derML.GENERATE_TEXT Funktion mit einem Remote-Modell, das basiert auf einem unterstütztenGemini API- oder PaLM API-Textmodell und eine Abfrage, die die Eingabeaufforderung bereitstellt:

gemini-pro

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (PROMPT_QUERY),
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

Ersetzen Sie Folgendes:

  • PROJECT_ID ist Ihre Projekt-ID.
  • DATASET_ID ist die ID des Datasets, das das Modell enthält.
  • MODEL_NAME ist der Name des Modells.
  • PROMPT_QUERY: eine Abfrage, die die Prompt-Daten bereitstellt.
  • TOKENS: ein INT64-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich [1,8192] liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist 128.
  • TEMPERATURE: ein FLOAT64-Wert im Bereich [0.0,1.0], der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist 0.

    Niedrigere Werte für temperature eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte für temperature zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von 0 für temperature ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.

  • TOP_K: ein INT64-Wert im Bereich [1,40], der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 40.
  • TOP_P: ein FLOAT64-Wert im Bereich [0.0,1.0] hilft dabei, zu ermitteln, welche Token aus dem durch TOP_K bestimmten Pool ausgewählt werden. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 0.95.
  • FLATTEN_JSON: ein BOOL-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert ist FALSE.
  • STOP_SEQUENCES: ein ARRAY<STRING>-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.

Beispiel 1

Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:

  • Aufforderungen für eine Zusammenfassung des Texts in der Spalte body der Tabelle articles.
  • Gibt eine relativ lange und wahrscheinlichere Antwort zurück.
  • Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      0.2 AS temperature, 650 AS max_output_tokens, 0.2 AS top_p,
      15 AS top_k, TRUE AS flatten_json_output));

Beispiel 2

Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:

  • Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
  • Gibt eine kurze und höchst wahrscheinliche Antwort zurück.
  • Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt
      FROM mydataset.input_table
    ),
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      30 AS top_k, FALSE AS flatten_json_output));

text-bison

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (PROMPT_QUERY),
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

Ersetzen Sie Folgendes:

  • PROJECT_ID ist Ihre Projekt-ID.
  • DATASET_ID ist die ID des Datasets, das das Modell enthält.
  • MODEL_NAME ist der Name des Modells.
  • PROMPT_QUERY: eine Abfrage, die die Prompt-Daten bereitstellt.
  • TOKENS: ein INT64-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich [1,1024] liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist 128.
  • TEMPERATURE: ein FLOAT64-Wert im Bereich [0.0,1.0], der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist 0.

    Niedrigere Werte für temperature eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte für temperature zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von 0 für temperature ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.

  • TOP_K: ein INT64-Wert im Bereich [1,40], der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 40.
  • TOP_P: ein FLOAT64-Wert im Bereich [0.0,1.0] hilft dabei, zu ermitteln, welche Token aus dem durch TOP_K bestimmten Pool ausgewählt werden. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 0.95.
  • FLATTEN_JSON: ein BOOL-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert ist FALSE.
  • STOP_SEQUENCES: ein ARRAY<STRING>-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.

Beispiel 1

Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:

  • Aufforderungen für eine Zusammenfassung des Texts in der Spalte body der Tabelle articles.
  • Gibt eine relativ lange und wahrscheinlichere Antwort zurück.
  • Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      0.2 AS temperature, 650 AS max_output_tokens, 0.2 AS top_p,
      15 AS top_k, TRUE AS flatten_json_output));

Beispiel 2

Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:

  • Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
  • Gibt eine kurze und höchst wahrscheinliche Antwort zurück.
  • Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt
      FROM mydataset.input_table
    ),
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      30 AS top_k, FALSE AS flatten_json_output));

text-bison32

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (PROMPT_QUERY),
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

Ersetzen Sie Folgendes:

  • PROJECT_ID ist Ihre Projekt-ID.
  • DATASET_ID ist die ID des Datasets, das das Modell enthält.
  • MODEL_NAME ist der Name des Modells.
  • PROMPT_QUERY: eine Abfrage, die die Prompt-Daten bereitstellt.
  • TOKENS: ein INT64-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich [1,8192] liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist 128.
  • TEMPERATURE: ein FLOAT64-Wert im Bereich [0.0,1.0], der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist 0.

    Niedrigere Werte für temperature eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte für temperature zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von 0 für temperature ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.

  • TOP_K: ein INT64-Wert im Bereich [1,40], der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 40.
  • TOP_P: ein FLOAT64-Wert im Bereich [0.0,1.0] hilft dabei, zu ermitteln, welche Token aus dem durch TOP_K bestimmten Pool ausgewählt werden. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 0.95.
  • FLATTEN_JSON: ein BOOL-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert ist FALSE.
  • STOP_SEQUENCES: ein ARRAY<STRING>-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.

Beispiel 1

Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:

  • Aufforderungen für eine Zusammenfassung des Texts in der Spalte body der Tabelle articles.
  • Gibt eine relativ lange und wahrscheinlichere Antwort zurück.
  • Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      0.2 AS temperature, 650 AS max_output_tokens, 0.2 AS top_p,
      15 AS top_k, TRUE AS flatten_json_output));

Beispiel 2

Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:

  • Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
  • Gibt eine kurze und höchst wahrscheinliche Antwort zurück.
  • Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt
      FROM mydataset.input_table
    ),
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      30 AS top_k, FALSE AS flatten_json_output));

text-unicorn

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (PROMPT_QUERY),
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

Ersetzen Sie Folgendes:

  • PROJECT_ID ist Ihre Projekt-ID.
  • DATASET_ID ist die ID des Datasets, das das Modell enthält.
  • MODEL_NAME ist der Name des Modells.
  • PROMPT_QUERY: eine Abfrage, die die Prompt-Daten bereitstellt.
  • TOKENS: ein INT64-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich [1,1024] liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist 128.
  • TEMPERATURE: ein FLOAT64-Wert im Bereich [0.0,1.0], der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist 0.

    Niedrigere Werte für temperature eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte für temperature zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von 0 für temperature ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.

  • TOP_K: ein INT64-Wert im Bereich [1,40], der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 40.
  • TOP_P: ein FLOAT64-Wert im Bereich [0.0,1.0] hilft dabei, zu ermitteln, welche Token aus dem durch TOP_K bestimmten Pool ausgewählt werden. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 0.95.
  • FLATTEN_JSON: ein BOOL-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert ist FALSE.
  • STOP_SEQUENCES: ein ARRAY<STRING>-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.

Beispiel 1

Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:

  • Aufforderungen für eine Zusammenfassung des Texts in der Spalte body der Tabelle articles.
  • Gibt eine relativ lange und wahrscheinlichere Antwort zurück.
  • Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      0.2 AS temperature, 650 AS max_output_tokens, 0.2 AS top_p,
      15 AS top_k, TRUE AS flatten_json_output));

Beispiel 2

Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:

  • Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
  • Gibt eine kurze und höchst wahrscheinliche Antwort zurück.
  • Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt
      FROM mydataset.input_table
    ),
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      30 AS top_k, FALSE AS flatten_json_output));

Text generieren, der visuelle Inhalte beschreibt

Generieren Sie Text mithilfe der Funktion ML.GENERATE_TEXT mit einem Remote-Modell, das auf einem multimodalen gemini-pro-vision-Modell basiert:

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(PROMPT AS prompt, TOKENS AS max_output_tokens,
  TEMPERATURE AS temperature, TOP_K AS top_k,
  TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

Ersetzen Sie Folgendes:

  • PROJECT_ID ist Ihre Projekt-ID.
  • DATASET_ID ist die ID des Datasets, das das Modell enthält.
  • MODEL_NAME ist der Name des Modells.
  • TABLE_NAME: der Name der Objekttabelle, die den zu analysierenden visuellen Inhalt enthält. Weitere Informationen dazu, welche Arten von visuellen Inhalten Sie analysieren können, finden Sie unter Unterstützte visuelle Inhalte.

    Der von der Objekttabelle verwendete Cloud Storage-Bucket muss sich im selben Projekt befinden, in dem Sie das Modell erstellt haben und in dem Sie die Funktion ML.GENERATE_TEXT aufrufen.

  • PROMPT: der Prompt zur Analyse des visuellen Inhalts.
  • TOKENS: ein INT64-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich [1,2048] liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist 2048.
  • TEMPERATURE: ein FLOAT64-Wert im Bereich [0.0,1.0], der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist 0.4.

    Niedrigere Werte für temperature eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte für temperature zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von 0 für temperature ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.

  • TOP_K: ein INT64-Wert im Bereich [1,40], der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 32.
  • TOP_P: ein FLOAT64-Wert im Bereich [0.0,1.0] hilft dabei, zu ermitteln, welche Token aus dem durch TOP_K bestimmten Pool ausgewählt werden. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist 0.95.
  • FLATTEN_JSON: ein BOOL-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert ist FALSE.
  • STOP_SEQUENCES: ein ARRAY<STRING>-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.

Beispiel

In diesem Beispiel werden visuelle Inhalte aus einer Objekttabelle mit dem Namen videos analysiert und der Inhalt in jedem Video beschrieben:

SELECT
  uri,
  ml_generate_text_llm_result
FROM
  ML.GENERATE_TEXT(
    MODEL
      `mydataset.gemini_pro_vision_model`
        TABLE `mydataset.videos`
          STRUCT('What is happening in this video?' AS PROMPT,
          TRUE AS FLATTEN_JSON_OUTPUT));