Text mit der Funktion ML.GENERATE_TEXT generieren
In diesem Dokument erfahren Sie, wie Sie ein BigQuery ML-Remote-Modell erstellen, das ein gehostetes Vertex AI-Modell darstellt. Das gehostete Vertex AI-Modell kann ein eingebautes Vertex AI-Text- oder multimodales Modell oder ein Anthropic Claude-Modell sein.
Abhängig vom ausgewählten Vertex AI-Modell können Sie dann die
ML.GENERATE_TEXT
Funktion zum Analysieren unstrukturierter Daten inObjekttabellen oder Text in Standardtabellen verwenden.
Erforderliche Berechtigungen
Zum Erstellen einer Verbindung benötigen Sie die Mitgliedschaft in der folgenden IAM-Rolle (Identity and Access Management):
roles/bigquery.connectionAdmin
Zum Erteilen von Berechtigungen für das Dienstkonto der Verbindung benötigen Sie die folgende Berechtigung:
resourcemanager.projects.setIamPolicy
Zum Erstellen des Modells mit BigQuery ML benötigen Sie die folgenden IAM-Berechtigungen:
bigquery.jobs.create
bigquery.models.create
bigquery.models.getData
bigquery.models.updateData
bigquery.models.updateMetadata
Zum Ausführen von Inferenzen benötigen Sie die folgenden Berechtigungen:
bigquery.tables.getData
für die Tabellebigquery.models.getData
für das Modellbigquery.jobs.create
Vorbereitung
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the BigQuery, BigQuery Connection, and Vertex AI APIs.
Verbindung herstellen
Erstellen Sie eine Cloud-Ressourcenverbindung und rufen Sie das Dienstkonto der Verbindung ab.
Wählen Sie eine der folgenden Optionen aus:
Console
Rufen Sie die Seite BigQuery auf.
Klicken Sie auf
Hinzufügen und dann auf Verbindungen zu externen Datenquellen, um eine Verbindung zu erstellen.Wählen Sie in der Liste Verbindungstyp die Option Vertex AI-Remote-Modelle, Remote-Funktionen und BigLake (Cloud Resource) aus.
Geben Sie im Feld Verbindungs-ID einen Namen für die Verbindung ein.
Klicken Sie auf Verbindung erstellen.
Klicken Sie auf Zur Verbindung.
Kopieren Sie im Bereich Verbindungsinformationen die Dienstkonto-ID zur Verwendung in einem späteren Schritt.
bq
Erstellen Sie in einer Befehlszeilenumgebung eine Verbindung:
bq mk --connection --location=REGION --project_id=PROJECT_ID \ --connection_type=CLOUD_RESOURCE CONNECTION_ID
Der Parameter
--project_id
überschreibt das Standardprojekt.Ersetzen Sie dabei Folgendes:
REGION
: Ihre VerbindungsregionPROJECT_ID
: Ihre Google Cloud-Projekt-IDCONNECTION_ID
: eine ID für Ihre Verbindung
Wenn Sie eine Verbindungsressource herstellen, erstellt BigQuery ein eindeutiges Systemdienstkonto und ordnet es der Verbindung zu.
Fehlerbehebung:Wird der folgende Verbindungsfehler angezeigt, aktualisieren Sie das Google Cloud SDK:
Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
Rufen Sie die Dienstkonto-ID ab und kopieren Sie sie zur Verwendung in einem späteren Schritt:
bq show --connection PROJECT_ID.REGION.CONNECTION_ID
Die Ausgabe sieht in etwa so aus:
name properties 1234.REGION.CONNECTION_ID {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
Terraform
Verwenden Sie die Ressource google_bigquery_connection
:
Richten Sie zur Authentifizierung bei BigQuery die Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für Clientbibliotheken einrichten.
Im folgenden Beispiel wird eine Cloud-Ressourcenverbindung mit dem Namen my_cloud_resource_connection
in der Region US
erstellt:
Führen Sie die Schritte in den folgenden Abschnitten aus, um Ihre Terraform-Konfiguration auf ein Google Cloud-Projekt anzuwenden.
Cloud Shell vorbereiten
- Rufen Sie Cloud Shell auf.
-
Legen Sie das Google Cloud-Standardprojekt fest, auf das Sie Ihre Terraform-Konfigurationen anwenden möchten.
Sie müssen diesen Befehl nur einmal pro Projekt und in jedem beliebigen Verzeichnis ausführen.
export GOOGLE_CLOUD_PROJECT=PROJECT_ID
Umgebungsvariablen werden überschrieben, wenn Sie in der Terraform-Konfigurationsdatei explizite Werte festlegen.
Verzeichnis vorbereiten
Jede Terraform-Konfigurationsdatei muss ein eigenes Verzeichnis haben (auch als Stammmodul bezeichnet).
-
Erstellen Sie in Cloud Shell ein Verzeichnis und eine neue Datei in diesem Verzeichnis. Der Dateiname muss die Erweiterung
.tf
haben, z. B.main.tf
. In dieser Anleitung wird die Datei alsmain.tf
bezeichnet.mkdir DIRECTORY && cd DIRECTORY && touch main.tf
-
Wenn Sie einer Anleitung folgen, können Sie den Beispielcode in jedem Abschnitt oder Schritt kopieren.
Kopieren Sie den Beispielcode in das neu erstellte
main.tf
.Kopieren Sie optional den Code aus GitHub. Dies wird empfohlen, wenn das Terraform-Snippet Teil einer End-to-End-Lösung ist.
- Prüfen und ändern Sie die Beispielparameter, die auf Ihre Umgebung angewendet werden sollen.
- Speichern Sie die Änderungen.
-
Initialisieren Sie Terraform. Dies ist nur einmal für jedes Verzeichnis erforderlich.
terraform init
Fügen Sie optional die Option
-upgrade
ein, um die neueste Google-Anbieterversion zu verwenden:terraform init -upgrade
Änderungen anwenden
-
Prüfen Sie die Konfiguration und prüfen Sie, ob die Ressourcen, die Terraform erstellen oder aktualisieren wird, Ihren Erwartungen entsprechen:
terraform plan
Korrigieren Sie die Konfiguration nach Bedarf.
-
Wenden Sie die Terraform-Konfiguration an. Führen Sie dazu den folgenden Befehl aus und geben Sie
yes
an der Eingabeaufforderung ein:terraform apply
Warten Sie, bis Terraform die Meldung „Apply complete“ anzeigt.
- Öffnen Sie Ihr Google Cloud-Projekt, um die Ergebnisse aufzurufen. Rufen Sie in der Google Cloud Console Ihre Ressourcen in der Benutzeroberfläche auf, um sicherzustellen, dass Terraform sie erstellt oder aktualisiert hat.
Dem Dienstkonto Zugriff gewähren
Weisen Sie dem Dienstkonto der Verbindung die Rolle „Vertex AI-Nutzer“ zu.
Wenn Sie den Endpunkt beim Erstellen des Remote-Modells als URL angeben möchten, z. B. endpoint = 'https://us-central1-aiplatform.googleapis.com/v1/projects/myproject/locations/us-central1/publishers/google/models/text-embedding-004'
, gewähren Sie diese Rolle in demselben Projekt, das Sie in der URL angeben.
Wenn Sie beim Erstellen des Remote-Modells den Endpunkt mit dem Modellnamen angeben möchten, z. B. endpoint = 'text-embedding-004'
, gewähren Sie diese Rolle in demselben Projekt, in dem Sie das Remote-Modell erstellen möchten.
Die Zuweisung der Rolle in einem anderen Projekt führt zu dem Fehler bqcx-1234567890-xxxx@gcp-sa-bigquery-condel.iam.gserviceaccount.com does not have the permission to access resource
.
So weisen Sie die Rolle zu:
Console
Zur Seite IAM & Verwaltung.
Klicken Sie auf
Hinzufügen.Das Dialogfeld Principals hinzufügen wird geöffnet.
Geben Sie im Feld Neue Hauptkonten die Dienstkonto-ID ein, die Sie zuvor kopiert haben.
Wählen Sie im Feld Rolle auswählen die Option Vertex AI und dann Vertex AI-Nutzer aus.
Klicken Sie auf Speichern.
gcloud
Führen Sie den Befehl gcloud projects add-iam-policy-binding
aus.
gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/aiplatform.user' --condition=None
Ersetzen Sie Folgendes:
PROJECT_NUMBER
: Ihre ProjektnummerMEMBER
: Die Dienstkonto-ID, die Sie zuvor kopiert haben
Vertex AI-Modell aktivieren
Dieser Schritt ist nur erforderlich, wenn Sie ein Claude-Modell verwenden.
Rufen Sie in der Google Cloud Console die Seite Vertex AI Model Garden auf.
Suchen Sie nach dem Claude-Modell, das Sie verwenden möchten.
Klicken Sie auf die Modellkarte.
Klicken Sie auf der Modellseite auf Aktivieren.
Geben Sie die erforderlichen Aktivierungsinformationen ein und klicken Sie dann auf Weiter.
Klicken Sie im Abschnitt Nutzungsbedingungen das Kästchen an.
Klicken Sie auf Zustimmen, um den Nutzungsbedingungen zuzustimmen und das Modell zu aktivieren.
BigQuery ML-Remote-Modell erstellen
Öffnen Sie in der Google Cloud Console die Seite BigQuery.
Erstellen Sie mit dem SQL-Editor ein Remote-Modell:
CREATE OR REPLACE MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME` REMOTE WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID` OPTIONS (ENDPOINT = 'ENDPOINT');
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthalten soll. Dieses Dataset muss sich am selben Standort wie die von Ihnen verwendete Verbindung befinden.MODEL_NAME
ist der Name des Modells.REGION
ist die Region, die von der Verbindung verwendet wird.CONNECTION_ID
: die ID Ihrer BigQuery-Verbindung.Wenn Sie sich Verbindungsdetails in der Google Cloud Console ansehen, ist dies der Wert im letzten Abschnitt der voll qualifizierten Verbindungs-ID, der unter Verbindungs-ID angezeigt wird, z. B.
projects/myproject/locations/connection_location/connections/myconnection
.ENDPOINT
ist der Name des unterstützten Vertex AI-Modells, das verwendet werden soll.Für einige Modelltypen können Sie eine bestimmte Version des Modells angeben. Informationen zu unterstützten Modellversionen für die verschiedenen Modelltypen finden Sie unter
ENDPOINT
.
Text aus Textdaten mithilfe eines Prompts aus einer Tabelle generieren
Generieren Sie Text mithilfe der Funktion ML.GENERATE_TEXT
mit einem Remote-Modell und Prompt-Daten aus einer Tabellenspalte:
gemini-1.5-flash
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,2.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu bestimmen. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.GROUND_WITH_GOOGLE_SEARCH
: EinBOOL
-Wert, der festlegt, ob das Vertex AI-Modell beim Generieren von Antworten die Fundierung mit der Google Suche verwendet. Mit der Fundierung kann das Modell beim Generieren einer Antwort zusätzliche Informationen aus dem Internet verwenden, um Modellantworten spezifischer und faktischer zu machen. Wenn sowohlflatten_json_output
als auch dieses Feld aufTrue
festgelegt sind, wird in den Ergebnissen eine zusätzliche Spalteml_generate_text_grounding_result
mit den Quellen angezeigt, die das Modell zum Erfassen zusätzlicher Informationen verwendet hat. Der Standardwert istFALSE
.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung festgelegt ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Folgende Kategorien werden unterstützt:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Folgende Grenzwerte werden unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiel
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT(TRUE AS flatten_json_output));
gemini-1.5-pro
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,2.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu bestimmen. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.GROUND_WITH_GOOGLE_SEARCH
: EinBOOL
-Wert, der festlegt, ob das Vertex AI-Modell beim Generieren von Antworten die Fundierung mit der Google Suche verwendet. Mit der Fundierung kann das Modell beim Generieren einer Antwort zusätzliche Informationen aus dem Internet verwenden, um Modellantworten spezifischer und faktischer zu machen. Wenn sowohlflatten_json_output
als auch dieses Feld aufTrue
festgelegt sind, wird in den Ergebnissen eine zusätzliche Spalteml_generate_text_grounding_result
mit den Quellen angezeigt, die das Modell zum Erfassen zusätzlicher Informationen verwendet hat. Der Standardwert istFALSE
.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung festgelegt ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Folgende Kategorien werden unterstützt:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Folgende Grenzwerte werden unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiel
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT(TRUE AS flatten_json_output));
gemini-pro
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist40
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu bestimmen. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.GROUND_WITH_GOOGLE_SEARCH
: EinBOOL
-Wert, der festlegt, ob das Vertex AI-Modell beim Generieren von Antworten die Fundierung mit der Google Suche verwendet. Mit der Fundierung kann das Modell beim Generieren einer Antwort zusätzliche Informationen aus dem Internet verwenden, um Modellantworten spezifischer und faktischer zu machen. Wenn sowohlflatten_json_output
als auch dieses Feld aufTrue
festgelegt sind, wird in den Ergebnissen eine zusätzliche Spalteml_generate_text_grounding_result
mit den Quellen angezeigt, die das Modell zum Erfassen zusätzlicher Informationen verwendet hat. Der Standardwert istFALSE
.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung festgelegt ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Folgende Kategorien werden unterstützt:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Folgende Grenzwerte werden unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiel
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Gibt eine kurze und moderat wahrscheinliche Antwort zurück.
- Die JSON-Antwort wird in separate Spalten zerlegt.
- Ruft öffentliche Webdaten ab und gibt sie für die Antwortfundierung zurück.
- Filtert unsichere Antworten mithilfe von zwei Sicherheitseinstellungen heraus.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, 40 AS top_k, TRUE AS flatten_json_output, TRUE AS ground_with_google_search, [STRUCT('HARM_CATEGORY_HATE_SPEECH' AS category, 'BLOCK_LOW_AND_ABOVE' AS threshold), STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)] AS safety_settings));
Claude
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,4096]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Wenn Sie keinen Wert angeben, wird dieser vom Modell bestimmt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu bestimmen. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Wenn Sie keinen Wert angeben, wird dieser vom Modell bestimmt.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.
Beispiel
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT(TRUE AS flatten_json_output));
text-bison
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,1024]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist40
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu bestimmen. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.
Beispiel
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT(TRUE AS flatten_json_output));
text-bison32
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist40
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu bestimmen. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.
Beispiel
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT(TRUE AS flatten_json_output));
text-unicorn
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,1024]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist40
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu bestimmen. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.
Beispiel
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, TABLE mydataset.prompts, STRUCT(TRUE AS flatten_json_output));
Text aus Textdaten mithilfe eines Prompts aus einer Abfrage generieren
Generieren Sie Text mithilfe der Funktion ML.GENERATE_TEXT
mit einem Remote-Modell und einer Abfrage, die die Prompt-Daten bereitstellt:
gemini-1.5-flash
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,2.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu bestimmen. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.GROUND_WITH_GOOGLE_SEARCH
: EinBOOL
-Wert, der festlegt, ob das Vertex AI-Modell beim Generieren von Antworten die Fundierung mit der Google Suche verwendet. Mit der Fundierung kann das Modell beim Generieren einer Antwort zusätzliche Informationen aus dem Internet verwenden, um Modellantworten spezifischer und faktischer zu machen. Wenn sowohlflatten_json_output
als auch dieses Feld aufTrue
festgelegt sind, wird in den Ergebnissen eine zusätzliche Spalteml_generate_text_grounding_result
mit den Quellen angezeigt, die das Modell zum Erfassen zusätzlicher Informationen verwendet hat. Der Standardwert istFALSE
.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung festgelegt ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Folgende Kategorien werden unterstützt:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Folgende Grenzwerte werden unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
gemini-1.5-pro
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,2.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu bestimmen. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.GROUND_WITH_GOOGLE_SEARCH
: EinBOOL
-Wert, der festlegt, ob das Vertex AI-Modell beim Generieren von Antworten die Fundierung mit der Google Suche verwendet. Mit der Fundierung kann das Modell beim Generieren einer Antwort zusätzliche Informationen aus dem Internet verwenden, um Modellantworten spezifischer und faktischer zu machen. Wenn sowohlflatten_json_output
als auch dieses Feld aufTrue
festgelegt sind, wird in den Ergebnissen eine zusätzliche Spalteml_generate_text_grounding_result
mit den Quellen angezeigt, die das Modell zum Erfassen zusätzlicher Informationen verwendet hat. Der Standardwert istFALSE
.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung festgelegt ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Folgende Kategorien werden unterstützt:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Folgende Grenzwerte werden unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
gemini-pro
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist40
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu bestimmen. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.GROUND_WITH_GOOGLE_SEARCH
: EinBOOL
-Wert, der festlegt, ob das Vertex AI-Modell beim Generieren von Antworten die Fundierung mit der Google Suche verwendet. Mit der Fundierung kann das Modell beim Generieren einer Antwort zusätzliche Informationen aus dem Internet verwenden, um Modellantworten spezifischer und faktischer zu machen. Wenn sowohlflatten_json_output
als auch dieses Feld aufTrue
festgelegt sind, wird in den Ergebnissen eine zusätzliche Spalteml_generate_text_grounding_result
mit den Quellen angezeigt, die das Modell zum Erfassen zusätzlicher Informationen verwendet hat. Der Standardwert istFALSE
.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung festgelegt ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Folgende Kategorien werden unterstützt:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Folgende Grenzwerte werden unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
Beispiel 3:
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Die JSON-Antwort wird in separate Spalten zerlegt.
- Ruft öffentliche Webdaten ab und gibt sie für die Antwortfundierung zurück.
- Filtert unsichere Antworten mithilfe von zwei Sicherheitseinstellungen heraus.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT( TRUE AS flatten_json_output, TRUE AS ground_with_google_search, [STRUCT('HARM_CATEGORY_HATE_SPEECH' AS category, 'BLOCK_LOW_AND_ABOVE' AS threshold), STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)] AS safety_settings));
Claude
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output) );
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,4096]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Wenn Sie keinen Wert angeben, wird dieser vom Modell bestimmt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu bestimmen. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Wenn Sie keinen Wert angeben, wird dieser vom Modell bestimmt.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
text-bison
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,1024]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist40
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu bestimmen. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
text-bison32
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist40
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu bestimmen. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
text-unicorn
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,1024]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist40
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu bestimmen. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT(TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.text_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 100 AS max_output_tokens, FALSE AS flatten_json_output));
Text aus Objekttabellendaten generieren
Generieren Sie Text mithilfe der Funktion ML.GENERATE_TEXT
mit einem Remote-Modell. Verwenden Sie dazu eine Objekttabelle, um den Inhalt für die Analyse und die Bereitstellung der Prompt-Daten im prompt
-Parameter bereitzustellen:
gemini-1.5-flash
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(PROMPT AS prompt, TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, SAFETY_SETTINGS AS safety_settings) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
ist der Name der Objekttabelle, die den zu analysierenden Inhalt enthält. Weitere Informationen dazu, welche Arten von Inhalten Sie analysieren können, finden Sie unter Eingabe.Der von der Objekttabelle verwendete Cloud Storage-Bucket sollte sich im selben Projekt befinden, in dem Sie das Modell erstellt haben und in dem Sie die Funktion
ML.GENERATE_TEXT
aufrufen. Wenn Sie dieML.GENERATE_TEXT
-Funktion in einem anderen Projekt als dem aufrufen möchten, das den von der Objekttabelle verwendeten Cloud Storage-Bucket enthält, müssen Sie dem Dienstkontoservice-A@gcp-sa-aiplatform.iam.gserviceaccount.com
die Rolle Storage Admin auf Bucket-Ebene zuweisen.PROMPT
ist der Prompt zur Analyse des Inhalts.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,2.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu bestimmen. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung festgelegt ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Folgende Kategorien werden unterstützt:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Folgende Grenzwerte werden unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiele
In diesem Beispiel werden Videoinhalte aus einer Objekttabelle mit dem Namen videos
analysiert und der Inhalt in jedem Video beschrieben:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.video_model`, TABLE `mydataset.videos`, STRUCT('What is happening in this video?' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
In diesem Beispiel werden Audioinhalte aus einer Objekttabelle mit dem Namen feedback
übersetzt und transkribiert:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.audio_model`, TABLE `mydataset.feedback`, STRUCT('What is the content of this audio clip, translated into Spanish?' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
In diesem Beispiel werden PDF-Inhalte aus einer Objekttabelle mit dem Namen invoices
klassifiziert:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.classify_model`, TABLE `mydataset.invoices`, STRUCT('Classify this document based on the invoice total, using the following categories: 0 to 100, 101 to 200, greater than 200' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
gemini-1.5-pro
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(PROMPT AS prompt, TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, SAFETY_SETTINGS AS safety_settings) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
ist der Name der Objekttabelle, die den zu analysierenden Inhalt enthält. Weitere Informationen dazu, welche Arten von Inhalten Sie analysieren können, finden Sie unter Eingabe.Der von der Objekttabelle verwendete Cloud Storage-Bucket sollte sich im selben Projekt befinden, in dem Sie das Modell erstellt haben und in dem Sie die Funktion
ML.GENERATE_TEXT
aufrufen. Wenn Sie dieML.GENERATE_TEXT
-Funktion in einem anderen Projekt als dem aufrufen möchten, das den von der Objekttabelle verwendeten Cloud Storage-Bucket enthält, müssen Sie dem Dienstkontoservice-A@gcp-sa-aiplatform.iam.gserviceaccount.com
die Rolle Storage Admin auf Bucket-Ebene zuweisen.PROMPT
ist der Prompt zur Analyse des Inhalts.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,2.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu bestimmen. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung festgelegt ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Folgende Kategorien werden unterstützt:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Folgende Grenzwerte werden unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiele
In diesem Beispiel werden Videoinhalte aus einer Objekttabelle mit dem Namen videos
analysiert und der Inhalt in jedem Video beschrieben:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.video_model`, TABLE `mydataset.videos`, STRUCT('What is happening in this video?' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
In diesem Beispiel werden Audioinhalte aus einer Objekttabelle mit dem Namen feedback
übersetzt und transkribiert:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.audio_model`, TABLE `mydataset.feedback`, STRUCT('What is the content of this audio clip, translated into Spanish?' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
In diesem Beispiel werden PDF-Inhalte aus einer Objekttabelle mit dem Namen invoices
klassifiziert:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.classify_model`, TABLE `mydataset.invoices`, STRUCT('Classify this document based on the invoice total, using the following categories: 0 to 100, 101 to 200, greater than 200' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
gemini-pro-vision
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(PROMPT AS prompt, TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, SAFETY_SETTINGS AS safety_settings) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
ist der Name der Objekttabelle, die den zu analysierenden Inhalt enthält. Weitere Informationen dazu, welche Arten von Inhalten Sie analysieren können, finden Sie unter Eingabe.Der von der Objekttabelle verwendete Cloud Storage-Bucket sollte sich im selben Projekt befinden, in dem Sie das Modell erstellt haben und in dem Sie die Funktion
ML.GENERATE_TEXT
aufrufen. Wenn Sie dieML.GENERATE_TEXT
-Funktion in einem anderen Projekt als dem aufrufen möchten, das den von der Objekttabelle verwendeten Cloud Storage-Bucket enthält, müssen Sie dem Dienstkontoservice-A@gcp-sa-aiplatform.iam.gserviceaccount.com
die Rolle Storage Admin auf Bucket-Ebene zuweisen.PROMPT
ist der Prompt zur Analyse des Inhalts.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,2048]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist2048
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0.4
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist32
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu bestimmen. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Der Standardwert ist ein leeres Array.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung festgelegt ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Folgende Kategorien werden unterstützt:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Folgende Grenzwerte werden unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiele
In diesem Beispiel werden Videoinhalte aus einer Objekttabelle mit dem Namen videos
analysiert und der Inhalt in jedem Video beschrieben:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.video_model`, TABLE `mydataset.videos`, STRUCT('What is happening in this video?' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));