Text mit der Funktion ML.GENERATE_TEXT generieren
In dieser Anleitung wird gezeigt, wie Sie ein BigQuery ML-Remote-Modell erstellen, das auf das Foundation Model der Vertex AI verweist.
Abhängig vom ausgewählten Vertex AI-Modell können Sie dann die
ML.GENERATE_TEXT
Funktion zum Analysieren unstrukturierter Daten inObjekttabellen oder Text in Standardtabellen verwenden.
Erforderliche Berechtigungen
Zum Erstellen einer Verbindung benötigen Sie die Mitgliedschaft in der folgenden IAM-Rolle (Identity and Access Management):
roles/bigquery.connectionAdmin
Zum Erteilen von Berechtigungen für das Dienstkonto der Verbindung benötigen Sie die folgende Berechtigung:
resourcemanager.projects.setIamPolicy
Zum Erstellen des Modells mit BigQuery ML benötigen Sie die folgenden IAM-Berechtigungen:
bigquery.jobs.create
bigquery.models.create
bigquery.models.getData
bigquery.models.updateData
bigquery.models.updateMetadata
Zum Ausführen von Inferenzen benötigen Sie die folgenden Berechtigungen:
bigquery.tables.getData
für die Tabellebigquery.models.getData
für das Modellbigquery.jobs.create
Hinweis
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
-
Enable the BigQuery, BigQuery Connection, and Vertex AI APIs.
Verbindung herstellen
Erstellen Sie eine Cloud-Ressourcenverbindung und rufen Sie das Dienstkonto der Verbindung ab.
Wählen Sie eine der folgenden Optionen aus:
Console
Rufen Sie die Seite BigQuery auf.
Klicken Sie auf
Hinzufügen und dann auf Verbindungen zu externen Datenquellen, um eine Verbindung zu erstellen.Wählen Sie in der Liste Verbindungstyp die Option Vertex AI-Remote-Modelle, Remote-Funktionen und BigLake (Cloud Resource) aus.
Geben Sie im Feld Verbindungs-ID einen Namen für die Verbindung ein.
Klicken Sie auf Verbindung erstellen.
Klicken Sie auf Zur Verbindung.
Kopieren Sie im Bereich Verbindungsinformationen die Dienstkonto-ID zur Verwendung in einem späteren Schritt.
bq
Erstellen Sie in einer Befehlszeilenumgebung eine Verbindung:
bq mk --connection --location=REGION --project_id=PROJECT_ID \ --connection_type=CLOUD_RESOURCE CONNECTION_ID
Der Parameter
--project_id
überschreibt das Standardprojekt.Ersetzen Sie Folgendes:
REGION
: Ihre VerbindungsregionPROJECT_ID
: Ihre Google Cloud-Projekt-IDCONNECTION_ID
: eine ID für Ihre Verbindung
Wenn Sie eine Verbindungsressource herstellen, erstellt BigQuery ein eindeutiges Systemdienstkonto und ordnet es der Verbindung zu.
Fehlerbehebung:Wird der folgende Verbindungsfehler angezeigt, aktualisieren Sie das Google Cloud SDK:
Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
Rufen Sie die Dienstkonto-ID ab und kopieren Sie sie zur Verwendung in einem späteren Schritt:
bq show --connection PROJECT_ID.REGION.CONNECTION_ID
Die Ausgabe sieht in etwa so aus:
name properties 1234.REGION.CONNECTION_ID {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
Terraform
Hängen Sie folgenden Abschnitt an Ihre main.tf
-Datei an.
## This creates a cloud resource connection. ## Note: The cloud resource nested object has only one output only field - serviceAccountId. resource "google_bigquery_connection" "connection" { connection_id = "CONNECTION_ID" project = "PROJECT_ID" location = "REGION" cloud_resource {} }Ersetzen Sie Folgendes:
CONNECTION_ID
: eine ID für Ihre VerbindungPROJECT_ID
: Ihre Google Cloud-Projekt-IDREGION
: Ihre Verbindungsregion
Dem Dienstkonto Zugriff gewähren
Weisen Sie dem Dienstkonto der Verbindung die Rolle „Vertex AI-Nutzer“ zu.
Wenn Sie den Endpunkt beim Erstellen des Remote-Modells als URL angeben möchten, z. B. endpoint = 'https://us-central1-aiplatform.googleapis.com/v1/projects/myproject/locations/us-central1/publishers/google/models/text-embedding-004'
, weisen Sie diese Rolle in dem Projekt zu, das Sie in der URL angeben.
Wenn Sie den Endpunkt mithilfe des Modellnamens beim Erstellen des Remote-Modells angeben möchten, z. B. endpoint = 'text-embedding-004'
, weisen Sie diese Rolle in dem Projekt zu, in dem Sie das Remote-Modell erstellen möchten.
Die Zuweisung der Rolle in einem anderen Projekt führt zu dem Fehler bqcx-1234567890-xxxx@gcp-sa-bigquery-condel.iam.gserviceaccount.com does not have the permission to access resource
.
So weisen Sie die Rolle zu:
Console
Zur Seite IAM & Verwaltung.
Klicken Sie auf
Hinzufügen.Das Dialogfeld Principals hinzufügen wird geöffnet.
Geben Sie im Feld Neue Hauptkonten die Dienstkonto-ID ein, die Sie zuvor kopiert haben.
Wählen Sie im Feld Rolle auswählen die Option Vertex AI und dann Vertex AI-Nutzer aus.
Klicken Sie auf Speichern.
gcloud
Führen Sie den Befehl gcloud projects add-iam-policy-binding
aus.
gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/aiplatform.user' --condition=None
Ersetzen Sie Folgendes:
PROJECT_NUMBER
: Ihre ProjektnummerMEMBER
: Die Dienstkonto-ID, die Sie zuvor kopiert haben
Modell erstellen
Öffnen Sie in der Google Cloud Console die Seite BigQuery.
Erstellen Sie mit dem SQL-Editor ein Remote-Modell:
CREATE OR REPLACE MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME` REMOTE WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID` OPTIONS (ENDPOINT = 'ENDPOINT');
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthalten soll. Dieses Dataset muss sich am selben Standort wie die von Ihnen verwendete Verbindung befinden.MODEL_NAME
ist der Name des Modells.REGION
ist die Region, die von der Verbindung verwendet wird.CONNECTION_ID
: die ID Ihrer BigQuery-Verbindung.Wenn Sie sich Verbindungsdetails in der Google Cloud Console ansehen, ist dies der Wert im letzten Abschnitt der voll qualifizierten Verbindungs-ID, der unter Verbindungs-ID angezeigt wird, z. B.
projects/myproject/locations/connection_location/connections/myconnection
.ENDPOINT
ist der Name des unterstützten Vertex AI-Modells, das verwendet werden soll. Beispiel:ENDPOINT='gemini-pro'
Für einige Modelltypen können Sie eine bestimmte Version des Modells angeben. Informationen zu unterstützten Modellversionen für die verschiedenen Modelltypen finden Sie unter
ENDPOINT
.
Text aus Textdaten mithilfe eines Prompts aus einer Tabelle generieren
Generieren Sie Text mithilfe der Funktion ML.GENERATE_TEXT
mit einem Remote-Modell und verwenden Sie Prompt-Daten aus einer Tabellenspalte:
gemini-1.5-flash
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,2.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu ermitteln. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.GROUND_WITH_GOOGLE_SEARCH
: einBOOL
-Wert, der bestimmt, ob das Vertex AI-Modell beim Generieren von Antworten die Fundierung mit der Google Suche verwendet. Mit der Fundierung kann das Modell beim Generieren einer Antwort zusätzliche Informationen aus dem Internet verwenden, um Modellantworten spezifischer und faktischer zu machen. Wenn sowohlflatten_json_output
als auch dieses Feld aufTrue
gesetzt sind, ist eine zusätzlicheml_generate_text_grounding_result
-Spalte in den Ergebnissen enthalten, die die Quellen enthält, die das Modell verwendet hat, um zusätzliche Informationen zu erfassen. Der Standardwert istFALSE
.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung vorhanden ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Unterstützte Kategorien sind:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Es werden folgende Grenzwerte unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiel
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, TABLE mydataset.prompts, STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, TRUE AS flatten_json_output));
gemini-1.5-pro
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,2.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu ermitteln. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.GROUND_WITH_GOOGLE_SEARCH
: einBOOL
-Wert, der bestimmt, ob das Vertex AI-Modell beim Generieren von Antworten die Fundierung mit der Google Suche verwendet. Mit der Fundierung kann das Modell beim Generieren einer Antwort zusätzliche Informationen aus dem Internet verwenden, um Modellantworten spezifischer und faktischer zu machen. Wenn sowohlflatten_json_output
als auch dieses Feld aufTrue
gesetzt sind, ist eine zusätzlicheml_generate_text_grounding_result
-Spalte in den Ergebnissen enthalten, die die Quellen enthält, die das Modell verwendet hat, um zusätzliche Informationen zu erfassen. Der Standardwert istFALSE
.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung vorhanden ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Unterstützte Kategorien sind:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Es werden folgende Grenzwerte unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiel
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, TABLE mydataset.prompts, STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, TRUE AS flatten_json_output));
gemini-pro
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist40
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu ermitteln. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.GROUND_WITH_GOOGLE_SEARCH
: einBOOL
-Wert, der bestimmt, ob das Vertex AI-Modell beim Generieren von Antworten die Fundierung mit der Google Suche verwendet. Mit der Fundierung kann das Modell beim Generieren einer Antwort zusätzliche Informationen aus dem Internet verwenden, um Modellantworten spezifischer und faktischer zu machen. Wenn sowohlflatten_json_output
als auch dieses Feld aufTrue
gesetzt sind, ist eine zusätzlicheml_generate_text_grounding_result
-Spalte in den Ergebnissen enthalten, die die Quellen enthält, die das Modell verwendet hat, um zusätzliche Informationen zu erfassen. Der Standardwert istFALSE
.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung vorhanden ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Unterstützte Kategorien sind:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Es werden folgende Grenzwerte unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiel
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Gibt eine kurze und moderat wahrscheinliche Antwort zurück.
- Vereinfacht die JSON-Antwort in separate Spalten.
- Ruft öffentliche Webdaten für die Antwort-Fundierung ab und gibt sie zurück.
- Filtert unsichere Antworten mithilfe von zwei Sicherheitseinstellungen heraus.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, TABLE mydataset.prompts, STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, 40 AS top_k, TRUE AS flatten_json_output, TRUE AS ground_with_google_search, [STRUCT('HARM_CATEGORY_HATE_SPEECH' AS category, 'BLOCK_LOW_AND_ABOVE' AS threshold), STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)] AS safety_settings));
text-bison
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,1024]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist40
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu ermitteln. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.
Beispiel
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, TABLE mydataset.prompts, STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, TRUE AS flatten_json_output));
text-bison32
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist40
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu ermitteln. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.
Beispiel
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, TABLE mydataset.prompts, STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, TRUE AS flatten_json_output));
text-unicorn
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
: der Name der Tabelle, die den Prompt enthält. Diese Tabelle muss eine Spalte namensprompt
enthalten. Sie können auch einen Alias nutzen, um eine Spalte mit anderen Namen zu verwenden.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,1024]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist40
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu ermitteln. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.
Beispiel
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet die Spalte
prompt
der Tabelleprompts
für den Prompt. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, TABLE mydataset.prompts, STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, TRUE AS flatten_json_output));
Text aus Textdaten mithilfe eines Prompts aus einer Abfrage generieren
Generieren Sie Text mithilfe der Funktion ML.GENERATE_TEXT
mit einem Remote-Modell und mithilfe einer Abfrage, die die Prompt-Daten bereitstellt:
gemini-1.5-flash
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,2.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu ermitteln. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.GROUND_WITH_GOOGLE_SEARCH
: einBOOL
-Wert, der bestimmt, ob das Vertex AI-Modell beim Generieren von Antworten die Fundierung mit der Google Suche verwendet. Mit der Fundierung kann das Modell beim Generieren einer Antwort zusätzliche Informationen aus dem Internet verwenden, um Modellantworten spezifischer und faktischer zu machen. Wenn sowohlflatten_json_output
als auch dieses Feld aufTrue
gesetzt sind, ist eine zusätzlicheml_generate_text_grounding_result
-Spalte in den Ergebnissen enthalten, die die Quellen enthält, die das Modell verwendet hat, um zusätzliche Informationen zu erfassen. Der Standardwert istFALSE
.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung vorhanden ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Unterstützte Kategorien sind:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Es werden folgende Grenzwerte unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT( 0.2 AS temperature, 650 AS max_output_tokens, TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, FALSE AS flatten_json_output));
gemini-1.5-pro
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,2.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu ermitteln. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.GROUND_WITH_GOOGLE_SEARCH
: einBOOL
-Wert, der bestimmt, ob das Vertex AI-Modell beim Generieren von Antworten die Fundierung mit der Google Suche verwendet. Mit der Fundierung kann das Modell beim Generieren einer Antwort zusätzliche Informationen aus dem Internet verwenden, um Modellantworten spezifischer und faktischer zu machen. Wenn sowohlflatten_json_output
als auch dieses Feld aufTrue
gesetzt sind, ist eine zusätzlicheml_generate_text_grounding_result
-Spalte in den Ergebnissen enthalten, die die Quellen enthält, die das Modell verwendet hat, um zusätzliche Informationen zu erfassen. Der Standardwert istFALSE
.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung vorhanden ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Unterstützte Kategorien sind:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Es werden folgende Grenzwerte unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT( 0.2 AS temperature, 650 AS max_output_tokens, TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, FALSE AS flatten_json_output));
gemini-pro
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, GROUND_WITH_GOOGLE_SEARCH AS ground_with_google_search, SAFETY_SETTINGS AS safety_settings) );Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist40
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu ermitteln. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.GROUND_WITH_GOOGLE_SEARCH
: einBOOL
-Wert, der bestimmt, ob das Vertex AI-Modell beim Generieren von Antworten die Fundierung mit der Google Suche verwendet. Mit der Fundierung kann das Modell beim Generieren einer Antwort zusätzliche Informationen aus dem Internet verwenden, um Modellantworten spezifischer und faktischer zu machen. Wenn sowohlflatten_json_output
als auch dieses Feld aufTrue
gesetzt sind, ist eine zusätzlicheml_generate_text_grounding_result
-Spalte in den Ergebnissen enthalten, die die Quellen enthält, die das Modell verwendet hat, um zusätzliche Informationen zu erfassen. Der Standardwert istFALSE
.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung vorhanden ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Unterstützte Kategorien sind:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Es werden folgende Grenzwerte unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT( 0.2 AS temperature, 650 AS max_output_tokens, TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, FALSE AS flatten_json_output));
Beispiel 3:
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Vereinfacht die JSON-Antwort in separate Spalten.
- Ruft öffentliche Webdaten für die Antwort-Fundierung ab und gibt sie zurück.
- Filtert unsichere Antworten mithilfe von zwei Sicherheitseinstellungen heraus.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT( TRUE AS flatten_json_output, TRUE AS ground_with_google_search, [STRUCT('HARM_CATEGORY_HATE_SPEECH' AS category, 'BLOCK_LOW_AND_ABOVE' AS threshold), STRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)] AS safety_settings));
text-bison
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,1024]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist40
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu ermitteln. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT( 0.2 AS temperature, 650 AS max_output_tokens, TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, FALSE AS flatten_json_output));
text-bison32
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist40
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu ermitteln. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT( 0.2 AS temperature, 650 AS max_output_tokens, TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, FALSE AS flatten_json_output));
text-unicorn
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.PROMPT_QUERY
: eine Abfrage, die die Prompt-Daten bereitstellt.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,1024]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist40
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu ermitteln. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.
Beispiel 1
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Aufforderungen für eine Zusammenfassung des Texts in der Spalte
body
der Tabellearticles
. - Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT( 0.2 AS temperature, 650 AS max_output_tokens, TRUE AS flatten_json_output));
Beispiel 2
Das folgende Beispiel zeigt eine Anfrage mit diesen Merkmalen:
- Verwendet eine Abfrage, um die Eingabedaten zu erstellen. Verkettet werden Strings, die Tabellenpräfixe mit Tabellenspalten bereitstellen.
- Gibt eine kurze Antwort zurück.
- Gibt den generierten Text und die Sicherheitsattribute in separaten Spalten nicht zurück.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.llm_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, FALSE AS flatten_json_output));
Text aus Objekttabellendaten generieren
Generieren Sie Text mithilfe der Funktion ML.GENERATE_TEXT
mit einem Remote-Modell. Verwenden Sie dazu eine Objekttabelle, um den Inhalt für die Analyse und die Bereitstellung der Prompt-Daten im prompt
-Parameter bereitzustellen:
gemini-1.5-flash
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(PROMPT AS prompt, TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, SAFETY_SETTINGS AS safety_settings) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
ist der Name der Objekttabelle, die den zu analysierenden Inhalt enthält. Weitere Informationen dazu, welche Arten von Inhalten Sie analysieren können, finden Sie unter Eingabe.Der von der Objekttabelle verwendete Cloud Storage-Bucket sollte sich im selben Projekt befinden, in dem Sie das Modell erstellt haben und in dem Sie die Funktion
ML.GENERATE_TEXT
aufrufen. Wenn Sie dieML.GENERATE_TEXT
-Funktion in einem anderen Projekt als dem aufrufen möchten, das den von der Objekttabelle verwendeten Cloud Storage-Bucket enthält, müssen Sie dem Dienstkontoservice-A@gcp-sa-aiplatform.iam.gserviceaccount.com
die Rolle Storage Admin auf Bucket-Ebene zuweisen.PROMPT
ist der Prompt zur Analyse des Inhalts.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,2.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu ermitteln. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung vorhanden ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Unterstützte Kategorien sind:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Es werden folgende Grenzwerte unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiele
In diesem Beispiel werden Videoinhalte aus einer Objekttabelle mit dem Namen videos
analysiert und der Inhalt in jedem Video beschrieben:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.video_model`, TABLE `mydataset.videos`, STRUCT('What is happening in this video?' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
In diesem Beispiel werden Audioinhalte aus einer Objekttabelle mit dem Namen feedback
übersetzt und transkribiert:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.audio_model`, TABLE `mydataset.feedback`, STRUCT('What is the content of this audio clip, translated into Spanish?' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
In diesem Beispiel werden PDF-Inhalte aus einer Objekttabelle namens invoices
klassifiziert:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.classify_model`, TABLE `mydataset.invoices`, STRUCT('Classify this document based on the invoice total, using the following categories: 0 to 100, 101 to 200, greater than 200' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
gemini-1.5-pro
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(PROMPT AS prompt, TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, SAFETY_SETTINGS AS safety_settings) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
ist der Name der Objekttabelle, die den zu analysierenden Inhalt enthält. Weitere Informationen dazu, welche Arten von Inhalten Sie analysieren können, finden Sie unter Eingabe.Der von der Objekttabelle verwendete Cloud Storage-Bucket sollte sich im selben Projekt befinden, in dem Sie das Modell erstellt haben und in dem Sie die Funktion
ML.GENERATE_TEXT
aufrufen. Wenn Sie dieML.GENERATE_TEXT
-Funktion in einem anderen Projekt als dem aufrufen möchten, das den von der Objekttabelle verwendeten Cloud Storage-Bucket enthält, müssen Sie dem Dienstkontoservice-A@gcp-sa-aiplatform.iam.gserviceaccount.com
die Rolle Storage Admin auf Bucket-Ebene zuweisen.PROMPT
ist der Prompt zur Analyse des Inhalts.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,8192]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist128
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,2.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu ermitteln. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung vorhanden ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Unterstützte Kategorien sind:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Es werden folgende Grenzwerte unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiele
In diesem Beispiel werden Videoinhalte aus einer Objekttabelle mit dem Namen videos
analysiert und der Inhalt in jedem Video beschrieben:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.video_model`, TABLE `mydataset.videos`, STRUCT('What is happening in this video?' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
In diesem Beispiel werden Audioinhalte aus einer Objekttabelle mit dem Namen feedback
übersetzt und transkribiert:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.audio_model`, TABLE `mydataset.feedback`, STRUCT('What is the content of this audio clip, translated into Spanish?' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
In diesem Beispiel werden PDF-Inhalte aus einer Objekttabelle namens invoices
klassifiziert:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.classify_model`, TABLE `mydataset.invoices`, STRUCT('Classify this document based on the invoice total, using the following categories: 0 to 100, 101 to 200, greater than 200' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));
gemini-pro-vision
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(PROMPT AS prompt, TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences, SAFETY_SETTINGS AS safety_settings) );
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.TABLE_NAME
ist der Name der Objekttabelle, die den zu analysierenden Inhalt enthält. Weitere Informationen dazu, welche Arten von Inhalten Sie analysieren können, finden Sie unter Eingabe.Der von der Objekttabelle verwendete Cloud Storage-Bucket sollte sich im selben Projekt befinden, in dem Sie das Modell erstellt haben und in dem Sie die Funktion
ML.GENERATE_TEXT
aufrufen. Wenn Sie dieML.GENERATE_TEXT
-Funktion in einem anderen Projekt als dem aufrufen möchten, das den von der Objekttabelle verwendeten Cloud Storage-Bucket enthält, müssen Sie dem Dienstkontoservice-A@gcp-sa-aiplatform.iam.gserviceaccount.com
die Rolle Storage Admin auf Bucket-Ebene zuweisen.PROMPT
ist der Prompt zur Analyse des Inhalts.TOKENS
ist einINT64
-Wert, der die maximale Anzahl an Tokens festlegt, die in der Antwort generiert werden können. Dieser Wert muss im Bereich[1,2048]
liegen. Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an. Der Standardwert ist2048
.TEMPERATURE
: einFLOAT64
-Wert im Bereich[0.0,1.0]
, der den Grad der Zufälligkeit in der Tokenauswahl steuert. Der Standardwert ist0.4
.Niedrigere Werte für
temperature
eignen sich für Prompts, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Werte fürtemperature
zu vielfältigeren oder kreativen Ergebnissen führen können. Ein Wert von0
fürtemperature
ist deterministisch, d. h. die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.TOP_K
: einINT64
-Wert im Bereich[1,40]
, der den anfänglichen Pool von Tokens bestimmt, die das Modell zur Auswahl berücksichtigt. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist32
.TOP_P
: einFLOAT64
-Wert im Bereich[0.0,1.0]
hilft dabei, die Wahrscheinlichkeit der ausgewählten Tokens zu ermitteln. Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der Standardwert ist0.95
.FLATTEN_JSON
: einBOOL
-Wert, der bestimmt, ob der generierte Text und die Sicherheitsattribute in separaten Spalten zurückgegeben werden. Der Standardwert istFALSE
.STOP_SEQUENCES
ist einARRAY<STRING>
-Wert, der die angegebenen Strings entfernt, wenn sie in Antworten des Modells enthalten sind. Strings werden genau abgeglichen, einschließlich Groß-/Kleinschreibung. Die Standardeinstellung ist ein leeres Array.SAFETY_SETTINGS
: einARRAY<STRUCT<STRING AS category, STRING AS threshold>>
-Wert, der Sicherheitsgrenzwerte für Inhalte konfiguriert, um Antworten zu filtern. Das erste Element in der Struktur gibt eine Schadenskategorie und das zweite Element in der Struktur einen entsprechenden Grenzwert für „Blockiert“ an. Das Modell filtert Inhalte heraus, die gegen diese Einstellungen verstoßen. Sie können jede Kategorie nur einmal angeben. Sie können beispielsweise nicht sowohlSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
als auchSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
angeben. Wenn für eine bestimmte Kategorie keine Sicherheitseinstellung vorhanden ist, wird die SicherheitseinstellungBLOCK_MEDIUM_AND_ABOVE
verwendet.Unterstützte Kategorien sind:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Es werden folgende Grenzwerte unterstützt:
BLOCK_NONE
(Eingeschränkt)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Weitere Informationen finden Sie in der Definition der Sicherheitskategorie und des Grenzwerts für „Blockiert“.
Beispiele
In diesem Beispiel werden Videoinhalte aus einer Objekttabelle mit dem Namen videos
analysiert und der Inhalt in jedem Video beschrieben:
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.video_model`, TABLE `mydataset.videos`, STRUCT('What is happening in this video?' AS PROMPT, TRUE AS FLATTEN_JSON_OUTPUT));