Funktion für die Texterstellung auswählen

In diesem Dokument werden die BigQuery ML-Funktionen ML.GENERATE_TEXT und AI.GENERATE für die Textgenerierung verglichen. Anhand der Informationen in diesem Dokument können Sie entscheiden, welche Funktion Sie verwenden sollten, wenn sich die Funktionen in ihren Capabilities überschneiden.

Ähnlichkeiten von Funktionen

Die Funktionen ML.GENERATE_TEXT und AI.GENERATE sind in folgenden Punkten ähnlich:

  • Zweck: Text generieren, indem ein Prompt an ein Large Language Model (LLM) übergeben wird.
  • Abrechnung: Für verarbeitete Daten fallen BigQuery ML-Gebühren an. Weitere Informationen finden Sie unter BigQuery ML-Preise. Es fallen Vertex AI-Gebühren für Aufrufe des LLM an. Wenn Sie ein Gemini 2.0-Modell oder höher verwenden, wird der Aufruf zum Batch-API-Preis abgerechnet. Weitere Informationen finden Sie unter Kosten für das Erstellen und Bereitstellen von KI-Modellen in Vertex AI.
  • Skalierbarkeit: Sie können zwischen 1 Million und 10 Millionen Zeilen für jeden 6-stündigen Abfragejob verarbeiten. Der tatsächliche Durchsatz hängt von Faktoren wie der durchschnittlichen Tokenlänge in den Eingabezeilen ab. Weitere Informationen finden Sie unter Funktionen für generative KI.
  • Eingabedaten: Unterstützung von Text- und unstrukturierten Daten aus BigQuery-Standardtabellen und -Objekttabellen.

Funktionsunterschiede

In der folgenden Tabelle finden Sie die Unterschiede zwischen den Funktionen ML.GENERATE_TEXT und AI.GENERATE:

ML.GENERATE_TEXT AI.GENERATE
Funktionssignatur Eine Tabellenwertfunktion, die eine Tabelle als Eingabe akzeptiert und eine Tabelle als Ausgabe zurückgibt. Eine skalare Funktion, die einen einzelnen Wert als Eingabe akzeptiert und einen einzelnen Wert als Ausgabe zurückgibt.
Unterstützte LLMs
  • Gemini-Modelle
  • Partnermodelle wie Anthropic Claude, Llama und Mistral AI
  • offene Modelle
Gemini-Modelle
Inhalte der Funktionsausgabe

Inhalte der Funktionsausgabe für Gemini-Modelle:

  • Generierter Text
  • Ergebnisse der verantwortungsbewussten Anwendung von KI
  • Ergebnisse der Fundierung der Google Suche, sofern aktiviert
  • LLM-Aufrufstatus

Inhalte der Funktionsausgabe für andere Modelltypen:

  • Generierter Text
  • LLM-Aufrufstatus
  • Generierter Text
  • Vollständige Modellantwort im JSON-Format
  • LLM-Aufrufstatus
Ausgabeformat der Funktion Die generierten Werte werden je nach Wert des Arguments flatten_json_output in einer einzelnen JSON-Spalte oder in separaten Tabellenspalten zurückgegeben. Generierte Werte werden als Felder in einem STRUCT-Objekt zurückgegeben.
Nutzerpfad Sie müssen ein Remote-Modell erstellen, bevor Sie die Funktion verwenden können. Sie können die Funktion direkt verwenden, ohne ein Remote-Modell erstellen zu müssen.
Berechtigungen einrichten Sie müssen manuell eine BigQuery-Verbindung erstellen und dem Dienstkonto der Verbindung die Berechtigung für die Rolle „Vertex AI-Nutzer“ erteilen. Wenn Sie die Standardverbindung für BigQuery verwenden, können Sie diesen Schritt überspringen. Sie müssen manuell eine BigQuery-Verbindung erstellen und dem Dienstkonto der Verbindung die Berechtigung für die Rolle „Vertex AI-Nutzer“ erteilen.
Vorteile Ermöglicht flexiblere Ein- und Ausgabeformate. Einfachere Integration in SQL-Abfragen
Erweiterte Funktionen Mit der Funktion AI.GENERATE_TABLE können Sie eine Ausgabe generieren, die gemäß einem von Ihnen angegebenen SQL-Ausgabeschema strukturiert ist. Mit den Funktionen AI.GENERATE_BOOL, AI.GENERATE_INT und AI.GENERATE_DOUBLE können Sie verschiedene Arten von skalaren Werten generieren.