Funktion zur Dokumentverarbeitung auswählen

In diesem Dokument werden die in BigQuery ML verfügbaren Funktionen zur Dokumentverarbeitung verglichen, nämlich ML.GENERATE_TEXT und ML.PROCESS_DOCUMENT. Anhand der Informationen in diesem Dokument können Sie entscheiden, welche Funktion Sie verwenden sollten, wenn sich die Funktionen in ihren Capabilities überschneiden.

Auf übergeordneter Ebene lässt sich der Unterschied zwischen diesen Funktionen so zusammenfassen:

  • ML.GENERATE_TEXT ist eine gute Wahl für die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP), wenn sich ein Teil der Inhalte in Dokumenten befindet. Diese Funktion bietet folgende Vorteile:

    • Geringere Kosten
    • Support in weiteren Sprachen
    • Höherer Durchsatz
    • Funktion zur Modellabstimmung
    • Verfügbarkeit multimodaler Modelle

    Beispiele für Dokumentverarbeitungsaufgaben, die sich am besten für diesen Ansatz eignen, finden Sie unter Funktionen zur Dokumentverarbeitung mit der Gemini API.

  • ML.PROCESS_DOCUMENT ist eine gute Wahl für die Dokumentverarbeitung, bei der Dokumente geparst und eine vordefinierte, strukturierte Antwort generiert werden muss.

Funktionsvergleich

In der folgenden Tabelle finden Sie einen Vergleich der Funktionen ML.GENERATE_TEXT und ML.PROCESS_DOCUMENT:

ML.GENERATE_TEXT ML.PROCESS_DOCUMENT
Zweck

Führen Sie eine beliebige dokumentbezogene NLP-Aufgabe aus, indem Sie einen Prompt an ein Gemini- oder Partnermodell oder an ein offenes Modell übergeben.

Wenn Sie beispielsweise ein Finanzdokument für ein Unternehmen haben, können Sie Dokumentinformationen abrufen, indem Sie einen Prompt wie What is the quarterly revenue for each division? eingeben.

Mit der Document AI API können Sie eine spezielle Dokumentverarbeitung für verschiedene Dokumenttypen wie Rechnungen, Steuerformulare und Finanzberichte durchführen. Sie können auch Dokumente in Chunks aufteilen.
Abrechnung

Für die verarbeiteten Daten fallen BigQuery ML-Gebühren an. Weitere Informationen finden Sie unter BigQuery ML-Preise.

Es fallen Vertex AI-Gebühren für Aufrufe des Modells an. Wenn Sie ein Modell mit Gemini 2.0 oder höher verwenden, wird der Aufruf zum Batch-API-Tarif abgerechnet. Weitere Informationen finden Sie unter Kosten für das Erstellen und Bereitstellen von KI-Modellen in Vertex AI.

Für die verarbeiteten Daten fallen BigQuery ML-Gebühren an. Weitere Informationen finden Sie unter BigQuery ML-Preise.

Für Aufrufe der Document AI API fallen Gebühren an. Weitere Informationen finden Sie unter Preise für die Document AI API.

Anfragen pro Minute (RPM) Gilt nicht für Gemini-Modelle. Zwischen 25 und 60 für Partnermodelle. Weitere Informationen finden Sie unter Limits für Anfragen pro Minute. 120 RPM pro Prozessortyp, mit einem Gesamtwert von 600 RPM pro Projekt. Weitere Informationen finden Sie in der Kontingentliste.
Tokens pro Minute Je nach verwendetem Modell zwischen 8.192 und über 1 Million. Kein Tokenlimit. Diese Funktion hat jedoch unterschiedliche Seitenlimits, je nachdem, welchen Prozessor Sie verwenden. Weitere Informationen finden Sie unter Beschränkungen.
Überwachte Abstimmung Die überwachte Abstimmung wird für einige Modelle unterstützt. Nicht unterstützt.
Unterstützte Sprachen Die Unterstützung variiert je nach ausgewähltem LLM. Die Sprachunterstützung hängt vom Typ des Dokumentprozessors ab. Die meisten unterstützen nur Englisch. Weitere Informationen finden Sie in der Prozessorliste.
Unterstützte Regionen Wird in allen Regionen für generative KI für Vertex AI unterstützt. Wird in den Multiregionen EU und US für alle Prozessoren unterstützt. Einige Prozessoren sind auch in bestimmten einzelnen Regionen verfügbar. Weitere Informationen finden Sie unter Regionale und multiregionale Unterstützung.