Scegliere una funzione di generazione del testo

Questo documento fornisce un confronto tra le funzioni di generazione di testo di BigQuery ML ML.GENERATE_TEXT e AI.GENERATE. Puoi utilizzare le informazioni contenute in questo documento per decidere quale funzione utilizzare nei casi in cui le funzioni hanno funzionalità sovrapposte.

Funzioni simili

Le funzioni ML.GENERATE_TEXT e AI.GENERATE sono simili nei seguenti modi:

  • Scopo: genera testo passando un prompt a un modello linguistico di grandi dimensioni (LLM).
  • Fatturazione: addebita i costi di BigQuery ML per i dati elaborati. Per ulteriori informazioni, consulta la pagina Prezzi di BigQuery ML. Comporta addebiti per Vertex AI per le chiamate all'LLM. Se utilizzi un modello Gemini 2.0 o successivo, la chiamata viene fatturata alla tariffa dell'API batch. Per ulteriori informazioni, consulta Costo di creazione e deployment di modelli di AI in Vertex AI.
  • Scalabilità: elabora da 1 milione a 10 milioni di righe per ogni job di query di 6 ore. Il throughput effettivo dipende da fattori come la lunghezza media dei token nelle righe di input. Per saperne di più, consulta Funzioni di AI generativa.
  • Dati di input: supporta sia i dati di testo sia quelli non strutturati provenienti da tabelle standard e tabelle di oggetti BigQuery.

Differenze tra le funzioni

Utilizza la tabella seguente per valutare le differenze tra le funzioni ML.GENERATE_TEXT e AI.GENERATE:

ML.GENERATE_TEXT AI.GENERATE
Firma della funzione Una funzione con valori di tabella che accetta una tabella come input e restituisce una tabella come output. Una funzione scalare che accetta un singolo valore come input e restituisce un singolo valore come output.
LLM supportati
  • Modelli Gemini
  • Modelli partner come Anthropic Claude, Llama e Mistral AI
  • modelli aperti
Modelli Gemini
Contenuti dell'output della funzione

Contenuti di output della funzione per i modelli Gemini:

  • Testo generato
  • Risultati dell'AI responsabile (RAI)
  • Risultati del grounding della Ricerca Google, se abilitato
  • Stato della chiamata LLM

Contenuti di output della funzione per altri tipi di modelli:

  • Testo generato
  • Stato della chiamata LLM
  • Testo generato
  • Risposta completa del modello in formato JSON
  • Stato della chiamata LLM
Formato di output della funzione I valori generati vengono restituiti in una singola colonna JSON o in colonne della tabella separate, a seconda del valore dell'argomento flatten_json_output. I valori generati vengono restituiti come campi in un oggetto STRUCT.
Percorso dell'utente Prima di utilizzare la funzione, devi creare un modello remoto. Puoi utilizzare la funzione direttamente, senza dover creare un modello remoto.
Configurazione delle autorizzazioni Devi creare manualmente una connessione BigQuery e concedere l'autorizzazione del ruolo Utente Vertex AI al account di servizio della connessione. Puoi saltare questo passaggio se utilizzi la connessione predefinita BigQuery. Devi creare manualmente una connessione BigQuery e concedere l'autorizzazione del ruolo Utente Vertex AI al account di servizio della connessione.
Vantaggi Consente formati di input e output più flessibili. Più facile da integrare nelle query SQL.
Funzioni estese Puoi utilizzare la funzione AI.GENERATE_TABLE per generare un output strutturato in base a uno schema di output SQL specificato. Puoi utilizzare le funzioni AI.GENERATE_BOOL, AI.GENERATE_INT e AI.GENERATE_DOUBLE per generare diversi tipi di valori scalari.