Choisir une fonction de génération de texte

Ce document compare les fonctions de génération de texte ML.GENERATE_TEXT et AI.GENERATE de BigQuery ML. Vous pouvez utiliser les informations de ce document pour vous aider à choisir la fonction à utiliser lorsque les fonctions se chevauchent.

Similitudes entre les fonctions

Les fonctions ML.GENERATE_TEXT et AI.GENERATE sont similaires pour les raisons suivantes :

  • Objectif : générer du texte en transmettant une requête à un grand modèle de langage (LLM).
  • Facturation : des frais BigQuery ML sont facturés pour les données traitées. Pour en savoir plus, consultez la page Tarifs de BigQuery ML. Des frais Vertex AI vous sont facturés pour les appels au LLM. Si vous utilisez un modèle Gemini 2.0 ou version ultérieure, l'appel est facturé au tarif de l'API Batch. Pour en savoir plus, consultez Coût de création et de déploiement de modèles d'IA dans Vertex AI.
  • Évolutivité : traitez entre 1 million et 10 millions de lignes pour chaque job de requête de six heures. Le débit réel dépend de facteurs tels que la longueur moyenne des jetons dans les lignes d'entrée. Pour en savoir plus, consultez Fonctions d'IA générative.
  • Données d'entrée : les données textuelles et non structurées des tables standards et des tables d'objets BigQuery sont acceptées.

Différences de fonctionnalités

Le tableau suivant vous permet d'évaluer les différences entre les fonctions ML.GENERATE_TEXT et AI.GENERATE :

ML.GENERATE_TEXT AI.GENERATE
Signature de la fonction Fonction de valeur de table qui prend une table en entrée et renvoie une table en sortie. Fonction scalaire qui accepte une seule valeur en entrée et renvoie une seule valeur en sortie.
LLM compatibles
  • Modèles Gemini
  • Modèles partenaires tels qu'Anthropic Claude, Llama et Mistral AI
  • modèles ouverts
Modèles Gemini
Contenu de la sortie de la fonction

Contenu de la sortie de la fonction pour les modèles Gemini :

  • Texte généré
  • Résultats de l'IA responsable (RAI)
  • Résultats de l'ancrage avec la recherche Google, si cette fonctionnalité est activée
  • État de l'appel LLM

Contenu de la sortie de la fonction pour d'autres types de modèles :

  • Texte généré
  • État de l'appel LLM
  • Texte généré
  • Réponse complète du modèle au format JSON
  • État de l'appel LLM
Format de sortie de la fonction Les valeurs générées sont renvoyées dans une seule colonne JSON ou dans des colonnes de table distinctes, selon la valeur de l'argument flatten_json_output. Les valeurs générées sont renvoyées sous forme de champs dans un objet STRUCT.
Parcours utilisateur Vous devez créer un modèle distant avant d'utiliser la fonction. Vous pouvez utiliser la fonction directement, sans avoir à créer de modèle distant.
Configuration des autorisations Vous devez créer manuellement une connexion BigQuery et accorder l'autorisation du rôle d'utilisateur Vertex AI au compte de service de la connexion. Vous pouvez ignorer cette étape si vous utilisez la connexion par défaut BigQuery. Vous devez créer manuellement une connexion BigQuery et accorder l'autorisation du rôle d'utilisateur Vertex AI au compte de service de la connexion.
Avantages Permet des formats d'entrée et de sortie plus flexibles. Plus facile à intégrer dans les requêtes SQL.
Fonctions étendues Vous pouvez utiliser la fonction AI.GENERATE_TABLE pour générer une sortie structurée selon un schéma de sortie SQL que vous spécifiez. Vous pouvez utiliser les fonctions AI.GENERATE_BOOL, AI.GENERATE_INT et AI.GENERATE_DOUBLE pour générer différents types de valeurs scalaires.