Choisir une fonction de traitement de documents

Ce document compare les fonctions de traitement de documents disponibles dans BigQuery ML, à savoir ML.GENERATE_TEXT et ML.PROCESS_DOCUMENT. Vous pouvez utiliser les informations de ce document pour vous aider à choisir la fonction à utiliser lorsque les fonctions se chevauchent.

De manière générale, la différence entre ces fonctions est la suivante :

  • ML.GENERATE_TEXT est un bon choix pour effectuer des tâches de traitement du langage naturel (TLN) lorsque certains contenus se trouvent dans des documents. Cette fonction offre les avantages suivants :

    • Réduction des coûts
    • Plus de langues disponibles
    • Débit plus rapide
    • Fonctionnalité de réglage de modèle
    • Disponibilité des modèles multimodaux

    Pour obtenir des exemples de tâches de traitement de documents qui fonctionnent le mieux avec cette approche, consultez Explorer les capacités de traitement de documents avec l'API Gemini.

  • ML.PROCESS_DOCUMENT est un bon choix pour effectuer des tâches de traitement de documents qui nécessitent l'analyse de documents et une réponse structurée prédéfinie.

Comparaison des fonctions

Utilisez le tableau suivant pour comparer les fonctions ML.GENERATE_TEXT et ML.PROCESS_DOCUMENT :

ML.GENERATE_TEXT ML.PROCESS_DOCUMENT
Objectif

Effectuez n'importe quelle tâche de NLP liée à un document en transmettant une requête à un modèle Gemini ou partenaire ou à un modèle ouvert.

Par exemple, à partir d'un document financier d'une entreprise, vous pouvez récupérer des informations sur le document en fournissant une requête telle que What is the quarterly revenue for each division?.

Utilisez l'API Document AI pour effectuer un traitement spécialisé des différents types de documents, tels que les factures, les formulaires fiscaux et les états financiers. Vous pouvez également effectuer le découpage de documents.
Facturation

Des frais BigQuery ML sont facturés pour les données traitées. Pour en savoir plus, consultez la page Tarifs de BigQuery ML.

Engendre des frais Vertex AI pour les appels au modèle. Si vous utilisez un modèle Gemini 2.0 ou version ultérieure, l'appel est facturé au tarif de l'API Batch. Pour en savoir plus, consultez Coût de création et de déploiement de modèles d'IA dans Vertex AI.

Des frais BigQuery ML sont facturés pour les données traitées. Pour en savoir plus, consultez la page Tarifs de BigQuery ML.

entraîne des frais pour les appels à l'API Document AI. Pour en savoir plus, consultez la page Tarifs de l'API Document AI.

Requêtes par minute (RPM) Non applicable aux modèles Gemini. Entre 25 et 60 pour les modèles partenaires. Pour en savoir plus, consultez Limites de requêtes par minute. 120 requêtes par minute et par type de processeur, avec une limite globale de 600 requêtes par minute et par projet. Pour en savoir plus, consultez la liste des quotas.
Jetons par minute Valeur comprise entre 8 192 et plus d'un million, selon le modèle utilisé. Aucune limite de jetons. Toutefois, cette fonction présente des limites de pages différentes selon le processeur que vous utilisez. Pour en savoir plus, consultez la section Limites.
Réglage supervisé Le réglage supervisé est compatible avec certains modèles. Non compatible
Langues disponibles La prise en charge varie en fonction du LLM que vous choisissez. Les langues disponibles dépendent du type de processeur de documents. La plupart ne prennent en charge que l'anglais. Pour en savoir plus, consultez la liste des processeurs.
Régions où le service est disponible Compatible avec toutes les régions de l'IA générative pour Vertex AI. Compatible dans les emplacements multirégionaux EU et US pour tous les processeurs. Certains processeurs sont également disponibles dans certaines régions uniques. Pour en savoir plus, consultez Prise en charge régionale et multirégionale.