Choisir une fonction de traitement de documents
Ce document compare les fonctions de traitement de documents disponibles dans BigQuery ML, à savoir ML.GENERATE_TEXT
et ML.PROCESS_DOCUMENT
.
Vous pouvez utiliser les informations de ce document pour vous aider à choisir la fonction à utiliser lorsque les fonctions se chevauchent.
De manière générale, la différence entre ces fonctions est la suivante :
ML.GENERATE_TEXT
est un bon choix pour effectuer des tâches de traitement du langage naturel (TLN) lorsque certains contenus se trouvent dans des documents. Cette fonction offre les avantages suivants :- Réduction des coûts
- Plus de langues disponibles
- Débit plus rapide
- Fonctionnalité de réglage de modèle
- Disponibilité des modèles multimodaux
Pour obtenir des exemples de tâches de traitement de documents qui fonctionnent le mieux avec cette approche, consultez Explorer les capacités de traitement de documents avec l'API Gemini.
ML.PROCESS_DOCUMENT
est un bon choix pour effectuer des tâches de traitement de documents qui nécessitent l'analyse de documents et une réponse structurée prédéfinie.
Comparaison des fonctions
Utilisez le tableau suivant pour comparer les fonctions ML.GENERATE_TEXT
et ML.PROCESS_DOCUMENT
:
ML.GENERATE_TEXT |
ML.PROCESS_DOCUMENT |
|
---|---|---|
Objectif | Effectuez n'importe quelle tâche de NLP liée à un document en transmettant une requête à un modèle Gemini ou partenaire ou à un modèle ouvert. Par exemple, à partir d'un document financier d'une entreprise, vous pouvez récupérer des informations sur le document en fournissant une requête telle que |
Utilisez l'API Document AI pour effectuer un traitement spécialisé des différents types de documents, tels que les factures, les formulaires fiscaux et les états financiers. Vous pouvez également effectuer le découpage de documents. |
Facturation | Des frais BigQuery ML sont facturés pour les données traitées. Pour en savoir plus, consultez la page Tarifs de BigQuery ML. |
Des frais BigQuery ML sont facturés pour les données traitées. Pour en savoir plus, consultez la page Tarifs de BigQuery ML.
entraîne des frais pour les appels à l'API Document AI. Pour en savoir plus, consultez la page Tarifs de l'API Document AI. |
Requêtes par minute (RPM) | Non applicable aux modèles Gemini. Entre 25 et 60 pour les modèles partenaires. Pour en savoir plus, consultez Limites de requêtes par minute. | 120 requêtes par minute et par type de processeur, avec une limite globale de 600 requêtes par minute et par projet. Pour en savoir plus, consultez la liste des quotas. |
Jetons par minute | Valeur comprise entre 8 192 et plus d'un million, selon le modèle utilisé. | Aucune limite de jetons. Toutefois, cette fonction présente des limites de pages différentes selon le processeur que vous utilisez. Pour en savoir plus, consultez la section Limites. |
Réglage supervisé | Le réglage supervisé est compatible avec certains modèles. | Non compatible |
Langues disponibles | La prise en charge varie en fonction du LLM que vous choisissez. | Les langues disponibles dépendent du type de processeur de documents. La plupart ne prennent en charge que l'anglais. Pour en savoir plus, consultez la liste des processeurs. |
Régions où le service est disponible | Compatible avec toutes les régions de l'IA générative pour Vertex AI. | Compatible dans les emplacements multirégionaux EU et US pour tous les processeurs. Certains processeurs sont également disponibles dans certaines régions uniques. Pour en savoir plus, consultez Prise en charge régionale et multirégionale. |