Escolha uma função de processamento de documentos

Este documento compara as funções de processamento de documentos disponíveis no BigQuery ML, que são ML.GENERATE_TEXT e ML.PROCESS_DOCUMENT. Pode usar as informações neste documento para ajudar a decidir que função usar nos casos em que as funções têm capacidades sobrepostas.

A um nível elevado, a diferença entre estas funções é a seguinte:

  • O ML.GENERATE_TEXT é uma boa escolha para realizar tarefas de processamento de linguagem natural (PNL) em que parte do conteúdo reside em documentos. Esta função oferece as seguintes vantagens:

    • Custos mais baixos
    • Mais suporte de idiomas
    • Débito mais rápido
    • Capacidade de ajuste do modelo
    • Disponibilidade de modelos multimodais

    Para ver exemplos de tarefas de processamento de documentos que funcionam melhor com esta abordagem, consulte o artigo Explore as capacidades de processamento de documentos com a API Gemini.

  • O ML.PROCESS_DOCUMENT é uma boa escolha para realizar tarefas de processamento de documentos que requerem análise de documentos e uma resposta estruturada predefinida.

Comparação de funções

Use a tabela seguinte para comparar as funções ML.GENERATE_TEXT e ML.PROCESS_DOCUMENT:

ML.GENERATE_TEXT ML.PROCESS_DOCUMENT
Finalidade

Executar qualquer tarefa de PNL relacionada com documentos, transmitindo um comando a um modelo Gemini ou de parceiro ou a um modelo aberto.

Por exemplo, dado um documento financeiro de uma empresa, pode obter informações do documento fornecendo um comando como What is the quarterly revenue for each division?.

Use a API Document AI para realizar o processamento de documentos especializado para diferentes tipos de documentos, como faturas, formulários fiscais e demonstrações financeiras. Também pode dividir os documentos em partes.
Faturação

Incorre em custos do BigQuery ML pelos dados processados. Para mais informações, consulte os preços do BigQuery ML.

Incorre em custos do Vertex AI para chamadas para o modelo. Se estiver a usar um modelo do Gemini 2.0 ou superior, a chamada é faturada à taxa da API em lote. Para mais informações, consulte o artigo Custo da criação e implementação de modelos de IA na Vertex AI.

Incorre em custos do BigQuery ML pelos dados processados. Para mais informações, consulte os preços do BigQuery ML.

Incorre em custos por chamadas à API Document AI. Para mais informações, consulte os preços da API Document AI.

Pedidos por minuto (RPM) Não aplicável a modelos do Gemini. Entre 25 e 60 para modelos de parceiros. Para mais informações, consulte os Limites de pedidos por minuto. 120 RPM por tipo de processador, com um limite geral de 600 RPM por projeto. Para mais informações, consulte a Lista de quotas.
Tokens por minuto Varia entre 8192 e mais de 1 milhão, consoante o modelo usado. Sem limite de tokens. No entanto, esta função tem limites de páginas diferentes, consoante o processador que usar. Para mais informações, consulte a secção Limites.
Sintonização supervisionada A sintonia supervisionada é suportada para alguns modelos. Não suportado.
Idiomas suportados O apoio técnico varia consoante o MDG escolhido. O suporte de idiomas depende do tipo de processador de documentos. A maioria apenas suporta inglês. Para mais informações, consulte a lista de processadores.
Regiões suportadas Suportado em todas as regiões da IA generativa para a Vertex AI. Suportado nas multirregiões EU e US para todos os processadores. Alguns processadores também estão disponíveis em determinadas regiões únicas. Para mais informações, consulte o artigo Apoio técnico regional e multirregional.