Processe documentos com a função ML.PROCESS_DOCUMENT

Este documento descreve como usar a função ML.PROCESS_DOCUMENT com um modelo remoto para extrair estatísticas úteis de documentos numa tabela de objetos.

Localizações suportadas

Tem de criar o modelo remoto usado neste procedimento na US ou na EU multirregião. Tem de executar a função ML.PROCESS_DOCUMENT na mesma região que o modelo remoto.

Funções necessárias

Para criar um modelo remoto e processar documentos, precisa das seguintes funções de gestão de identidade e de acesso (IAM) ao nível do projeto:

  • Crie um processador de documentos: editor do Document AI (roles/documentai.editor)
  • Criar e usar conjuntos de dados, tabelas e modelos do BigQuery: Editor de dados do BigQuery (roles/bigquery.dataEditor)
  • Criar, delegar e usar ligações do BigQuery: Administrador de ligações do BigQuery (roles/bigquery.connectionsAdmin)

    Se não tiver uma associação predefinida configurada, pode criar e definir uma como parte da execução da declaração CREATE MODEL. Para tal, tem de ter a função de administrador do BigQuery (roles/bigquery.admin) no seu projeto. Para mais informações, consulte o artigo Configure a ligação predefinida.

  • Conceda autorizações à conta de serviço da associação: administrador de IAM do projeto (roles/resourcemanager.projectIamAdmin)

  • Criar tarefas do BigQuery: utilizador de tarefas do BigQuery (roles/bigquery.jobUser)

Estas funções predefinidas contêm as autorizações necessárias para realizar as tarefas descritas neste documento. Para ver as autorizações exatas necessárias, expanda a secção Autorizações necessárias:

Autorizações necessárias

  • Crie um conjunto de dados: bigquery.datasets.create
  • Crie, delegue e use uma associação: bigquery.connections.*
  • Defina as autorizações da conta de serviço: resourcemanager.projects.getIamPolicy e resourcemanager.projects.setIamPolicy
  • Crie um modelo e execute a inferência:
    • bigquery.jobs.create
    • bigquery.models.create
    • bigquery.models.getData
    • bigquery.models.updateData
    • bigquery.models.updateMetadata
  • Crie uma tabela de objetos: bigquery.tables.create e bigquery.tables.update
  • Crie um processador de documentos:
    • documentai.processors.create
    • documentai.processors.update
    • documentai.processors.delete

Também pode conseguir estas autorizações com funções personalizadas ou outras funções predefinidas.

Antes de começar

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  3. Verify that billing is enabled for your Google Cloud project.

  4. Enable the BigQuery, BigQuery Connection API, and Document AI APIs.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  6. Verify that billing is enabled for your Google Cloud project.

  7. Enable the BigQuery, BigQuery Connection API, and Document AI APIs.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the APIs

  8. Crie um processador

    Crie um processador no Document AI para processar os documentos. O processador tem de ser de um tipo suportado.

    Crie um conjunto de dados

    Tem de criar o conjunto de dados, a associação e o processador de documentos na mesma região.

    Crie um conjunto de dados do BigQuery para conter os seus recursos:

    Consola

    1. Na Google Cloud consola, aceda à página BigQuery.

      Aceda à página do BigQuery

    2. No painel Explorador, clique no nome do projeto.

    3. Clique em Ver ações > Criar conjunto de dados.

    4. Na página Criar conjunto de dados, faça o seguinte:

      • Para ID do conjunto de dados, escreva um nome para o conjunto de dados.

      • Para Tipo de localização, selecione uma localização para o conjunto de dados.

      • Clique em Criar conjunto de dados.

    bq

    1. Para criar um novo conjunto de dados, use o comando bq mk com a flag --location:

      bq --location=LOCATION mk -d DATASET_ID

      Substitua o seguinte:

      • LOCATION: a localização do conjunto de dados.
      • DATASET_ID é o ID do conjunto de dados que está a criar.
    2. Confirme que o conjunto de dados foi criado:

      bq ls

    Crie uma associação

    Pode ignorar este passo se tiver uma associação predefinida configurada ou tiver a função de administrador do BigQuery.

    Crie uma ligação de recursos da nuvem para o modelo remoto usar e obtenha a conta de serviço da ligação. Crie a associação na mesma localização que o conjunto de dados que criou no passo anterior.

    Selecione uma das seguintes opções:

    Consola

    1. Aceda à página do BigQuery.

      Aceda ao BigQuery

    2. No painel Explorador, clique em Adicionar dados:

      O elemento da IU Adicionar dados.

      É apresentada a caixa de diálogo Adicionar dados.

    3. No painel Filtrar por, na secção Tipo de origem de dados, selecione Aplicações empresariais.

      Em alternativa, no campo Pesquisar origens de dados, pode introduzir Vertex AI.

    4. Na secção Origens de dados em destaque, clique em Vertex AI.

    5. Clique no cartão da solução Modelos da Vertex AI: federação do BigQuery.

    6. Na lista Tipo de ligação, selecione Modelos remotos, funções remotas e BigLake (recurso da nuvem) da Vertex AI.

    7. No campo ID da associação, introduza um nome para a associação.

    8. Clique em Criar associação.

    9. Clique em Aceder à associação.

    10. No painel Informações de associação, copie o ID da conta de serviço para utilização num passo posterior.

    bq

    1. Num ambiente de linha de comandos, crie uma associação:

      bq mk --connection --location=REGION --project_id=PROJECT_ID \
          --connection_type=CLOUD_RESOURCE CONNECTION_ID

      O parâmetro --project_id substitui o projeto predefinido.

      Substitua o seguinte:

      • REGION: a sua região de ligação
      • PROJECT_ID: o ID do seu Google Cloud projeto
      • CONNECTION_ID: um ID para a sua ligação

      Quando cria um recurso de ligação, o BigQuery cria uma conta de serviço do sistema única e associa-a à ligação.

      Resolução de problemas: se receber o seguinte erro de ligação, atualize o SDK do Google Cloud:

      Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
      
    2. Obtenha e copie o ID da conta de serviço para utilização num passo posterior:

      bq show --connection PROJECT_ID.REGION.CONNECTION_ID

      O resultado é semelhante ao seguinte:

      name                          properties
      1234.REGION.CONNECTION_ID     {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
      

    Terraform

    Use o recurso google_bigquery_connection.

    Para se autenticar no BigQuery, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para bibliotecas de cliente.

    O exemplo seguinte cria uma associação de recursos da nuvem com o nome my_cloud_resource_connection na região US:

    
    # This queries the provider for project information.
    data "google_project" "default" {}
    
    # This creates a cloud resource connection in the US region named my_cloud_resource_connection.
    # Note: The cloud resource nested object has only one output field - serviceAccountId.
    resource "google_bigquery_connection" "default" {
      connection_id = "my_cloud_resource_connection"
      project       = data.google_project.default.project_id
      location      = "US"
      cloud_resource {}
    }

    Para aplicar a configuração do Terraform num Google Cloud projeto, conclua os passos nas secções seguintes.

    Prepare o Cloud Shell

    1. Inicie o Cloud Shell.
    2. Defina o Google Cloud projeto predefinido onde quer aplicar as suas configurações do Terraform.

      Só tem de executar este comando uma vez por projeto e pode executá-lo em qualquer diretório.

      export GOOGLE_CLOUD_PROJECT=PROJECT_ID

      As variáveis de ambiente são substituídas se definir valores explícitos no ficheiro de configuração do Terraform.

    Prepare o diretório

    Cada ficheiro de configuração do Terraform tem de ter o seu próprio diretório (também denominado módulo raiz).

    1. No Cloud Shell, crie um diretório e um novo ficheiro nesse diretório. O nome do ficheiro tem de ter a extensão .tf, por exemplo, main.tf. Neste tutorial, o ficheiro é denominado main.tf.
      mkdir DIRECTORY && cd DIRECTORY && touch main.tf
    2. Se estiver a seguir um tutorial, pode copiar o código de exemplo em cada secção ou passo.

      Copie o exemplo de código para o ficheiro main.tf criado recentemente.

      Opcionalmente, copie o código do GitHub. Isto é recomendado quando o fragmento do Terraform faz parte de uma solução completa.

    3. Reveja e modifique os parâmetros de exemplo para aplicar ao seu ambiente.
    4. Guarde as alterações.
    5. Inicialize o Terraform. Só tem de fazer isto uma vez por diretório.
      terraform init

      Opcionalmente, para usar a versão mais recente do fornecedor Google, inclua a opção -upgrade:

      terraform init -upgrade

    Aplique as alterações

    1. Reveja a configuração e verifique se os recursos que o Terraform vai criar ou atualizar correspondem às suas expetativas:
      terraform plan

      Faça as correções necessárias à configuração.

    2. Aplique a configuração do Terraform executando o seguinte comando e introduzindo yes no comando:
      terraform apply

      Aguarde até que o Terraform apresente a mensagem "Apply complete!" (Aplicação concluída!).

    3. Abra o seu Google Cloud projeto para ver os resultados. Na Google Cloud consola, navegue para os seus recursos na IU para se certificar de que o Terraform os criou ou atualizou.

    Conceda acesso à conta de serviço

    Selecione uma das seguintes opções:

    Consola

    1. Aceda à página IAM e administrador.

      Aceda a IAM e administração

    2. Clique em Conceder acesso.

      É apresentada a caixa de diálogo Adicionar responsáveis.

    3. No campo Novos membros, introduza o ID da conta de serviço que copiou anteriormente.

    4. No campo Selecionar uma função, selecione Document AI e, de seguida, selecione Visualizador do Document AI.

    5. Clique em Adicionar outra função.

    6. No campo Selecionar uma função, selecione Cloud Storage e, de seguida, selecione Visualizador de objetos de armazenamento.

    7. Clique em Guardar.

    gcloud

    Use o comando gcloud projects add-iam-policy-binding:

    gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/documentai.viewer' --condition=None
    gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/storage.objectViewer' --condition=None
    

    Substitua o seguinte:

    • PROJECT_NUMBER: o número do seu projeto.
    • MEMBER: o ID da conta de serviço que copiou anteriormente.

    Se não conceder a autorização, recebe um erro Permission denied.

    Criar um modelo

    Crie um modelo remoto com um REMOTE_SERVICE_TYPE de CLOUD_AI_DOCUMENT_V1:

    CREATE OR REPLACE MODEL
    `PROJECT_ID.DATASET_ID.MODEL_NAME`
    REMOTE WITH CONNECTION {DEFAULT | `PROJECT_ID.REGION.CONNECTION_ID`}
    OPTIONS (
      REMOTE_SERVICE_TYPE = 'CLOUD_AI_DOCUMENT_V1',
      DOCUMENT_PROCESSOR = 'PROCESSOR_ID'
    );

    Substitua o seguinte:

    • PROJECT_ID: o ID do seu projeto.
    • DATASET_ID: o ID do conjunto de dados que vai conter o modelo.
    • MODEL_NAME: o nome do modelo.
    • REGION: a região usada pela ligação.
    • CONNECTION_ID: o ID da associação, por exemplo, myconnection.

      Quando vê os detalhes da associação na Google Cloud consola, o ID da associação é o valor na última secção do ID da associação totalmente qualificado que é apresentado em ID da associação, por exemplo, projects/myproject/locations/connection_location/connections/myconnection.

    • PROCESSOR_ID: o ID do processador de documentos. Para encontrar este valor, veja os detalhes do processador e, de seguida, procure a linha ID na secção Informações básicas.

    Para ver as colunas de saída do modelo, clique em Aceder ao modelo no resultado da consulta após a criação do modelo. As colunas de saída são apresentadas na secção Etiquetas do separador Esquema.

    Crie uma tabela de objetos

    Crie uma tabela de objetos sobre um conjunto de documentos no Cloud Storage. Os documentos na tabela de objetos têm de ser de um tipo suportado.

    Processar documentos

    Processar todos os documentos com o comando ML.PROCESS_DOCUMENT:

    SELECT *
    FROM ML.PROCESS_DOCUMENT(
      MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
      TABLE `PROJECT_ID.DATASET_ID.OBJECT_TABLE_NAME`
      [, PROCESS_OPTIONS => ( JSON 'PROCESS_OPTIONS')]
    );

    Substitua o seguinte:

    • PROJECT_ID: o ID do seu projeto.
    • DATASET_ID: o ID do conjunto de dados que contém o modelo.
    • MODEL_NAME: o nome do modelo.
    • OBJECT_TABLE_NAME: o nome da tabela de objetos que contém os URIs dos documentos a processar.
    • PROCESS_OPTIONS: a configuração JSON que especifica como processar documentos. Por exemplo, usa esta opção para especificar a divisão de documentos para o analisador de esquemas

    Em alternativa, processe alguns dos documentos com o ML.PROCESS_DOCUMENT:

    SELECT *
    FROM ML.PROCESS_DOCUMENT(
      MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
      (SELECT *
      FROM `PROJECT_ID.DATASET_ID.OBJECT_TABLE_NAME`
      WHERE FILTERS
      LIMIT NUM_DOCUMENTS
      )
      [, PROCESS_OPTIONS => ( JSON 'PROCESS_OPTIONS')]
    );

    Substitua o seguinte:

    • PROJECT_ID: o ID do seu projeto.
    • DATASET_ID: o ID do conjunto de dados que contém o modelo.
    • MODEL_NAME: o nome do modelo.
    • OBJECT_TABLE_NAME: o nome da tabela de objetos que contém os URIs dos documentos a processar.
    • FILTERS: condições para filtrar os documentos que quer processar nas colunas da tabela de objetos.
    • NUM_DOCUMENTS: o número máximo de documentos que quer processar.
    • PROCESS_OPTIONS: a configuração JSON que define a configuração, como a configuração de divisão em partes para o analisador de esquemas

    Exemplos

    Exemplo 1

    O exemplo seguinte usa o analisador de despesas para processar os documentos representados pela tabela documents:

    SELECT *
    FROM ML.PROCESS_DOCUMENT(
      MODEL `myproject.mydataset.expense_parser`,
      TABLE `myproject.mydataset.documents`
    );

    Esta consulta devolve os relatórios de despesas analisados, incluindo a moeda, o valor total, a data do recibo e os elementos publicitários nos relatórios de despesas. A coluna ml_process_document_result contém o resultado não processado do analisador de despesas e a coluna ml_process_document_status contém quaisquer erros devolvidos pelo processamento de documentos.

    Exemplo 2

    O exemplo seguinte mostra como filtrar a tabela de objetos para escolher que documentos processar e, em seguida, escrever os resultados numa nova tabela:

    CREATE TABLE `myproject.mydataset.expense_details`
    AS
    SELECT uri, content_type, receipt_date, purchase_time, total_amount, currency
    FROM
      ML.PROCESS_DOCUMENT(
        MODEL `myproject.mydataset.expense_parser`,
        (SELECT * FROM `myproject.mydataset.expense_reports`
        WHERE uri LIKE '%restaurant%'));

    O que se segue?