Origem de lote do BigQuery

Esta página fornece orientações sobre como configurar o plug-in de origem de lote do BigQuery no Cloud Data Fusion.

O plug-in de origem do BigQuery permite conectar e carregar dados das tabelas do BigQuery. Os dados de uma tabela do BigQuery são exportados para um local temporário no Cloud Storage e, em seguida, lidos no pipeline.

Antes de começar

O Cloud Data Fusion geralmente tem duas contas de serviço:

Antes de usar o plug-in de fonte de lote do BigQuery, conceda as seguintes funções ou permissões a cada conta de serviço.

Agente de serviço da API Cloud Data Fusion

Essa conta de serviço já tem todas as permissões necessárias, e você não precisa adicionar outras. Para referência, ele tem as seguintes permissões:

  • bigquery.datasets.get
  • bigquery.tables.create
  • bigquery.tables.get
  • bigquery.tables.updateData
  • bigquery.tables.update
  • bigquery.tables.export

Se você estiver usando uma conta de serviço de namespace em vez da conta de serviço padrão de design, adicione as permissões da lista anterior a ela.

Conta de serviço do Compute Engine

No projeto Google Cloud , conceda os seguintes papéis ou permissões do IAM à conta de serviço do Compute Engine:

  • Usuário de jobs do BigQuery (roles/bigquery.jobUser). Esse papel predefinido contém a permissão bigquery.jobs.create necessária.
  • Editor de dados do BigQuery (roles/bigquery.dataEditor). Esse papel predefinido contém as seguintes permissões necessárias:

    • bigquery.datasets.get
    • bigquery.tables.create
    • bigquery.tables.get
    • bigquery.tables.updateData
    • bigquery.tables.update
    • bigquery.tables.export

Essas funções e permissões também podem ser atribuídas no conjunto de dados ou na tabela do BigQuery, dependendo do seu caso de uso.

  • Gravador de bucket legado do Storage (roles/storage.legacyBucketWriter). Esse papel predefinido contém as seguintes permissões necessárias:

    • storage.buckets.get
    • storage.objects.get
    • storage.objects.list

Esse papel e essas permissões também podem ser atribuídos no bucket do Cloud Storage, dependendo do seu caso de uso.

Configurar o plug-in

  1. Acesse a interface da Web do Cloud Data Fusion e clique em Studio.
  2. Verifique se a opção Pipeline de dados – lote está selecionada (não Tempo real).
  3. No menu Origem, clique em BigQuery. O nó do BigQuery aparece no seu pipeline.
  4. Para configurar a origem, acesse o nó do BigQuery e clique em Propriedades.
  5. Insira as seguintes propriedades. Para uma lista completa, consulte Propriedades.

    1. Insira um rótulo para o nó do BigQuery, por exemplo, BigQuery tables.
    2. Insira os detalhes da conexão. É possível configurar uma nova conexão única ou uma conexão existente e reutilizável.

      Nova conexão

      Para adicionar uma conexão única ao BigQuery, siga estas etapas:

      1. No campo ID do projeto, deixe o valor como detecção automática.
      2. Se o conjunto de dados do BigQuery estiver em um projeto diferente, insira o ID no campo ID do projeto do conjunto de dados.
      3. No campo Tipo de conta de serviço, escolha uma das seguintes opções e insira o conteúdo no próximo campo:

        • Caminho do arquivo
        • JSON

      Conexão reutilizável

      Para reutilizar uma conexão existente, siga estas etapas:

      1. Ative a opção Usar conexão.
      2. Clique em Procurar conexões.
      3. Clique no nome da conexão, por exemplo, Padrão do BigQuery.

      4. Opcional: se uma conexão não existir e você quiser criar uma nova conexão reutilizável, clique em Adicionar conexão e consulte as etapas na guia Nova conexão nesta página.

    3. No campo Nome da referência, insira um nome para usar na linhagem.

    4. Opcional: se o conjunto de dados já estiver disponível na sua instância, clique em Procurar e selecione os dados a serem lidos.

    5. No campo Conjunto de dados, insira o nome do conjunto de dados que contém a tabela.

    6. No campo Tabela, insira o nome da tabela.

    7. Para testar a conectividade, clique em Usar esquema.

    8. Opcional: no campo Data de início da partição, insira a string de data de início inclusiva, por exemplo, 2021-01-11.

    9. Opcional: no campo Data de término da partição, insira a string de data de término inclusiva, por exemplo, 2024-01-11.

    10. Opcional: no campo Filtro, insira uma WHERE cláusula do BigQuery.

    11. Opcional: no campo Nome do bucket temporário, insira um nome para o bucket do Cloud Storage.

    12. Opcional: no campo Nome da chave de criptografia, insira o nome da chave de criptografia do Cloud Key Management Service (Cloud KMS). Para mais informações, consulte Recuperar o nome do recurso da chave.

    13. Opcional: ative Ativar a consulta de visualizações. Se você ativar, faça o seguinte:

      • No campo Projeto de criação de tabela temporária, insira o nome do projeto em que a tabela temporária é criada.
      • No campo Conjunto de dados de criação de tabela temporária, insira o nome do conjunto de dados em que a tabela temporária é criada.
    14. Opcional: clique em Validar e corrija os erros encontrados.

    15. Clique em Fechar. As propriedades são salvas, e você pode continuar criando o pipeline de dados na interface da Web do Cloud Data Fusion.

Propriedades

Propriedade Macro ativada Propriedade obrigatória Descrição
Rótulo Não Sim O nome do nó no pipeline de dados.
Usar conexão Não Não Procure uma conexão reutilizável com a origem. Para mais informações sobre como adicionar, importar e editar as conexões que aparecem quando você navega por elas, consulte Gerenciar conexões.
Conexão Sim Sim Se a opção Usar conexão estiver ativada, o nome da conexão reutilizável selecionada vai aparecer nesse campo.
ID do projeto Sim Não Usado apenas quando a opção Usar conexão está desativada. Um identificador globalmente exclusivo para o projeto em que o job do BigQuery é executado.
O padrão é auto-detect.
ID do projeto do conjunto de dados Sim Não Usado apenas quando a opção Usar conexão está desativada. Se o conjunto de dados estiver em um projeto diferente daquele em que o job do BigQuery é executado, esse valor será o identificador globalmente exclusivo do projeto com o conjunto de dados do BigQuery. Se nenhum valor for fornecido, o campo vai usar o valor ID do projeto por padrão. O papel de leitor de dados do BigQuery precisa ser concedido à conta de serviço especificada para ler dados do BigQuery no projeto.
Tipo de conta de serviço Sim Não Selecione uma das seguintes opções:
  • Caminho do arquivo: o caminho em que a conta de serviço está localizada.
  • JSON: conteúdo JSON da conta de serviço.
Caminho do arquivo da conta de serviço Sim Não Usado apenas quando o valor do tipo de conta de serviço é Caminho do arquivo. O caminho no sistema de arquivos local da chave da conta de serviço usada para autorização. Se os jobs forem executados em clusters do Dataproc, defina o valor como detecção automática. Se os jobs forem executados em outros tipos de clusters, o arquivo precisa estar presente em todos os nós do cluster.
O padrão é auto-detect.
JSON da conta de serviço Sim Não Usado apenas quando o valor do tipo de conta de serviço é JSON. O conteúdo do arquivo JSON da conta de serviço.
Nome de referência Não Sim Nome que identifica exclusivamente essa origem para outros serviços, como linhagem e anotação de metadados.
Conjunto de dados Sim Sim O conjunto de dados ao qual a tabela pertence. Um conjunto de dados fica contido em um projeto específico. Os conjuntos de dados são contêineres de nível superior que organizam e controlam o acesso a tabelas e visualizações.
Tabela Sim Sim A tabela a ser lida. Uma tabela contém registros individuais organizados em linhas. Cada registro é formado por colunas, também chamadas de campos. Cada tabela é definida por um esquema que descreve os nomes das colunas, os tipos de dados e outras informações.
Data de início da partição Sim Não Data de início da partição inclusiva, especificada como yyyy-mm-dd. Se nenhum valor for fornecido, todas as partições até a data de término da partição serão lidas.
Data de término da partição Sim Não Data de término da partição exclusiva, especificada como yyyy-mm-dd. Se nenhum valor for fornecido, todas as partições a partir da data de início da partição serão lidas.
Filtrar Sim Não Uma consulta SQL que filtra as condições especificadas. Por exemplo, esta consulta retorna todas as linhas da tabela Roster em que a coluna SchoolID tem o valor SchoolID > 52:
SELECT * FROM Roster WHERE SchoolID > 52;. Isso é o mesmo que a cláusula WHERE no BigQuery.
Nome do bucket temporário Sim Não O bucket do Cloud Storage para armazenamento de dados temporários. Ele será criado automaticamente se não existir. Os dados temporários são excluídos depois de serem lidos. Se um nome não for fornecido, um bucket exclusivo será criado e excluído após a conclusão da execução.
Nome da chave de criptografia Sim Não Chave que criptografa dados gravados em qualquer bucket criado pelo plug-in. Se o bucket existir, esse valor será ignorado. Para mais informações, consulte CMEK.
Ativar a consulta de visualizações Sim Não Permitir visualizações lógicas e materializadas do BigQuery. Como as visualizações do BigQuery não são ativadas por padrão, consultar elas pode ter uma sobrecarga de desempenho.
O padrão é "Não".
Projeto de criação de tabela temporária Sim Não Usado somente quando a opção Ativar a consulta de visualizações está ativada. O nome do projeto em que a tabela temporária precisa ser criada. Assume o mesmo projeto em que a tabela está.
Conjunto de dados de criação de tabela temporária Sim Não O conjunto de dados no projeto especificado em que a tabela temporária precisa ser criada. O padrão é o mesmo conjunto de dados em que a tabela está.
Esquema de saída Sim Sim Esquema da tabela a ser lida. Para fazer isso, clique em Usar esquema.

Mapeamentos de tipo de dados

A tabela a seguir é uma lista de tipos de dados do BigQuery com os tipos de CDAP correspondentes.

Tipo de dados do BigQuery Tipo de dados do esquema CDAP
BOOL boolean
BYTES bytes
DATE date
DATETIME datetime, string
FLOAT64 double
GEO unsupported
INT64 long
NUMERIC decimal
BIGNUMERIC decimal
REPEATED array
STRING string, datetime (formato ISO 8601)
STRUCT record
TIME time (microssegundos)
TIMESTAMP timestamp (microssegundos)
JSON unsupported

A seguir