Executar transformações no BigQuery

Nesta página, descrevemos como executar transformações no BigQuery em vez do Spark no Cloud Data Fusion.

Para mais informações, consulte a Visão geral do pushdown de transformação.

Antes de começar

O Pushdown de transformação está disponível na versão 6.5.0 e mais recentes. Se o pipeline for executado em um ambiente de versão anterior, será possível fazer upgrade da instância para a versão mais recente.

Ativar o pushdown de transformação no pipeline

Console

Para ativar o Pushdown de transformação em um pipeline implantado, faça o seguinte:

  1. Acesse sua instância:

    1. No console do Google Cloud, acesse a página do Cloud Data Fusion.

    2. Para abrir a instância no Studio do Cloud Data Fusion, clique em Instâncias e, em seguida, clique em Visualizar instância.

      Acesse "Instâncias"

  2. Clique em Menu > Lista.

    A guia do pipeline implantado é aberta.

  3. Clique no pipeline implantado que você quer para abri-lo no Pipeline Studio.

  4. Clique em Configure > Transformation Pushdown.

    Ativar o pushdown de transformação.

  5. Clique em Enable Transformation Pushdown.

  6. No campo Conjunto de dados, digite um nome para o conjunto de dados do BigQuery.

    Opcional: para usar uma macro, clique em M. Para mais informações, consulte Conjuntos de dados.

  7. Opcional: configure as opções, se necessário.

  8. Clique em Save.

Configurações opcionais

.
Propriedade Compatível com macros Versões compatíveis do Cloud Data Fusion Descrição
Usar conexão Não 6.7.0 e mais recentes Define se uma conexão existente será usada.
Connection Sim 6.7.0 e mais recentes O nome da conexão. Essa conexão fornece informações sobre o projeto e a conta de serviço.
Opcional: use a macro na função ${conn(connection_name)}.
ID do projeto do conjunto de dados Sim 6.5.0 Se o conjunto de dados estiver em um projeto diferente daquele em que o job do BigQuery é executado, insira o ID do projeto do conjunto de dados. Se nenhum valor for atribuído, por padrão, ele usará o ID do projeto em que o job é executado.
ID Sim 6.5.0 O ID do projeto do Google Cloud.
Tipo de conta de serviço Sim 6.5.0 Selecione uma destas opções:
  • Caminho do arquivo: o caminho do arquivo para a conta de serviço.
  • JSON: o conteúdo JSON da conta de serviço.
O padrão é JSON.
Caminho do arquivo da conta de serviço Sim 6.5.0 O caminho no sistema de arquivos local para a chave da conta de serviço usada para autorização. Ele é definido como auto-detect quando executado em um cluster do Dataproc. Quando executado em outros clusters, o arquivo precisa estar presente em todos os nós do cluster. O padrão é auto-detect.
JSON da conta de serviço Sim 6.5.0 O conteúdo do arquivo JSON da conta de serviço.
Nome do bucket temporário Sim 6.5.0 O bucket do Cloud Storage que armazena os dados temporários. Ela será criada automaticamente, se não existir, mas não é excluída de forma automática. Os dados do Cloud Storage são excluídos depois de carregados no BigQuery. Se esse valor não for fornecido, um bucket exclusivo será criado e excluído após a conclusão da execução do pipeline. A conta de serviço precisa ter permissão para criar buckets no projeto configurado.
Local Sim 6.5.0 O local onde o conjunto de dados do BigQuery é criado. Esse valor será ignorado se o conjunto de dados ou o bucket temporário já existir. O padrão é a multirregião US.
Nome da chave de criptografia Sim 6.5.1/0.18.1 A chave de criptografia gerenciada pelo cliente (CMEK, na sigla em inglês) que criptografa dados gravados em qualquer bucket, conjunto de dados ou tabela criado pelo plug-in. Se o bucket, o conjunto de dados ou a tabela já existir, esse valor será ignorado.
Reter tabelas do BigQuery após a conclusão Sim 6.5.0 Define se todas as tabelas temporárias do BigQuery criadas durante a execução do pipeline serão mantidas para fins de depuração e validação. O padrão é Não.
TTL da tabela temporária (em horas) Sim 6.5.0 Define o TTL da tabela para tabelas temporárias do BigQuery, em horas. Isso é útil como uma segurança caso o pipeline seja cancelado e o processo de limpeza seja interrompido. Por exemplo, se o cluster de execução for encerrado abruptamente. Definir esse valor como 0 desativa o TTL da tabela. O padrão é 72 (três dias).
Prioridade do job Sim 6.5.0 A prioridade usada para executar jobs do BigQuery. Selecione uma das seguintes opções:
  1. Lote: um job em lote é colocado na fila e iniciado assim que os recursos inativos estiverem disponíveis, geralmente em alguns minutos. Se o job não for iniciado em três horas, a prioridade dele será alterada para interativa.
  2. Interativo: um job interativo é executado o mais rápido possível e é contabilizado no limite de taxa simultânea e na limitação de taxa diária.
O padrão é Batch.
Fases para forçar o push-down Sim 6.7.0 Estágios compatíveis que sempre devem ser executados no BigQuery. Cada nome de estágio precisa estar em uma linha separada.
Fases para pular o push-down Sim 6.7.0 Estágios com suporte que nunca são executados no BigQuery. Cada nome de estágio precisa estar em uma linha separada.
Usar a API BigQuery Storage Read Sim 6.7.0 Define se a API BigQuery Storage Read será usada ao extrair registros do BigQuery durante a execução do pipeline. Essa opção pode melhorar o desempenho do pushdown de transformação, mas gera mais custos. Isso requer que o Scala 2.12 esteja instalado no ambiente de execução.

Monitorar as alterações no desempenho dos registros

Os registros do ambiente de execução do pipeline incluem mensagens que mostram as consultas do SQL executadas no BigQuery. É possível monitorar quais estágios do pipeline são enviados ao BigQuery.

O exemplo a seguir mostra as entradas de registro quando a execução do pipeline começa. Os registros indicam que as operações JOIN no pipeline foram enviadas para execução pelo BigQuery:

  INFO  [Driver:i.c.p.g.b.s.BigQuerySQLEngine@190] - Validating join for stage 'Users' can be executed on BigQuery: true
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@131] - Starting push for dataset 'UserProfile'
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@131] - Starting push for dataset 'UserDetails'
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@292] - Starting join for dataset 'Users'
  INFO  [Driver:i.c.p.g.b.s.BigQuerySQLEngine@190] - Validating join for stage 'UserPurchases' can be executed on BigQuery: true
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@131] - Starting push for dataset 'Purchases'
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@292] - Starting join for dataset 'UserPurchases'
  INFO  [Driver:i.c.p.g.b.s.BigQuerySQLEngine@190] - Validating join for stage 'MostPopularNames' can be executed on BigQuery: true
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@131] - Starting push for dataset 'FirstNameCounts'
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@292] - Starting join for dataset 'MostPopularNames'
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@193] - Starting pull for dataset 'MostPopularNames'

O exemplo a seguir mostra os nomes de tabela que serão atribuídos a cada um dos conjuntos de dados envolvidos na execução do push-down:

  INFO  [batch-sql-engine-adapter:i.c.p.g.b.s.BigQuerySQLEngine@145] - Executing Push operation for dataset Purchases stored in table <TABLE_ID>
  INFO  [batch-sql-engine-adapter:i.c.p.g.b.s.BigQuerySQLEngine@145] - Executing Push operation for dataset UserDetails stored in table <TABLE_ID>
  INFO  [batch-sql-engine-adapter:i.c.p.g.b.s.BigQuerySQLEngine@145] - Executing Push operation for dataset FirstNameCounts stored in table <TABLE_ID>
  INFO  [batch-sql-engine-adapter:i.c.p.g.b.s.BigQuerySQLEngine@145] - Executing Push operation for dataset UserProfile stored in table <TABLE_ID>

À medida que a execução continua, os registros mostram a conclusão dos estágios de push e, por fim, a execução de operações JOIN. Exemplo:

  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@133] - Completed push for dataset 'UserProfile'
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@133] - Completed push for dataset 'UserDetails'
  DEBUG [batch-sql-engine-adapter:i.c.p.g.b.s.BigQuerySQLEngine@235] - Executing join operation for dataset Users
  INFO  [batch-sql-engine-adapter:i.c.p.g.b.s.BigQueryJoinDataset@118] - Creating table `<TABLE_ID>` using job: <JOB_ID> with SQL statement: SELECT `UserDetails`.id AS `id` , `UserDetails`.first_name AS `first_name` , `UserDetails`.last_name AS `last_name` , `UserDetails`.email AS `email` , `UserProfile`.phone AS `phone` , `UserProfile`.profession AS `profession` , `UserProfile`.age AS `age` , `UserProfile`.address AS `address` , `UserProfile`.score AS `score` FROM `your_project.your_dataset.<DATASET_ID>` AS `UserProfile` LEFT JOIN `your_project.your_dataset.<DATASET_ID>` AS `UserDetails` ON `UserProfile`.id = `UserDetails`.id
  INFO  [batch-sql-engine-adapter:i.c.p.g.b.s.BigQueryJoinDataset@151] - Created BigQuery table `<TABLE_ID>
  INFO  [batch-sql-engine-adapter:i.c.p.g.b.s.BigQuerySQLEngine@245] - Executed join operation for dataset Users

Quando todas as etapas forem concluídas, uma mensagem vai mostrar que a operação Pull foi concluída. Isso indica que o processo de exportação do BigQuery foi acionado e os registros começarão a ser lidos no pipeline após o início desse job de exportação. Exemplo:

DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@196] - Completed pull for dataset 'MostPopularNames'

Se a execução do pipeline encontrar erros, eles serão descritos nos registros.

Para detalhes sobre a execução das operações JOIN do BigQuery, como utilização de recursos, tempo de execução e causas de erros, é possível visualizar os dados do job do BigQuery usando o ID dele, que aparece nos registros do job.

Analisar métricas de pipeline

Para mais informações sobre as métricas que o Cloud Data Fusion fornece para a parte do pipeline executada no BigQuery, consulte Métricas de pipeline de push-down do BigQuery.

A seguir