Ingerir dados com o Cloud Data Fusion

O Cloud Data Fusion fornece um plug-in do coletor do Dataplex para ingerir dados em qualquer um dos recursos compatíveis com o Dataplex.

Antes de começar

  • Crie uma instância do Cloud Data Fusion, caso ainda não tenha uma. Este plug-in está disponível em instâncias executadas no Cloud Data Fusion versão 6.6 ou posterior.
  • O conjunto de dados do BigQuery ou o bucket do Cloud Storage em que os dados são ingeridos precisa fazer parte de um lake do Dataplex.
  • Para que os dados sejam lidos das entidades do Cloud Storage, o metastore do Dataproc precisa estar anexado ao lake.
  • Os dados CSV em entidades do Cloud Storage não são compatíveis.
  • No projeto do Dataplex, ative o Acesso privado do Google na sub-rede, que geralmente é definido como default, ou defina internal_ip_only como false.

Funções exigidas

Para receber as permissões necessárias para gerenciar os papéis, peça ao administrador para conceder a você os seguintes papéis de IAM na conta de serviço do Dataproc e na conta serviço gerenciado pelo Google (service-CUSTOMER_PROJECT_NUMBER@gcp-sa- datafusion.iam.gserviceaccount.com):

Para mais informações sobre como conceder papéis, consulte Gerenciar acesso.

Talvez você também consiga receber as permissões necessárias por meio de papéis personalizados ou outros papéis predefinidos.

Adicionar o plug-in ao pipeline

  1. No console do Google Cloud, acesse a página Instâncias do Cloud Data Fusion.

    Acesse "Instâncias"

    Nessa página, é possível gerenciar suas instâncias.

  2. Clique em Ver instância para abrir a instância na UI do Cloud Data Fusion.

  3. Acesse a página do Studio, expanda o menu Coletor e clique em Dataplex.

Configurar o plug-in

Depois de adicionar esse plug-in ao pipeline na página Studio, clique no coletor do Dataplex para configurar e salvar as propriedades.

Para mais informações sobre configurações, consulte a referência do Coletor do Dataplex.

Opcional: comece com um pipeline de amostra

Pipelines de amostra estão disponíveis, incluindo uma origem SAP para pipeline de coletor do Dataplex e uma origem do Dataplex para pipeline de coletor do BigQuery.

Para usar um pipeline de amostra, abra a instância na IU do Cloud Data Fusion, clique em Hub > Pipelines e selecione um dos pipelines do Dataplex. Uma caixa de diálogo será aberta para ajudar você a criar o pipeline.

executar o pipeline

  1. Depois de implantar o pipeline, abra-o na página do Studio do Cloud Data Fusion.

  2. Clique em Configurar > Recursos.

  3. Opcional: altere a CPU do Executor e a Memória com base no tamanho geral dos dados e no número de transformações usadas no pipeline.

  4. Clique em Save.

  5. Para iniciar o pipeline de dados, clique em Executar.

A seguir