Ler de várias tabelas do Microsoft SQL Server


Nesta página, descrevemos como ler várias tabelas de um banco de dados do Microsoft SQL Server usando a origem Várias tabelas. Use a fonte de várias tabelas quando quiser que o pipeline leia a partir de várias tabelas. Se você quiser que o pipeline leia uma única tabela, consulte Como ler uma tabela do SQL Server.

A origem de várias tabelas gera dados com vários esquemas e inclui um campo de nome de tabela que indica a tabela de origem dos dados. Ao usar a origem de várias tabelas, use um dos coletores de várias tabelas, várias tabelas do BigQuery ou vários arquivos do GCS.

Antes de começar

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Verifique se a cobrança está ativada para o seu projeto do Google Cloud.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Verifique se a cobrança está ativada para o seu projeto do Google Cloud.

  6. Enable the Cloud Data Fusion, Cloud Storage, BigQuery, and Dataproc APIs.

    Enable the APIs

  7. Crie uma instância do Cloud Data Fusion.
  8. Verifique se o banco de dados do SQL Server pode aceitar conexões do Cloud Data Fusion. Para fazer isso com segurança, recomendamos que você crie uma instância particular do Cloud Data Fusion.

Ver sua instância do Cloud Data Fusion

Ao usar o Cloud Data Fusion, você usa o console do Google Cloud e a IU separada do Cloud Data Fusion. No console do Google Cloud, é possível criar um projeto do Google Cloud, além de criar e excluir instâncias do Cloud Data Fusion. Na IU do Cloud Data Fusion, é possível usar as várias páginas, como o Studio ou o Administrador, para usar os recursos do Cloud Data Fusion.

  1. No console do Google Cloud, acesse a página do Cloud Data Fusion.

  2. Para abrir a instância no Studio do Cloud Data Fusion, Clique em Instâncias e depois em Visualizar instância.

    Acesse "Instâncias"

Armazenar a senha do SQL Server como uma chave segura

Adicione a senha do SQL Server como uma chave segura para criptografar na instância do Cloud Data Fusion. Posteriormente neste guia, você garantirá que sua senha seja recuperada usando o Cloud KMS.

  1. No canto superior direito de qualquer página do Cloud Data Fusion, clique em Administrador do sistema.

  2. Clique na guia Configuration.

  3. Clique em Fazer chamadas HTTP.

    Configuration do HBase.

  4. No menu suspenso, escolha PUT.

  5. No campo do caminho, digite namespaces/NAMESPACE_ID/securekeys/PASSWORD.

  6. No campo Corpo, digite {"data":"SQL_SERVER_PASSWORD"}.

  7. Clique em Enviar.

    Senha.

Verifique se a Resposta recebida é o código de status 200.

Acessar o driver JDBC para SQL Server

Como usar o Hub

  1. Na IU do Cloud Data Fusion, clique em Hub.

  2. Na barra de pesquisa, digite Microsoft SQL Server JDBC Driver.

  3. Clique em Driver JDBC do Microsoft SQL Server.

  4. Clique em Fazer download. Siga as etapas de download mostradas.

  5. Selecione Implantar. Faça upload do arquivo JAR da etapa anterior.

  6. Clique em Finish.

Como usar o Studio

  1. Acesse Microsoft.com.

  2. Escolha o download e clique em Fazer o download.

  3. Na IU do Cloud Data Fusion, clique em Menu e navegue até a página do Studio.

  4. Clique em Adicionar.

  5. Em Driver, clique em Fazer upload.

  6. Faça upload do arquivo JAR salvo na etapa 2.

  7. Clique em Próxima.

  8. Configure o driver inserindo um Nome.

  9. No campo Class name, insira com.microsoft.sqlserver.jdbc.SQLServerDriver.

  10. Clique em Finish.

Implante os plug-ins de várias tabelas

  1. Na IU da Web do Cloud Data Fusion, clique em Hub.

  2. Na barra de pesquisa, digite Multiple table plugins.

  3. Clique em Múltiplos plug-ins de tabela.

    Senha.
  4. Selecione Implantar.

  5. Clique em Concluir.

  6. Clique em Criar um pipeline.

Conectar-se ao SQL Server

  1. Na IU do Cloud Data Fusion, clique em Menu e navegue até a página do Studio.

  2. No Studio, expanda o menu Origem.

  3. Clique em Várias tabelas de banco de dados.

    Várias tabelas.
  4. Coloque o ponteiro sobre o nó Várias tabelas de banco de dados e clique em Propriedades.

    Propriedades
  5. No campo Nome da referência, especifique um nome de referência que será usado para identificar a origem do SQL Server.

  6. No campo String de conexão JDBC, insira a string de conexão JDBC. Por exemplo, jdbc:sqlserver://mydbhost:1433. Para ver mais informações, consulte Como criar o URL de conexão.

  7. Digite o Nome do plug-in do JDBC, o Nome de usuário do banco de dados e a Senha do usuário do banco de dados.

  8. Clique em Validate (Validar).

  9. Clique em Fechar.

Conectar-se ao BigQuery ou ao Cloud Storage

  1. Na IU do Cloud Data Fusion, clique em Menu e navegue até a página do Studio.

  2. Expanda Coletor.

  3. Clique em Várias tabelas do BigQuery ou Vários arquivos do GCS.

  4. Conecte o nó Várias tabelas de banco de dados com Várias tabelas do BigQuery ou Vários arquivos do GCS.

    Conecte o coletor.
  5. Mantenha o ponteiro do mouse sobre o nó Várias tabelas do BigQuery ou Vários arquivos do GCS, clique em Propriedades e configure o coletor.

    Para mais informações, consulte Coletor de várias tabelas do Google BigQuery e Coletor de vários arquivos do Google Cloud Storage.

  6. Clique em Validate (Validar).

  7. Clique em Fechar.

Executar visualização do pipeline

  1. Na IU do Cloud Data Fusion, clique em Menu e navegue até a página do Studio.

  2. Clique em Visualização.

  3. Clique em Executar. Aguarde a conclusão da visualização.

Implante o pipeline.

  1. Na IU do Cloud Data Fusion, clique em Menu e navegue até a página do Studio.

  2. Selecione Implantar.

execute o pipeline

  1. Na IU do Cloud Data Fusion, clique em Menu.

  2. Clique em Lista.

  3. Clique no pipeline.

  4. Na página de detalhes do pipeline, clique em Executar.

A seguir