Replicação

Com a replicação do Cloud Data Fusion, é possível replicar seus dados contínua e em tempo real de repositórios operacionais, como o SQL Server e MySQL para o BigQuery.

Para usar a replicação, escolha uma das seguintes maneiras:

  • Crie uma nova instância do Cloud Data Fusion e adicione o App de replicação.
  • Adicionar o app Replicação a uma instância atual

Alguns dos benefícios são:

  • Identificar incompatibilidades de esquema, problemas de conectividade e antes de iniciar a replicação e, em seguida, fornece ações corretivas.

  • Usando os dados operacionais mais recentes em tempo real para análise dentro de no BigQuery. Use a replicação baseada em registro diretamente no BigQuery no Microsoft SQL Server (usando o SQL Server CDC) e no MySQL (usando o registro binário do MySQL) de dados.

  • Captura de dados alterados (CDC) fornecendo uma representação dos dados que mudaram em um stream, permitindo que os cálculos e o processamento se concentrem especificamente em os registros alterados mais recentemente. Isso minimiza as cobranças de dados de saída em sistemas de produção sensíveis.

  • Escalonabilidade corporativa com suporte a bancos de dados transacionais de alto volume cargas de dados para o BigQuery são suportadas com tempo de inatividade replicação de snapshots, a fim de preparar o data warehouse para as mudanças de consumo continuamente. Quando o snapshot inicial está pronto, uma alta capacidade de processamento a replicação de mudanças começa em tempo real.

  • Com os painéis, você recebe insights em tempo real sobre o desempenho da replicação. É útil para identificar gargalos e monitorar SLAs de entrega de dados.

  • Incluindo suporte para residência de dados e chaves de criptografia gerenciadas pelo cliente (CMEK) e o VPC Service Controls. A integração do Cloud Data Fusion O Google Cloud garante que os mais altos níveis de segurança empresarial a privacidade dos usuários ao disponibilizar os dados mais recentes warehouse para análise.

Quando a replicação é executada, você recebe cobranças pelo Dataproc cluster e gera custos de processamento para o BigQuery. Para otimizar esses custos, recomendamos que você use os preços fixos do BigQuery.

Para mais informações, consulte a página Preços do Cloud Data Fusion.

Entidades de replicação

Entity Descrição
Replicação A replicação é um recurso do Cloud Data Fusion que permite replicar dados continuamente com baixa latência de repositórios operacionais para data warehouses analíticos. Crie um job de replicação configurando uma origem e um destino com transformações opcionais.
Origem Lê eventos de alteração de banco de dados, tabela ou coluna e os torna disponíveis para processamento adicional em um job de replicação. Um o job de replicação contém uma fonte, que depende de uma solução de captura de alterações para fornecer as mudanças. Pode haver várias fontes para um banco de dados, cada uma com uma solução de captura de alterações diferente. Uma origem é um módulo conectável criado usando um plug-in do CDAP. Se a origem não estiver disponível para atender às suas necessidades, crie sua própria implementando a interface de origem e faça upload dela para o CDAP ou o Cloud Data Fusion.
Target Grava alterações recebidas de uma origem em um banco de dados de destino. Um job de replicação contém um destino. Um destino é um módulo conectável criado usando o plug-in do CDAP. Se um destino não estiver disponível para atender às suas necessidades, crie sua própria implementação da interface de destino e faça upload dela para o CDAP ou o Cloud Data Fusion.
Propriedades de origem Configura a origem, incluindo detalhes da conexão, nomes do banco de dados e da tabela de origem, credenciais e outras propriedades.
Propriedades de destino Configura o destino, incluindo detalhes de conexão, nomes de banco de dados e tabelas de destino, credenciais e outras propriedades.
Propriedades do job de replicação Configura o job de replicação, incluindo limites de falha, áreas de teste, notificações e configurações de validação.
Rascunho Um job de replicação salvo e parcialmente concluído. Quando o a definição do job de replicação estiver concluída. Ele pode ser iniciado.
Eventos Altere os eventos na origem a serem replicados para o destino. Eventos incluem inserções, atualizações, exclusões e DDL (linguagem de definição de dados) mudanças.
Inserir Adição de novos registros à origem.
Atualizar Atualize para os registros atuais na origem.
Excluir Remoção de registros existentes na origem.
Alteração do DDL Um evento que contém uma alteração de esquema, como uma alteração no tipo ou no nome dos dados.
Registros Os registros operacionais de um job de replicação.
Detalhes do job de replicação Uma página de detalhes com informações do job de replicação, como estado atual, métricas operacionais, visualização histórica ao longo do tempo, validação os resultados e a configuração deles.
Painel Uma página que lista o estado de todas as atividades de captura de dados de alteração, incluindo capacidade, latência, taxas de falha e resultados de validação.

Ações

Ações Descrição
Implantar Criar um novo job de replicação seguindo uma interface da Web para especificar uma origem, um destino e a configuração deles.
Salvar Salvar um job de replicação parcialmente criado para retomar criação mais tarde.
Excluir Excluir um job de replicação atual. Somente pipelines interrompidos podem ser excluídos.
Iniciar Iniciar um job de replicação. Se houver mudanças a serem processado, o trabalho de replicação entra no estado "ativo". Caso contrário, ele entrará no estado "waiting".
Parar Interrompendo um job de replicação. O job de replicação interrompe o processamento de alterações da origem.
Ver registros Visualização de registros de um job de replicação para depuração ou outras análises.
Pesquisar Procurar um job de replicação pelo nome, descrição ou outros metadados do job de replicação.
Avaliar Avaliação do impacto da replicação antes do início da replicação A avaliação de um job de replicação gera um relatório de avaliação que sinaliza incompatibilidades do esquema e recursos ausentes.

Monitoramento

Estados de replicador Descrição
Implantado O job de replicação está implantado, mas não iniciado. Nesse estado, um job de replicação não replica eventos.
Iniciando O job de replicação está sendo inicializado e não para replicar as alterações.
Em execução O job de replicação é iniciado e está replicando mudanças.
Interrompendo O job de replicação está parando.
Interrompida O job de replicação foi interrompido.
Falha O job de replicação falhou devido a erros fatais.

Estados da tabela

Conceito Descrição
Snapshots O job de replicação está tirando um snapshot da região estado da tabela antes de replicar as alterações.
Replicando O job de replicação está replicando alterações da origem na tabela de destino.
Com falha O job de replicação não está conseguindo replicar as alterações da tabela de origem devido a um erro.

Métrica

Conceito Descrição
Inserção O número de inserções aplicadas à meta no período selecionado.
Atualizações O número de atualizações aplicadas à meta no período selecionado.
Exclusões O número de exclusões aplicadas à meta no período selecionado.
DDLs O número de alterações em DDL aplicadas ao destino no período selecionado.
Capacidade O número de eventos e o número de bytes replicados para o destino no período selecionado.
Latência A latência em que os dados são replicados para o destino no período selecionado.

Componentes

Componente Descrição
Serviço Supervisiona a orquestração completa de jobs de replicação, e fornece recursos para projetar, implantar, gerenciar e monitoramento dos jobs de replicação. Ele é executado no projeto de locatário do Cloud Data Fusion (o projeto de locatário fica oculto para o usuário). O status é exibido na página **System Admin** do usando a interface da Web do Cloud Data Fusion.
Gerenciamento do estado O serviço gerencia o estado de cada job de replicação em um do bucket do Cloud Storage no projeto do cliente. O bucket pode ser configurados quando o job de replicação é criado. Ele armazena os deslocamentos atuais e o estado de replicação de cada de replicação do job.
Execução Os clusters do Dataproc oferecem o ambiente de execução que são executados no seu projeto. jobs de replicação são executados usando Workers do CDAP. O tamanho e as características da execução de rede são configurados com perfis do Compute Engine.
Banco de dados de origem Seu banco de dados operacional de produção que é replicado no banco de dados de destino. Esse banco de dados pode estar no local ou no Google Cloud. O Cloud Data Fusion Replication é compatível com bancos de dados MySQL, Microsoft SQL Server e Oracle.
Alterar solução de rastreamento Em vez de ser executado em um agente executado no banco de dados de origem, o Cloud Data Fusion conta com uma solução de rastreamento de alterações para ler as alterações no banco de dados de origem. A solução pode ser um componente do banco de dados de origem ou uma solução de terceiros licenciada separadamente. No último caso, a solução de rastreamento de alterações é executada no local, co-localizada com o banco de dados de origem ou no Google Cloud. Cada origem precisa estar associada a uma solução de rastreamento de alterações.
  1. SQL Server
    • Solução compatível: SQL Server CDC (alterar tabelas de acompanhamento)
    • Software adicional:não
    • Licença/custo: N/A
    • Comentários: disponível no SQL Server 2016 e posterior
  2. MySQL
  3. Oracle
Banco de dados de destino O local de destino para replicação e análise. O Cloud Data Fusion é compatível com o banco de dados de destino do BigQuery.
Authentication Os mecanismos de autenticação variam de acordo com o banco de dados de origem ou com o software de rastreamento de alterações. Ao usar os recursos integrados de bancos de dados de origem, como o SQL Server e o MySQL, os logins de banco de dados são usados para autenticação. Ao utilizar um software de acompanhamento de alterações, o mecanismo de autenticação do software.

Conectividade

A tabela a seguir descreve as conexões de rede necessárias para replicação e os mecanismos de segurança que eles usam.

De To Opcional Protocolo Rede Segurança da autenticação Finalidade
Serviço (locatário do projeto) DB de origem Sim Depende da origem da replicação. JDBC para conexão direta com o banco de dados. Peering + regras de firewall + VPN/Interconexão + roteador Login no banco de dados Necessário desde a concepção, não a execução Funções de tempo: listagem de tabela, avaliação (etapas opcionais, replicação possível sem elas)
Serviço (locatário do projeto) Cloud Storage Não Cloud API VPC-SC IAM Gerenciamento de estados: deslocamentos e estados de replicação
Dataproc (seu projeto) DB de origem Não Depende da origem. JDBC para conexão direta com o banco de dados. Peering + regras de firewall + VPN/Interconexão + roteador Login no banco de dados Necessárias no momento da execução para ler as alterações do banco de dados de origem para replicar para o destino
Dataproc (seu projeto) Cloud Storage Não Cloud API VPC-SC IAM Gerenciamento de estados: deslocamentos e estados de replicação
Dataproc (seu projeto) BigQuery Não Cloud API VPC-SC IAM Necessário no momento da execução para aplicar alterações do banco de dados de origem ao destino

A seguir