Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Depois de implantar um job de replicação, não é possível editar ou adicionar tabelas a ele. Em vez disso, adicione as tabelas a um job de replicação novo ou duplicado.
Opção 1: criar um job de replicação
Adicionar tabelas a um novo job é a abordagem mais simples. Ele evita o recarregamento
histórico de todas as tabelas e evita problemas de inconsistência de dados.
As desvantagens são o aumento da sobrecarga de gerenciamento de vários
jobs de replicação e o consumo de mais recursos de computação, já que
cada job é executado em um cluster efémero do Dataproc por
padrão. O último pode ser mitigado em certa medida usando um cluster estático
compartilhado do Dataproc para os dois jobs.
Opção 2: interromper o job de replicação atual e criar uma cópia
Se você duplicar o job de replicação para adicionar as tabelas, considere o
seguinte:
Ativar o snapshot para o job duplicado resulta no carregamento histórico de
todas as tabelas do zero. Isso é recomendado se você não puder usar a
opção anterior, em que você executa jobs separados.
Desativar o snapshot para impedir a carga histórica pode resultar na perda de dados, já que podem ocorrer eventos perdidos entre o momento em que o pipeline antigo é interrompido e
o novo é iniciado. Não é recomendado criar uma sobreposição para atenuar esse problema, porque isso também pode resultar na perda de dados. Os dados históricos das novas
tabelas não são replicados.
Para criar um job de replicação duplicado, siga estas etapas:
Pare o pipeline atual.
Na página "Jobs de replicação", localize o job que você quer duplicar, clique em more_vert e em Duplicar.
Ative o snapshot:
Acesse Configurar origem.
No campo Replicar dados atuais, selecione Sim.
Adicione tabelas na janela Selecionar tabelas e transformações e siga o
assistente para implantar o pipeline de replicação.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-09-04 UTC."],[[["\u003cp\u003eYou cannot directly edit or add tables to an existing replication job after deployment; instead, you must create a new or duplicate job.\u003c/p\u003e\n"],["\u003cp\u003eCreating a new replication job to add tables is the preferred method as it prevents historical reloading and data inconsistency issues, but it increases overhead and resource consumption.\u003c/p\u003e\n"],["\u003cp\u003eDuplicating a replication job to add tables requires careful consideration of snapshot settings, as enabling the snapshot triggers a full historical reload, while disabling it can lead to data loss.\u003c/p\u003e\n"],["\u003cp\u003eRunning duplicate replication jobs against the same target BigQuery dataset as the original job should be avoided, as it can cause data inconsistency.\u003c/p\u003e\n"],["\u003cp\u003eUsing a shared static Dataproc cluster can help mitigate the increased compute resource usage associated with running multiple replication jobs.\u003c/p\u003e\n"]]],[],null,["# Add tables to a replication job\n\nAfter you deploy a replication job, you cannot edit or add tables to\nit. Instead, add the tables to a new or duplicate replication job.\n\nOption 1: Create a new replication job\n--------------------------------------\n\nAdding tables to a new job is the simplest approach. It prevents historical\nreloading of all the tables and prevents data inconsistency issues.\n\nThe drawbacks are the increased overhead of managing multiple\nreplication jobs and the consumption of more compute resources, as\neach job runs on a separate ephemeral Dataproc cluster by\ndefault. The latter can be mitigated to some extent by using a shared static\nDataproc cluster for both jobs.\n\nFor more information about creating new jobs, see the\n[Replication tutorials](/data-fusion/docs/how-to/using-replication).\n\nFor more information about using static Dataproc cluster in\nCloud Data Fusion, see\n[Run a pipeline against an existing Dataproc cluster](/data-fusion/docs/how-to/running-against-existing-dataproc)\n\nOption 2: Stop the current replication job and create a duplicate\n-----------------------------------------------------------------\n\nIf you duplicate the replication job to add the tables, consider the\nfollowing:\n\n- Enabling the snapshot for the duplicate job results in the historical load of\n all the tables from scratch. This is recommended if you cannot use the\n previous option, where you run separate jobs.\n\n- Disabling the snapshot to prevent the historical load can result in data\n loss, as there could be missed events between when the old pipeline stops and\n the new one starts. Creating an overlap to mitigate this issue isn't\n recommended, as it can also result in data loss---historical data for the new\n tables isn't replicated.\n\nTo create a duplicate replication job, follow these steps:\n\n1. Stop the existing pipeline.\n\n2. From the Replication jobs page, locate the job that you want to duplicate,\n click more_vert and\n **Duplicate**.\n\n3. Enable the snapshot:\n\n 1. Go to **Configure source**.\n 2. In the **Replicate existing data** field, select **Yes**.\n4. Add tables in the **Select tables and transformations** window and follow the\n wizard to deploy the replication pipeline.\n\n| **Note:** If you run a duplicate replication job against the same target BigQuery dataset as the original job, don't run the original job again, as it can cause data inconsistency.\n\nWhat's next\n-----------\n\n- Learn more about [Replication](/data-fusion/docs/concepts/replication)."]]