Gerenciar upgrades de versão para instâncias e pipelines

Nesta página, descrevemos como fazer upgrade da versão de instâncias ou de pipelines de dados.

Faça upgrade das instâncias do Cloud Data Fusion e dos pipelines em lote para a versão mais recente de plataforma e de plug-in para os recursos mais recentes, correções de bugs e desempenho melhorias.

Antes de começar

  • Planeje um período de inatividade programado para o upgrade. O processo leva até uma hora.
  • In the Google Cloud console, activate Cloud Shell.

    Activate Cloud Shell

Limitações

  • Depois de criar uma instância do Cloud Data Fusion, não é possível alterar o mesmo com uma operação de upgrade.

  • Não é possível fazer upgrade de pipelines em tempo real, exceto em pipelines criados na versão 6.8.0 com uma origem em tempo real do Kafka. Para uma solução alternativa, consulte Fazer upgrade de pipelines em tempo real.

  • O Cloud Data Fusion não reinicia pipelines que param como resultado de a operação de upgrade.

Fazer upgrade das instâncias do Cloud Data Fusion

Para fazer upgrade de uma instância do Cloud Data Fusion para uma nova versão do Cloud Data Fusion, acesse a página Detalhes da instância:

  1. No console do Google Cloud, acesse a página do Cloud Data Fusion.

  2. Clique em Instâncias e no nome da instância para acessar a página Detalhes da instância.

    Acesse "Instâncias"

Em seguida, realize o upgrade usando o console do Google Cloud ou a CLI gcloud:

Console

  1. Clique em Fazer upgrade para ver uma lista das versões disponíveis.

  2. Selecionar uma versão

  3. Clique em Fazer upgrade.

  4. Verifique se o upgrade foi concluído:

    1. Atualize a página Detalhes da instância.

    2. Clique em Visualizar instância para acessar a instância atualizada na interface da Web do Cloud Data Fusion.

    3. Clique em Administrador do sistema na barra de menus.

      O novo número da versão é exibido na parte superior da página.

  5. Para evitar que os pipelines fiquem travados quando forem executados na nova versão, conceda os papéis necessários na instância que recebeu o upgrade.

gcloud

  1. Para fazer upgrade para uma nova versão do Cloud Data Fusion, execute o seguinte: Comando da CLI gcloud em um terminal local Sessão do Cloud Shell:

      gcloud beta data-fusion instances update INSTANCE_ID \
        --project=PROJECT_ID \
        --location=LOCATION_NAME \
        --version=AVAILABLE_INSTANCE_VERSION
    
  2. Siga estas etapas para verificar se o upgrade foi concluído:

    1. No console do Google Cloud, acesse a página Instâncias do Cloud Data Fusion.

    2. Clique em Visualizar instância para acessar a instância atualizada na interface da Web do Cloud Data Fusion.

    3. Clique em System Admin na barra de menus.

      O novo número da versão é exibido na parte superior da página.

  3. Para evitar que seus pipelines fiquem travados ao executá-los na nova versão, conceda os papéis necessários na instância.

Atualizar pipelines em lote

Para fazer upgrade dos pipelines em lote do Cloud Data Fusion para usar as versões mais recentes do plug-in:

  1. Definir as variáveis de ambiente.

  2. Recomendado: faça backup de todos os pipelines. É possível fazer backup de pipelines de duas maneiras:

    • Faça o download do arquivo ZIP seguindo estas etapas:

      1. Para acionar o download de um arquivo ZIP, faça backup de todos os pipelines com o seguinte comando:
      echo $CDAP_ENDPOINT/v3/export/apps
      
      1. Copie a saída do URL no navegador.
      2. Extraia o arquivo do download e verifique se todos os pipelines foram exportados. Os pipelines são organizados por namespace.
    • Faça backup de pipelines usando o gerenciamento de controle de origem (SCM, na sigla em inglês), disponível na versão 6.9 e mais recentes. O SCM oferece integração com o GitHub, que pode ser usado para fazer backup de pipelines.

  3. Faça upgrade dos pipelines seguindo estas etapas:

    1. Crie uma variável que aponte para o arquivo pipeline_upgrade.json que você vai criar na próxima etapa para salvar uma lista de pipelines.

      export PIPELINE_LIST=PATH/pipeline_upgrade.json
      

      Substitua PATH pelo caminho do arquivo.

    2. Crie uma lista de todos os pipelines de uma instância e um namespace usando o comando abaixo. O resultado é armazenado no arquivo $PIPELINE_LIST no formato JSON. É possível editar a lista para remover os pipelines que não precisam de upgrades.

      curl -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" ${CDAP_ENDPOINT}/v3/namespaces/NAMESPACE_ID/apps -o $PIPELINE_LIST
      

      Substitua NAMESPACE_ID pelo namespace em que você quer que o para que o upgrade aconteça.

    3. Faça upgrade dos pipelines listados em pipeline_upgrade.json. Insira o NAMESPACE_ID de pipelines para upgrade. O comando exibe uma lista de pipelines atualizados com o status de upgrade.

      curl -N -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" ${CDAP_ENDPOINT}/v3/namespaces/NAMESPACE_ID/upgrade --data @$PIPELINE_LIST
      

      Substitua NAMESPACE_ID pelo ID do namespace dos pipelines que estão recebendo upgrades.

  4. Para evitar que os pipelines fiquem travados quando forem executados na nova versão, conceda os papéis necessários na instância atualizada.

Fazer upgrade de pipelines em tempo real

Não é possível fazer upgrade de pipelines em tempo real, exceto em pipelines criados na versão 6.8.0 com uma origem em tempo real do Kafka.

Para todo o restante, faça o seguinte:

  1. Pare e exporte os pipelines.
  2. Fazer upgrade da instância.
  3. Importar os pipelines em tempo real para a instância atualizada.

Fazer upgrade para ativar a replicação

A replicação pode ser ativada no Cloud Data Fusion do Google Cloud na versão 6.3.0 ou posterior. Se você tiver a versão 6.2.3, faça upgrade para 6.3.0 e faça upgrade para a versão mais recente. Em seguida, ative a replicação.

Concede papéis a instâncias atualizadas

Após a conclusão do upgrade, conceda Papel Executor do Cloud Data Fusion (roles/datafusion.runner) e Papel de administrador do Cloud Storage (roles/storage.admin) para a conta de serviço do Dataproc na sua projeto.

A seguir