Como excluir um cluster de usuário

Nesta página, descrevemos como excluir um cluster de usuário do GKE On-Prem.

Visão geral

O GKE On-Prem oferece suporte à exclusão de clusters de usuário íntegros por meio de gkectl. Se o cluster não estiver íntegro (por exemplo, se o plano de controle estiver inacessível ou se o cluster falhar na inicialização), consulte Como excluir manualmente um cluster de usuário.

Como excluir um cluster de usuário

Execute este comando:

gkectl delete cluster \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--cluster [CLUSTER_NAME]

em que [ADMIN_CLUSTER_KUBECONFIG] é o arquivo kubeconfig do cluster de administrador e [CLUSTER_NAME] é o nome do cluster de usuário que você quer excluir.

Depois de terminar

Depois que o gkectl terminar de excluir o cluster de usuário, exclua o kubeconfig do cluster de usuário.

Problemas conhecidos

Uma VM de plano de controle de usuário adicional pode ser criada no vSphere após a exclusão do cluster. Verifique se todas as VMs de cluster de usuário foram excluídas executando as etapas a seguir:

  1. No menu Navegador do lado esquerdo do Cliente da Web do vSphere, clique no menu Hosts e clusters.
  2. Encontre seu pool de recursos.
  3. Não deve haver VMs com o prefixo do nome do cluster de usuário.

Se houver VMs de cluster de usuários restantes, execute as etapas a seguir no cliente da Web do vSphere:

  1. Clique com o botão direito do mouse na VM do cluster de usuários e selecione Ligar/Desligar. Desligar.
  2. Quando a VM estiver desativada, clique com o botão direito na VM e selecione Excluir do disco.

Solução de problemas

Para mais informações, consulte Solução de problemas.

Como diagnosticar problemas de cluster usando gkectl

Use os comandos gkectl diagnose para identificar problemas de cluster e compartilhar informações do cluster com o Google. Consulte Como diagnosticar problemas de cluster.

Comportamento de geração de registros padrão

Para gkectl e gkeadm, basta usar as configurações de geração de registros padrão:

  • Por padrão, as entradas de registro são salvas da seguinte maneira:

    • Para gkectl, o arquivo de registros padrão é /home/ubuntu/.config/gke-on-prem/logs/gkectl-$(date).log e está vinculado ao arquivo logs/gkectl-$(date).log no diretório local em que você executa gkectl.
    • Para gkeadm, o arquivo de registros padrão é logs/gkeadm-$(date).log no diretório local em que você executa gkeadm.
  • Todas as entradas de registro são salvas no arquivo de registros, mesmo que não sejam impressas no terminal (quando --alsologtostderr é false).
  • O nível de detalhamento -v5 (padrão) abrange todas as entradas de registro exigidas pela equipe de suporte.
  • O arquivo de registros também contém o comando executado e a mensagem de erro.

Recomendamos que você envie o arquivo de registros para a equipe de suporte quando precisar de ajuda.

Como especificar um local não padrão para o arquivo de registros

Se quiser especificar um local não padrão para o arquivo de registros gkectl, use a sinalização --log_file. O arquivo de registro que você especificar não será vinculado ao diretório local.

Se quiser especificar um local não padrão para o arquivo de registros gkeadm, use a sinalização --log_file.

Como localizar registros da API Cluster no cluster de administrador

Se uma VM não for iniciada após o início do plano de controle do administrador, tente depurar isso inspecionando os registros dos controladores da API Cluster no cluster de administrador:

  1. Encontre o nome do pod de controladores da API Cluster no namespace kube-system, em que [ADMIN_CLUSTER_KUBECONFIG] é o caminho para o arquivo kubeconfig do cluster de administrador:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
  2. Abra os registros do pod, em que [POD_NAME] é o nome do pod. Opcionalmente, use grep ou uma ferramenta semelhante para pesquisar erros:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager