Você está visualizando a documentação de uma versão anterior do GKE On-Prem. Veja a documentação mais recente.

Como excluir um cluster de usuário

Nesta página, descrevemos como excluir um cluster de usuário do GKE On-Prem.

Visão geral

O GKE On-Prem oferece suporte à exclusão de clusters de usuário íntegros por meio de gkectl. Se o cluster não estiver íntegro (por exemplo, se o plano de controle estiver inacessível ou se o cluster falhar na inicialização), consulte Como excluir manualmente um cluster de usuário.

Como excluir um cluster de usuário

Execute este comando:

gkectl delete cluster \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--cluster [CLUSTER_NAME]

em que [ADMIN_CLUSTER_KUBECONFIG] é o arquivo kubeconfig do cluster de administrador e [CLUSTER_NAME] é o nome do cluster de usuário que você quer excluir.

Depois de terminar

Depois que o gkectl terminar de excluir o cluster de usuário, exclua o kubeconfig do cluster de usuário.

Problemas conhecidos

Uma VM de plano de controle de usuário adicional pode ser criada no vSphere após a exclusão do cluster. Verifique se todas as VMs de cluster de usuário foram excluídas executando as etapas a seguir:

  1. No menu Navegador do lado esquerdo do Cliente da Web do vSphere, clique no menu Hosts e clusters.
  2. Encontre seu pool de recursos.
  3. Não deve haver VMs com o prefixo do nome do cluster de usuário.

Se houver VMs de cluster de usuários restantes, execute as etapas a seguir no cliente da Web do vSphere:

  1. Clique com o botão direito do mouse na VM do cluster de usuários e selecione Ligar/Desligar. Desligar.
  2. Quando a VM estiver desativada, clique com o botão direito na VM e selecione Excluir do disco.

Resolver problemas

Para mais informações, consulte Solução de problemas.

Como diagnosticar problemas de cluster usando gkectl

Use os comandos gkectl diagnose para identificar problemas de cluster e compartilhar informações do cluster com o Google. Consulte Como diagnosticar problemas de cluster.

Como executar comandos gkectl de forma detalhada

-v5

Como registrar erros gkectl em stderr

--alsologtostderr

Como localizar registros gkectl na estação de trabalho do administrador

Mesmo que você não passe as sinalizações de depuração, é possível ver os registros gkectl no seguinte diretório da estação de trabalho do administrador:

/home/ubuntu/.config/syllogi/logs

Como localizar registros da API Cluster no cluster de administrador

Se uma VM não for iniciada após o início do plano de controle do administrador, tente depurar isso inspecionando os registros dos controladores da API Cluster no cluster de administrador:

  1. Encontre o nome do pod de controladores da API Cluster no namespace kube-system, em que [ADMIN_CLUSTER_KUBECONFIG] é o caminho para o arquivo kubeconfig do cluster de administrador:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
  2. Abra os registros do pod, em que [POD_NAME] é o nome do pod. Opcionalmente, use grep ou uma ferramenta semelhante para pesquisar erros:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager