Como excluir um cluster de administrador

Nesta página, descrevemos como excluir um cluster de administrador do Anthos GKE On-Prem (GKE On-Prem).

Antes de começar

Antes de excluir um cluster de administrador, siga estas etapas:

  • Exclua os clusters de usuário. Consulte Como excluir um cluster de usuários.
  • Exclua todas as cargas de trabalho que usam PodDisruptionBudgets (PDBs) do cluster de administrador.
  • Exclua todos os objetos externos, como PersistentVolumes, do cluster de administração.
  • Defina uma variável de ambiente KUBECONFIG que aponte para o kubeconfig do cluster de administrador que você quer excluir:

    export KUBECONFIG=[ADMIN_CLUSTER_KUBECONFIG]
    

    em que [ADMIN_CLUSTER_KUBECONFIG] é o caminho do arquivo kubeconfig do cluster de administrador.

Como excluir registros e monitoramento

Os pods de geração de registros e monitoramento do GKE On-Prem, implantados a partir de StatefulSets, usam PDBs que podem impedir que os nós sejam drenados corretamente. Para excluir corretamente um cluster de administrador, é preciso excluir esses pods.

Para excluir pods de registro e monitoramento, execute os seguintes comandos:

kubectl delete monitoring --all -n kube-system
kubectl delete stackdriver --all -n kube-system

A exclusão do monitoramento limpa os PersistentVolumes (PVs) associados a StatefulSets, mas o PersistentVolume para Stackdriver precisa ser excluído separadamente.

A exclusão do PVs do Stackdriver é opcional. Se você optar por não excluir o PV, registre o local e o nome do PV associado em um local externo fora do cluster do usuário.

A exclusão do PV será propagada por meio da exclusão da reivindicação de volume permanente (PVC, na sigla em inglês).

Para encontrar o PVC do Stackdriver, execute o seguinte comando:

kubectl get pvc -n kube-system

Para excluir o PVC, execute o seguinte comando:

kubectl delete pvc -n kube-system [PVC_NAME]

Como verificar que a geração de registros e o monitoramento foram excluídos

Para verificar se a geração de registros e o monitoramento foram removidos, execute os seguintes comandos:

kubectl get pvc -n kube-system
kubectl get statefulsets -n kube-system

Como limpar a partição F5 de um cluster de administrador

A exclusão do namespace gke-system do cluster de administrador garante a limpeza adequada da partição F5, permitindo que você reutilize a partição para outro cluster de administrador.

Para excluir o namespace gke-system, execute o seguinte comando:

kubectl delete ns gke-system

Em seguida, exclua os serviços restantes do tipo LoadBalancer. Para listar todos os serviços, execute o seguinte comando:

kubectl get services --all-namespaces

Para cada serviço do tipo LoadBalancer, exclua-o executando o seguinte comando:

kubectl delete service [SERVICE_NAME] -n [SERVICE_NAMESPACE]

Em seguida, no console F5 BIG-IP:

  1. No canto superior direito do console, alterne para a partição para limpar.
  2. Selecione Tráfego local > Servidores virtuais > Lista de servidores virtuais.
  3. No menu Servidores virtuais, remova todos os IPs virtuais.
  4. Selecione Pools e exclua todos os pools.
  5. Selecione Nós e exclua todos os nós.

Como verificar se a partição F5 está limpa

CLI

Verifique se o VIP está inativo executando o seguinte comando:

ping -c 1 -W 1 [F5_LOAD_BALANCER_IP]; echo $?

que retornará 1 se o VIP estiver inativo.

IU F5

Para verificar se a partição foi limpa na interface do usuário F5, execute as seguintes etapas:

  1. No canto superior direito, clique no menu suspenso Partição. Selecione a partição do seu cluster de administrador.
  2. No menu Principal à esquerda, selecione Tráfego local > Mapa de rede. Não haverá nada listado abaixo do mapa da rede de trânsito local.
  3. Em Tráfego local > Servidores virtuais, selecione Nós e, em seguida, Lista de nós. Não haverá nada listado aqui.

Se houver alguma entrada restante, exclua-as manualmente da IU.

Como desligar máquinas de nó de administrador

Para excluir as máquinas de nós do plano de controle do administrador, é necessário desativar cada uma das VMs de administrador restantes no pool de recursos do vSphere.

IU do vSphere

Siga as etapas abaixo:

  1. No menu do vSphere, selecione a VM no pool de recursos do Vsphere
  2. Na parte superior do menu da VM, clique em Ações.
  3. Selecione Ligar/Desligar > Desligar. Pode levar alguns minutos para que a VM seja desligada.

Como excluir máquinas de nós de administrador

Depois que a VM for desligada, será possível excluí-la.

IU do vSphere

Siga as etapas abaixo:

  1. No menu do vSphere, selecione a VM no pool de recursos do Vsphere
  2. Na parte superior do menu da VM, clique em Ações.
  3. Clique em Excluir do disco.

Depois de terminar

Depois de excluir o cluster de administrador, exclua o kubeconfig dele.

Resolver problemas

Para mais informações, consulte Solução de problemas.

Como diagnosticar problemas de cluster usando gkectl

Use os comandos gkectl diagnose para identificar problemas de cluster e compartilhar informações do cluster com o Google. Consulte Como diagnosticar problemas de cluster.

Como executar comandos gkectl de forma detalhada

-v5

Como registrar erros gkectl em stderr

--alsologtostderr

Como localizar registros gkectl na estação de trabalho do administrador

Mesmo que você não passe as sinalizações de depuração, é possível ver os registros gkectl no seguinte diretório da estação de trabalho de administrador:

/home/ubuntu/.config/syllogi/logs

Como localizar registros da API Cluster no cluster de administrador

Se uma VM não for iniciada após o início do plano de controle do administrador, será possível tentar depurar isso inspecionando os registros dos controladores da API Cluster no cluster de administrador:

  1. Encontre o nome do pod de controladores da API Cluster no namespace kube-system, em que [ADMIN_CLUSTER_KUBECONFIG] é o caminho para o arquivo kubeconfig do cluster de administrador:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
  2. Abra os registros do pod, em que [POD_NAME] é o nome do pod. Opcionalmente, use grep ou uma ferramenta semelhante para pesquisar erros:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager