Nesta página, descrevemos como excluir um cluster de usuário do GKE On-Prem.
Visão geral
O GKE On-Prem oferece suporte à exclusão de clusters de usuário íntegros por meio de gkectl
.
Se o cluster não estiver íntegro (por exemplo, se o plano de controle estiver inacessível ou se o cluster falhar na inicialização), consulte Como excluir manualmente um cluster de usuário.
Como excluir um cluster de usuário
Execute este comando:
gkectl delete cluster \ --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \ --cluster [CLUSTER_NAME]
em que [ADMIN_CLUSTER_KUBECONFIG] é o arquivo kubeconfig do cluster de administrador e [CLUSTER_NAME] é o nome do cluster de usuário que você quer excluir.
Depois de terminar
Depois que o gkectl terminar de excluir o cluster de usuário, exclua o kubeconfig do cluster de usuário.
Problemas conhecidos
Uma VM de plano de controle de usuário adicional pode ser criada no vSphere após a exclusão do cluster. Verifique se todas as VMs de cluster de usuário foram excluídas executando as etapas a seguir:
- No menu Navegador do lado esquerdo do Cliente da Web do vSphere, clique no menu Hosts e clusters.
- Encontre seu pool de recursos.
- Não deve haver VMs com o prefixo do nome do cluster de usuário.
Se houver VMs de cluster de usuários restantes, execute as etapas a seguir no cliente da Web do vSphere:
- Clique com o botão direito do mouse na VM do cluster de usuários e selecione Ligar/Desligar. Desligar.
- Quando a VM estiver desativada, clique com o botão direito na VM e selecione Excluir do disco.
Solução de problemas
Para mais informações, consulte Solução de problemas.
Como diagnosticar problemas de cluster usando gkectl
Use os comandos gkectl diagnose
para identificar problemas de cluster
e compartilhar informações do cluster com o Google. Consulte
Como diagnosticar problemas de cluster.
Comportamento de geração de registros padrão
Para gkectl
e gkeadm
, basta usar as configurações de
geração de registros padrão:
-
Por padrão, as entradas de registro são salvas da seguinte maneira:
-
Para
gkectl
, o arquivo de registros padrão é/home/ubuntu/.config/gke-on-prem/logs/gkectl-$(date).log
e está vinculado ao arquivologs/gkectl-$(date).log
no diretório local em que você executagkectl
. -
Para
gkeadm
, o arquivo de registros padrão élogs/gkeadm-$(date).log
no diretório local em que você executagkeadm
.
-
Para
- Todas as entradas de registro são salvas no arquivo de registros, mesmo que não sejam
impressas no terminal (quando
--alsologtostderr
éfalse
). - O nível de detalhamento
-v5
(padrão) abrange todas as entradas de registro exigidas pela equipe de suporte. - O arquivo de registros também contém o comando executado e a mensagem de erro.
Recomendamos que você envie o arquivo de registros para a equipe de suporte quando precisar de ajuda.
Como especificar um local não padrão para o arquivo de registros
Se quiser especificar um local não padrão para o arquivo de registros gkectl
, use
a sinalização --log_file
. O arquivo de registro que você especificar não
será vinculado ao diretório local.
Se quiser especificar um local não padrão para o arquivo de registros gkeadm
, use
a sinalização --log_file
.
Como localizar registros da API Cluster no cluster de administrador
Se uma VM não for iniciada após o início do plano de controle do administrador, tente depurar isso inspecionando os registros dos controladores da API Cluster no cluster de administrador:
Encontre o nome do pod de controladores da API Cluster no namespace
kube-system
, em que [ADMIN_CLUSTER_KUBECONFIG] é o caminho para o arquivo kubeconfig do cluster de administrador:kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
Abra os registros do pod, em que [POD_NAME] é o nome do pod. Opcionalmente, use
grep
ou uma ferramenta semelhante para pesquisar erros:kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager