Borra un clúster de administrador

En esta página, se describe cómo borrar un clúster de administrador de Anthos GKE On-prem (GKE On-Prem).

Antes de comenzar

Antes de borrar un clúster de administrador, completa los siguientes pasos:

  • Borra los clústeres de usuarios. Consulta Borra un clúster de usuario.
  • Borra cualquier carga de trabajo que use PodDisruptionBudgets (PDB) del clúster de administrador.
  • Borra todos los objetos externos, como PersistentVolumes, del clúster de administrador.
  • Configura una variable de entorno KUBECONFIG que apunte al kubeconfig del clúster de administrador que deseas borrar:

    export KUBECONFIG=[ADMIN_CLUSTER_KUBECONFIG]
    

    En el comando anterior, [ADMIN_CLUSTER_KUBECONFIG] es la ruta del archivo kubeconfig del clúster del administrador.

Borra el registro y la supervisión

Los Pods de supervisión y registro de GKE On-Prem, que se implementaron desde StatefulSets, usan PDB que pueden evitar que los nodos se desvíen de forma correcta. Para borrar de forma correcta un clúster de administrador, debes borrar estos Pods.

Para borrar Pods de registro y supervisión, ejecuta los siguientes comandos:

kubectl delete monitoring --all -n kube-system
kubectl delete stackdriver --all -n kube-system

Borrar la supervisión limpia los PersistentVolumes (PV) asociados con los StatefulSets, pero el PersistentVolume para Stackdriver debe borrarse por separado.

La eliminación del PV de Stackdriver es opcional. Si decides no borrar el PV, registra la ubicación y el nombre del PV asociado en una ubicación externa fuera del clúster de usuario.

La eliminación del PV se propaga mediante la eliminación de la Reclamación de volúmenes persistentes (PVC).

Para encontrar la PVC de Stackdriver, ejecuta el siguiente comando:

kubectl get pvc -n kube-system

Para borrar la PVC, ejecuta el siguiente comando:

kubectl delete pvc -n kube-system [PVC_NAME]

Verifica que se hayan quitado el registro y la supervisión

Para verificar que se hayan quitado los registros y la supervisión, ejecuta los siguientes comandos:

kubectl get pvc -n kube-system
kubectl get statefulsets -n kube-system

Limpia la partición F5 de un clúster de administrador

Borrar el espacio de nombres gke-system del clúster de administrador garantiza la limpieza adecuada de la partición F5, lo que te permite reutilizar la partición para otro clúster de administrador.

Para borrar el espacio de nombres gke-system, ejecuta el siguiente comando:

kubectl delete ns gke-system

Luego, borra los servicios restantes de tipo LoadBalancer. Para mostrar en una lista todos los servicios, ejecuta el siguiente comando:

kubectl get services --all-namespaces

Por cada servicio de tipo LoadBalancer, ejecuta el siguiente comando para borrarlo:

kubectl delete service [SERVICE_NAME] -n [SERVICE_NAMESPACE]

Luego, desde la consola BIG-IP de F5

  1. En la esquina superior derecha de la consola, cambia a la partición para limpiarla.
  2. Selecciona Tráfico local > Servidores virtuales > Lista de servidores virtuales.
  3. En el menú Servidores virtuales, quita todas las IP virtuales.
  4. Selecciona Grupos y, luego, bórralos a todos.
  5. Selecciona Nodos y, luego, bórralos a todos.

Verifica que la partición F5 esté limpia

CLI

Ejecuta el siguiente comando para verificar que el VIP esté inactivo:

ping -c 1 -W 1 [F5_LOAD_BALANCER_IP]; echo $?

que mostrará 1 si el VIP está inactivo.

IU de F5

Para verificar que la partición se haya limpiado de la interfaz de usuario de F5, sigue estos pasos:

  1. En la esquina superior derecha, haz clic en el menú desplegable Partición. Selecciona la partición de tu clúster de administrador.
  2. En el menú principal de la izquierda, selecciona Tráfico local > Mapa de la red. No debe aparecer nada debajo del mapa de la red de tráfico local.
  3. En Tráfico local > Servidores virtuales, selecciona Nodos y, luego, Lista de nodos. No debería haber nada aquí.

Si hay entradas restantes, bórralas de forma manual de la IU.

Apaga las máquinas del nodo del administrador

Para borrar las máquinas del nodo del plano de control del administrador, debes apagar todas las VM de administrador restantes en tu grupo de recursos de vSphere.

IU de vSphere

Sigue los siguientes pasos:

  1. En el menú de vSphere, selecciona la VM del grupo de recursos de Vsphere.
  2. En la parte superior del menú de VM, haz clic en Acciones.
  3. Selecciona Apagar > Apagar. Es posible que la VM tarde unos minutos en apagarse.

Borra las máquinas del nodo del administrador

Cuando la VM se haya apagado, puedes borrarla.

IU de vSphere

Sigue los siguientes pasos:

  1. En el menú de vSphere, selecciona la VM del grupo de recursos de Vsphere.
  2. En la parte superior del menú de VM, haz clic en Acciones.
  3. Haz clic en Borrar del disco.

Después de haber terminado

Cuando termines de borrar el clúster de administrador, borra su kubeconfig.

Soluciona problemas

Para obtener más información, consulta Solución de problemas.

Diagnostica problemas de clústeres mediante gkectl

Usa los comandos gkectl diagnose para identificar los problemas de clústeres y compartir la información de un clúster con Google. Consulta Diagnostica problemas del clúster.

Ejecuta comandos de gkectl de forma detallada

-v5

Registra errores de gkectl en stderr

--alsologtostderr

Ubica los registros de gkectl en la estación de trabajo del administrador

Incluso si no pasas sus marcas de depuración, puedes ver los registros gkectl en el siguiente directorio de la estación de trabajo del administrador:

/home/ubuntu/.config/syllogi/logs

Ubica los registros de la API del clúster en el clúster del administrador

Si una VM no se inicia después de que se inicie el plano de control del administrador, puedes intentar depurar esto mediante la inspección de los registros de los controladores de la API del clúster en el clúster de administrador:

  1. Encuentra el nombre del pod de controladores de la API del clúster en el espacio de nombres kube-system, en el que [ADMIN_CLUSTER_KUBECONFIG] es la ruta de acceso al archivo kubeconfig del clúster del administrador:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
  2. Abre los registros del pod, en los que [POD_NAME] es el nombre del pod. De manera opcional, usa grep o una herramienta similar para buscar errores:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager