Versión 1.0. Esta versión ya no se admite como se describe en la política de asistencia de la versión de Anthos. Actualiza a una versión compatible para obtener los parches y las actualizaciones más recientes sobre vulnerabilidades de seguridad, exposiciones y problemas que afectan a los clústeres de Anthos en VMware (GKE On-Prem). Puedes encontrar la versión más reciente aquí.

Borra un clúster de administrador

En esta página, se describe cómo borrar un clúster de administrador de GKE On-Prem.

Antes de comenzar

Antes de borrar un clúster de administrador, completa los siguientes pasos:

  • Borra los clústeres de usuarios. Consulta Borra un clúster de usuario.
  • Borra cualquier carga de trabajo que use PodDisruptionBudgets (PDB) del clúster de administrador.
  • Borra todos los objetos externos, como PersistentVolumes, del clúster de administrador.
  • Configura una variable de entorno KUBECONFIG que apunte al kubeconfig del clúster de administrador que deseas borrar:

    export KUBECONFIG=[ADMIN_CLUSTER_KUBECONFIG]
    

    En el comando anterior, [ADMIN_CLUSTER_KUBECONFIG] es la ruta del archivo kubeconfig del clúster de administrador.

Borra el registro y la supervisión

Los Pods de registro y supervisión de GKE On-Prem, que se implementaron desde StatefulSets, usan PDB que pueden evitar que los nodos se desvíen de forma correcta. Para borrar de forma correcta un clúster de administrador, debes borrar estos Pods.

Para borrar Pods de registro y supervisión, ejecuta los siguientes comandos:

kubectl delete monitoring --all -n kube-system
kubectl delete stackdriver --all -n kube-system

Borrar la supervisión limpia los PersistentVolumes (PV) asociados con los StatefulSets, pero el PersistentVolume para Stackdriver debe borrarse por separado.

La eliminación del PV de Stackdriver es opcional. Si decides no borrar el PV, registra la ubicación y el nombre del PV asociado en una ubicación externa fuera del clúster de usuario.

La eliminación del PV se propaga mediante la eliminación de la Reclamación de volúmenes persistentes (PVC).

Para encontrar la PVC de Stackdriver, ejecuta el siguiente comando:

kubectl get pvc -n kube-system

Para borrar la PVC, ejecuta el siguiente comando:

kubectl delete pvc -n kube-system [PVC_NAME]

Verifica que se hayan quitado el registro y la supervisión

Para verificar que se hayan quitado el registro y la supervisión, ejecuta los siguientes comandos:

kubectl get pvc -n kube-system
kubectl get statefulsets -n kube-system

Realiza una limpieza de la partición F5 de un clúster de administrador

Borrar el espacio de nombres gke-system del clúster de administrador garantiza la limpieza adecuada de la partición F5, lo que te permite volver a usar la partición para otro clúster de administrador.

Para borrar el espacio de nombres gke-system, ejecuta el siguiente comando:

kubectl delete ns gke-system

Luego, borra los servicios restantes de tipo LoadBalancer. Para mostrar en una lista todos los servicios, ejecuta el siguiente comando:

kubectl get services --all-namespaces

Por cada servicio de tipo LoadBalancer, ejecuta el siguiente comando para borrarlo:

kubectl delete service [SERVICE_NAME] -n [SERVICE_NAMESPACE]

Luego, desde la consola BIG-IP de F5, haz lo siguiente:

  1. En la esquina superior derecha de la consola, cambia a la partición para limpiarla.
  2. Selecciona Local Traffic > Virtual Servers > Virtual Server List.
  3. En el menú Virtual Servers, quita todas las IP virtuales.
  4. Selecciona Pools y, luego, bórralos a todos.
  5. Selecciona Nodes y, luego, bórralos a todos.

Verifica que la partición F5 esté limpia

CLI

Ejecuta el siguiente comando para verificar que el VIP esté inactivo:

ping -c 1 -W 1 [F5_LOAD_BALANCER_IP]; echo $?

En el comando anterior, se mostrará 1 si el VIP está inactivo.

IU de F5

Para verificar que la partición se haya limpiado de la interfaz de usuario de F5, sigue estos pasos:

  1. En la esquina superior derecha, haz clic en el menú desplegable Partition. Selecciona la partición de tu clúster de administrador.
  2. En el menú de la izquierda Main, selecciona Local Traffic > Network Map. No debe aparecer nada debajo del mapa de la red de tráfico local.
  3. En Local Traffic > Virtual Servers, selecciona Nodes y, luego, Nodes List. Aquí tampoco debería haber nada.

Si quedan entradas, bórralas de forma manual desde la IU.

Apaga las máquinas del nodo de administrador

Para borrar las máquinas del nodo del plano de control de administrador, debes apagar todas las VM de administrador restantes en tu grupo de recursos de vSphere.

IU de vSphere

Sigue los siguientes pasos:

  1. En el menú de vSphere, selecciona la VM del grupo de recursos de Vsphere.
  2. En la parte superior del menú de VM, haz clic en Actions.
  3. Selecciona Power > Power Off. Es posible que la VM tarde unos minutos en apagarse.

Borra las máquinas del nodo de administrador

Cuando la VM se haya apagado, puedes borrarla.

IU de vSphere

Sigue los siguientes pasos:

  1. En el menú de vSphere, selecciona la VM del grupo de recursos de Vsphere.
  2. En la parte superior del menú de VM, haz clic en Actions.
  3. Haz clic en Delete from Disk.

Después de haber terminado

Cuando termines de borrar el clúster de administrador, borra su kubeconfig.

Soluciona problemas

Para obtener más información, consulta Soluciona problemas.

Diagnostica problemas de clústeres mediante gkectl

Usa los comandos gkectl diagnose para identificar los problemas de clústeres y compartir la información de un clúster con Google. Consulta Diagnostica problemas de clústeres.

Comportamiento de registro predeterminado

Para gkectl y gkeadm, basta con usar la configuración de registro predeterminada:

  • De forma predeterminada, las entradas de registro se guardan de la siguiente manera:

    • Para gkectl, el archivo de registro predeterminado es /home/ubuntu/.config/gke-on-prem/logs/gkectl-$(date).log y el archivo está vinculado con un symlink con el archivo logs/gkectl-$(date).log en el directorio local en el que ejecutas gkectl.
    • Para gkeadm, el archivo de registro predeterminado es logs/gkeadm-$(date).log en el directorio local en el que ejecutas gkeadm.
  • Todas las entradas de registro se guardan en el archivo de registro, incluso si no se imprimen en la terminal (cuando --alsologtostderr es false).
  • El nivel de verbosidad -v5 (predeterminado) cubre todas las entradas de registro que necesita el equipo de asistencia al cliente.
  • El archivo de registro también contiene el comando ejecutado y el mensaje de error.

Recomendamos que envíes el archivo de registro al equipo de asistencia al cliente cuando necesites ayuda.

Especifica una ubicación no predeterminada para el archivo de registro

A fin de especificar una ubicación no predeterminada para el archivo de registro gkectl, usa la marca --log_file. El archivo de registro que especifiques no se vinculará con un symlink con el directorio local.

A fin de especificar una ubicación no predeterminada para el archivo de registro gkeadm, usa la marca --log_file.

Ubica los registros de la API de clúster en el clúster de administrador

Si una VM no se inicia después de que se inicia el plano de control de administrador, puedes intentar depurarla mediante la inspección de los registros de los controladores de la API de clúster en el clúster de administrador:

  1. Encuentra el nombre del Pod de controladores de la API de clúster en el espacio de nombres kube-system, en el que [ADMIN_CLUSTER_KUBECONFIG] es la ruta de acceso al archivo kubeconfig del clúster de administrador:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
  2. Abre los registros del Pod, en los que [POD_NAME] es el nombre del Pod. De manera opcional, usa grep o una herramienta similar para buscar errores:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager