Estás viendo la documentación de una versión anterior de GKE On-Prem. Consulta la documentación más reciente.

Borra un clúster de usuario

En esta página, se describe cómo borrar un clúster de usuario de GKE On-Prem.

Descripción general

GKE On-Prem admite que se borren los clústeres de usuarios a través de gkectl. Si el clúster no está en buen estado (por ejemplo, si su plano de control es inaccesible o el clúster no pudo iniciarse), consulta Borra un clúster de usuario en mal estado.

Borra un clúster de usuarios

Para borrar un clúster de usuario, ejecuta el siguiente comando:

gkectl delete cluster \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--cluster [CLUSTER_NAME]

En el comando anterior, [ADMIN_CLUSTER_KUBECONFIG] es el archivo kubeconfig del clúster de administrador y [CLUSTER_NAME] es el nombre del clúster de usuario que deseas borrar.

Problema conocido

En la versión 1.1.2, hay un problema conocido que genera este error si usas un almacén de datos de vSAN:

Error deleting machine object xxx; Failed to delete machine xxx: failed
  to ensure disks detached: failed to convert disk path "" to UUID path:
  failed to convert full path "ds:///vmfs/volumes/vsan:52ed29ed1c0ccdf6-0be2c78e210559c7/":
  ServerFaultCode: A general system error occurred: Invalid fault

Consulta la solución alternativa en las notas de la versión.

Borra un clúster de usuario en mal estado

Puedes pasar --force para borrar un clúster de usuario si el clúster no está en buen estado. Un clúster de usuario puede no estar en buen estado si su plano de control es inaccesible, si el clúster no puede iniciarse o si gkectl delete cluster no puede borrar el clúster.

Para forzar la eliminación de un clúster, sigue estos pasos:

gkectl delete cluster \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--cluster [CLUSTER_NAME] \
--force

En el comando anterior, [ADMIN_CLUSTER_KUBECONFIG] es el archivo kubeconfig del clúster de administrador y [CLUSTER_NAME] es el nombre del clúster de usuario que deseas borrar.

Realiza una limpieza de recursos externos

Después de una eliminación forzada, es posible que queden algunos recursos en F5 o vSphere. En las siguientes secciones, se explica cómo realizar una limpieza de estos recursos restantes.

Realiza una limpieza de las VM de un clúster de usuario en vSphere

Para verificar que se borren las VM del clúster de usuario, realiza los siguientes pasos:

  1. En el menú Navigator izquierdo del cliente web de vSphere, haz clic en el menú Hosts and Clusters.
  2. Busca tu grupo de recursos.
  3. Verifica si existen VM que tienen como prefijo el nombre del clúster de usuario.

Si hay VM de clúster de usuario restantes, realiza los siguientes pasos para cada VM:

  1. Desde el cliente web de vSphere, haz clic con el botón derecho en la VM del clúster de usuario y selecciona Power > Power Off.
  2. Una vez que la VM esté apagada, haz clic con el botón derecho en la VM y selecciona Delete from Disk.

Realiza una limpieza de la partición F5 de un clúster de usuario

Si hay entradas restantes en la partición del clúster de usuario, sigue estos pasos:

  1. Desde la consola BIG-IP de F5, en la esquina superior derecha de la consola, cambia a la partición del clúster de usuario que deseas limpiar.
  2. Selecciona Local Traffic > Virtual Servers > Virtual Server List.
  3. En el menú Virtual Servers, quita todas las IP virtuales.
  4. Selecciona Pools y, luego, bórralos a todos.
  5. Selecciona Nodes y, luego, bórralos a todos.

Después de haber terminado

Después de que gkectl termine de borrar el clúster de usuario, puedes borrar el kubeconfig del clúster de usuario.

Soluciona problemas

Para obtener más información, consulta Soluciona problemas.

Diagnostica problemas de clústeres mediante gkectl

Usa los comandos gkectl diagnose para identificar los problemas de clústeres y compartir la información de un clúster con Google. Consulta Diagnostica problemas de clústeres.

Comportamiento de registro predeterminado

Para gkectl y gkeadm, basta con usar la configuración de registro predeterminada:

  • De forma predeterminada, las entradas de registro se guardan de la siguiente manera:

    • Para gkectl, el archivo de registro predeterminado es /home/ubuntu/.config/gke-on-prem/logs/gkectl-$(date).log y el archivo está vinculado con el archivo logs/gkectl-$(date).log en el directorio local en el que ejecutas gkectl.
    • Para gkeadm, el archivo de registro predeterminado es logs/gkeadm-$(date).log en el directorio local en el que ejecutas gkeadm.
  • Todas las entradas de registro se guardan en el archivo de registro, incluso si no se imprimen en la terminal (cuando --alsologtostderr es false).
  • El nivel de verbosidad -v5 (predeterminado) cubre todas las entradas de registro que necesita el equipo de asistencia.
  • El archivo de registro también contiene el comando ejecutado y el mensaje de error.

Recomendamos que envíes el archivo de registro al equipo de asistencia cuando necesites ayuda.

Especifica una ubicación no predeterminada para el archivo de registro

A fin de especificar una ubicación no predeterminada para el archivo de registro gkectl, usa la marca --log_file. El archivo de registro que especifiques no se vinculará con el directorio local.

A fin de especificar una ubicación no predeterminada para el archivo de registro gkeadm, usa la marca --log_file.

Ubica los registros de la API de clúster en el clúster de administrador

Si una VM no se inicia después de que se inicia el plano de control de administrador, puedes intentar depurarla mediante la inspección de los registros de los controladores de la API de clúster en el clúster de administrador:

  1. Encuentra el nombre del Pod de controladores de la API de clúster en el espacio de nombres kube-system, en el que [ADMIN_CLUSTER_KUBECONFIG] es la ruta de acceso al archivo kubeconfig del clúster de administrador:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
  2. Abre los registros del Pod, en los que [POD_NAME] es el nombre del Pod. De manera opcional, usa grep o una herramienta similar para buscar errores:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager