En esta página, se describe cómo borrar un clúster de usuario de GKE On-Prem.
Descripción general
GKE On-Prem admite que se borren los clústeres de usuarios a través de gkectl
.
Si el clúster no está en buen estado (por ejemplo, si su plano de control es inaccesible o el clúster no pudo iniciarse), consulta Borra un clúster de usuario en mal estado.
Borra un clúster de usuarios
Para borrar un clúster de usuario, ejecuta el siguiente comando:
gkectl delete cluster \ --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \ --cluster [CLUSTER_NAME]
En el comando anterior, [ADMIN_CLUSTER_KUBECONFIG] es el archivo kubeconfig del clúster de administrador y [CLUSTER_NAME] es el nombre del clúster de usuario que deseas borrar.
Si usas el balanceador de cargas en paquetes de Seesaw, borra el balanceador de cargas.
Problema conocido
En la versión 1.1.2, hay un problema conocido que genera este error si usas un almacén de datos de vSAN:
Error deleting machine object xxx; Failed to delete machine xxx: failed to ensure disks detached: failed to convert disk path "" to UUID path: failed to convert full path "ds:///vmfs/volumes/vsan:52ed29ed1c0ccdf6-0be2c78e210559c7/": ServerFaultCode: A general system error occurred: Invalid fault
Consulta la solución alternativa en las notas de la versión.
Borra un clúster de usuario en mal estado
Puedes pasar --force
para borrar un clúster de usuario si el clúster no está en buen estado.
Un clúster de usuario puede no estar en buen estado si su plano de control es inaccesible, si el clúster no puede iniciarse o si gkectl delete cluster
no puede borrar el clúster.
Para forzar la eliminación de un clúster, sigue estos pasos:
gkectl delete cluster \ --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \ --cluster [CLUSTER_NAME] \ --force
En el comando anterior, [ADMIN_CLUSTER_KUBECONFIG] es el archivo kubeconfig del clúster de administrador y [CLUSTER_NAME] es el nombre del clúster de usuario que deseas borrar.
Realiza una limpieza de recursos externos
Después de una eliminación forzada, es posible que queden algunos recursos en F5 o vSphere. En las siguientes secciones, se explica cómo realizar una limpieza de estos recursos restantes.
Realiza una limpieza de las VM de un clúster de usuario en vSphere
Para verificar que se borren las VM del clúster de usuario, realiza los siguientes pasos:
- En el menú Navigator izquierdo del cliente web de vSphere, haz clic en el menú Hosts and Clusters.
- Busca tu grupo de recursos.
- Verifica si existen VM que tienen como prefijo el nombre del clúster de usuario.
Si hay VM de clúster de usuario restantes, realiza los siguientes pasos para cada VM:
- Desde el cliente web de vSphere, haz clic con el botón derecho en la VM del clúster de usuario y selecciona Power > Power Off.
- Una vez que la VM esté apagada, haz clic con el botón derecho en la VM y selecciona Delete from Disk.
Realiza una limpieza de la partición F5 de un clúster de usuario
Si hay entradas restantes en la partición del clúster de usuario, sigue estos pasos:
- Desde la consola BIG-IP de F5, en la esquina superior derecha de la consola, cambia a la partición del clúster de usuario que deseas limpiar.
- Selecciona Local Traffic > Virtual Servers > Virtual Server List.
- En el menú Virtual Servers, quita todas las IP virtuales.
- Selecciona Pools y, luego, bórralos a todos.
- Selecciona Nodes y, luego, bórralos a todos.
Después de haber terminado
Después de que gkectl
termine de borrar el clúster de usuario, puedes borrar el kubeconfig del clúster de usuario.
Soluciona problemas
Para obtener más información, consulta Soluciona problemas.
Diagnostica problemas de clústeres mediante gkectl
Usa los comandos gkectl diagnose
para identificar los problemas de clústeres y compartir la información de un clúster con Google. Consulta Diagnostica problemas de clústeres.
Comportamiento de registro predeterminado
Para gkectl
y gkeadm
, basta con usar la configuración de registro predeterminada:
-
De forma predeterminada, las entradas de registro se guardan de la siguiente manera:
-
Para
gkectl
, el archivo de registro predeterminado es/home/ubuntu/.config/gke-on-prem/logs/gkectl-$(date).log
y el archivo está vinculado con un symlink con el archivologs/gkectl-$(date).log
en el directorio local en el que ejecutasgkectl
. -
Para
gkeadm
, el archivo de registro predeterminado eslogs/gkeadm-$(date).log
en el directorio local en el que ejecutasgkeadm
.
-
Para
- Todas las entradas de registro se guardan en el archivo de registro, incluso si no se imprimen en la terminal (cuando
--alsologtostderr
esfalse
). - El nivel de verbosidad
-v5
(predeterminado) cubre todas las entradas de registro que necesita el equipo de asistencia al cliente. - El archivo de registro también contiene el comando ejecutado y el mensaje de error.
Recomendamos que envíes el archivo de registro al equipo de asistencia al cliente cuando necesites ayuda.
Especifica una ubicación no predeterminada para el archivo de registro
A fin de especificar una ubicación no predeterminada para el archivo de registro gkectl
, usa la marca --log_file
. El archivo de registro que especifiques no se vinculará con un symlink con el directorio local.
A fin de especificar una ubicación no predeterminada para el archivo de registro gkeadm
, usa la marca --log_file
.
Ubica los registros de la API de clúster en el clúster de administrador
Si una VM no se inicia después de que se inicia el plano de control de administrador, puedes intentar depurarla mediante la inspección de los registros de los controladores de la API de clúster en el clúster de administrador:
Encuentra el nombre del Pod de controladores de la API de clúster en el espacio de nombres
kube-system
, en el que [ADMIN_CLUSTER_KUBECONFIG] es la ruta de acceso al archivo kubeconfig del clúster de administrador:kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
Abre los registros del Pod, en los que [POD_NAME] es el nombre del Pod. De manera opcional, usa
grep
o una herramienta similar para buscar errores:kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager