Supprimer un cluster d'utilisateur

Cette page explique comment supprimer un cluster d'utilisateur GKE On-Prem.

Présentation

GKE On-Prem prend en charge la suppression de clusters d'utilisateur via gkectl. Si le cluster n'est pas opérationnel (par exemple, si son plan de contrôle est inaccessible ou si le démarrage du cluster échoue), consultez la section Supprimer un cluster d'utilisateur non opérationnel.

Supprimer un cluster d'utilisateur

Pour supprimer un cluster d'utilisateur, exécutez la commande suivante :

gkectl delete cluster \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--cluster [CLUSTER_NAME]

[ADMIN_CLUSTER_KUBECONFIG] est le fichier kubeconfig du cluster d'administrateur et [CLUSTER_NAME] est le nom du cluster d'utilisateur que vous souhaitez supprimer.

Problème connu

Dans la version 1.1.2, il existe un problème connu qui entraîne l'erreur suivante si vous utilisez un datastore vSAN :

Error deleting machine object xxx; Failed to delete machine xxx: failed
  to ensure disks detached: failed to convert disk path "" to UUID path:
  failed to convert full path "ds:///vmfs/volumes/vsan:52ed29ed1c0ccdf6-0be2c78e210559c7/":
  ServerFaultCode: A general system error occurred: Invalid fault

Consultez la solution dans les notes de version.

Supprimer un cluster d'utilisateur non opérationnel

Vous pouvez transmettre --force pour supprimer un cluster d'utilisateur si celui-ci n'est pas opérationnel. Un cluster d'utilisateur peut être non opérationnel si son plan de contrôle est inaccessible, si le démarrage du cluster échoue ou si la commande gkectl delete cluster ne parvient pas à le supprimer.

Pour forcer la suppression d'un cluster :

gkectl delete cluster \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--cluster [CLUSTER_NAME] \
--force

[ADMIN_CLUSTER_KUBECONFIG] est le fichier kubeconfig du cluster d'administrateur et [CLUSTER_NAME] est le nom du cluster d'utilisateur que vous souhaitez supprimer.

Nettoyer les ressources externes

Après une suppression forcée, certaines ressources peuvent rester dans F5 ou vSphere. Les sections suivantes expliquent comment nettoyer ces ressources restantes.

Nettoyer des VM d'un cluster d'utilisateur dans vSphere

Pour vérifier que les VM du cluster d'utilisateur sont supprimées, procédez comme suit :

  1. Dans le menu Navigator (Navigateur) situé à gauche du client Web vSphere, cliquez sur le menu Hôtes et clusters (Hosts and Clusters).
  2. Recherchez votre pool de ressources.
  3. Vérifiez si des VM sont précédées du nom de votre cluster d'utilisateur.

S'il reste des VM de ce cluster d'utilisateur, procédez comme suit pour chaque VM :

  1. Depuis le client Web vSphere, effectuez un clic droit sur la VM du cluster d'utilisateur, puis sélectionnez Power > Power Off (Alimentation > Arrêt).
  2. Une fois la VM éteinte, faites un clic droit sur la VM, puis sélectionnez Supprimer du disque.

Nettoyer la partition F5 d'un cluster d'utilisateur

S'il reste des entrées dans la partition du cluster d'utilisateur, procédez comme suit :

  1. Dans l'angle supérieur droit de la console F5 BIG-IP, basculez vers la partition du cluster d'utilisateur que vous souhaitez nettoyer.
  2. Sélectionnez Local Traffic (Trafic local), puis Virtual Servers > Virtual Server List (Serveurs virtuels > Liste des serveurs virtuels).
  3. Dans le menu Virtual Servers (Serveurs virtuels), supprimez toutes les adresses IP virtuelles.
  4. Sélectionnez Pools, puis supprimez tous les pools.
  5. Sélectionnez Nodes (Nœuds), puis supprimez tous les nœuds.

Une fois terminé

Une fois que gkectl a fini de supprimer le cluster d'utilisateur, vous pouvez supprimer le fichier kubeconfig du cluster d'utilisateur.

Dépannage

Pour en savoir plus, consultez la section Dépannage.

Diagnostiquer des problèmes de cluster à l'aide de gkectl

Utilisez les commandes gkectl diagnose pour identifier les problèmes de cluster et partager des informations de cluster avec Google. Consultez la page Diagnostiquer les problèmes de cluster.

Exécuter des commandes gkectl de manière détaillée

-v5

Consigner des erreurs gkectl dans stderr

--alsologtostderr

Localiser les journaux gkectl sur le poste de travail administrateur

Même si vous ne transmettez pas ses options de débogage, vous pouvez afficher les journaux gkectl dans le répertoire du poste de travail administrateur suivant :

/home/ubuntu/.config/gke-on-prem/logs

Localiser des journaux de l'API Cluster dans le cluster d'administrateur

Si une VM ne démarre pas après le démarrage du plan de contrôle d'administrateur, vous pouvez essayer de la déboguer en inspectant les journaux des contrôleurs de l'API Cluster dans le cluster d'administrateur :

  1. Recherchez le nom du pod des contrôleurs d'API Cluster dans l'espace de noms kube-system, où [ADMIN_CLUSTER_KUBECONFIG] est le chemin d'accès au fichier kubeconfig du cluster d'administrateur :

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
  2. Ouvrez les journaux du pod, où [POD_NAME] correspond au nom du pod. Vous pouvez éventuellement utiliser grep ou un outil similaire pour rechercher les erreurs :

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager