Vous consultez la documentation d'une version précédente de GKE On-Prem. Consultez la documentation la plus récente.

Supprimer un cluster d'administrateur

Cette page explique comment supprimer un cluster d'administrateur Anthos GKE On-Prem.

Avant de commencer

Avant de supprimer un cluster d'administrateur, procédez comme suit :

  • Supprimez ses clusters d'utilisateurs. Consultez la section Supprimer un cluster d'utilisateur.
  • Supprimez toutes les charges de travail qui utilisent PodDisruptionBudgets (PDB) du cluster d'administrateur.
  • Supprimez tous les objets externes, tels que PersistentVolumes, du cluster d'administrateur.
  • Définissez une variable d'environnement KUBECONFIG pointant vers le fichier kubeconfig du cluster d'administrateur que vous souhaitez supprimer :

    export KUBECONFIG=[ADMIN_CLUSTER_KUBECONFIG]
    

    [ADMIN_CLUSTER_KUBECONFIG] est le chemin d'accès au fichier kubeconfig du cluster d'administrateur.

Supprimer la journalisation et la surveillance

Les pods de journalisation et de surveillance de GKE On-Prem, déployés à partir des StatefulSets, utilisent des PDB pouvant empêcher les nœuds de se vider correctement. Pour supprimer correctement un cluster d'administrateur, vous devez supprimer ces pods.

Pour supprimer les pods de journalisation et de surveillance, exécutez les commandes suivantes :

kubectl delete monitoring --all -n kube-system
kubectl delete stackdriver --all -n kube-system

La suppression de la surveillance nettoie les PersistentVolumes (VP) associés aux StatefulSets, mais le PersistentVolume de Stackdriver doit être supprimé séparément.

La suppression du volume persistant Stackdriver est facultative. Si vous choisissez de ne pas supprimer le volume persistant, enregistrez l'emplacement et le nom du volume persistant associé dans un emplacement externe en dehors du cluster d'utilisateur.

La suppression du volume persistant sera propagée par la suppression de la revendication de volume persistant (PVC).

Pour trouver la revendication de volume persistant de Stackdriver, exécutez la commande suivante :

kubectl get pvc -n kube-system

Pour supprimer la revendication de volume persistant, exécutez la commande suivante :

kubectl delete pvc -n kube-system [PVC_NAME]

Vérifier que la journalisation et la surveillance sont supprimées

Pour vérifier que la journalisation et la surveillance ont été supprimées, exécutez les commandes suivantes :

kubectl get pvc -n kube-system
kubectl get statefulsets -n kube-system

Nettoyer la partition F5 d'un cluster d'administrateur

La suppression de l'espace de noms gke-system du cluster d'administrateur garantit un nettoyage correct de la partition F5, ce qui vous permet de la réutiliser pour un autre cluster d'administration.

Pour supprimer l'espace de noms gke-system, exécutez la commande suivante :

kubectl delete ns gke-system

Supprimez ensuite tous les autres services de type LoadBalancer restants. Pour répertorier tous les services, exécutez la commande suivante :

kubectl get services --all-namespaces

Pour chaque service de type LoadBalancer, supprimez le service en exécutant la commande suivante :

kubectl delete service [SERVICE_NAME] -n [SERVICE_NAMESPACE]

Ensuite, à partir de la console F5 BIG-IP :

  1. Dans l'angle supérieur droit de la console, basculez vers la partition à nettoyer.
  2. Sélectionnez Local Traffic (Trafic local), puis Virtual Servers (Serveurs virtuels) > Virtual Server List (Liste des serveurs virtuels).
  3. Dans le menu Virtual Servers (Serveurs virtuels), supprimez toutes les adresses IP virtuelles.
  4. Sélectionnez Pools, puis supprimez tous les pools.
  5. Sélectionnez Nodes (Nœuds), puis supprimez tous les nœuds.

Vérifier que la partition F5 est propre

CLI

Vérifiez que l'adresse IP virtuelle est indisponible en exécutant la commande suivante :

ping -c 1 -W 1 [F5_LOAD_BALANCER_IP]; echo $?

qui renvoie 1 si l'adresse IP virtuelle n'est pas opérationnelle.

Interface utilisateur F5

Pour vérifier que la partition a été nettoyée de l'interface utilisateur F5, procédez comme suit :

  1. Dans l'angle supérieur droit, cliquez sur le menu déroulant Partition. Sélectionnez la partition de votre cluster d'administrateur.
  2. Dans le menu Main (Principal) de gauche, sélectionnez Local Traffic (Trafic local) > Network Map (Carte du réseau). Aucun élément ne doit figurer sous la carte de trafic local du réseau.
  3. Dans Local Traffic (Trafic local) > Virtual Servers (Serveurs virtuels), sélectionnez Nodes (Nœuds), puis Nodes List (Liste de nœuds). Il ne doit pas non plus y avoir d'éléments répertoriés ici.

S'il reste des entrées, supprimez-les manuellement dans l'interface utilisateur.

Mettre hors tension les machines de nœud d'administrateur

Pour supprimer les machines de nœud du plan de contrôle d'administrateur, vous devez éteindre chacune des VM d'administration restantes dans votre pool de ressources vSphere.

Interface utilisateur vSphere

Procédez comme suit :

  1. Dans le menu vSphere, sélectionnez la VM dans le pool de ressources Vsphere.
  2. En haut du menu de la VM, cliquez sur Actions.
  3. Sélectionnez Alimentation > Mettre hors tension. La mise hors tension de la VM peut prendre quelques minutes.

Supprimer des machines de nœud d'administrateur

Une fois la VM hors tension, vous pouvez la supprimer.

Interface utilisateur vSphere

Procédez comme suit :

  1. Dans le menu vSphere, sélectionnez la VM dans le pool de ressources Vsphere.
  2. En haut du menu de la VM, cliquez sur Actions.
  3. Cliquez sur Delete from Disk (Supprimer du disque).

Une fois terminé

Une fois la suppression du cluster d'administrateur terminée, supprimez son fichier kubeconfig.

Dépannage

Pour en savoir plus, consultez la section Dépannage.

Diagnostiquer des problèmes de cluster à l'aide de gkectl

Utilisez les commandes gkectl diagnose pour identifier les problèmes de cluster et partager des informations de cluster avec Google. Consultez la section Diagnostiquer des problèmes de cluster.

Exécuter des commandes gkectl de manière détaillée

-v5

Consigner des erreurs gkectl dans stderr

--alsologtostderr

Localiser les journaux gkectl sur le poste de travail d'administrateur

Même si vous ne transmettez pas ses indicateurs de débogage, vous pouvez afficher les journaux gkectl dans le répertoire suivant du poste de travail d'administrateur :

/home/ubuntu/.config/syllogi/logs

Localiser des journaux de l'API Cluster dans le cluster d'administrateur

Si une VM ne démarre pas après le démarrage du plan de contrôle administrateur, vous pouvez essayer de la déboguer en inspectant les journaux des contrôleurs de l'API Cluster dans le cluster d'administrateur :

  1. Recherchez le nom du pod des contrôleurs de l'API Cluster dans l'espace de noms kube-system, où [ADMIN_CLUSTER_KUBECONFIG] est le chemin d'accès au fichier kubeconfig du cluster d'administrateur :

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
  2. Ouvrez les journaux du pod. [POD_NAME] correspond au nom du pod. Vous pouvez éventuellement utiliser grep ou un outil similaire pour rechercher les erreurs :

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager