Ce document explique comment utiliser la commande gkectl diagnose
pour créer des instantanés de diagnostic afin de résoudre les problèmes dans vos clusters créés à l'aide de Google Distributed Cloud (logiciel uniquement) pour VMware. L'outil gkectl
comporte deux commandes permettant de résoudre les problèmes liés aux clusters : gkectl diagnose snapshot
et gkectl diagnose cluster
. Ces commandes fonctionnent aussi bien avec les clusters d'administrateur que d'utilisateur.
Pour savoir comment utiliser la commande gkectl diagnose cluster
afin de diagnostiquer les problèmes de cluster, consultez la section Diagnostiquer les problèmes de cluster.
gkectl diagnose snapshot
Cette commande compresse l'état, les configurations et les journaux d'un cluster dans un fichier tar. Si vous exécutez gkectl diagnose snapshot
, cette commande exécute automatiquement gkectl diagnose cluster
dans le cadre du processus. Les fichiers de sortie sont placés dans un nouveau dossier de l'instantané, nommé /diagnose-report
.
Instantané par défaut
La configuration par défaut de la commande gkectl diagnose snapshot
capture les informations suivantes concernant votre cluster :
Version de Kubernetes
État des ressources Kubernetes dans les espaces de noms kube-system et gke-system : cluster, machine, nœuds, Services, Endpoints, ConfigMaps, ReplicaSets, CronJobs, Pods et les propriétaires de ces pods, y compris les déploiements, DaemonSets et StatefulSets.
État du plan de contrôle.
Détails sur chaque configuration de nœud, y compris les adresses IP, les règles iptables, les points d'installation, le système de fichiers, les connexions réseau et les processus en cours d'exécution.
Journaux de conteneur à partir du nœud du plan de contrôle du cluster d'administrateur, lorsque le serveur d'API Kubernetes n'est pas disponible
Informations sur vSphere, y compris les objets de VM et leurs événements basés sur un pool de ressources ; Il collecte également des informations sur les objets de centre de données, de cluster, de réseau et de datastore associés aux VM.
Informations sur l'équilibreur de charge F5 BIG-IP (y compris, serveur virtuel, adresse virtuelle, pool, nœud et surveillance)
Journaux de la commande
gkectl diagnose snapshot
Journaux des tâches de requête préliminaire.
Journaux des conteneurs dans les espaces de noms en fonction des scénarios.
Informations sur l'expiration du certificat Kubernetes du cluster d'administrateur dans le fichier d'instantané
/nodes/<admin_master_node_name>/sudo_kubeadm_certs_check-expiration
.Fichier d'index HTML pour tous les fichiers de l'instantané.
Éventuellement, le fichier de configuration du cluster d'administrateur utilisé pour installer et mettre à jour le cluster avec l'option
--config
.
Les identifiants, y compris ceux pour vSphere et F5, sont supprimés avant la création du fichier tar.
Instantané léger
Dans Google Distributed Cloud version 1.29 et ultérieure, une version allégée de gkectl diagnose snapshot
est disponible pour les clusters d'administrateur et d'utilisateur.
L'instantané léger accélère le processus d'instantané, car il capture moins d'informations sur le cluster. Lorsque vous ajoutez --scenario=lite
à la commande, seules les informations suivantes sont incluses dans l'instantané :
État des ressources Kubernetes dans les espaces de noms kube-system et gke-system : cluster, machine, nœuds, Services, Endpoints, ConfigMaps, ReplicaSets, CronJobs, Pods et les propriétaires de ces pods, y compris les déploiements, DaemonSets et StatefulSets
Journaux de la commande
gkectl diagnose snapshot
Capturer l'état du cluster
Si les commandes gkectl diagnose cluster
détectent des erreurs, vous devez capturer l'état du cluster et fournir les informations à Cloud Customer Care. Vous pouvez capturer ces informations à l'aide de la commande gkectl diagnose snapshot
.
gkectl diagnose snapshot
possède une option facultative pour --config
. En plus de collecter des informations sur le cluster, cette option collecte le fichier de configuration qui a été utilisé pour créer ou mettre à niveau le cluster.
Capturer l'état du cluster d'administrateur
Pour capturer l'état d'un cluster d'administrateur, exécutez la commande suivante :
gkectl diagnose snapshot --kubeconfig=ADMIN_CLUSTER_KUBECONFIG --config
Le paramètre --config
est facultatif :
En cas de problème avec une adresse IP virtuelle (VIP) dans le cluster cible, utilisez l'indicateur --config
pour fournir le fichier de configuration du cluster d'administrateur afin d'obtenir plus d'informations de débogage.
Dans la version 1.29 et les versions ultérieures, vous pouvez inclure --scenario=lite
si vous n'avez pas besoin de toutes les informations de l'instantané par défaut.
La sortie inclut une liste de fichiers et le nom d'un fichier tar, comme illustré dans l'exemple de sortie suivant :
Taking snapshot of admin cluster "[ADMIN_CLUSTER_NAME]"...
Using default snapshot configuration...
Setting up "[ADMIN_CLUSTER_NAME]" ssh key file...DONE
Taking snapshots...
commands/kubectl_get_pods_-o_yaml_--kubeconfig_...env.default.kubeconfig_--namespace_kube-system
commands/kubectl_get_deployments_-o_yaml_--kubeconfig_...env.default.kubeconfig_--namespace_kube-system
commands/kubectl_get_daemonsets_-o_yaml_--kubeconfig_...env.default.kubeconfig_--namespace_kube-system
...
nodes/[ADMIN_CLUSTER_NODE]/commands/journalctl_-u_kubelet
nodes/[ADMIN_CLUSTER_NODE]/files/var/log/startup.log
...
Snapshot succeeded. Output saved in [TAR_FILE_NAME].tar.gz.
Pour extraire le fichier tar dans un répertoire, exécutez la commande suivante :
tar -zxf TAR_FILE_NAME --directory EXTRACTION_DIRECTORY_NAME
Remplacez les éléments suivants :
TAR_FILE_NAME
: nom du fichier tar.EXTRACTION_DIRECTORY_NAME
: répertoire dans lequel vous souhaitez extraire l'archive de fichier tar.
Pour afficher la liste des fichiers générés par l'instantané, exécutez les commandes suivantes :
cd EXTRACTION_DIRECTORY_NAME/EXTRACTED_SNAPSHOT_DIRECTORY ls kubectlCommands ls nodes/NODE_NAME/commands ls nodes/NODE_NAME/files
Remplacez NODE_NAME
par le nom du nœud pour lequel vous souhaitez afficher les fichiers.
Pour afficher les détails d'une opération spécifique, ouvrez l'un des fichiers.
Spécifier la clé SSH pour le cluster d'administrateur
Lorsque vous obtenez un instantané du cluster d'administrateur, gkectl
trouve automatiquement la clé SSH privée du cluster d'administrateur. Vous pouvez également spécifier la clé explicitement à l'aide du paramètre --admin-ssh-key-path
.
Suivez les instructions pour vous connecter à un nœud de cluster via SSH afin de télécharger les clés SSH.
Dans votre commande gkectl diagnose snapshot
, définissez --admin-ssh-key-path
sur le chemin d'accès de la clé décodée :
gkectl diagnose snapshot --kubeconfig=ADMIN_CLUSTER_KUBECONFIG \ --admin-ssh-key-path=PATH_TO_DECODED_KEY
Capturer l'état du cluster d'utilisateurs
Pour capturer l'état d'un cluster d'utilisateur, exécutez la commande suivante :
gkectl diagnose snapshot --kubeconfig=ADMIN_CLUSTER_KUBECONFIG \ --cluster-name=USER_CLUSTER_NAME
L'exemple de sortie suivant inclut une liste de fichiers et le nom d'un fichier tar :
Taking snapshot of user cluster "[USER_CLUSTER_NAME]"...
Using default snapshot configuration...
Setting up "[USER_CLUSTER_NAME]" ssh key file...DONE
commands/kubectl_get_pods_-o_yaml_--kubeconfig_...env.default.kubeconfig_--namespace_user
commands/kubectl_get_deployments_-o_yaml_--kubeconfig_...env.default.kubeconfig_--namespace_user
commands/kubectl_get_daemonsets_-o_yaml_--kubeconfig_...env.default.kubeconfig_--namespace_user
...
commands/kubectl_get_pods_-o_yaml_--kubeconfig_.tmp.user-kubeconfig-851213064_--namespace_kube-system
commands/kubectl_get_deployments_-o_yaml_--kubeconfig_.tmp.user-kubeconfig-851213064_--namespace_kube-system
commands/kubectl_get_daemonsets_-o_yaml_--kubeconfig_.tmp.user-kubeconfig-851213064_--namespace_kube-system
...
nodes/[USER_CLUSTER_NODE]/commands/journalctl_-u_kubelet
nodes/[USER_CLUSTER_NODE]/files/var/log/startup.log
...
Snapshot succeeded. Output saved in [FILENAME].tar.gz.
Scénarios d'instantanés
Les scénarios d'instantané vous permettent de contrôler les informations incluses dans un instantané. Pour spécifier un scénario, utilisez l'option --scenario
. La liste suivante répertorie les valeurs possibles :
system
(par défaut) : collecter un instantané avec des journaux dans les espaces de noms système compatibles.all
: collecter un instantané avec des journaux dans tous les espaces de noms, y compris les espaces de noms définis par l'utilisateur.lite
(1.29 et versions ultérieures) : collecte d'instantanés avec uniquement les ressources Kubernetes et les journauxgkectl
. Tous les autres journaux, tels que les journaux de conteneur et les journaux du noyau de nœud, sont exclus.
Les scénarios d'instantané disponibles varient en fonction de la version de Google Distributed Cloud.
Versions antérieures à la version 1.13 :
system
,system-with-logs
,all
etall-with-logs
.Versions 1.13 à 1.28 :
system
etall
. Le scénariosystem
est identique à l'ancien scénariosystem-with-logs
. Le scénarioall
est identique à l'ancien scénarioall-with-logs
.Versions 1.29 et ultérieures :
system
,all
etlite
.
Pour créer un instantané du cluster d'administrateur, vous n'avez pas besoin de spécifier de scénario :
gkectl diagnose snapshot \ --kubeconfig=ADMIN_CLUSTER_KUBECONFIG
Pour créer un instantané d'un cluster d'utilisateur en utilisant le scénario system
:
gkectl diagnose snapshot \ --kubeconfig=ADMIN_CLUSTER_KUBECONFIG \ --cluster-name=USER_CLUSTER_NAME \ --scenario=system
Pour créer un instantané d'un cluster d'utilisateur en utilisant le scénario all
:
gkectl diagnose snapshot \ --kubeconfig=ADMIN_CLUSTER_KUBECONFIG \ --cluster-name=USER_CLUSTER_NAME \ --scenario=all
Pour créer un instantané d'un cluster d'utilisateur en utilisant le scénario lite
:
gkectl diagnose snapshot \ --kubeconfig=ADMIN_CLUSTER_KUBECONFIG \ --cluster-name=USER_CLUSTER_NAME \ --scenario=lite
Utiliser --log-since
pour limiter un instantané
Vous pouvez utiliser l'option --log-since
pour limiter la collecte de journaux à une période récente. Par exemple, vous pouvez ne collecter que les journaux des deux derniers jours ou des trois dernières heures. Par défaut, diagnose snapshot
collecte tous les journaux.
gkectl diagnose snapshot --kubeconfig=ADMIN_CLUSTER_KUBECONFIG \ --cluster-name=CLUSTER_NAME \ --scenario=system \ --log-since=DURATION
Remplacez <var>DURATION</var>
par une valeur temporelle telle que 120m
ou 48h
.
Les considérations suivantes s'appliquent :
- L'option
--log-since
n'est compatible qu'avec les journauxkubectl
etjournalctl
. - Les options de commande telles que
--log-since
ne sont pas autorisées dans la configuration de l'instantané personnalisée.
Effectuer une simulation pour un instantané
Vous pouvez utiliser l'option --dry-run
pour afficher les actions à effectuer et la configuration de l'instantané.
Pour exécuter une simulation sur votre cluster d'administrateur, saisissez la commande suivante :
gkectl diagnose snapshot --kubeconfig=ADMIN_CLUSTER_KUBECONFIG \ --cluster-name=ADMIN_CLUSTER_NAME \ --dry-run
Pour exécuter une simulation sur un cluster d'utilisateur, saisissez la commande suivante :
gkectl diagnose snapshot --kubeconfig=ADMIN_CLUSTER_KUBECONFIG \ --cluster-name=USER_CLUSTER_NAME \ --dry-run
Utiliser une configuration d'instantané
Si ces deux scénarios (--scenario system
ou all
) ne répondent pas à vos besoins, vous pouvez créer un instantané personnalisé en transmettant un fichier de configuration d'instantané à l'aide de l'indicateur --snapshot-config
:
gkectl diagnose snapshot --kubeconfig=ADMIN_CLUSTER_KUBECONFIG \ --cluster-name=USER_CLUSTER_NAME \ --snapshot-config=SNAPSHOT_CONFIG_FILE
Générer une configuration d'instantané
Vous pouvez générer une configuration d'instantané pour un scénario donné en transmettant les options --scenario
et --dry-run
. Par exemple, pour afficher la configuration de l'instantané du scénario par défaut (system
) d'un cluster d'utilisateur, saisissez la commande suivante :
gkectl diagnose snapshot \ --kubeconfig=ADMIN_CLUSTER_KUBECONFIG \ --cluster-name=USER_CLUSTER_NAME \ --scenario=system --dry-run
Le résultat ressemble à celui de l'exemple ci-dessous.
numOfParallelThreads: 10
excludeWords:
- password
kubectlCommands:
- commands:
- kubectl get clusters -o wide
- kubectl get machines -o wide
- kubectl get clusters -o yaml
- kubectl get machines -o yaml
- kubectl describe clusters
- kubectl describe machines
namespaces:
- default
- commands:
- kubectl version
- kubectl cluster-info
- kubectl get nodes -o wide
- kubectl get nodes -o yaml
- kubectl describe nodes
namespaces: []
- commands:
- kubectl get pods -o wide
- kubectl get deployments -o wide
- kubectl get daemonsets -o wide
- kubectl get statefulsets -o wide
- kubectl get replicasets -o wide
- kubectl get services -o wide
- kubectl get jobs -o wide
- kubectl get cronjobs -o wide
- kubectl get endpoints -o wide
- kubectl get configmaps -o wide
- kubectl get pods -o yaml
- kubectl get deployments -o yaml
- kubectl get daemonsets -o yaml
- kubectl get statefulsets -o yaml
- kubectl get replicasets -o yaml
- kubectl get services -o yaml
- kubectl get jobs -o yaml
- kubectl get cronjobs -o yaml
- kubectl get endpoints -o yaml
- kubectl get configmaps -o yaml
- kubectl describe pods
- kubectl describe deployments
- kubectl describe daemonsets
- kubectl describe statefulsets
- kubectl describe replicasets
- kubectl describe services
- kubectl describe jobs
- kubectl describe cronjobs
- kubectl describe endpoints
- kubectl describe configmaps
namespaces:
- kube-system
- gke-system
- gke-connect.*
prometheusRequests: []
nodeCommands:
- nodes: []
commands:
- uptime
- df --all --inodes
- ip addr
- sudo iptables-save --counters
- mount
- ip route list table all
- top -bn1
- sudo docker ps -a
- ps -edF
- ps -eo pid,tid,ppid,class,rtprio,ni,pri,psr,pcpu,stat,wchan:14,comm,args,cgroup
- sudo conntrack --count
nodeFiles:
- nodes: []
files:
- /proc/sys/fs/file-nr
- /proc/sys/net/nf_conntrack_max
seesawCommands: []
seesawFiles: []
nodeCollectors:
- nodes: []
f5:
enabled: true
vCenter:
enabled: true
Le résultat affiche les informations suivantes :
numOfParallelThreads
: nombre de threads parallèles utilisés pour prendre des instantanés.excludeWords
: liste des mots à exclure de l'instantané (non sensible à la casse). Les lignes contenant ces mots sont supprimées des résultats de l'instantané. "mot de passe" est toujours exclu, que vous le spécifiiez ou non.kubectlCommands
: liste des commandes kubectl à exécuter. Les résultats sont enregistrés. Les commandes s'exécutent sur les espaces de noms correspondants. Pour les commandeskubectl logs
, tous les pods et conteneurs des espaces de noms correspondants sont automatiquement ajoutés. Les expressions régulières sont compatibles avec la spécification des espaces de noms. Si vous ne spécifiez pas d'espace de noms, l'espace de nomsdefault
est utilisé.nodeCommands
: liste des commandes à exécuter sur les nœuds correspondants. Les résultats sont enregistrés. Lorsqu'aucun nœud n'est spécifié, tous les nœuds du cluster cible sont pris en compte.nodeFiles
: liste des fichiers à collecter à partir des nœuds correspondants. Les fichiers sont enregistrés. Lorsqu'aucun nœud n'est spécifié, tous les nœuds du cluster cible sont pris en compte.seesawCommands
: liste des commandes à exécuter pour collecter des informations sur l'équilibreur de charge Seesaw. Les résultats sont enregistrés si le cluster utilise l'équilibreur de charge Seesaw.seesawFiles
: liste des fichiers à collecter pour l'équilibreur de charge Seesaw.nodeCollectors
: collecteur qui exécute les nœuds Cilium pour collecter des informations eBPF.f5
: option permettant de collecter des informations liées à l'équilibreur de charge F5 BIG-IP.vCenter
: option permettant de collecter des informations liées à vCenter.prometheusRequests
: liste des requêtes Prometheus. Les résultats sont enregistrés.
Importer des instantanés dans un bucket Cloud Storage
Pour faciliter la conservation, l'analyse et le stockage des enregistrements, vous pouvez importer tous les instantanés d'un cluster d'utilisateur spécifique dans un bucket Cloud Storage. Ceci est particulièrement utile si vous avez besoin d'aide de l'équipe Cloud Customer Care.
Avant d'importer des instantanés dans un bucket Cloud Storage, examinez et remplissez les conditions initiales suivantes :
Activez
storage.googleapis.com
dans le projet hôte de parc. Bien que vous puissiez utiliser un autre projet, le projet hôte de parc est recommandé.gcloud services enable --project=FLEET_HOST_PROJECT_ID storage.googleapis.com
Attribuez le rôle
roles/storage.admin
au compte de service sur son projet parent et transmettez le fichier de clé JSON du compte de service à l'aide du paramètre--service-account-key-file
. Vous pouvez utiliser n'importe quel compte de service, mais le compte de service connect-register est recommandé. Pour en savoir plus, consultez la section Comptes de service.gcloud projects add-iam-policy-binding FLEET_HOST_PROJECT_ID \ --member "serviceAccount:CONNECT_REGISTER_SERVICE_ACCOUNT" \ --role "roles/storage.admin"
Remplacez
CONNECT_REGISTER_SERVICE_ACCOUNT
par le compte de service du registre Connect.
Une fois ces conditions remplies, vous pouvez importer l'instantané dans le bucket Cloud Storage :
gkectl diagnose snapshot --kubeconfig=ADMIN_CLUSTER_KUBECONFIG \ --cluster-name CLUSTER_NAME \ --upload \ --share-with GOOGLE_SUPPORT_SERVICE_ACCOUNT
L'option --share-with
peut accepter une liste de noms de comptes de service. Remplacez GOOGLE_SUPPORT_SERVICE_ACCOUNT
par le compte de service Cloud Customer Care fourni par Cloud Customer Care, ainsi que tous les autres comptes de service fournis par Cloud Customer Care.
Lorsque vous utilisez l'indicateur --upload
, la commande recherche dans votre projet un bucket de stockage dont le nom commence par "anthos-snapshot-
". Si un tel bucket existe, la commande importe l'instantané dans ce bucket. Si la commande ne trouve pas de bucket avec un nom correspondant, elle crée un bucket nommé anthos-snapshot-UUID
, où UUID
est un identifiant unique universel à 32 chiffres.
Lorsque vous utilisez l'indicateur --share-with
, vous n'avez pas besoin de partager manuellement l'accès au bucket avec Cloud Customer Care.
L'exemple de résultat suivant s'affiche lorsque vous importez un instantané dans un bucket Cloud Storage :
Using "system" snapshot configuration...
Taking snapshot of user cluster <var>CLUSTER_NAME</var>...
Setting up <var>CLUSTER_NAME</var> ssh key...DONE
Using the gke-connect register service account key...
Setting up Google Cloud Storage bucket for uploading the snapshot...DONE
Taking snapshots in 10 thread(s)...
...
Snapshot succeeded.
Snapshots saved in "<var>SNAPSHOT_FILE_PATH</var>".
Uploading snapshot to Google Cloud Storage...... DONE
Uploaded the snapshot successfully to gs://anthos-snapshot-a4b17874-7979-4b6a-a76d-e49446290282/<var>xSNAPSHOT_FILE_NAME</var>.
Shared successfully with service accounts:
<var>GOOGLE_SUPPORT_SERVICE_ACCOUNT</var>