Cette documentation concerne la version la plus récente des clusters Anthos sur Azure, publiée le 3 novembre. Consultez les notes de version pour plus d'informations.

Cloud Monitoring

Cet article explique comment Anthos clusters on Azure s'intègre à Cloud Monitoring et comment afficher vos métriques.

Avant de commencer

  1. Configurez Google Cloud CLI et activez les API requises dans votre projet Google Cloud.

  2. Autorisez Cloud Logging/Cloud Monitoring à configurer des autorisations pour la suite Google Cloud Operations.

Présentation

Anthos clusters on Azure est intégré à Cloud Monitoring pour les métriques système des nœuds, des pods et des conteneurs. Ainsi, vous pouvez facilement consulter la consommation des ressources découlant des charges de travail du cluster, créer des tableaux de bord et configurer des alertes.

Anthos clusters on AWS installe le collecteur de métriques gke-metrics-agent dans votre cluster. Cet agent est basé sur OpenTelemetry Collector et s'exécute sur chaque nœud du cluster. Il échantillonne des métriques toutes les minutes et importe des mesures dans Cloud Monitoring.

Une fois les métriques de votre cluster importées, elles sont stockées dans votre projet Google Cloud. Vous pouvez agréger les données sur tous vos clusters, créer des tableaux de bord personnalisés, explorer les données d'un seul cluster, afficher des graphiques en courbes, configurer des alertes, etc.

Utiliser l'explorateur de métriques

Pour afficher les métriques d'une ressource surveillée à l'aide de l'explorateur de métriques, procédez comme suit:

  1. Dans Google Cloud Console, accédez à la page Explorateur de métriques de Monitoring.
  2. Accéder à l'explorateur de métriques

  3. Accédez à l'onglet Configuration.
  4. Développez le menu Sélectionner une métrique, saisissez Kubernetes Container dans la barre de filtre, puis utilisez les sous-menus pour sélectionner un type de ressource et une métrique spécifiques :
    1. Dans le menu Ressources actives, sélectionnez Conteneur Kubernetes.
    2. Dans le menu Catégories de métriques actives, sélectionnez Conteneur.
    3. Dans le menu Métriques actives, sélectionnez Durée d'utilisation du processeur.
    4. Cliquez sur Apply (Appliquer).
  5. Facultatif : pour configurer l'affichage des données, ajoutez des filtres et utilisez les menus Grouper par, Agrégateur et type de graphique. Par exemple, vous pouvez grouper les données par libellé de ressource ou de métrique. Pour plus d'informations, consultez la section Sélectionner des métriques lors de l'utilisation de l'explorateur de métriques.
  6. Facultatif : modifiez les paramètres du graphique :
    • Pour le quota et les autres métriques qui indiquent un échantillon par jour, définissez la période sur au moins une semaine et définissez le type de tracé sur Graphique à barres empilées.
    • Pour les métriques à valeur de distribution, définissez le type de tracé sur Graphique de carte de densité.

Métriques collectées

Les métriques sont collectées à l'aide de l'un des trois types de ressources surveillées suivants : Ces types correspondent à un objet Kubernetes pour lequel la mesure est effectuée :

Par exemple, les mesures d'un pod utilisent le type de ressource surveillée k8s_pod. Ces métriques incluront donc des étiquettes pour pod_name et namespace_name, qui identifient un pod particulier.

Un ensemble différent de types de métriques est utilisé pour chaque type de ressource surveillée. Pour en savoir plus sur ces types de métriques, consultez la page Métriques du système GKE.

Par défaut, les clusters Anthos sur Azure collectent les métriques suivantes:

k8s_container

  • kubernetes.io/container/cpu/limit_utilization
  • kubernetes.io/container/cpu/request_utilization
  • kubernetes.io/container/cpu/core_usage_time
  • kubernetes.io/container/memory/limit_utilization
  • kubernetes.io/container/memory/used_bytes
  • kubernetes.io/container/restart_count
  • kubernetes.io/container/ephemeral_storage/limit_bytes
  • kubernetes.io/container/ephemeral_storage/request_bytes
  • kubernetes.io/container/ephemeral_storage/used_bytes
  • kubernetes.io/container/cpu/limit_cores
  • kubernetes.io/container/memory/limit_bytes
  • kubernetes.io/container/memory/request_bytes
  • kubernetes.io/container/memory/request_utilization
  • kubernetes.io/container/memory/page_fault_count
  • kubernetes.io/container/cpu/request_cores
  • kubernetes.io/container/uptime

k8s_node

  • kubernetes.io/node/cpu/allocatable_utilization
  • kubernetes.io/node/cpu/core_usage_time
  • kubernetes.io/node/memory/allocatable_utilization
  • kubernetes.io/node/memory/used_bytes
  • kubernetes.io/node/cpu/total_cores
  • kubernetes.io/node/cpu/allocatable_cores
  • kubernetes.io/node/ephemeral_storage/allocatable_bytes
  • kubernetes.io/node/memory/allocatable_bytes
  • kubernetes.io/node_daemon/cpu/core_usage_time
  • kubernetes.io/node/ephemeral_storage/used_bytes
  • kubernetes.io/node/ephemeral_storage/inodes_free
  • kubernetes.io/node_daemon/memory/used_bytes
  • kubernetes.io/node/pid_limit
  • kubernetes.io/node/pid_used
  • kubernetes.io/node/ephemeral_storage/total_bytes
  • kubernetes.io/node/ephemeral_storage/inodes_total
  • kubernetes.io/node/memory/total_bytes

k8s_pod

  • kubernetes.io/pod/network/received_bytes_count
  • kubernetes.io/pod/network/sent_bytes_count
  • kubernetes.io/pod/volume/total_bytes
  • kubernetes.io/pod/volume/used_bytes
  • kubernetes.io/pod/volume/utilization

Étape suivante