Questa documentazione riguarda la versione più recente dei cluster Anthos su Azure, rilasciata il 3 novembre. Per ulteriori informazioni, consulta le note di rilascio.

Cloud Monitoring

Questo argomento descrive il modo in cui i cluster Anthos su Azure si integrano con Cloud Monitoring e come visualizzare le metriche.

Prima di iniziare

  1. Configurare Google Cloud CLI e abilitare le API richieste nel tuo progetto Google Cloud.

  2. Autorizzare Cloud Logging/Cloud Monitoring a configurare le autorizzazioni per la suite operativa di Google Cloud.

Panoramica

Cluster Anthos on Azure ha l'integrazione integrata con Cloud Monitoring per metriche di sistema di nodi, pod e container. Questo consente di vedere facilmente il consumo di risorse dei carichi di lavoro nel cluster, creare dashboard e configurare avvisi.

Cluster Anthos on Azure installa il raccoglitore di metriche gke-metrics-agent nel tuo cluster. Questo agente si basa su OpenTelemetry Collector e viene eseguito su ogni nodo nel cluster. campiona le metriche ogni minuto e carica le misurazioni in Cloud Monitoring.

Una volta caricate, le metriche per il cluster si trovano nel progetto Google Cloud. Puoi aggregare i dati in tutti i tuoi cluster, creare dashboard personalizzate, esplorare i dati di un singolo cluster, visualizzare grafici a linee, configurare gli avvisi e altro ancora.

Utilizzo di Metrics Explorer

Per utilizzare Metrics Explorer per visualizzare le metriche di una risorsa monitorata, procedi nel seguente modo:

  1. Nella console Google Cloud, vai alla pagina Metrics Explorer in Monitoring.
  2. Vai a Metrics Explorer

  3. Nella barra degli strumenti, seleziona la scheda Explorer.
  4. Seleziona la scheda Configurazione.
  5. Espandi il menu Seleziona una metrica, inserisci Kubernetes Container nella barra dei filtri e utilizza i sottomenu per selezionare una metrica e un tipo di risorsa specifici:
    1. Nel menu Risorse attive, seleziona Container Kubernetes.
    2. Nel menu Categorie di metriche attive, seleziona Contenitore.
    3. Nel menu Metriche attive, seleziona Tempo di utilizzo della CPU.
    4. Fai clic su Applica.
  6. Facoltativo: per configurare la modalità di visualizzazione dei dati, aggiungi filtri e utilizza i menu Raggruppa per, Aggregatore e di tipo grafico. Ad esempio, puoi raggruppare in base a etichette di risorsa o metrica. Per ulteriori informazioni, consulta la pagina Selezionare le metriche quando si utilizza Metrics Explorer.
  7. Facoltativo: modifica le impostazioni del grafico:
    • Per le quote e altre metriche che segnalano un campione al giorno, imposta il periodo di tempo su almeno una settimana e il tipo di grafico su Grafico a barre in pila.
    • Per le metriche con valore di distribuzione, imposta il tipo di grafico su Grafico termico.

Quali metriche vengono raccolte

Le metriche vengono raccolte utilizzando uno dei tre tipi di risorse monitorati. Questi tipi corrispondono a un oggetto Kubernetes per cui viene eseguita la misurazione:

Ad esempio, le misurazioni relative a un pod userebbero il tipo di risorsa monitorata k8s_pod. Queste metriche includono quindi etichette per pod_name e namespace_name che identificano un determinato pod.

Viene utilizzato un set diverso di tipi di metriche per ogni tipo di risorsa monitorata. Per saperne di più su questi tipi di metriche, consulta Metriche di sistema GKE.

Per impostazione predefinita, i cluster Anthos su Azure raccoglie le seguenti metriche:

container_k8s

  • kubernetes.io/container/cpu/limit_utilization
  • kubernetes.io/container/cpu/request_utilization
  • kubernetes.io/container/cpu/core_usage_time
  • kubernetes.io/container/memory/limit_utilization
  • kubernetes.io/container/memory/used_bytes
  • kubernetes.io/container/restart_count
  • kubernetes.io/container/ephemeral_storage/limit_bytes
  • kubernetes.io/container/ephemeral_storage/request_bytes
  • kubernetes.io/container/ephemeral_storage/used_bytes
  • kubernetes.io/container/cpu/limit_cores
  • kubernetes.io/container/memory/limit_bytes
  • kubernetes.io/container/memory/request_bytes
  • kubernetes.io/container/memory/request_utilization
  • kubernetes.io/container/memory/page_fault_count
  • kubernetes.io/container/cpu/request_cores
  • kubernetes.io/container/uptime

nodo_k8s

  • kubernetes.io/node/cpu/allocatable_utilization
  • kubernetes.io/node/cpu/core_usage_time
  • kubernetes.io/node/memory/allocatable_utilization
  • kubernetes.io/node/memory/used_bytes
  • kubernetes.io/node/cpu/total_cores
  • kubernetes.io/node/cpu/allocatable_cores
  • kubernetes.io/node/ephemeral_storage/allocatable_bytes
  • kubernetes.io/node/memory/allocatable_bytes
  • kubernetes.io/node_daemon/cpu/core_usage_time
  • kubernetes.io/node/ephemeral_storage/used_bytes
  • kubernetes.io/node/ephemeral_storage/inodes_free
  • kubernetes.io/node_daemon/memory/used_bytes
  • kubernetes.io/node/pid_limit
  • kubernetes.io/node/pid_used
  • kubernetes.io/node/ephemeral_storage/total_bytes
  • kubernetes.io/node/ephemeral_storage/inodes_total
  • kubernetes.io/node/memory/total_bytes

pod k8s

  • kubernetes.io/pod/network/received_bytes_count
  • kubernetes.io/pod/network/sent_bytes_count
  • kubernetes.io/pod/volume/total_bytes
  • kubernetes.io/pod/volume/used_bytes
  • kubernetes.io/pod/volume/utilization

Quali sono i passaggi successivi?