Raccogli e visualizza metriche di stato kube


Questa pagina descrive come configurare un cluster Google Kubernetes Engine (GKE) per inviare un insieme selezionato di stato kube, incluse le metriche per pod e deployment, Cloud Monitoring utilizzando Google Cloud Managed Service per Prometheus. Questa pagina descrive anche la formattazione di queste metriche quando vengono scritte in Monitoring e come eseguire query sulle metriche.

Prima di iniziare

Prima di iniziare, assicurati di aver eseguito le seguenti attività:

  • Abilita l'API Google Kubernetes Engine.
  • Abilita l'API Google Kubernetes Engine
  • Se vuoi utilizzare Google Cloud CLI per questa attività, installa e quindi initialize gcloud CLI. Se hai già installato gcloud CLI, ottieni la versione più recente eseguendo gcloud components update.

Requisiti

Per raccogliere metriche di stato kube, il cluster GKE deve soddisfare i seguenti requisiti:

  • Il cluster deve eseguire GKE 1.27.2-gke.1200 o versioni successive. Per i cluster GKE Standard che iniziano con la versione 1.29.2-gke.2000 e i cluster GKE Autopilot a partire dalla versione 1.27.4-gke.900, il pacchetto delle metriche di stato kube è abilitato per impostazione predefinita.
  • Nel cluster devono essere abilitate le metriche di sistema.
  • Nel cluster deve essere abilitata la raccolta gestita di Google Cloud Managed Service per Prometheus. La raccolta gestita di Google Cloud Managed Service per Prometheus è abilitata per impostazione predefinita per i nuovi cluster.

Configura la raccolta di metriche di stato kube

Puoi abilitare le metriche di stato kube utilizzando la console Google Cloud, gcloud CLI o Terraform:

Console

Puoi abilitare le metriche di stato kube dalla scheda Observability per un cluster o un deployment all'interno di un cluster. Puoi anche visualizzare l'anteprima dei grafici e delle metriche disponibili prima di attivare il pacchetto di metriche.

Nella scheda Osservabilità di un cluster, puoi filtrare l'insieme di grafici per le metriche di stato kube in base ai seguenti due elementi:

  • Stato dei carichi di lavoro: include le metriche per le risorse di pod, deployment, StatefulSet, DaemonSet e HorizontalPodAutoscaler.
  • Archiviazione > Persistente: include le metriche per volumi permanenti e attestazioni di volumi permanenti.

Puoi attivare uno o entrambi gli insiemi di metriche.

Per abilitare le metriche di stato kube dalla scheda Osservabilità per un cluster, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Cluster Kubernetes:

    Vai a Cluster Kubernetes

    Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato il cui sottotitolo è Kubernetes Engine.

  2. Fai clic sul nome del cluster e seleziona la scheda Osservabilità.

  3. Seleziona Stato carichi di lavoro o Archiviazione > Persistente dall'elenco delle funzionalità.

  4. Fai clic su Abilita pacchetto.

    Se il pacchetto di metriche di stato kube è già abilitato, vedrai invece un insieme di grafici per le metriche di stato kube.

Per abilitare le metriche di stato kube dalla scheda Observability per un deployment, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Carichi di lavoro:

    Vai a Carichi di lavoro

    Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato il cui sottotitolo è Kubernetes Engine.

  2. Fai clic sul nome del tuo deployment e seleziona la scheda Osservabilità.

  3. Seleziona Kube State dall'elenco delle funzionalità.

  4. Fai clic su Abilita pacchetto. Il pacchetto è abilitato per l'intero cluster.

    Se il pacchetto di metriche di stato kube è già abilitato, viene visualizzato un set di grafici per le metriche di pod, deployment e Horizontal Pod Autoscaler.

Per configurare le metriche di stato Kubernetes dalla scheda Dettagli per il cluster, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Cluster Kubernetes:

    Vai a Cluster Kubernetes

    Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato il cui sottotitolo è Kubernetes Engine.

  2. Fai clic sul nome del cluster.

  3. Nella riga Funzionalità con etichetta Cloud Monitoring, fai clic sull'icona Modifica.

  4. Nella finestra di dialogo Modifica Cloud Monitoring visualizzata, verifica che sia selezionata l'opzione Abilita Cloud Monitoring.

  5. Nel menu a discesa Componenti, seleziona i componenti dello stato Kubernetes da cui vuoi raccogliere le metriche.

  6. Fai clic su Ok.

  7. Fai clic su Salva modifiche.

gcloud

Aggiorna il cluster per raccogliere le metriche:

gcloud container clusters update CLUSTER_NAME \
    --location=COMPUTE_LOCATION \
    --enable-managed-prometheus \
    --monitoring=METRICS_LIST

Sostituisci quanto segue:

  • CLUSTER_NAME: il nome del cluster esistente.
  • COMPUTE_LOCATION: la località Compute Engine del cluster.
  • METRICS_LIST: un elenco di metriche separate da virgole, che possono includere una qualsiasi delle seguenti:
    • DAEMONSET
    • DEPLOYMENT
    • HPA
    • POD
    • STATEFULSET
    • STORAGE: metriche per volumi permanenti e attestazioni di volumi permanenti.

L'insieme di valori fornito al flag monitoring sostituisce qualsiasi impostazione precedente.

Terraform

Per configurare la raccolta di metriche di stato kube mediante Terraform, consulta il blocco monitoring_config nel registro Terraform per google_container_cluster. Per informazioni generali sull'utilizzo di Google Cloud con Terraform, consulta Terraform with Google Cloud.

Quota

Le metriche di stato kube utilizzano la quota Richieste di importazione di serie temporali al minuto dell'API Cloud Monitoring. Prima di abilitare le metriche di stato kube, controlla l'utilizzo recente di picco di quella quota. Se hai molti cluster nello stesso progetto o se stai già raggiungendo il limite di quota, puoi richiedere un aumento del limite della quota prima di abilitare uno dei due pacchetti di osservabilità.

Prezzi

Le metriche di stato kube utilizzano Google Cloud Managed Service per Prometheus per caricare metriche in Cloud Monitoring. Gli addebiti di Cloud Monitoring per l'importazione di queste metriche si basano sul numero di campioni importati. Tuttavia, queste metriche sono gratuite per i cluster registrati che appartengono a un progetto in cui è abilitata la versione di GKE Enterprise.

Per ulteriori informazioni, consulta i prezzi di Cloud Monitoring.

Formato metrica

Tutte le metriche di stato Kubernetes scritte in Cloud Monitoring utilizzano il tipo di risorsa prometheus_target. Ogni nome della metrica è preceduto dal prefisso prometheus.googleapis.com/ e da un suffisso che indica il tipo di metrica Prometheus, ad esempio /gauge, /histogram o /counter. In caso contrario, ogni nome di metrica è identico a quello esposto da Kubernetes open source.

Esportazione da Cloud Monitoring

Le metriche di stato kube possono essere esportate da Cloud Monitoring utilizzando l'API Cloud Monitoring. Poiché tutte le metriche di stato kube vengono importate tramite Google Cloud Managed Service per Prometheus, è possibile eseguire query sulle metriche di stato kube utilizzando Prometheus Query Language (PromQL). È inoltre possibile eseguire query utilizzando tramite Monitoring Query Language (MQL).

Esecuzione di query sulle metriche

Quando esegui una query sulle metriche di stato kube, il nome che utilizzi dipende a seconda che tu stia utilizzando funzionalità basate su PromQL o Cloud Monitoring come MQL o l' interfaccia basata su menu dMetrics Explorerhe.

Le seguenti tabelle di metriche di stato kube mostrano due versioni di ciascun nome di metrica:

  • Nome metrica PromQL: quando utilizzi PromQL nelle pagine di Cloud Monitoring della console Google Cloud o nei campi PromQL dell'API Cloud Monitoring, utilizza il nome della metrica PromQL.
  • Nome metrica di Cloud Monitoring Se usi altre funzionalità di Cloud Monitoring, usa il nome della metrica nelle tabelle riportate di seguito. Questo nome deve essere preceduto dal prefisso prometheus.googleapis.com/, che è stato omesso dalle voci della tabella.

Metriche di archiviazione

I nomi delle metriche di Cloud Monitoring in questa tabella devono essere preceduti dal prefisso prometheus.googleapis.com/. Questo prefisso è stato omesso dalle voci della tabella.

Nome metrica PromQL
Nome metrica Cloud Monitoring
Tipo, Tipo, Unità
Risorse monitorate
Versione GKE richiesta
Descrizione
Etichette
kube_persistentvolume_capacity_bytes
kube_persistentvolume_capacity_bytes/gauge
GAUGEDOUBLEBy
prometheus_target
1.27.2-gke.1200
Capacità del volume permanente in byte. Campionamento eseguito ogni 30 secondi.

persistentvolume: volume permanente.
kube_persistentvolume_claim_ref
kube_persistentvolume_claim_ref/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Informazioni sul riferimento all'attestazione di volumi permanenti. Campionamento eseguito ogni 30 secondi.

claim_name: claim_name.
name: nome.
persistentvolume: volume permanente.
kube_persistentvolume_info
kube_persistentvolume_info/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Informazioni sul volume permanente. Campionamento eseguito ogni 30 secondi.

csi_driver: driver_csi.
csi_volume_handle: csi_volume_handle.
local_fs: local_fs.
local_path: percorso_locale.
persistentvolume: volume permanente.
storageclass: storageclass.
kube_persistentvolume_status_phase
kube_persistentvolume_status_phase/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
La fase indica se un volume è disponibile, associato a una richiesta o ritirato da una rivendicazione. Campionamento eseguito ogni 30 secondi.

persistentvolume: volume permanente.
phase: fase.
kube_persistentvolumeclaim_info
kube_persistentvolumeclaim_info/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Informazioni sulla richiesta di volume permanente. Campionamento eseguito ogni 30 secondi.

persistentvolumeclaim: rivendicazione di volumi permanenti.
storageclass: storageclass.
volumename: nome volume.
kube_persistentvolumeclaim_resource_requests_storage_bytes
kube_persistentvolumeclaim_resource_requests_storage_bytes/gauge
GAUGEDOUBLEBy
prometheus_target
1.27.2-gke.1200
La capacità di archiviazione richiesta dalla richiesta di volume permanente. Campionamento eseguito ogni 30 secondi.

persistentvolumeclaim: rivendicazione di volumi permanenti.
kube_persistentvolumeclaim_status_phase
kube_persistentvolumeclaim_status_phase/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
La fase in cui si trova attualmente la richiesta di volume permanente. Campionamento eseguito ogni 30 secondi.

persistentvolumeclaim: rivendicazione di volumi permanenti.
phase: fase.

Per ulteriori informazioni, consulta Metriche PersistentVolume e Metriche PersistentVolumeClaim.

Metriche pod

Un pod è un gruppo di uno o più container con una specifica su come eseguire i container, che condividono le risorse di archiviazione e di rete.

Tabella delle metriche dei pod

Le metriche dei pod ti consentono di monitorare il comportamento dei pod e generare avvisi sul loro comportamento. La seguente tabella mostra le metriche disponibili nel pacchetto di metriche dello stato kube:

I nomi delle metriche di Cloud Monitoring in questa tabella devono essere preceduti dal prefisso prometheus.googleapis.com/. Questo prefisso è stato omesso dalle voci della tabella.

Nome metrica PromQL
Nome metrica Cloud Monitoring
Tipo, Tipo, Unità
Risorse monitorate
Versione GKE richiesta
Descrizione
Etichette
kube_pod_container_status_ready
kube_pod_container_status_ready/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Descrive se il controllo di idoneità dei container è riuscito. Campionamento eseguito ogni 30 secondi.

container: contenitore.
pod: pod.
uid: uid.
kube_pod_container_status_waiting_reason
kube_pod_status_container_status_waiting_reason/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Descrive il motivo per cui il container è attualmente in stato In attesa. Campionamento eseguito ogni 30 secondi.

container: contenitore.
pod: pod.
reason: motivo.
uid: uid.
kube_pod_status_phase
kube_pod_status_phase/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
La fase attuale dei pod. Campionamento eseguito ogni 30 secondi.

phase: fase.
pod: pod.
uid: uid.
kube_pod_status_unschedulable
kube_pod_status_unschedulable/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Descrive lo stato non pianificabile del pod. Campionamento eseguito ogni 30 secondi.

pod: pod.
uid: uid.

Per maggiori informazioni, consulta Metriche dei pod.

Query di esempio per le metriche dei pod

Per determinare se hai pod non pianificabili, utilizza la seguente espressione PromQL:

sum(kube_pod_status_unschedulable{cluster="CLUSTER", namespace="NAMESPACE"})

Per inviare un avviso relativo a un numero di pod non pianificabili in uno spazio dei nomi, puoi utilizzare la seguente espressione PromQL:

sum(kube_pod_status_unschedulable{cluster="CLUSTER", namespace="NAMESPACE"}) > LIMIT

Puoi utilizzare la metrica kube_pod_container_status_waiting_reason per creare un avviso per un container bloccato in uno stato di attesa specifico utilizzando un'espressione PromQL come la seguente:

max_over_time(kube_pod_container_status_waiting_reason{reason="REASON", cluster="CLUSTER", namespace="NAMESPACE"}[5m]) >= 1

Il valore REASON specifica lo stato di attesa del container, ad esempio:

  • CrashLoopBackOff
  • ImagePullBackOff
  • ContainerCreating

Per creare un avviso per un container bloccato in uno degli stati di attesa, utilizza la seguente espressione PromQL:

max_over_time(kube_pod_container_status_waiting_reason{cluster="CLUSTER", namespace="NAMESPACE"}[5m]) >= 1

Per determinare quanti container non superano i controlli di idoneità, utilizza l'espressione PromQL seguente

sum(kube_pod_container_status_ready) by (pod, container) == 0

Alcune espressioni di query e avvisi in questa sezione sono state adattate dal file kubernetes-apps.yaml nel repository dei grafici Helm di Kubernetes della community Prometheus su GitHub.

Playbook interattivi

Le metriche di stato kube vengono utilizzate anche nei playbook interattivi GKE per la risoluzione dei problemi relativi ai pod non pianificabili o con arresto anomalo in loop. Per ulteriori informazioni su queste modalità di errore, consulta i seguenti documenti per la risoluzione dei problemi:

Senza il pacchetto delle metriche di stato kube abilitato, il modo principale per rilevare i problemi di pianificazione dei pod è eseguire query sugli eventi di log "Pianificazione non riuscita". Dopo aver abilitato il pacchetto di metriche di stato kube, puoi utilizzare la metrica kube_pod_status_unschedulable, che ha lo stesso scopo, ma è più facile da aggregare e rappresentare su grafico. Puoi vedere quanti pod non sono pianificabili e quando è iniziato il problema usando la metrica.

Allo stesso modo, la metrica di sistema GKE kubernetes.io/container/restart_count può aiutarti a rilevare i pod in loop degli arresti anomali. La metrica kube_pod_container_status_waiting_reason elenca anche i pod con loop di arresto anomalo e consente anche di determinare se i pod sono bloccati in stati di attesa diversi da CrashLookBackOff, come ImagePullBackOff e ContainerCreating.

Per esplorare i playbook interattivi, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Dashboard :

    Vai a Dashboard

    Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Monitoring.

  2. Filtra l'elenco delle dashboard facendo clic sulla categoria G C P.
  3. Fai clic sul nome di una dashboard "Playbook interattivo di GKE" nell'elenco.

Metriche di deployment

Un deployment è un controller che aggiorna lo stato delle risorse, come i pod, per gestire eventi come implementazioni e turndown.

Tabella delle metriche di deployment

Le metriche di deployment ti consentono di monitorare il comportamento del controller e inviare avvisi sul comportamento. La seguente tabella mostra le metriche disponibili nel pacchetto di metriche di stato kube:

I nomi delle metriche di Cloud Monitoring in questa tabella devono essere preceduti dal prefisso prometheus.googleapis.com/. Questo prefisso è stato omesso dalle voci della tabella.

Nome metrica PromQL
Nome metrica Cloud Monitoring
Tipo, Tipo, Unità
Risorse monitorate
Versione GKE richiesta
Descrizione
Etichette
kube_deployment_spec_replicas
kube_deployment_spec_replicas/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Numero di pod desiderati per un deployment. Campionamento eseguito ogni 30 secondi.

deployment: deployment.
kube_deployment_status_replicas_available
kube_deployment_status_replicas_available/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Il numero di repliche disponibili per deployment. Campionamento eseguito ogni 30 secondi.

deployment: deployment.
kube_deployment_status_replicas_updated
kube_deployment_status_replicas_updated/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Il numero di repliche aggiornate per deployment. Campionamento eseguito ogni 30 secondi.

deployment: deployment.

Per ulteriori informazioni, consulta Metriche di deployment.

Query di esempio per le metriche di deployment

Puoi creare grafici e criteri di avviso per singoli deployment filtrando le metriche di deployment per cluster, spazio dei nomi e nome del deployment.

Ad esempio, per confrontare il numero di repliche disponibili con il numero previsto di repliche in un singolo deployment, puoi utilizzare le seguenti query PromQL per tracciare entrambe le metriche in un singolo grafico:

kube_deployment_spec_replicas{cluster="CLUSTER", namespace="NAMESPACE", deployment=DEPLOYMENT"}
e
kube_deployment_status_replicas_available{cluster="CLUSTER", namespace="NAMESPACE", deployment=DEPLOYMENT"}

Per inviare un avviso relativo a un deployment non riuscito o bloccato, puoi utilizzare la seguente espressione PromQL:

(
  kube_deployment_spec_replicas{cluster="CLUSTER", namespace="NAMESPACE", deployment="DEPLOYMENT"}
    >
  kube_deployment_status_replicas_available{cluster="CLUSTER", namespace="NAMESPACE", deployment="DEPLOYMENT"}
) and (
  changes(kube_deployment_status_replicas_updated{cluster="CLUSTER", namespace="NAMESPACE", deployment="DEPLOYMENT"}[10m])
    ==
  0
)

Alcune espressioni di query e avvisi in questa sezione sono state adattate dal file kubernetes-apps.yaml nel repository dei grafici Helm di Kubernetes della community Prometheus su GitHub.

Metriche StatefulSet

Uno StatefulSet è un controller che gestisce il deployment e la scalabilità di un insieme di pod per le applicazioni stateful. Questo controller gestisce l'ordine e l'univocità dei pod.

Tabella delle metriche StatefulSet

Le metriche StatefulSet consentono di monitorare e creare avvisi sul comportamento del controller. La seguente tabella mostra le metriche disponibili nel pacchetto di metriche di stato kube:

I nomi delle metriche di Cloud Monitoring in questa tabella devono essere preceduti dal prefisso prometheus.googleapis.com/. Questo prefisso è stato omesso dalle voci della tabella.

Nome metrica PromQL
Nome metrica Cloud Monitoring
Tipo, Tipo, Unità
Risorse monitorate
Versione GKE richiesta
Descrizione
Etichette
kube_statefulset_replicas
kube_statefulset_replicas/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Numero di pod desiderati per uno StatefulSet. Campionamento eseguito ogni 30 secondi.

statefulset: statefulset.
kube_statefulset_status_replicas_ready
kube_statefulset_status_replicas_ready/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Il numero di repliche pronte per StatefulSet. Campionamento eseguito ogni 30 secondi.

statefulset: statefulset.
kube_statefulset_status_replicas_updated
kube_statefulset_status_replicas_updated/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Il numero di repliche aggiornate per StatefulSet. Campionamento eseguito ogni 30 secondi.

statefulset: statefulset.

Per ulteriori informazioni, consulta le metriche StatefulSet.

Query di esempio per le metriche StatefulSet

Puoi creare grafici e criteri di avviso per singoli StatefulSet filtrando le metriche StatefulSet per cluster, spazio dei nomi e nome dello StatefulSet.

Ad esempio, per confrontare il numero di repliche disponibili con il numero previsto di repliche in un singolo StatefulSet, puoi utilizzare le seguenti query PromQL per tracciare entrambe le metriche in un singolo grafico:

kube_statefulset_replicas{cluster="CLUSTER", namespace="NAMESPACE", statefulset="STATEFULSET"}
e
kube_statefulset_status_replicas_ready{cluster="CLUSTER", namespace="NAMESPACE", statefulset="STATEFULSET"}

Per inviare un avviso relativo a un'implementazione StatefulSet non riuscita o bloccata, puoi utilizzare la seguente espressione PromQL:

(
  kube_statefulset_replicas{cluster="CLUSTER", namespace="NAMESPACE", statefulset="STATEFULSET"}
    >
  kube_statefulset_status_replicas_ready{cluster="CLUSTER", namespace="NAMESPACE", statefulset="STATEFULSET"}
) and (
  changes(kube_statefulset_status_replicas_updated{cluster="CLUSTER", namespace="NAMESPACE", statefulset="STATEFULSET"}[10m])
    ==
  0
)

Alcune espressioni di query e avvisi in questa sezione sono state adattate dal file kubernetes-apps.yaml nel repository dei grafici Helm di Kubernetes della community Prometheus su GitHub.

Metriche DaemonSet

Un DaemonSet è un controller che garantisce che alcuni insiemi di nodi eseguano una copia di un pod. Ad esempio, man mano che i nodi vengono aggiunti a un cluster, il DaemonSet aggiunge pod ai nodi. Questo controller è utile per garantire l'esecuzione di determinati processi su ogni nodo.

Tabella delle metriche DaemonSet

Le metriche DaemonSet consentono di monitorare e creare avvisi sul comportamento del controller. La seguente tabella mostra le metriche disponibili nel pacchetto di metriche di stato kube:

I nomi delle metriche di Cloud Monitoring in questa tabella devono essere preceduti dal prefisso prometheus.googleapis.com/. Questo prefisso è stato omesso dalle voci della tabella.

Nome metrica PromQL
Nome metrica Cloud Monitoring
Tipo, Tipo, Unità
Risorse monitorate
Versione GKE richiesta
Descrizione
Etichette
kube_daemonset_status_desired_number_scheduled
kube_daemonset_status_desired_number_scheduled/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Il numero di nodi su cui deve essere eseguito il pod del daemon. Campionamento eseguito ogni 30 secondi.

daemonset: daemonset.
kube_daemonset_status_number_misscheduled
kube_daemonset_status_number_misscheduled/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Il numero di nodi che eseguono un pod del daemon, ma che non dovrebbero farlo. Campionamento eseguito ogni 30 secondi.

daemonset: daemonset.
kube_daemonset_status_number_ready
kube_daemonset_status_number_ready/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Il numero di nodi che dovrebbero eseguire il pod del daemon e con uno o più pod del daemon in esecuzione e pronti. Campionamento eseguito ogni 30 secondi.

daemonset: daemonset.
kube_daemonset_status_updated_number_scheduled
kube_daemonset_status_updated_number_scheduled/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Il numero di nodi che eseguono il pod del daemon aggiornato. Campionamento eseguito ogni 30 secondi.

daemonset: daemonset.

Per ulteriori informazioni, consulta Metriche DaemonSet.

Query di esempio per le metriche DaemonSet

Puoi creare grafici e criteri di avviso per singoli DaemonSet filtrando le metriche del daemonset per cluster, spazio dei nomi e nome del DaemonSet.

Ad esempio, per confrontare il numero di repliche disponibili con il numero previsto di repliche in un singolo DaemonSet, puoi utilizzare le seguenti query PromQL per tracciare entrambe le metriche in un singolo grafico:

kube_daemonset_status_updated_number_scheduled{cluster="CLUSTER", namespace="NAMESPACE", daemonsetset=DAEMONSET"}
e
kube_daemonset_status_desired_number_scheduled{cluster="CLUSTER", namespace="NAMESPACE", daemonset=DAEMONSET"}

Per inviare un avviso relativo a un'implementazione DaemonSet non riuscita o bloccata, puoi utilizzare la seguente espressione PromQL:

(
  (
    kube_daemonset_status_number_misscheduled{cluster="CLUSTER", namespace="NAMESPACE", daemonset="DAEMONSET"}
      !=
    0
  ) or (
    kube_daemonset_status_updated_number_scheduled{cluster="CLUSTER", namespace="NAMESPACE", daemonset="DAEMONSET"}
      !=
    kube_daemonset_status_desired_number_scheduled{cluster="CLUSTER", namespace="NAMESPACE", daemonset="DAEMONSET"}
  )
) and (
  changes(kube_daemonset_status_updated_number_scheduled{cluster="CLUSTER", namespace="NAMESPACE", daemonset="DAEMONSET"}[5m])
    ==
  0
)

Alcune espressioni di query e avvisi in questa sezione sono state adattate dal file kubernetes-apps.yaml nel repository dei grafici Helm di Kubernetes della community Prometheus su GitHub.

Metriche HorizontalPodAutoscaler

Un HorizontalPodAutoscaler (HPA) è un controller che modifica periodicamente il numero di pod in un carico di lavoro, ad esempio un oggetto Deployment o StatefulSet, in risposta ad alcune metriche come l'utilizzo della CPU o della memoria. La modifica del numero di pod disponibili per un carico di lavoro mantiene il carico di lavoro reattivo, ma efficiente.

Per ulteriori informazioni sugli HPA, consulta Visualizzazione dei dettagli su Horizontal Pod Autoscaler.

Tabella delle metriche HPA

Le metriche HorizontalPodAutoscaler consentono di monitorare il comportamento del controller e generare avvisi sul comportamento. La seguente tabella mostra le metriche disponibili nel pacchetto di metriche di stato kube:

I nomi delle metriche di Cloud Monitoring in questa tabella devono essere preceduti dal prefisso prometheus.googleapis.com/. Questo prefisso è stato omesso dalle voci della tabella.

Nome metrica PromQL
Nome metrica Cloud Monitoring
Tipo, Tipo, Unità
Risorse monitorate
Versione GKE richiesta
Descrizione
Etichette
kube_horizontalpodautoscaler_spec_max_replicas
kube_horizontalpodautoscaler_spec_max_replicas/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Il limite superiore per il numero di pod che può essere impostato dal gestore della scalabilità automatica non può essere inferiore a MinReplicas. Campionamento eseguito ogni 30 secondi.

horizontalpodautoscaler: Horizontalpodautoscaler.
kube_horizontalpodautoscaler_spec_min_replicas
kube_horizontalpodautoscaler_spec_min_replicas/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Limite inferiore per il numero di pod che possono essere impostati dal gestore della scalabilità automatica, valore predefinito 1. Campionamento eseguito ogni 30 secondi.

horizontalpodautoscaler: Horizontalpodautoscaler.
kube_horizontalpodautoscaler_spec_target_metric
kube_horizontalpodautoscaler_spec_target_metric/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Le specifiche delle metriche utilizzate da questo gestore della scalabilità automatica per calcolare il numero di repliche desiderato. Campionamento eseguito ogni 30 secondi.

horizontalpodautoscaler: Horizontalpodautoscaler.
metric_name: metric_name.
metric_target_type: metric_target_type.
kube_horizontalpodautoscaler_status_condition
kube_horizontalpodautoscaler_status_condition/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
La condizione di questo gestore della scalabilità automatica. Campionamento eseguito ogni 30 secondi.

condition: condizione.
horizontalpodautoscaler: Horizontalpodautoscaler.
namespace: spazio dei nomi.
status: stato.
kube_horizontalpodautoscaler_status_current_replicas
kube_horizontalpodautoscaler_status_status_current_replicas/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Numero attuale di repliche dei pod gestiti da questo gestore della scalabilità automatica. Campionamento eseguito ogni 30 secondi.

horizontalpodautoscaler: Horizontalpodautoscaler.
kube_horizontalpodautoscaler_status_desired_replicas
kube_horizontalpodautoscaler_status_desired_replicas/gauge
GAUGEDOUBLE1
prometheus_target
1.27.2-gke.1200
Numero desiderato di repliche dei pod gestiti da questo gestore della scalabilità automatica. Campionamento eseguito ogni 30 secondi.

horizontalpodautoscaler: Horizontalpodautoscaler.

Per ulteriori informazioni, consulta Horizontal Pod Autoscaler Metrics.

Query di esempio per le metriche HPA

Ad esempio, per determinare se l'HPA si sta avvicinando al numero massimo di repliche, puoi tracciare il seguente rapporto:

kube_horizontalpodautoscaler_status_current_replicas{cluster="CLUSTER", namespace="NAMESPACE", horizontalpodautoscaler="HPA"} /
kube_horizontalpodautoscaler_spec_max_replicas{cluster="CLUSTER", namespace="NAMESPACE", horizontalpodautoscaler="HPA"}

Quando l'HPA è in esecuzione con il numero massimo di repliche, potresti voler aumentare la specifica per il numero massimo di pod. Puoi utilizzare la seguente espressione PromQL per creare un avviso che ti invii una notifica in merito a questa richiesta:

kube_horizontalpodautoscaler_status_current_replicas{cluster="CLUSTER", namespace="NAMESPACE", horizontalpodautoscaler="HPA"}
  ==
kube_horizontalpodautoscaler_spec_max_replicas{cluster="CLUSTER", namespace="NAMESPACE", horizontalpodautoscaler="HPA"}

Puoi anche confrontare i valori delle metriche kube_horizontalpodautoscaler_status_current_replicas e kube_horizontalpodautoscaler_status_desired_replicas per determinare se esiste una differenza tra il numero di repliche attuale e quello necessario. Una differenza potrebbe indicare un vincolo delle risorse nel cluster. La seguente espressione PromQL cerca le differenze tra il numero attuale di repliche e il numero necessario, minimo e massimo di repliche, nonché le modifiche nel numero attuale di repliche:

(kube_horizontalpodautoscaler_status_desired_replicas{job="kube-state-metrics", namespace=~"NAMESPACE"}
  !=
kube_horizontalpodautoscaler_status_current_replicas{job="kube-state-metrics", namespace=~"NAMESPACE"})
  and
(kube_horizontalpodautoscaler_status_current_replicas{job="kube-state-metrics", namespace=~"NAMESPACE"}
  >
kube_horizontalpodautoscaler_spec_min_replicas{job="kube-state-metrics", namespace=~"NAMESPACE"})
  and
(kube_horizontalpodautoscaler_status_current_replicas{job="kube-state-metrics", namespace=~"NAMESPACE"}
  <
kube_horizontalpodautoscaler_spec_max_replicas{job="kube-state-metrics", namespace=~"NAMESPACE"})
  and
changes(kube_horizontalpodautoscaler_status_current_replicas{job="kube-state-metrics", namespace=~"NAMESPACE"}[15m]) == 0

Le etichette condition e status nella metrica kube_horizontalpodautoscaler_status_condition possono anche aiutarti a rilevare quando gli HPA si verificano in varie modalità di errore. Ad esempio:

  • La condizione ScalingLimited e lo stato true indicano che l'HPA è vincolato al numero minimo o massimo di repliche:
    kube_horizontalpodautoscaler_status_condition{status="true", condition="ScalingLimited"} == 1
  • La condizione AbleToScale e lo stato false indicano che l'HPA sta riscontrando problemi durante il recupero o l'aggiornamento delle bilance:

    kube_horizontalpodautoscaler_status_condition{status="false", condition="AbleToScale"} == 1

  • La condizione ScalingActive e lo stato false indicano che l'HPA è disabilitato o che non è in grado di calcolare una nuova scala:

    kube_horizontalpodautoscaler_status_condition{status="false", condition="ScalingActive"} == 1

Alcune espressioni di query e avvisi in questa sezione sono state adattate dal file kubernetes-apps.yaml nel repository dei grafici Helm di Kubernetes della community Prometheus su GitHub.