Visualizza metriche

Mantieni tutto organizzato con le raccolte Salva e classifica i contenuti in base alle tue preferenze.

Questo argomento spiega come visualizzare le metriche ibride Apigee in una dashboard di Cloud Operations.

Informazioni sulla Suite operativa di Google Cloud

Per ulteriori informazioni sulle metriche, sulle dashboard e sulle operazioni cloud, consulta:

Attivazione delle metriche ibride

Prima di poter inviare le metriche ibride alle operazioni cloud, devi abilitare la raccolta delle metriche. Consulta Configurare la raccolta delle metriche per questa procedura.

Informazioni su nomi ed etichette delle metriche ibride

Se attivato, l'ibrido compila automaticamente le metriche della suite operativa di Google Cloud. Il prefisso del nome di dominio delle metriche create dall'ibrido è:

apigee.googleapis.com/

Ad esempio, la metrica /proxyv2/request_count contiene il numero totale di richieste ricevute da un proxy API. Il nome della metrica in Cloud Operations è quindi:

apigee.googleapis.com/proxyv2/request_count

Cloud Operations ti consente di filtrare e raggruppare i dati sulle metriche in base alle etichette. Alcune etichette sono predefinite, mentre altre vengono aggiunte esplicitamente da una modalità ibrida. La sezione Metriche disponibili riportata di seguito elenca tutte le metriche ibride disponibili e le eventuali etichette aggiunte specificamente per una metrica che puoi utilizzare per filtrare e raggruppare.

Visualizzazione delle metriche

L'esempio seguente mostra come visualizzare le metriche nella Suite operativa di Google Cloud:
  1. Apri Monitoring Metrics Explorer in un browser. In alternativa, se ti trovi già nella console delle operazioni di Cloud, seleziona Metrics Explorer.
  2. In Trova tipo di risorsa e Metrica, individua e seleziona la metrica da esaminare. Scegli una metrica specifica elencata in Metriche disponibili o cercane una.

  3. Seleziona la metrica desiderata.
  4. Applicare filtri. Le opzioni di filtro per ogni metrica sono elencate in Metriche disponibili.
  5. Cloud Operations mostra il grafico per la metrica selezionata.
  6. Fai clic su Salva.

Creare una dashboard

Le dashboard sono un modo per visualizzare e analizzare i dati delle metriche importanti per te, Cloud Operations fornisce dashboard predefinite per le risorse e i servizi che utilizzi, ma puoi anche creare dashboard personalizzate.

Utilizzi un grafico per visualizzare una metrica Apigee nella tua dashboard personalizzata. Con le dashboard personalizzate, hai il controllo completo dei grafici visualizzati e della loro configurazione. Per ulteriori informazioni sulla creazione di grafici, vedi Creazione di grafici.

L'esempio seguente mostra come creare una dashboard nella Suite operativa di Google Cloud e poi aggiungere grafici per visualizzare i dati delle metriche:

  1. Apri Monitoring Metrics Explorer in un browser e seleziona Dashboard.
  2. Seleziona + Crea dashboard.
  3. Assegna un nome alla dashboard. Ad esempio: traffico di richiesta di proxy ibrido
  4. Fai clic su Conferma.
  5. Per ogni grafico da aggiungere alla dashboard:

    1. Nella dashboard, seleziona Aggiungi grafico.
    2. Seleziona la metrica desiderata come descritto sopra in Visualizzazione delle metriche.
    3. Completa la finestra di dialogo per definire il grafico.
    4. Fai clic su Salva. La Suite operativa di Google Cloud visualizza i dati per la metrica selezionata.

Metriche disponibili

Le seguenti tabelle elencano le metriche per analizzare il traffico proxy.

Metriche del traffico proxy, target e server

Il servizio Prometheus raccoglie ed elabora le metriche (come descritto nella sezione Raccolta di metriche) per il proxy, il target e il traffico del server.

La tabella seguente descrive le metriche e le etichette utilizzate da Prometheus. Queste etichette vengono utilizzate nelle voci del log delle metriche.

Nome metrica Etichetta Utilizzo
/proxyv2/request_count method Il numero totale di richieste proxy API ricevute.
/proxyv2/response_count method response_code Il numero totale di risposte proxy API ricevute.
/proxyv2/latencies_percentile method Percentile di tutte le risposte al criterio dell'API a una richiesta.
/targetv2/request_count method

target_type

target_endpoint

Il numero totale di richieste inviate al target del proxy.
/targetv2/response_count method

response_code

target_type

target_endpoint

Il numero totale di risposte ricevute dal target del proxy.
/server/fault_count source

Il numero totale di errori per l'applicazione del server.

Ad esempio, l'applicazione potrebbe essere apigee-runtime, apigee-synchronizer o apigee-udca. Utilizza l'etichetta pod_name per filtrare i risultati per applicazione.

/server/nio state Il numero di socket aperti.
/server/num_threads Il numero di thread non daemon attivi nel server.
/server/request_count method

type

Il numero totale di richieste ricevute dall'applicazione server.

Ad esempio, l'applicazione potrebbe essere apigee-runtime, apigee-synchronizer o apigee-udca. Utilizza l'etichetta pod_name per filtrare i risultati per applicazione.

/server/response_count method

response_code
type

Numero totale di risposte inviate dall'applicazione server.

Ad esempio, l'applicazione potrebbe essere apigee-runtime, apigee-synchronizer o apigee-udca. Utilizza l'etichetta pod_name per filtrare i risultati per applicazione.

/server/latencies method

response_code
type

La latenza è la latenza in millisecondi introdotta dall'applicazione del server.

Ad esempio, l'applicazione potrebbe essere apigee-runtime, apigee-synchronizer o apigee-udca. Utilizza l'etichetta pod_name per filtrare i risultati per applicazione.

/upstream/request_count method

type

Il numero di richieste inviate dall'applicazione server alla relativa applicazione a monte.

Ad esempio, per apigee-synchronizer, il piano di controllo è a monte. Quindi upstream/request_count per apigee-synchronizer è una metrica che indica le richieste effettuate da apigee-synchronizer al piano di controllo.

/upstream/response_count method

response_code

type

Il numero di risposte ricevute dall'applicazione server dalla sua applicazione a monte.

Ad esempio, per apigee-synchronizer, il piano di controllo è a monte. Quindi upstream/response_count per apigee-synchronizer è una metrica che indica le richieste ricevute da apigee-synchronizer dal piano di controllo.

/upstream/latencies method

response_code
type

La latenza riscontrata nell'applicazione del server a monte in millisecondi.

Ad esempio, per apigee-synchronizer, il piano di controllo è a monte. Quindi upstream/latencies per apigee-synchronizer è una metrica che indica la latenza del piano di controllo.

Metriche UDCA

Il servizio Prometheus raccoglie ed elabora le metriche (come descritto nella sezione Raccolta di metriche) per il servizio UDCA come fa per gli altri servizi ibridi.

La seguente tabella descrive le metriche e le etichette utilizzate da Prometheus nei dati delle metriche UDCA. Queste etichette vengono utilizzate nelle voci del log delle metriche.

Nome metrica Etichetta Utilizzo
/udca/server/local_file_oldest_ts dataset

state

Il timestamp, in millisecondi dall'inizio dell'epoca Unix, per il file meno recente nel set di dati.

Questo valore viene calcolato ogni 60 secondi e non riflette lo stato in tempo reale. Se l'UDCA è aggiornata e non ci sono file in attesa di essere caricati quando viene calcolata questa metrica, il valore sarà 0.

Se questo valore continua ad aumentare, i file precedenti sono ancora su disco.

/udca/server/local_file_latest_ts dataset

state

Il timestamp, in millisecondi dall'inizio dell'epoca Unix, per il file più recente su disco per stato.

Questo valore viene calcolato ogni 60 secondi e non riflette lo stato in tempo reale. Se l'UDCA è aggiornata e non ci sono file in attesa di essere caricati quando viene calcolata questa metrica, il valore sarà 0.

/udca/server/local_file_count dataset

state

Un conteggio del numero di file su disco nel pod di raccolta dati.

Idealmente, il valore sarà vicino a 0. Un valore elevato e costante indica che i file non vengono caricati o che l'UDCA non è in grado di caricarli abbastanza velocemente.

Questo valore viene calcolato ogni 60 secondi e non riflette lo stato dell'UDCA in tempo reale.

/udca/server/total_latencies dataset

L'intervallo di tempo, espresso in secondi, che intercorre tra la creazione e il caricamento del file di dati.

I bucket saranno da 100 ms, 250 ms, 500 ms, 1 s, 2 s, 4 s, 8 s, 16 s, 32 s e 64 s.

Istogramma per la latenza totale dalla creazione del file al tempo di caricamento riuscito.

/udca/server/upload_latencies dataset

Il tempo totale, in secondi, trascorso dall'UDCA per caricare un file di dati.

I bucket saranno da 100 ms, 250 ms, 500 ms, 1 s, 2 s, 4 s, 8 s, 16 s, 32 s e 64 s.

Le metriche mostreranno un istogramma per la latenza di caricamento totale, incluse tutte le chiamate a monte.

/udca/upstream/http_error_count service

dataset

response_code

Il numero totale di errori HTTP riscontrati da UDCA. Questa metrica è utile per determinare quale parte delle dipendenze esterne dell'UDCA non funziona e per quale motivo.

Questi errori possono verificarsi per vari servizi (getDataLocation, Cloud storage, Token generator) e per vari set di dati (ad esempio api e trace) con vari codici di risposta.

/udca/upstream/http_latencies service

dataset

La latenza a monte dei servizi, in secondi.

I bucket saranno da 100 ms, 250 ms, 500 ms, 1 s, 2 s, 4 s, 8 s, 16 s, 32 s e 64 s.

Istogramma per la latenza dei servizi a monte.

/udca/upstream/uploaded_file_sizes dataset

Le dimensioni del file che viene caricato sui servizi Apigee, in byte.

I bucket saranno da 1 kB, 10 kB, 100 kB, 1 MB, 10 MB, 100 MB e 1 GB.

Istogramma per le dimensioni del file per set di dati, organizzazione e ambiente.

/udca/upstream/uploaded_file_count dataset Un conteggio dei file che UDCA ha caricato nei servizi Apigee.

Ricorda:

  • Il valore del set di dati event deve continuare a crescere.
  • Il valore del set di dati api dovrebbe continuare a crescere se org/env ha traffico costante.
  • Il valore del set di dati trace dovrebbe aumentare quando utilizzi gli strumenti di traccia Apigee per eseguire il debug o ispezionare le richieste.
/udca/disk/used_bytes dataset

state

Lo spazio occupato dai file di dati sul disco del pod di raccolta dati, in byte.

Un aumento di questo valore nel tempo:

  • ready_to_upload implica che l'agente è in ritardo.
  • failed implica che si accumulano file sul disco e non vengono caricati. Questo valore viene calcolato ogni 60 secondi.
/udca/server/pruned_file_count dataset

state

Numero di file che sono stati eliminati perché la durata (TTL) era superiore a una soglia impostata. Il set di dati può includere API, traccia e altri e lo stato può essere UPLOADED, FAILED o DISCARDED.
/udca/server/retry_cache_size dataset

Un conteggio del numero di file, per set di dati, che UDCA sta tentando di caricare.

Dopo 3 tentativi per ogni file, UDCA sposta il file nella sottodirectory /failed e lo rimuove dalla cache. Un aumento di questo valore nel tempo implica che la cache non viene cancellata, il che accade quando i file vengono spostati nella sottodirectory /failed dopo tre tentativi.

Metriche Cassandra

Il servizio Prometheus raccoglie ed elabora le metriche (come descritto nella raccolta delle metriche) per Cassandra e per gli altri servizi ibridi.

La seguente tabella descrive le metriche e le etichette utilizzate da Prometheus nei dati delle metriche di Cassandra. Queste etichette vengono utilizzate nelle voci del log delle metriche.

Nome metrica (dominio escluso) Etichetta Utilizzo
/cassandra/process_max_fds Numero massimo di descrittori di file aperti.
/cassandra/process_open_fds Apri descrittori dei file.
/cassandra/jvm_memory_pool_bytes_max pool Utilizzo massimo della memoria JVM per il pool.
/cassandra/jvm_memory_pool_bytes_init pol Utilizzo della memoria iniziale di JVM per il pool.
/cassandra/jvm_memory_bytes_max area Utilizzo massimo della memoria da parte dell'heap JVM.
/cassandra/process_cpu_seconds_total Tempo di CPU utente e di sistema trascorso in secondi.
/cassandra/jvm_memory_bytes_used area Utilizzo della memoria heap di JVM.
/cassandra/compaction_pendingtasks unit Eccellenti compattazioni per gli stables di Cassandra. Per ulteriori informazioni, vedi Compazione.
/cassandra/jvm_memory_bytes_init area Utilizzo della memoria iniziale dell'heap JVM.
/cassandra/jvm_memory_pool_bytes_used pool Utilizzo della memoria del pool JVM.
/cassandra/jvm_memory_pool_bytes_committed pool Utilizzo della memoria per pool JVM:
/cassandra/clientrequest_latency scope

unit

Latenza di richiesta di lettura nell'intervallo del 75° percentile in microsecondi.
/cassandra/jvm_memory_bytes_committed area Utilizzo della memoria per impegno di utilizzo di JVM heap.

Utilizzo delle metriche Cassandra

Apigee consiglia le seguenti metriche come fondamentali per il monitoraggio del database Cassandra:

  • Percentuale di richieste cartesandra: utilizza questa metrica per monitorare la percentuale di richieste di lettura e scrittura di cassandra.
    Metrica: apigee.googleapis.com/cassandra/clientrequest_latency
    Etichette risorse: project_id, location, cluster_name, namespace_name, pod_name, container_name
    Etichette delle metriche: scope, unit

    Utilizza queste etichette per filtrare la risorsa specifica o per il raggruppamento.

    Per monitorare la percentuale di richieste di lettura di cassandra, applica il filtro seguente.

    Filtri: metric.scope == 'Read'
    metric.unit == 'OneMinuteRate'

    Per monitorare la percentuale di richieste di scrittura di cassandra, applica il filtro seguente.

    Filtri: metric.scope == 'Write'
    metric.unit == 'OneMinuteRate'
  • Latenza di richiesta Cassandandra: utilizza questa metrica per monitorare la latenza di richiesta di lettura e scrittura di cassandra. Questa è la stessa metrica della tariffa della richiesta, apigee.googleapis.com/cassandra/clientrequest_latency con filtri diversi applicati.

    Per monitorare la latenza delle richieste di lettura cassandra, applica il filtro seguente.

    Filtri: metric.scope == 'Read'
    metric.unit == '99thPercentile', '95thPercentile' o '75thPercentile'

    Per monitorare la latenza della richiesta di scrittura di cassandra, applica il filtro seguente.

    Filtri: metric.scope == 'Write'
    metric.unit == '99thPercentile', '95thPercentile' o '75thPercentile'
  • Utilizzo richieste CPU Podandra
    Metrica: kubernetes.io/container/cpu/request_utilization
    Etichette risorse: project_id, location, cluster_name, namespace_name, pod_name, container_name

    Utilizza queste etichette per filtrare la risorsa specifica o per il raggruppamento.

  • Utilizzo del volume dei dati di Cassandra
    Metrica: kubernetes.io/pod/volume/utilization
    Etichette risorse: project_id, location, cluster_name, namespace_name e pod_name
    Etichette delle metriche: volume_name

    Utilizza queste etichette per filtrare la risorsa specifica o per il raggruppamento.

Suggerimenti per la scalabilità del cluster Cassandra

Le seguenti linee guida possono servire come cluster consigliato per decidere la scalabilità del cluster Cassandra. In generale, se le richieste di lettura o scrittura mostrano costantemente la latenza del 99° percentile o la latenza è in continuo aumento e noti picchi corrispondenti nel picco di utilizzo della richiesta della CPU e tassi di richiesta di lettura o scrittura, il tuo cluster Cassandra può essere considerato sotto stress. Ti consigliamo di fare lo scale up del cluster. Per ulteriori informazioni, consulta Scalabilità di Cassandra

MetricaSogliaDurata dell'attivatore
kubernetes.io/pod/volume/utilization85%5min
kubernetes.io/container/cpu/request_utilization85%3min
Read request Latency 99thPercentile5s3min
Write request Latency 99thPercentile5s3min