Questo argomento spiega come visualizzare le metriche ibride di Apigee in un Dashboard della suite operativa di Google Cloud.
Informazioni sulla suite operativa di Google Cloud
Per ulteriori informazioni su metriche, dashboard e la suite operativa di Google Cloud, consulta:
Abilitazione delle metriche ibride
Prima di poter inviare le metriche ibride Suite operativa di Google Cloud, devi prima abilitare la raccolta delle metriche. Consulta Configurare la raccolta delle metriche per questa procedura.
Informazioni sui nomi e sulle etichette delle metriche ibride
Se questa opzione è abilitata, il modello ibrido compila automaticamente le metriche della suite operativa di Google Cloud. Il prefisso del nome di dominio delle metriche create da un modello ibrido è:
apigee.googleapis.com/
Ad esempio, la metrica /proxyv2/request_count
contiene il numero totale di richieste ricevute
da un proxy API. Di conseguenza, il nome della metrica nella Suite operativa di Google Cloud è:
apigee.googleapis.com/proxyv2/request_count
La Suite operativa di Google Cloud ti consente di filtrare e gruppo i dati delle metriche in base a etichette. Alcune etichette sono predefinite, mentre altre vengono aggiunte esplicitamente da un ibrido. La sezione Metriche disponibili di seguito elenca tutte le metriche ibride ed eventuali etichette aggiunte appositamente per una metrica, che puoi utilizzare per l'applicazione di filtri e raggruppamenti.
Visualizzazione delle metriche
L'esempio seguente mostra come visualizzare le metriche nella Suite operativa di Google Cloud:- Apri Esplora metriche di Monitoring in un browser. In alternativa, se ti trovi già nella Suite operativa di Google Cloud Console, seleziona Metrics Explorer.
In Trova tipo di risorsa e metrica, individua e seleziona che vuoi esaminare. Scegli una metrica specifica elencata in Metriche disponibili o cerca una metrica.
- Seleziona la metrica che ti interessa.
- Applica filtri. Le scelte dei filtri per ogni metrica sono elencate nella sezione Metriche disponibili.
- La Suite operativa di Google Cloud mostra il grafico della metrica selezionata.
- Fai clic su Salva.
Creazione di una dashboard
Dashboard sono un modo per visualizzare e analizzare i dati delle metriche importanti per te. La suite operativa di Google Cloud offre dashboard predefinite per le risorse e i servizi che utilizzi, e puoi anche creare dashboard personalizzate.
Utilizzi un grafico per visualizzare una metrica Apigee nella tua dashboard personalizzata. Con le dashboard personalizzate hai il controllo completo sui grafici visualizzati e sulla relativa configurazione. Per ulteriori informazioni sulla creazione dei grafici, consulta Creare grafici.
L'esempio seguente mostra come creare una dashboard nella suite operativa di Google Cloud e poi aggiungere grafici per visualizzare i dati delle metriche:
- Apri Esplora metriche di Monitoring in un browser e seleziona Dashboard.
- Seleziona + Crea dashboard.
- Assegna un nome alla dashboard. Ad esempio: Traffico di richieste proxy ibrido
- Fai clic su Conferma.
Per ogni grafico che vuoi aggiungere alla dashboard, segui questi passaggi:
- Nella dashboard, seleziona Aggiungi grafico.
- Seleziona la metrica che ti interessa come descritto sopra in Visualizzazione delle metriche.
- Completa la finestra di dialogo per definire il grafico.
- Fai clic su Salva. La Suite operativa di Google Cloud mostra i dati per la metrica selezionata.
Metriche disponibili
Le seguenti tabelle elencano le metriche per l'analisi del traffico proxy.
Metriche relative al traffico proxy, target e server
Il servizio Prometheus raccoglie ed elabora le metriche (come descritto in Raccolta di metriche) per proxy, di destinazione e del server.
La tabella seguente descrive le metriche e le etichette utilizzate da Prometheus. Queste etichette vengono utilizzate nelle voci di log delle metriche.
Nome metrica | Etichetta | Utilizza |
---|---|---|
/proxyv2/request_count |
method |
Il numero totale di richieste proxy API ricevute. |
/proxyv2/response_count |
method
response_code |
Il numero totale di risposte del proxy API ricevute. |
/proxyv2/latencies_percentile |
method |
Percentile di tutte le risposte ai criteri dell'API a una richiesta. |
/targetv2/request_count |
method
|
Il numero totale di richieste inviate alla destinazione del proxy. |
/targetv2/response_count |
method
|
Il numero totale di risposte ricevute dalla destinazione del proxy. |
/server/fault_count |
source |
Il numero totale di errori per l'applicazione server. Ad esempio, l'applicazione potrebbe essere |
/server/nio |
state |
Il numero di socket aperti. |
/server/num_threads |
Il numero di thread non daemon attivi nel server. | |
/server/request_count |
method
|
Il numero totale di richieste ricevute dall'applicazione server. Ad esempio, l'applicazione potrebbe essere |
/server/response_count |
method
|
Numero totale di risposte inviate dall'applicazione server. Ad esempio, l'applicazione potrebbe essere |
/server/latencies |
method
|
La latenza è la latenza in millisecondi introdotta dall'applicazione server. Ad esempio, l'applicazione potrebbe essere |
/upstream/request_count |
method
|
Il numero di richieste inviate dall'applicazione server alla sua applicazione upstream. Ad esempio, per |
/upstream/response_count |
method
|
Il numero di risposte ricevute dall'applicazione server dalla sua applicazione upstream. Ad esempio, per |
/upstream/latencies |
method
|
La latenza registrata presso l'applicazione server upstream in millisecondi. Ad esempio, per |
Metriche UDCA
Il servizio Prometheus raccoglie ed elabora le metriche (come descritto in Raccolta di metriche) per servizio UDCA proprio come avviene per gli altri servizi ibridi.
La tabella seguente descrive le metriche e le etichette utilizzate da Prometheus nella Dati delle metriche UDCA. Queste etichette vengono utilizzate nelle voci di log delle metriche.
Nome metrica | Etichetta | Utilizza |
---|---|---|
/udca/server/local_file_oldest_ts |
dataset
|
Timestamp, in millisecondi dall'inizio dell'epoca di Unix, per il file meno recente nel set di dati. Questo valore viene calcolato ogni 60 secondi e non riflette lo stato in tempo reale. Se la funzione UDCA è aggiornata e non ci sono file in attesa di essere caricati al momento del calcolo di questa metrica, questo valore sarà 0. Se questo valore continua ad aumentare, i file precedenti rimangono sul disco. |
/udca/server/local_file_latest_ts |
dataset
|
Timestamp, in millisecondi dall'inizio dell'epoca di Unix, per il file più recente su disco per stato. Questo valore viene calcolato ogni 60 secondi e non riflette lo stato in tempo reale. Se la funzione UDCA è aggiornata e non ci sono file in attesa di essere caricati al momento del calcolo di questa metrica, questo valore sarà 0. |
/udca/server/local_file_count |
dataset
|
Un conteggio del numero di file su disco nel pod di raccolta dati. Idealmente, il valore sarà vicino a 0. Un valore elevato e costante indica che i file non vengono caricati o che l'UDCA non è in grado di caricarli abbastanza velocemente. Questo valore viene calcolato ogni 60 secondi e non riflette lo stato dell'UDCA in tempo reale. |
/udca/server/total_latencies |
dataset |
L'intervallo di tempo, in secondi, tra il file di dati creato e il suo caricamento. I bucket saranno di 100 ms, 250 ms, 500 ms, 1 s, 2 s, 4 s, 8 s, 16 s, 32 s e 64 s. Istogramma per la latenza totale dal momento della creazione del file al momento del caricamento riuscito. |
/udca/server/upload_latencies |
dataset |
Il tempo totale, in secondi, impiegato dalla UDCA per il caricamento di un file di dati. I bucket saranno di 100 ms, 250 ms, 500 ms, 1 s, 2 s, 4 s, 8 s, 16 s, 32 s e 64 s. Le metriche mostreranno un istogramma per la latenza totale del caricamento, comprese tutte le chiamate upstream. |
/udca/upstream/http_error_count |
service
|
Il conteggio totale degli errori HTTP riscontrati dalla funzione UDCA. Questa metrica è utile per aiutarti determinare quale parte delle dipendenze esterne UDCA presenta errori e per quale motivo. Questi errori possono verificarsi per vari servizi (
|
/udca/upstream/http_latencies |
service
|
La latenza upstream dei servizi, in secondi. I bucket saranno di 100 ms, 250 ms, 500 ms, 1 s, 2 s, 4 s, 8 s, 16 s, 32 s e 64 s. Istogramma per la latenza dei servizi upstream. |
/udca/upstream/uploaded_file_sizes |
dataset |
Le dimensioni del file che viene caricato nei servizi Apigee, espresse in byte. I bucket saranno da 1 KB, 10 KB, 100 KB, 1 MB, 10 MB, 100 MB e 1 GB. Istogramma delle dimensioni del file per set di dati, organizzazione e ambiente. |
/udca/upstream/uploaded_file_count |
dataset |
Un conteggio dei file che UDCA ha caricato nei servizi Apigee.
Ricorda:
|
/udca/disk/used_bytes |
dataset
|
Lo spazio occupato dai file di dati sul disco del pod di raccolta dati, in byte. Un aumento di questo valore nel tempo:
|
/udca/server/pruned_file_count |
dataset
|
Numero di file che sono stati eliminati perché la loro durata (TTL) ha superato una soglia impostata.
Il set di dati può includere API, traccia e altri, mentre lo stato può essere UPLOADED ,
FAILED o DISCARDED .
|
/udca/server/retry_cache_size |
dataset |
Un conteggio del numero di file, in base al set di dati, che l'UDCA sta riprovando a caricare. Dopo 3 tentativi per ciascun file, UDCA sposta il file nella sottodirectory |
Metriche Cassandra
Il servizio Prometheus raccoglie ed elabora le metriche (come descritto in Raccolta di metriche) per Cassandra come per gli altri servizi ibridi.
La tabella seguente descrive le metriche e le etichette utilizzate da Prometheus nella Dati delle metriche Cassandra. Queste etichette vengono utilizzate nelle voci di log delle metriche.
Nome metrica (escluso il dominio) | Etichetta | Utilizza |
---|---|---|
/cassandra/process_max_fds |
Numero massimo di descrittori di file aperti. | |
/cassandra/process_open_fds |
Apri descrittori dei file. | |
/cassandra/jvm_memory_pool_bytes_max |
pool |
Utilizzo massimo di memoria JVM per il pool. |
/cassandra/jvm_memory_pool_bytes_init |
pol |
Utilizzo della memoria iniziale della JVM per il pool. |
/cassandra/jvm_memory_bytes_max |
area |
Utilizzo massimo di memoria heap JVM. |
/cassandra/process_cpu_seconds_total |
Tempo di CPU dell'utente e del sistema impiegato in secondi. | |
/cassandra/jvm_memory_bytes_used |
area |
Utilizzo memoria heap JVM. |
/cassandra/compaction_pendingtasks |
unit |
Compattazioni eccezionali per le sstable Cassandra. Per saperne di più, consulta la sezione Compattazione. |
/cassandra/jvm_memory_bytes_init |
area |
Utilizzo iniziale memoria heap JVM. |
/cassandra/jvm_memory_pool_bytes_used |
pool |
Utilizzo memoria pool JVM. |
/cassandra/jvm_memory_pool_bytes_committed |
pool |
Utilizzo della memoria impegnata per il pool JVM. |
/cassandra/clientrequest_latency |
scope
|
Latenza delle richieste di lettura nell'intervallo del 75° percentile in microsecondi. |
/cassandra/jvm_memory_bytes_committed |
area |
Utilizzo della memoria impegnata nell'heap JVM. |
Utilizzo delle metriche di Cassandra
Apigee consiglia le seguenti metriche come critiche per il monitoraggio del database Cassandra:
- Tasso di richieste Cassandra: utilizza questa metrica per monitorare la richiesta di lettura e scrittura di Cassandra
di conversione.
Metrica: apigee.googleapis.com/cassandra/clientrequest_latency
Etichette risorse: project_id
,location
,cluster_name
namespace_name
,pod_name
econtainer_name
Etichette metriche: scope
,unit
Utilizza queste etichette per filtrare la risorsa specifica o per il raggruppamento.
Per monitorare il tasso di richieste di lettura di Cassandra, applica il seguente filtro.
Filtri: metric.scope == 'Read'
metric.unit == 'OneMinuteRate'
Per monitorare il tasso di richieste di scrittura di Cassandra, applica il seguente filtro.
Filtri: metric.scope == 'Write'
metric.unit == 'OneMinuteRate'
- Latenza richiesta Cassandra: utilizza questa metrica per monitorare la lettura e la scrittura di Cassandra
latenza delle richieste. Questa è la stessa metrica della tasso di richieste
apigee.googleapis.com/cassandra/clientrequest_latency
con filtri diversi applicati.Per monitorare la latenza delle richieste di lettura di Cassandra, applica il seguente filtro.
Filtri: metric.scope == 'Read'
metric.unit == '99thPercentile'
o'95thPercentile'
o'75thPercentile'
Per monitorare la latenza delle richieste di scrittura Cassandra, applica il filtro seguente.
Filtri: metric.scope == 'Write'
metric.unit == '99thPercentile'
o'95thPercentile'
o'75thPercentile'
- Utilizzo delle richieste di CPU dei pod Cassandra
Metrica: kubernetes.io/container/cpu/request_utilization
Etichette risorse: project_id
,location
,cluster_name
namespace_name
,pod_name
econtainer_name
Utilizza queste etichette per filtrare la risorsa specifica o per il raggruppamento.
- Utilizzo del volume di dati Cassandra
Metrica: kubernetes.io/pod/volume/utilization
Etichette risorse: project_id
,location
,cluster_name
namespace_name
pod_name
Etichette metriche: volume_name
Utilizza queste etichette per filtrare la risorsa specifica o per il raggruppamento.
Suggerimenti per la scalabilità del cluster Cassandra
Le seguenti linee guida possono fungere da cluster consigliato per la decisione di scalare Cluster Cassandra. In generale, se le richieste di lettura o scrittura mostrano costantemente una latenza del 99° percentile oppure la latenza è in continuo aumento, con picchi corrispondenti nelle richieste di CPU e le percentuali di richieste di lettura o scrittura, il tuo cluster Cassandra può essere considerato essere sotto stress. Valuta la possibilità di fare lo scale up del cluster. Per ulteriori informazioni, vedi Scalabilità di Cassandra
Metrica | Soglia | Durata trigger |
---|---|---|
kubernetes.io/pod/volume/utilization | 85% | 5min |
kubernetes.io/container/cpu/request_utilization | 85% | 3min |
Read request Latency 99thPercentile | 5s | 3min |
Write request Latency 99thPercentile | 5s | 3min |