Risolvere i problemi di deployment di Envoy
Questa guida fornisce informazioni utili per risolvere i problemi di configurazione dei client Envoy quando esegui Cloud Service Mesh con le API di Google. Per informazioni su come utilizzare l'API Client Status Discovery Service (CSDS) per esaminare i problemi relativi a Cloud Service Mesh, consultare Informazioni sullo stato del client di Cloud Service Mesh.
Determinazione della versione di Envoy installata su una VM
Segui queste istruzioni per verificare quale versione di Envoy è in esecuzione su un'istanza di macchina virtuale (VM).
Per verificare o controllare la versione di Envoy, puoi effettuare una delle seguenti operazioni:
Controlla gli attributi guest della VM nel percorsogce-service-proxy/proxy-version
:
gcloud compute --project cloud-vm-mesh-monitoring instances get-guest-attributes INSTANCE_NAME
--zone ZONEc --query-path=gce-service-proxy/proxy-versionNAMESPACE KEY VALUE gce-service-proxy proxy-version dc78069b10cc94fa07bb974b7101dd1b42e2e7bf/1.15.1-dev/Clean/RELEASE/BoringSSL
Controlla i log delle istanze Cloud Logging dalla pagina Logging dei dettagli dell'istanza VM nella console Google Cloud con una query come questa:
resource.type="gce_instance" resource.labels.instance_id="3633122484352464042" jsonPayload.message:"Envoy version"
Riceverai una risposta come questa:
{ "insertId": "9zy0btf94961a", "jsonPayload": { "message": "Envoy Version: dc78069b10cc94fa07bb974b7101dd1b42e2e7bf/1.15.1-dev/Clean/RELEASE/BoringSSL", "localTimestamp": "2021-01-12T11:39:14.3991Z" }, "resource": { "type": "gce_instance", "labels": { "zone": "asia-southeast1-b", "instance_id": "3633122484352464042", "project_id": "cloud-vm-mesh-monitoring" } }, "timestamp": "2021-01-12T11:39:14.399200504Z", "severity": "INFO", "logName": "projects/cloud-vm-mesh-monitoring/logs/service-proxy-agent", "receiveTimestamp": "2021-01-12T11:39:15.407023427Z" }
Usa SSH per connetterti a una VM e controllare la versione binaria:
YOUR_USER_NAME@backend-mig-5f5651e1-517a-4269-b457-f6bdcf3d98bc-m3wt:~$ /usr/local/bin/envoy --version/usr/local/bin/envoy version: dc78069b10cc94fa07bb974b7101dd1b42e2e7bf/1.15.1-dev/Clean/RELEASE/BoringSSL
Utilizza SSH per connetterti a una VM e l'interfaccia di amministrazione come root:
root@backend-mig-5f5651e1-517a-4269-b457-f6bdcf3d98bc-m3wt:~# curl localhost:15000/server_info { "version": "dc78069b10cc94fa07bb974b7101dd1b42e2e7bf/1.15.1-dev/Clean/RELEASE/BoringSSL", "state": "LIVE", "hot_restart_version": "disabled", ... }
Posizioni dei log di Envoy
Per risolvere alcuni problemi, devi esaminare i log del proxy Envoy.
Puoi utilizzare SSH per connetterti all'istanza VM e ottenere il file di log. Il percorso è che potrebbero essere le seguenti.
/var/log/envoy/envoy.err.log
I proxy non si connettono a Cloud Service Mesh
Se i proxy non si connettono a Cloud Service Mesh:
Controlla i log del proxy Envoy per verificare la presenza di eventuali errori di connessione a
trafficdirector.googleapis.com
.Se configuri
netfilter
(utilizzandoiptables
) per reindirizzare tutto il traffico al proxy Envoy, assicurati che l'utente (UID) con cui esegui il proxy sia escluso dal reindirizzamento. In caso contrario, il traffico verrà continuamente reindirizzato al proxy.Assicurati di aver attivato l'API Cloud Service Mesh per il progetto. Nella sezione API e per il tuo progetto, cerca per l'API Cloud Service Mesh.
Verifica che l'ambito di accesso API della VM sia impostato per consentire l'accesso completo alle API Google Cloud specificando quanto segue quando crei la VM:
--scopes=https://www.googleapis.com/auth/cloud-platform
Verifica che l'account di servizio disponga delle autorizzazioni corrette. Per maggiori informazioni le informazioni, vedi Abilitare l'account di servizio per accedere all'API Traffic Director.
Conferma di poter accedere a
trafficdirector.googleapis.com:443
dal VM. Se si verificano problemi con questo accesso, i possibili motivi potrebbero essere la presenza di un firewall che impedisce l'accesso atrafficdirector.googleapis.com
tramite la porta TCP443
o Problemi di risoluzione DNS per il nome hosttrafficdirector.googleapis.com
.Se utilizzi Envoy per il proxy sidecar, verifica che la versione di Envoy è la versione 1.24.9 o successive.
Il servizio configurato con Cloud Service Mesh non è raggiungibile
Se un servizio configurato con Cloud Service Mesh non è raggiungibile, verifica che il proxy sidecar è in esecuzione ed è in grado di connettersi a Cloud Service Mesh.
Se utilizzi Envoy come proxy sidecar, puoi confermarlo eseguendo i seguenti comandi:
Dalla riga di comando, verifica che il processo Envoy sia in esecuzione:
ps aux | grep envoy
Controlla la configurazione di runtime di Envoy per verificare che Cloud Service Mesh abbia configurato le risorse dinamiche. Per visualizzare la configurazione, esegui questo comando:
curl http://localhost:15000/config_dump
Assicurati che l'intercettazione del traffico per il proxy sidecar sia configurata correttamente. Per la configurazione del reindirizzamento con
iptables
, esegui il comandoiptables
e quindigrep
l'output per assicurarti che le regole siano presenti:sudo iptables -t nat -S | grep ISTIO
Di seguito è riportato un esempio dell'output per
iptables
che intercetta la indirizzo IP virtuale (VIP)10.0.0.1/32
e inoltrarlo a un proxy Envoy in esecuzione sulla porta15001
come UID1006
:-N ISTIO_IN_REDIRECT -N ISTIO_OUTPUT -N ISTIO_REDIRECT -A OUTPUT -p tcp -j ISTIO_OUTPUT -A ISTIO_IN_REDIRECT -p tcp -j REDIRECT --to-ports 15001 -A ISTIO_OUTPUT -m owner --uid-owner 1006 -j RETURN -A ISTIO_OUTPUT -d 127.0.0.1/32 -j RETURN -A ISTIO_OUTPUT -d 10.0.0.1/32 -j ISTIO_REDIRECT -A ISTIO_OUTPUT -j RETURN
Se l'istanza VM viene creata mediante la console Google Cloud, alcuni dati relativi a IPv6
e non sono installati e disponibili prima di un riavvio. Questo fa sì che iptables
a causa di dipendenze mancanti. In questo caso, riavvia la VM ed esegui nuovamente la procedura di configurazione, che dovrebbe risolvere il problema. Una VM Compute Engine creata utilizzando Google Cloud CLI non dovrebbe avere questo problema.
Il servizio non è più raggiungibile quando è configurato il logging degli accessi di Envoy
Se hai utilizzato TRAFFICDIRECTOR_ACCESS_LOG_PATH
per configurare un log di accesso Envoy come descritto in Configurare gli attributi di bootstrap di Envoy per Cloud Service Mesh, assicurati che l'utente di sistema che esegue il proxy Envoy abbia le autorizzazioni per scrivere nella posizione del log di accesso specificata.
Se non fornisci le autorizzazioni necessarie, i listener non vengono sono programmati sul proxy e possono essere rilevati controllando la presenza dell'errore seguente nel log del proxy Envoy:
gRPC config for type.googleapis.com/envoy.api.v2.Listener rejected: Error adding/updating listener(s) TRAFFICDIRECTOR_INTERCEPTION_PORT: unable to open file '/var/log/envoy.log': Permission denied
Per risolvere il problema, modifica le autorizzazioni del file scelto per l'accesso affinché l'utente Envoy possa scrivere in scrittura.
I messaggi di errore nei log di Envoy indicano un problema di configurazione
Questa sezione riguarda i deployment che utilizzano le API di bilanciamento del carico.
Se hai difficoltà con la configurazione di Cloud Service Mesh, potresti visualizzare uno dei seguenti messaggi di errore nei log di Envoy:
warning envoy config StreamAggregatedResources gRPC config stream closed: 5, Cloud Service Mesh configuration was not found for network "VPC_NAME" in project "PROJECT_NUMBER".
warning envoy upstream StreamLoadStats gRPC config stream closed: 5, Cloud Service Mesh configuration was not found for network "VPC_NAME" in project "PROJECT_NUMBER".
warning envoy config StreamAggregatedResources gRPC config stream closed: 5, Requested entity was not found.
warning envoy upstream StreamLoadStats gRPC config stream closed: 5, Requested entity was not found.
Cloud Service Mesh configuration was not found.
L'ultimo messaggio di errore (Traffic Director configuration was not found
)
in genere indica che Envoy richiede la configurazione da
Cloud Service Mesh, ma non è possibile trovare una configurazione corrispondente. Quando Envoy
si connette a Cloud Service Mesh, presenta un nome di rete VPC
(ad es. my-network
). Cloud Service Mesh cerca quindi le regole di forwarding
che hanno lo schema di bilanciamento del carico INTERNAL_SELF_MANAGED
e fanno riferimento
con lo stesso nome di rete VPC.
Per risolvere questo errore:
Assicurati che nella rete sia presente una regola di inoltro con lo schema di bilanciamento del carico
INTERNAL_SELF_MANAGED
. Prendi nota del nome della rete VPC della regola di inoltro.Se utilizzi Cloud Service Mesh con di deployment di Envoy automatici su Compute Engine, verifica che il valore fornito al flag
--service-proxy:network
corrisponda al nome della rete VPC della regola di forwarding.Se utilizzi Cloud Service Mesh con deployment manuali di Envoy su Compute Engine, controlla il file di bootstrap di Envoy per verificare quanto segue:
- Assicurati che il valore dell'attributo
La variabile
TRAFFICDIRECTOR_NETWORK_NAME
corrisponde alla nome della rete VPC della regola di forwarding. - Assicurati che il numero del progetto sia impostato nel
Variabile
TRAFFICDIRECTOR_GCP_PROJECT_NUMBER
.
- Assicurati che il valore dell'attributo
La variabile
Se esegui il deployment su GKE e utilizzi l'iniettore automatico, assicura che il numero di progetto e il nome della rete VPC configurato correttamente, in base alle istruzioni Configurazione di Cloud Service Mesh per pod GKE con inserimento Envoy automatico.
Risoluzione dei problemi per Compute Engine
Questa sezione fornisce istruzioni per la risoluzione dei problemi di deployment di Envoy per Compute Engine.
Le procedure di bootstrap di Envoy e VM e le ulteriori operazioni di gestione del ciclo di vita possono non riuscire per molti motivi, tra cui problemi di connettività temporanei, repository danneggiati, bug negli script di bootstrap e negli agenti on-VM e azioni utente impreviste.
Canali di comunicazione per la risoluzione dei problemi
Google Cloud fornisce canali di comunicazione che puoi usare per aiutarti il processo di bootstrap e lo stato attuale dei componenti che risiedono sulle tue VM.
Logging degli output delle porte seriali virtuali
In genere, il sistema operativo, il BIOS e altre entità a livello di sistema di una VM scrivono l'output nelle porte seriali. Questo output è utile per la risoluzione di problemi come arresti anomali del sistema, avvii non riusciti, problemi di avvio e di arresto.
Gli agenti di bootstrap di Compute Engine registrano tutte le azioni eseguite sulla porta seriale 1. Sono inclusi gli eventi di sistema, a partire dall'installazione dei pacchetti di base.
mediante il recupero dei dati dal server metadati di un'istanza, iptables
configurazione e lo stato di installazione di Envoy.
Gli agenti on-VM registrano lo stato di salute del processo Envoy, i servizi Cloud Service Mesh appena scoperti e qualsiasi altra informazione che potrebbe essere utile per esaminare i problemi relativi alle VM.
Log di Cloud Monitoring
I dati esposti nell'output della porta seriale vengono registrati anche in Monitoring, che utilizza la libreria Golang ed esporta i log in un log separato per ridurre il rumore. Poiché questo log è a livello di istanza, potresti trovare i log del proxy nella stessa pagina degli altri log dell'istanza.
Attributi guest VM
Gli attributi guest sono un tipo specifico di metadati personalizzati su cui le applicazioni possono scrivere durante l'esecuzione nell'istanza. Qualsiasi applicazione o utente delle istanze può leggono e scrivono dati in questi valori di metadati degli attributi guest.
Gli script di bootstrap e gli agenti on-VM di Compute Engine Envoy espongono gli attributi
con informazioni sul processo di bootstrap e sullo stato attuale di Envoy.
Tutti gli attributi degli ospiti sono esposti nello spazio dei nomi gce-service-proxy
:
gcloud compute instances get-guest-attributes INSTANCE_NAME \ --query-path=gce-service-proxy/ \ --zone=ZONE
Se riscontri problemi, ti consigliamo di controllare il valore degli attributi ospite bootstrap-status
e bootstrap-last-failure
. Qualsiasi valore bootstrap-status
diverso da FINISHED
indica che l'ambiente Envoy non è ancora configurato. Il valore di bookstrap-last-failure
potrebbe indicare qual è il problema.
Impossibile raggiungere il servizio Cloud Service Mesh da una VM creata utilizzando un modello di istanza abilitato per proxy di servizio
Per correggere questo problema, procedi nel seguente modo:
L'installazione dei componenti del proxy di servizio sulla VM potrebbe non essere è stato completato o potrebbe non essere riuscito. Utilizza il seguente comando per determinare se tutti i componenti sono installati correttamente:
gcloud compute instances get-guest-attributes INSTANCE_NAME \ --query-path=gce-service-proxy/ \ --zone=ZONE
L'attributo guest
bootstrap-status
è impostato su uno dei seguenti valori:[none]
indica che l'installazione non è ancora iniziata. La VM potrebbe essere ancora in fase di avvio. Controlla di nuovo lo stato tra qualche minuto.IN PROGRESS
indica che l'installazione e la configurazione i componenti proxy di servizio non sono ancora completati. Ripeti il controllo dello stato per verificare gli aggiornamenti della procedura.FAILED
indica che l'installazione o la configurazione di un componente non riuscito. Controlla il messaggio di errore eseguendo una query sull'attributogce-service-proxy/bootstrap-last-failure1
.FINISHED
indica che le procedure di installazione e configurazione sono state completate senza errori. Segui queste istruzioni per effettuare la verifica che l'intercettazione del traffico e il proxy Envoy siano configurati correttamente.
L'intercettazione del traffico sulla VM non è configurata correttamente per Servizi basati su Cloud Service Mesh. Accedi alla VM e controlla la
iptables
configurazione:gcloud compute ssh INSTANCE_NAME \ --zone=ZONE \ sudo iptables -L -t nat
Esamina la catena
SERVICE_PROXY_SERVICE_CIDRS
perSERVICE_PROXY_REDIRECT
voci come queste:Chain SERVICE_PROXY_SERVICE_CIDRS (1 references) target prot opt source destination ... SERVICE_PROXY_REDIRECT all -- anywhere 10.7.240.0/20
Per ogni servizio, deve essere presente un indirizzo IP o CIDR corrispondente nella colonna
destination
. Se non è presente una voce per l'indirizzo IP virtuale (VIP), c'è un problema con il completamento della configurazione proxy Envoy da Errore del mesh di servizi Cloud o dell'agente on-VM.I proxy Envoy non hanno ricevuto la loro configurazione da Cloud Service Mesh . Accedi alla VM per verificare la configurazione del proxy Envoy:
gcloud compute ssh INSTANCE_NAME \ --zone=ZONE \ sudo curl localhost:15000/config_dump
Esamina la configurazione del listener ricevuta da Cloud Service Mesh. Per esempio:
"dynamic_active_listeners": [ ... "filter_chains": [{ "filter_chain_match": { "prefix_ranges": [{ "address_prefix": "10.7.240.20", "prefix_len": 32 }], "destination_port": 80 }, ... "route_config_name": "URL_MAP/PROJECT_NUMBER.td-routing-rule-1" ... ]
address_prefix
è l'indirizzo IP virtuale (VIP) di un Cloud Service Mesh completamente gestito di Google Cloud. Indica la mappa URL denominatatd-routing-rule-1
. Controlla se il servizio a cui vuoi connetterti è già incluso nel listener configurazione.L'agente on-VM non è in esecuzione. L'agente su VM configura automaticamente l'intercettazione del traffico quando vengono creati nuovi servizi Cloud Service Mesh. Se l'agente non è in esecuzione, tutto il traffico verso i nuovi servizi va direttamente VIP, bypass del proxy Envoy e timeout.
Verifica lo stato dell'agente on-VM eseguendo il seguente comando:
gcloud compute instances get-guest-attributes INSTANCE_NAME \ --query-path=gce-service-proxy/ \ --zone=ZONE
Esamina gli attributi dell'agente on-VM. Il valore del parametro L'attributo
agent-heartbeat
contiene la data e l'ora in cui l'agente ha eseguito l'ultima volta un'azione o un controllo. Se il valore risale a più di cinque minuti prima della data corrente, l'agente viene è bloccato e dovresti ricreare la VM utilizzando il seguente comando:gcloud compute instance-groups managed recreate-instance
L'attributo
agent-last-failure
espone l'ultimo errore che si è verificato nell'agente. Potrebbe trattarsi di un problema temporaneo che si risolve entro la prossima volta l'agente controlla, ad esempio se l'errore èCannot reach the Cloud Service Mesh API server
, oppure potrebbe trattarsi di un errore permanente. Attendi qualche minuto e controlla di nuovo l'errore.
L'intercettazione del traffico in entrata è configurata sulla porta del carico di lavoro, ma non puoi connetterti alla porta dall'esterno della VM
Per risolvere il problema, segui questi passaggi:
L'installazione dei componenti del proxy di servizio sulla VM potrebbe non essere è stato completato o potrebbe non essere riuscito. Utilizza il seguente comando per determinare se tutti i componenti sono installati correttamente:
gcloud compute instances get-guest-attributes INSTANCE_NAME \ --query-path=gce-service-proxy/ \ --zone=ZONE
L'attributo guest
bootstrap-status
è impostato su uno dei seguenti valori:[none]
indica che l'installazione non è ancora iniziata. La VM potrebbe essere ancora in fase di avvio. Controlla di nuovo lo stato tra qualche minuto.IN PROGRESS
indica che l'installazione e la configurazione i componenti proxy di servizio non sono ancora completati. Ripeti il controllo dello stato per verificare gli aggiornamenti della procedura.FAILED
indica che l'installazione o la configurazione di un componente non riuscito. Controlla il messaggio di errore eseguendo una query sull'attributogce-service-proxy/bootstrap-last-failure1
.FINISHED
indica che i processi di installazione e configurazione completato senza errori. Segui queste istruzioni per effettuare la verifica che l'intercettazione del traffico e il proxy Envoy siano configurati correttamente.
L'intercettazione del traffico sulla VM non è configurata correttamente per il traffico in entrata. Accedi alla VM e controlla la configurazione di
iptables
:gcloud compute ssh INSTANCE_NAME \ --zone=ZONE \ sudo iptables -L -t nat
Esamina la catena
SERVICE_PROXY_INBOUND
perSERVICE_PROXY_IN_REDIRECT
voci come queste:Chain SERVICE_PROXY_INBOUND (1 references) target prot opt source destination ... SERVICE_PROXY_IN_REDIRECT tcp -- anywhere anywhere tcp dpt:mysql
Per ogni porta definita in
service-proxy:serving-ports
, è necessario essere una porta corrispondente nella colonnadestination
. Se non è presente alcuna voce per la porta, tutto il traffico in entrata viene indirizzato direttamente a questa porta, bypassando il proxy Envoy.Verifica che non siano presenti altre regole che eliminano il traffico su questa porta o su tutte le porte tranne una specifica.
I proxy Envoy non hanno ancora ricevuto la configurazione per la porta in entrata da Cloud Service Mesh. Accedi alla VM per controllare il proxy Envoy configurazione:
gcloud compute ssh INSTANCE_NAME \ --zone=ZONE \ sudo curl localhost:15000/config_dump
Cerca la configurazione dell'ascoltatore in entrata ricevuta da Cloud Service Mesh:
"dynamic_active_listeners": [ ... "filter_chains": [{ "filter_chain_match": { "prefix_ranges": [{ "address_prefix": "10.0.0.1", "prefix_len": 32 }], "destination_port": 80 }, ... "route_config_name": "inbound|default_inbound_config-80" ... ]
Il valore
route_config_name
, che inizia coninbound
, indica un servizio speciale creato per l'intercettazione del traffico in entrata. Verifica se la porta a cui vuoi connetterti è già inclusa nella configurazione dell'ascoltatore indestination_port
.
Problemi quando le connessioni utilizzano protocolli server-first
Alcune applicazioni, come MySQL, utilizzano protocolli in cui il server invia il primo pacchetto. Ciò significa che al momento della connessione iniziale il server invia i primi byte. Questi protocolli e applicazioni non sono supportati da Cloud Service Mesh.
Risolvi i problemi relativi all'integrità del tuo mesh di servizi
Questa guida fornisce informazioni per aiutarti a risolvere i problemi di configurazione di Cloud Service Mesh.
Comportamento di Cloud Service Mesh quando la maggior parte degli endpoint non è integro
Per una maggiore affidabilità, quando il 99% degli endpoint non è in stato di salute, Cloud Service Mesh configura il piano dati in modo da ignorare lo stato di salute degli endpoint. Invece, il piano dati bilancia il traffico tra tutti i gli endpoint perché è possibile che la porta di gestione sia ancora funzionante.
I backend non integri causano una distribuzione non ottimale del traffico
Cloud Service Mesh utilizza le informazioni della risorsa HealthCheck
collegato a un servizio di backend per valutare
l'integrità dei tuoi backend.
Cloud Service Mesh utilizza questo stato di integrità per instradare il traffico alla
integro più vicino. Se alcuni dei tuoi backend non sono operativi, il traffico potrebbe continuare a essere elaborato, ma con una distribuzione non ottimale. Ad esempio, il traffico
potrebbe passare a una regione in cui sono ancora presenti backend integri, ma che
molto più lontano dal client, introducendo la latenza. Per identificare e monitorare lo stato di salute dei tuoi backend, prova a svolgere i seguenti passaggi:
- Controlla lo stato di integrità del servizio di backend nella console Google Cloud.
Vai ai servizi Cloud Service Mesh - Assicurati che il logging sia abilitato.
per la risorsa
HealthCheck
. - Se i controlli di integrità hanno iniziato a non funzionare di recente, esamina gli audit log di Cloud
per determinare se la configurazione di
HealthCheck
è stata modificata di recente.
Passaggi successivi
- Per risolvere i problemi di configurazione quando esegui il deployment di servizi gRPC senza proxy, consulta Risoluzione dei problemi dei deployment che utilizzano gRPC senza proxy.
- Per ricevere ulteriore assistenza per l'utilizzo di Cloud Service Mesh, consulta la pagina Ricevere assistenza.