Best practice per le richieste di assistenza Apigee di Google Cloud

Stai visualizzando la documentazione di Apigee e Apigee hybrid.
Visualizza la documentazione di Apigee Edge.

Fornire informazioni dettagliate e richieste nella richiesta di assistenza consente al team di assistenza di Google Cloud di rispondere più facilmente e in modo efficiente. Quando nella richiesta di assistenza mancano dettagli importanti, dobbiamo chiederti ulteriori informazioni, il che potrebbe comportare scambi di informazioni più volte. Questo richiede più tempo e può comportare ritardi nella risoluzione dei problemi. Questa guida alle best practice ti consente di conoscere le informazioni di cui abbiamo bisogno per risolvere più rapidamente la tua richiesta di assistenza tecnica.

Descrizione del problema

Un problema deve contenere informazioni che spieghino i dettagli su cosa è successo rispetto a ciò che era previsto, nonché quando e come si è verificato. Una buona richiesta di assistenza deve contenere le seguenti informazioni chiave per ciascuno dei prodotti Apigee:

Informazioni chiave Descrizione Apigee su Google Cloud Apigee hybrid
Prodotto Prodotto Apigee specifico in cui si verifica il problema, incluse le informazioni sulla versione, se applicabili.
  • Versione ibrida
Dettagli del problema Descrizione chiara e dettagliata del problema che lo illustra, incluso l'eventuale messaggio di errore completo.
  • Messaggio di errore
  • Output dello strumento di debug
  • Passaggi per riprodurre il problema
  • Richiesta/comando API completa
  • Messaggio di errore
  • Output dello strumento di debug
  • Passaggi per riprodurre il problema
  • Richiesta/comando API completa
  • Log di diagnostica dei componenti
  • Metriche di Cloud Monitoring
Ora Il timestamp specifico in cui è iniziato il problema e la relativa durata.
  • Data, ora e fuso orario in cui si è verificato il problema
  • Durata del problema
  • Data, ora e fuso orario in cui si è verificato il problema
  • Durata del problema
Configurazione Informazioni dettagliate sul luogo in cui si verifica il problema.
  • Nome dell'organizzazione
  • Nome dell'ambiente
  • Nome del proxy API
  • Revisione

Le sezioni seguenti descrivono questi concetti in maggiore dettaglio.

Prodotto

Esistono diversi prodotti Apigee, Apigee su Google Cloud e Apigee Hybrid, quindi abbiamo bisogno di informazioni specifiche su quale prodotto specifico ha il problema.

La tabella seguente fornisce alcuni esempi che mostrano informazioni complete nella colonna DA FARE e informazioni incomplete nella colonna DA NON FARE:

Azioni consigliate Azioni da evitare
Il deployment del proxy API OAuth2 non è riuscito nella nostra organizzazione Apigee su Google Cloud ...

Deployment del proxy API non riuscito

(Dobbiamo sapere nel prodotto Apigee in cui si verifica il problema).

Riceviamo il seguente errore durante l'accesso a Cassandra utilizzando cqlsh su Apigee hybrid versione 1.3 ...

Non siamo in grado di accedere a Cassandra utilizzando cqlsh.

(Informazioni sulla versione ibrida mancanti)

Dettagli del problema

Fornisci informazioni precise sul problema riscontrato, incluso il messaggio di errore (se presente) e il comportamento previsto e osservato.

La tabella seguente fornisce alcuni esempi che mostrano informazioni complete nella colonna DA FARE e informazioni incomplete nella colonna DA NON FARE:

Azioni consigliate Azioni da evitare

Il nuovo proxy edgemicro edgemicro_auth non riesce con il seguente errore:

{"error":"missing_authorization","error_description":"Missing Authorization header"}

Il nuovo proxy edgemicro creato oggi non funziona

Il nome del proxy è sconosciuto. Non è chiaro se il proxy restituisce un errore o una risposta imprevista.

I nostri clienti ricevono errori 500 con il seguente messaggio di errore durante l'invio di richieste al proxy API:

{"fault":{"faultstring":"Execution of JSReadResponse failed with error: Javascript runtime error: \"TypeError: Cannot read property \"content\" from undefined. (JSReadResponse.js:23)","detail":{"errorcode":"steps.javascript.ScriptExecutionFailed"}}}

I nostri clienti ricevono errori 500 durante l'invio di richieste al proxy API.

(La semplice comunicazione di errori 500 non fornisce informazioni adeguate per consentirci di esaminare il problema. Abbiamo bisogno di conoscere il messaggio di errore e il codice di errore effettivi rilevati.

Ora

Il tempo è un'informazione molto importante. È importante per l'ingegnere dell'assistenza sapere quando hai rilevato per la prima volta il problema, per quanto tempo è durato e se il problema persiste.

Il tecnico dell'assistenza che risolve il problema potrebbe non trovarsi nel tuo fuso orario, quindi le dichiarazioni relative al tempo rendono più difficile la diagnosi del problema. Pertanto, è consigliabile utilizzare il formato ISO 8601 per la data e l'ora del timestamp per fornire le informazioni sull'ora esatta in cui è stato rilevato il problema.

La tabella seguente fornisce alcuni esempi che mostrano l'ora e la durata esatti in cui si è verificato il problema nella colonna DA FARE e informazioni ambigue o poco chiare su quando si è verificato il problema nella colonna DA NON FARE:

Azioni consigliate Azioni da evitare
Ieri è stato osservato un numero enorme di 503s tra 2020-11-06 17:30 PDT e 2020-11-06 17:35 PDT...

Ieri alle 17:30 abbiamo rilevato un numero elevato di 503s per 5 minuti.

Siamo costretti a utilizzare la data implicita e non è chiaro nemmeno in quale fuso orario è stato rilevato il problema.

Sono state osservate latenze elevate sui seguenti proxy API da 2020-11-09 15:30 IST a 2020-11-09 18:10 IST ...

La scorsa settimana sono state registrate latenze elevate su alcuni proxy API.

Non è chiaro quale giorno e per quale durata è stato osservato questo problema nell'ultima settimana.

Configurazione

Abbiamo bisogno di conoscere i dettagli su dove esattamente si verifica il problema. A seconda del prodotto che utilizzi, abbiamo bisogno delle seguenti informazioni:

  • Se utilizzi Apigee su Google Cloud, potresti avere più di un'organizzazione, quindi dobbiamo conoscere l'organizzazione specifica e altri dettagli in cui stai riscontrando il problema:
    • Nomi dell'organizzazione e dell'ambiente
    • Nome e numeri di revisione del proxy API (per i fallimenti delle richieste API)
  • Se utilizzi ibrido, potresti utilizzare una delle numerose piattaforme ibride e topologie di installazione supportate. Pertanto, dobbiamo sapere quale piattaforma e topologia ibrida utilizzi, inclusi i dettagli come il numero di data center e nodi.

La tabella seguente fornisce alcuni esempi che mostrano informazioni complete nella colonna DA FARE e informazioni incomplete nella colonna DA NON FARE:

Azioni consigliate Azioni da evitare

401 Gli errori sono aumentati su Apigee su Google Cloud dal giorno 06-11-2020 09:30 CST.

Dettagli della configurazione di Apigee:

I dettagli dell'API con errori sono i seguenti:
  Nomi org: myorg
  Nomi env: test
  Nomi proxy API: myproxy
  Numeri di revisione: 3

Errore:

{"fault":{"faultstring":"Failed to resolve API Key variable request.header.X-APP-API_KEY","detail":{"errorcode":"steps.oauth.v2.FailedToResolveAPIKey"}}}

401 Gli errori sono aumentati.

Non fornisce alcuna informazione sul prodotto in uso, dal momento in cui viene rilevato il problema o su eventuali dettagli di configurazione.

Il debug non va a buon fine con il seguente errore in Apigee hybrid versione 1.3

Errore:

Error while Creating trace session for corp-apigwy-discovery, revision 3, environment dev.

Failed to create DebugSession {apigee-hybrid-123456 dev corp-apigwy-discovery 3 ca37384e-d3f4-4971-9adb-dcc36c392bb1}

Dettagli sulla configurazione di Apigee Hybrid:

  • Piattaforma Apigee hybrid:
      Anthos GKE On-Prem versione 1.4.0
  • Progetto Google Cloud, organizzazione ibrida e ambiente
      ID progetto Google Cloud: apigee-hybrid-123456
      Organizzazione ibrida Apigee: apigee-hybrid-123456
      Ambiente ibrida Apigee: dev
  • Dettagli del nome del cluster Kubernetes
      k8sCluster:
      name: user-cluster-1
      region: us-east1
  • Topologia di rete
    Ho allegato il file network-topology.png.
Il debug non va a buon fine su Apigee hybrid.

Artefatti utili

Forniscici gli elementi correlati al problema per velocizzare la risoluzione, poiché ci aiutano a comprendere il comportamento esatto che stai osservando e a ottenere ulteriori informazioni in merito.

Questa sezione descrive alcuni elementi utili per tutti i prodotti Apigee:

Elementi comuni per tutti i prodotti Apigee

I seguenti elementi sono utili per tutti i prodotti Apigee: Apigee su Google Cloud e Apigee hybrid:

Artefatto Descrizione
Output dello strumento di debug L'output dello strumento di debug contiene informazioni dettagliate sulle richieste API che passano per i prodotti Apigee. Questo è utile per eventuali errori di runtime come 4XX, 5XX e problemi di latenza.
Screenshot Gli screenshot aiutano a trasmettere il contesto del comportamento o dell'errore effettivo osservato. È utile per eventuali errori o problemi rilevati, ad esempio nell'interfaccia utente o in Analytics.
HAR (Http ARchive) HAR è un file acquisito dagli strumenti di sessione HTTP per il debug di eventuali problemi relativi all'interfaccia utente. Questa operazione può essere eseguita utilizzando browser come Chrome, Firefox o Internet Explorer.
tcpdumps Lo strumento tcpdump acquisisce i pacchetti TCP/IP trasferiti o ricevuti sulla rete. Questo è utile per qualsiasi problema relativo alla rete, ad esempio errori di handshake TLS, errori 502 e problemi di latenza e così via.

Elementi aggiuntivi per l'ibrido

Per le istanze ibride, potremmo aver bisogno di alcuni elementi aggiuntivi che faciliteranno la diagnosi più rapida dei problemi.

Artefatto Descrizione
Piattaforma Apigee hybrid Specifica una delle seguenti piattaforme ibride supportate in uso:
  • GKE
  • GKE On-Prem
  • AKS (Azure Kubernetes Service)
  • Amazon EKS
  • GKE su AWS
Versioni di Apigee hybrid e dei componenti dipendenti
  • Versione CLI di Apigee hybrid: versione
    apigeectl
  • Versione dell'agente Apigee Connect:
    kubectl -n=apigee get pods -l app=apigee-connect-agent -o=json | jq '.items[].spec.containers[].image'
  • Versione MART Apigee:
    kubectl -n=apigee get pods -l app=apigee-mart -o=json | jq '.items[].spec.containers[].image'
  • Versione di Apigee Synchronizer:
    kubectl -n=apigee get pods -l app=apigee-synchronizer -o=json | jq '.items[].spec.containers[].image'
  • Versione Apigee Cassandra:
    kubectl -n=apigee get pods -l app=apigee-cassandra -o=json | jq '.items[].spec.containers[].image'
  • Versione di Apigee Runtime:
    kubectl -n=apigee get pods -l app=apigee-runtime -o=json | jq '.items[].spec.containers[].image'
  • Versioni dell'interfaccia a riga di comando e del server Kubernetes: versione
    kubectl
  • Versioni di Istio CLI e del server: versione
    istioctl
Topologia di rete Il diagramma della topologia di installazione di Apigee che descrive la configurazione ibrida, inclusi tutti i data center, i cluster Kubernetes, gli spazi dei nomi e i pod.
Sostituisce il file YAML Il file overrides.yaml utilizzato in ogni data center per installare il piano di runtime Apigee Hybrid.
Stato del deployment di Apigee hybrid

L'output dei seguenti comandi in ogni data center/cluster Kubernetes:

kubectl get pods -A
kubectl get services -A

Log dei componenti Apigee hybrid

Fornisci i link ai log di Stackdriver per i componenti ibridi OPPURE

Puoi recuperare i log dei componenti Apigee hybrid utilizzando i seguenti comandi in ogni data center/cluster Kubernetes e condividerli con noi:

kubectl -n {namespace} get pods
kubectl -n {namespace} logs {pod-name}

  • Log dell'agente Apigee Connect:
    kubectl -n {namespace} get pods
    kubectl -n {namespace} logs {apigee-connect-agent-pod-name}
  • Log di MART:
    kubectl -n {namespace} get pods
    kubectl -n {namespace} logs {apigee-mart-pod-name}
  • Log del sincronizzatore:
    kubectl -n {namespace} get pods
    kubectl -n {namespace} logs {synchronizer-pod-name}
  • Log Cassandra di Apigee:
    kubectl -n {namespace} get pods
    kubectl -n {namespace} logs {apigee-cassandra-pod-name}
  • Log di MP/Apigee Runtime (di tutti i pod apigee-runtime):
    kubectl -n {namespace} get pods
    kubectl -n {namespace} logs {apigee-runtime-pod-name}
Descrivi i log

Informazioni dettagliate sul pod.

Questa operazione è utile soprattutto se riscontri problemi come i pod bloccati nello stato CrashLoopBackoff.

kubectl -n apigee describe pod {pod-name}

Cloud Monitoring
  • Link alla dashboard delle metriche
  • Istantanee di eventuali dashboard relative alle metriche di Cloud Monitoring.

Dati obbligatori di Apigee Hybrid

Puoi anche eseguire lo script Must-Gather in base ai comandi elencati di seguito.

###--- "kubectl config" commands to get the config details of the whole Apigee Hybrid cluster ---####

kubectl config get-clusters 2>&1 | tee /tmp/k_config_get_clusters_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl config get-contexts 2>&1 | tee /tmp/k_config_get_contexts_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl config get-users 2>&1 | tee /tmp/k_config_get_users_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl config view 2>&1 | tee /tmp/k_config_view_$(date +%Y.%m.%d_%H.%M.%S).txt

### --- Collect all details of all nodes in the Kubernetes cluster.---###

kubectl describe node 2>&1 |  tee /tmp/k_describe_node_$(date +%Y.%m.%d_%H.%M.%S).txt

###--- "kubectl get -A " commands to get CRD details for the whole Apigee Hybrid setup ---####

kubectl get clusterissuers -A -o wide 2>&1 | tee /tmp/k_get_clusterissuers_all$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get certificate -A -o wide 2>&1 | tee /tmp/k_get_certificate_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get certificaterequest -A -o wide 2>&1 | tee /tmp/k_get_certificaterequest_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get crd -A 2>&1 | tee /tmp/k_get_crd_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get ConfigMap -A 2>&1 | tee /tmp/k_get_ConfigMap_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get ClusterRole -A -o wide 2>&1 | tee /tmp/k_get_clusterrole_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get ClusterRoleBinding -A -o wide 2>&1 | tee /tmp/k_get_clusterrole_binding_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get Deployments -A -o wide >&1 | tee /tmp/k_get_deployments_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get events -A -o wide 2>&1 | tee /tmp/k_get_events_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get endpoints -A  2>&1 | tee /tmp/k_get_endpoints_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get issuers -A -o wide 2>&1 | tee /tmp/k_get_issuers_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get mutatingwebhookconfigurations  2>&1 | tee /tmp/k_get_mutatingwebhookconfigurations_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get nodes -o wide --show-labels 2>&1 | tee /tmp/k_get_nodes_labels_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get ns 2>&1 | tee /tmp/k_get_namespace_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get PriorityClass -A -o wide 2>&1 | tee /tmp/k_get_PriorityClass_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get pv -A -o wide 2>&1 | tee /tmp/k_get_pv_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get pvc -A -o wide 2>&1 | tee /tmp/k_get_pvc_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get Role -A -o wide 2>&1 | tee /tmp/k_get_role_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get RoleBinding -A -o wide 2>&1 | tee /tmp/k_get_Role_Binding_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get replicaset -A -o wide 2>&1 | tee /tmp/k_get_replicaset_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get sa -A -o wide 2>&1 | tee /tmp/k_get_service_accounts_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get services -A -o wide 2>&1 | tee /tmp/k_get_services_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get svc -A 2>&1 | tee /tmp/k_get_svc_all$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get secrets -A 2>&1 | tee /tmp/k_get_secrets_all_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get validatingwebhookconfigurations -A  2>&1  | tee /tmp/k_get_validatingwebhookconfigurations_all$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get validatingwebhookconfigurations apigee-validating-webhook-configuration 2>&1  | tee /tmp/k_get_apigee-validating-webhook-configuration_$(date +%Y.%m.%d_%H.%M.%S).txt

### --- List top resource consuming nodes and pods ---####

kubectl top nodes 2>&1 | tee /tmp/k_top_nodes_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl top pod -A --containers 2>&1 | tee /tmp/k_top_pod_all_containers_$(date +%Y.%m.%d_%H.%M.%S).txt

###----- "kubectl get" commands to fetch list of all CRD for "apigee" namespace ----- #####

kubectl get all -n apigee -o wide 2>&1 | tee /tmp/k_get_all_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get ad -n apigee 2>&1 | tee /tmp/k_get_ad_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get apigeeorganization -n apigee 2>&1 | tee /tmp/k_get_apigeeorganization_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get apigeeenv -n apigee  2>&1 | tee /tmp/k_get_apigeeenv_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get apigeeds -n apigee  2>&1 | tee /tmp/k_get_apigeeds_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get apigeedatastore -n apigee 2>&1 | tee /tmp/k_get_apigeedatastore_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get ApigeeDeployment -n apigee 2>&1 | tee /tmp/k_get_apigeedeployment_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get ApigeeRedis -n apigee 2>&1 | tee /tmp/k_get_ApigeeRedis_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get ApigeeRoute -n apigee 2>&1 | tee /tmp/k_get_ApigeeRoute_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get ApigeeRouteConfig -n apigee 2>&1 | tee /tmp/k_get_ApigeeRoutesconfig_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get Apigeetelemetry -n apigee 2>&1 | tee /tmp/k_get_Apigeetelemetry_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get apigeeissues -n apigee 2>&1 | tee /tmp/k_get_apigeeissues_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get ControllerRevision -n apigee -o wide 2>&1 | tee /tmp/k_get_ControllerRevision_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get cronjob -n apigee -o wide 2>&1 | tee /tmp/k_get_cronjob_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get gateway -n apigee 2>&1 | tee /tmp/k_get_gateway_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get PodDisruptionBudget -n apigee -o wide 2>&1 | tee /tmp/k_get_PodDisruptionBudget_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get sc -n apigee -o wide 2>&1 | tee /tmp/k_get_storageclass_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get sts -n apigee 2>&1 | tee /tmp/k_get_sts_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get volumesnapshot -n apigee -o wide 2>&1 | tee /tmp/k_get_volumesnapshot_n_apigee_$(date +%Y.%m.%d_%H.%M.%S).txt

###----- "kubectl describe" commands to fetch details of all CRD for "apigee" namespace ----- #####

for p in $(kubectl -n apigee get apigeeorganization --no-headers -o custom-columns=":metadata.name") ; do kubectl describe apigeeorganization ${p} -n apigee 2>&1 | tee /tmp/k_desc_apigeeorganization_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get apigeeenv --no-headers -o custom-columns=":metadata.name") ; do kubectl describe apigeeenv ${p} -n apigee 2>&1 | tee /tmp/k_desc_apigeeenv_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get apigeeds --no-headers -o custom-columns=":metadata.name") ; do kubectl describe apigeeds ${p} -n apigee 2>&1 | tee /tmp/k_desc_apigeeds_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get apigeedatastore --no-headers -o custom-columns=":metadata.name") ; do kubectl describe apigeedatastore ${p} -n apigee 2>&1 | tee /tmp/k_desc_apigeedatastore_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get ApigeeDeployment --no-headers -o custom-columns=":metadata.name") ; do kubectl describe ApigeeDeployment ${p} -n apigee 2>&1 | tee /tmp/k_desc_ApigeeDeployment_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get ApigeeRedis --no-headers -o custom-columns=":metadata.name") ; do kubectl describe ApigeeRedis ${p} -n apigee 2>&1 | tee /tmp/k_desc_ApigeeRedis_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get ApigeeRoute --no-headers -o custom-columns=":metadata.name") ; do kubectl describe ApigeeRoute ${p} -n apigee 2>&1 | tee /tmp/k_desc_ApigeeRoute_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get ApigeeRouteConfig --no-headers -o custom-columns=":metadata.name") ; do kubectl describe ApigeeRouteConfig ${p} -n apigee 2>&1 | tee /tmp/k_desc_ApigeeRouteConfig_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get Apigeetelemetry --no-headers -o custom-columns=":metadata.name") ; do kubectl describe Apigeetelemetry ${p} -n apigee 2>&1 | tee /tmp/k_desc_Apigeetelemetry_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get apigeeissues --no-headers -o custom-columns=":metadata.name") ; do kubectl describe apigeeissues ${p} -n apigee 2>&1 | tee /tmp/k_desc_apigeeissues_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get ControllerRevision --no-headers -o custom-columns=":metadata.name") ; do kubectl -n apigee describe ControllerRevision ${p} 2>&1 | tee /tmp/k_desc_ControllerRevision_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get certificate --no-headers -o custom-columns=":metadata.name") ; do kubectl describe certificate ${p} -n apigee 2>&1 | tee /tmp/k_desc_certificate_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get cronjob --no-headers -o custom-columns=":metadata.name") ; do kubectl describe cronjob ${p} -n apigee 2>&1 | tee /tmp/k_desc_cronjob_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get daemonset --no-headers -o custom-columns=":metadata.name") ; do kubectl -n apigee describe daemonset ${p} 2>&1 | tee /tmp/k_desc_daemonset_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get deployments --no-headers -o custom-columns=":metadata.name") ; do kubectl -n apigee describe deployments ${p} 2>&1 | tee /tmp/k_desc_deployment_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get hpa --no-headers -o custom-columns=":metadata.name") ; do kubectl describe hpa ${p} -n apigee 2>&1 | tee /tmp/k_desc_hpa_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get jobs --no-headers -o custom-columns=":metadata.name") ; do kubectl describe jobs ${p} -n apigee 2>&1 | tee /tmp/k_desc_jobs_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get po --no-headers -o custom-columns=":metadata.name") ; do kubectl -n apigee describe po ${p} 2>&1 | tee /tmp/k_desc_pod_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get PodDisruptionBudget --no-headers -o custom-columns=":metadata.name") ; do kubectl -n apigee describe PodDisruptionBudget ${p} 2>&1 | tee /tmp/k_desc_PodDisruptionBudget_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get pv --no-headers -o custom-columns=":metadata.name") ; do kubectl -n apigee describe pv ${p} 2>&1 | tee /tmp/k_desc_pv_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt; done
for p in $(kubectl -n apigee get pvc --no-headers -o custom-columns=":metadata.name") ; do kubectl -n apigee describe pvc ${p} 2>&1 | tee /tmp/k_desc_pvc_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt; done
for p in $(kubectl -n apigee get rs --no-headers -o custom-columns=":metadata.name") ; do kubectl describe rs ${p} -n apigee 2>&1 | tee /tmp/k_desc_replicaset_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get sc --no-headers -o custom-columns=":metadata.name") ; do kubectl -n apigee describe sc ${p} 2>&1 | tee /tmp/k_desc_storageclass_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt; done
for p in $(kubectl -n apigee get sts --no-headers -o custom-columns=":metadata.name") ; do kubectl describe sts ${p} -n apigee 2>&1 | tee /tmp/k_desc_sts_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get secrets --no-headers -o custom-columns=":metadata.name") ; do kubectl -n apigee describe secrets ${p} 2>&1 | tee /tmp/k_desc_secrets_n_apigee${p}_$(date +%Y.%m.%d_%H.%M.%S).txt; done
for p in $(kubectl -n apigee get services --no-headers -o custom-columns=":metadata.name") ; do kubectl describe service ${p} -n apigee 2>&1 | tee /tmp/k_desc_services_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get sa --no-headers -o custom-columns=":metadata.name") ; do kubectl describe sa ${p} -n apigee 2>&1 | tee /tmp/k_desc_service_account_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee get svc --no-headers -o custom-columns=":metadata.name") ; do kubectl describe svc ${p} -n apigee 2>&1 | tee /tmp/k_desc_svc_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done

###----- "kubectl logs" command to fetch logs of all containers in the "apigee" namespace ----- #####

for p in $(kubectl -n apigee get po --no-headers -o custom-columns=":metadata.name") ; do kubectl -n apigee logs ${p} --all-containers 2>&1 | tee /tmp/k_logs_n_apigee_${p}_$(date +%Y.%m.%d_%H.%M.%S).log ; done

###----- "kubectl get" commands for "apigee-system" namespace ----- #####

kubectl get all -n apigee-system -o wide 2>&1 | tee /tmp/k_get_all_n_apigee_system_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get jobs -o wide -n apigee-system 2>&1 | tee /tmp/k_get_jobs_n_apigee_system_$(date +%Y.%m.%d_%H.%M.%S).txt

###----- "kubectl describe" commands for "apigee-system" namespace ----- #####

for p in $(kubectl -n apigee-system get certificate --no-headers -o custom-columns=":metadata.name") ; do kubectl describe certificate ${p} -n apigee-system 2>&1 | tee /tmp/k_desc_certificate_n_apigee_system_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee-system get deployment --no-headers -o custom-columns=":metadata.name") ; do kubectl describe deployment ${p} -n apigee-system 2>&1 | tee /tmp/k_desc_deployment_n_apigee_system_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee-system get jobs --no-headers -o custom-columns=":metadata.name") ; do kubectl describe jobs ${p} -n apigee-system 2>&1 | tee /tmp/k_desc_jobs_n_apigee_system_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee-system get po --no-headers -o custom-columns=":metadata.name") ; do kubectl -n apigee-system describe po ${p} 2>&1 | tee /tmp/k_desc_pod_n_apigee_system_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee-system get rs --no-headers -o custom-columns=":metadata.name") ; do kubectl describe rs ${p} -n apigee-system 2>&1 | tee /tmp/k_desc_replicaset_n_apigee_system_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee-system get rolebinding --no-headers -o custom-columns=":metadata.name") ; do kubectl describe rolebinding ${p} -n apigee-system 2>&1 | tee /tmp/k_desc_rolebinding_n_apigee_system_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee-system get services --no-headers -o custom-columns=":metadata.name") ; do kubectl describe service ${p} -n apigee-system 2>&1 | tee /tmp/k_desc_services_n_apigee_system_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee-system get sa --no-headers -o custom-columns=":metadata.name") ; do kubectl describe sa ${p} -n apigee-system 2>&1 | tee /tmp/k_desc_serviceaccount_n_apigee_system_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n apigee-system get secrets --no-headers -o custom-columns=":metadata.name") ; do kubectl describe secrets ${p} -n apigee-system 2>&1 | tee /tmp/k_desc_secrets_n_apigee_system_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done

###----- "kubectl logs" command for "apigee-system" namespace ----- #####

for p in $(kubectl -n apigee-system get po --no-headers -o custom-columns=":metadata.name") ; do kubectl -n apigee-system logs ${p} --all-containers 2>&1 | tee /tmp/k_logs_n_apigee_system_${p}_$(date +%Y.%m.%d_%H.%M.%S).log ; done

###----- "kubectl get" command for "cert-manager" namespace ----- #####

kubectl get all -n cert-manager -o wide 2>&1 | tee /tmp/k_get_all_n_cert_manager_$(date +%Y.%m.%d_%H.%M.%S).txt
kubectl get crd -n cert-manager 2>&1 | tee /tmp/k_get_crd_n_cert_manager_$(date +%Y.%m.%d_%H.%M.%S).txt

###----- "kubectl describe" command for "cert-manager" namespace ----- #####

for p in $(kubectl -n cert-manager get deployment  --no-headers -o custom-columns=":metadata.name") ; do kubectl -n cert-manager describe deployment $(p) 2>&1 | tee /tmp/k_desc_deployment_n_cert_manager_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n cert-manager get endpoints --no-headers -o custom-columns=":metadata.name") ; do kubectl describe endpoints ${p} -n cert-manager 2>&1 | tee /tmp/k_desc_endpoints_n_cert_manager_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n cert-manager get po --no-headers -o custom-columns=":metadata.name") ; do kubectl -n cert-manager describe po ${p} 2>&1 | tee /tmp/k_desc_po_n_cert_manager_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n cert-manager get rs --no-headers -o custom-columns=":metadata.name") ; do kubectl describe rs ${p} -n cert-manager 2>&1 | tee /tmp/k_desc_replicaset_n_cert_manager_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n cert-manager get sa --no-headers -o custom-columns=":metadata.name") ; do kubectl describe sa ${p} -n cert-manager 2>&1 | tee /tmp/k_desc_serviceaccount_n_cert_manager_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n cert-manager get secrets --no-headers -o custom-columns=":metadata.name") ; do kubectl describe secrets ${p} -n cert-manager 2>&1 | tee /tmp/k_desc_secrets_n_cert_manager_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n cert-manager get services --no-headers -o custom-columns=":metadata.name") ; do kubectl describe service ${p} -n cert-manager 2>&1 | tee /tmp/k_desc_service_n_cert_manager_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done
for p in $(kubectl -n cert-manager get svc --no-headers -o custom-columns=":metadata.name") ; do kubectl describe svc ${p} -n cert-manager 2>&1 | tee /tmp/k_desc_svc_n_cert_manager_${p}_$(date +%Y.%m.%d_%H.%M.%S).txt ; done

###----- "kubectl logs" command for "cert-manager" namespace ----- #####

for p in $(kubectl -n cert-manager get po --no-headers -o custom-columns=":metadata.name") ; do kubectl -n cert-manager logs ${p} --all-containers 2>&1 | tee /tmp/k_logs_n_cert_manager_${p}_$(date +%Y.%m.%d_%H.%M.%S).log ; done

Una volta generati i log, comprimere tutti i file di output in un unico file tar utilizzando il seguente comando:

	# tar -cvzf /tmp/apigee_hybrid_logs_$(date +%Y.%m.%d_%H.%M).tar.gz /tmp/k_*

Se le dimensioni del file tar sono superiori a 25 MB, puoi caricarlo su Google Drive e condividere il link con noi. In alternativa, puoi utilizzare il comando split per suddividere i file di grandi dimensioni in blocchi da 25 MB che possono essere caricati sul portale dell'assistenza.

	# split -b 25M diagnostic.tar.gz "diagnostic.tar.gz.part"

Modelli di richieste e richieste di esempio

Questa sezione fornisce modelli di richieste e richieste di esempio per diversi prodotti in base alle best practice descritte in questo documento:

Apigee Cloud

Modello

Questa sezione fornisce un modello di esempio per Apigee su Google Cloud.

Problema:

<Fornisci una descrizione dettagliata del problema o del comportamento osservato. Includi il nome e la versione del prodotto, se applicabile.>

Messaggio di errore:

<Include the complete error message observed (if any)>

Ora di inizio del problema (formato ISO 8601):

Ora di fine del problema (formato ISO 8601):

Dettagli di configurazione di Apigee:
  Nomi delle organizzazioni:
  Nomi degli ambienti:
  Nomi dei proxy API:
  Numeri di revisione:

Passaggi per la riproduzione del problema:

<Fornisci i passaggi per riprodurre il problema, se possibile>

Informazioni di diagnostica:

<List of files attached>

Caso di esempio

Questa sezione fornisce un caso di esempio per Apigee su Google Cloud.

Problema:

Stiamo riscontrando un numero elevato di errori 503 (Servizio non disponibile) nella nostra organizzazione Public Cloud. Puoi esaminare il problema e risolverlo o consigliarci come farlo?

Messaggio di errore:

{"fault":{"faultstring":"The Service is temporarily available", "detail":{"errorcode":"messaging.adaptors.http.flow.ServiceUnavailable"}}}

Ora di inizio del problema (formato ISO 8601): 04-10-2020 06:30 IST

Ora di fine del problema (formato ISO 8601): il problema persiste.

Dettagli di configurazione di Apigee Cloud:
  Nomi delle organizzazioni: myorg
  Nomi degli ambienti: dev
  Nomi dei proxy API: myproxy
  Numeri di revisione: 3

Passaggi per la riproduzione del problema:

Esegui il seguente comando curl per riprodurre il problema:

curl -X GET 'https://myorg-dev.apigee.net/v1/myproxy'

Informazioni di diagnostica:

Output dello strumento di debug (trace-503.xml)

Ibrido

Modello

Questa sezione fornisce un modello di esempio per Apigee hybrid.

Problema:

<Fornisci una descrizione dettagliata del problema o del comportamento osservato. Includi il nome e la versione del prodotto, se applicabile.>

Messaggio di errore:

<Include the complete error message observed (if any)>

Ora di inizio del problema (formato ISO 8601):

Ora di fine del problema (formato ISO 8601):

Dettagli sulla configurazione di Apigee Hybrid:

  • Piattaforma Apigee hybrid:

    <Fornisci le informazioni sulla piattaforma in cui hai installato la versione ibrida.>

  • Progetto Google Cloud, organizzazione e ambiente ibridi:
      ID progetto Google Cloud:
      <Se utilizzi Google Kubernetes Engine (GKE), assicurati di fornire l'ID progetto in cui si trovano i cluster. Se utilizzi GKE on-premise, Azure Kubernetes Service o Amazon EKS, fornisci l'ID progetto a cui invii i log.>
      Organizzazione ibrida Apigee:
      Ambiente ibrida Apigee:
  • Apigee hybrid e altre versioni CLI:
      Versione CLI di Apigee hybrid (apigeectl):
      Versione di kubectl:
  • Dettagli del nome del cluster Kubernetes:
      k8sCluster:
      name:
      region:
  • Topologia di rete:
    <Allega la topologia di rete che descrive la configurazione di Apigee hybrid, inclusi data center, cluster Kubernetes, spazi dei nomi e pod.>
  • File YAML delle sostituzioni:
    <Allega il file YAML delle sostituzioni.>

Passaggi per la riproduzione del problema

<Fornisci i passaggi per riprodurre il problema, se possibile>

Informazioni di diagnostica:

<List of files attached>

Caso di esempio

Questa sezione fornisce un caso di esempio per Apigee hybrid.

Problema:

Si verificano errori durante l'esecuzione delle API di gestione su Apigee hybrid versione 1.3.

Messaggio di errore:

[ERROR] 400 Bad Request
{
"error": {
"code": 400,
"message": "Error processing MART request: INTERNAL_ERROR",
"errors": [
{
"message": "Error processing MART request: INTERNAL_ERROR",
"domain": "global",
"reason": "failedPrecondition"
}
],
"status": "FAILED_PRECONDITION"
}
}

Ora di inizio del problema(formato ISO 8601): dal giorno 24-10-2020 10:30 PDT

Ora di fine del problema (formato ISO 8601): il problema continua a verificarsi.

Dettagli sulla configurazione di Apigee Hybrid:

  • Piattaforma Apigee hybrid
    Versione GKE 1.15.1
  • Progetto Google Cloud, organizzazione e ambiente ibrida
      ID progetto Google Cloud: apigee-hybrid-123456
      Nota: questo è l'ID progetto in cui si trovano i cluster.
      Organizzazione Apigee hybrid: apigee-hybrid-123456
      Ambiente Apigee hybrid: dev
  • Apigee hybrid e altre versioni dell'interfaccia a riga di comando:
      Versione dell'interfaccia a riga di comando Apigee hybrid (apigeectl):
        Versione: 1.2.0
        Commit: ac09109
        ID build: 214
        Ora di compilazione: 2020-03-30T20:23:36Z
        Versione Go: go1.12

      Versione Kubectl:
        Versione client:
    version.Info{Major:"1", Minor:"15", GitVersion:"v1.15.0", GitCommit:"e8462b5b5dc2584fdcd18e6bcfe9f1e4d970a529", GitTreeState:"clean", BuildDate:"2019-06-19T16:40:16Z", GoVersion:"go1.12.5", Compiler:"gc", Platform:"darwin/amd64"}

        Versione server:
    version.Info{Major:"1", Minor:"14+", GitVersion:"v1.14.10-gke.36", GitCommit:"34a615f32e9a0c9e97cdb9f749adb392758349a6", GitTreeState:"clean",
  • Dettagli del nome del cluster Kubernetes:
      k8sCluster:
      name: user-cluster-1
      region: us-east1
  • Topologia di rete
    File allegato network-topology.png
  • Sostituzioni del file YAML
    File allegato overrides.yaml

Passaggi per la riproduzione del problema:

Esegui la seguente API di gestione per osservare l'errore:

curl -X GET --header "Authorization: Bearer <TOKEN>" "https://apigee.googleapis.com/v1/organizations/apigee-hybrid-123456/environments/dev/keyvaluemaps"

Informazioni di diagnostica:

Sono stati allegati i seguenti file:

  • network-topology.png
  • overrides.yaml file
  • Log di MART
  • Log del sincronizzatore