In diesem Dokument erfahren Sie, wie Sie Probleme mit der Beobachtbarkeit in Google Distributed Cloud beheben. Wenn eines dieser Probleme auftritt, finden Sie hier Vorschläge zur Fehlerbehebung und Problemumgehung.
Wenn Sie weitere Unterstützung benötigen, wenden Sie sich an den Google-Support.
Cloud-Audit-Logs werden nicht erfasst
Prüfen Sie, ob Cloud-Audit-Logs im AbschnittcloudAuditLogging
der Clusterkonfiguration aktiviert sind. Prüfen Sie, ob die Projekt-ID, der Speicherort und der Dienstkontoschlüssel richtig konfiguriert sind. Die Projekt-ID muss mit der Projekt-ID unter gkeConnect
übereinstimmen.
Wenn Cloud-Audit-Logs aktiviert sind, sind Berechtigungen der häufigste Grund dafür, dass Logs nicht erfasst werden. In diesem Szenario werden Fehlermeldungen zur verweigerten Berechtigung im Proxy-Container für Cloud-Audit-Logs angezeigt.
Der Cloud-Audit-Logs-Proxy-Container wird als einer der folgenden Typen ausgeführt:- Ein statischer Pod im Administrator- oder eigenständigen Cluster.
- Als Sidecar-Container im
kube-apiserver
-Pod
Wenn Berechtigungsfehler angezeigt werden, folgen Sie der Anleitung zur Fehlerbehebung und Behebung von Berechtigungsproblemen.
kube-state-metrics
-Messwerte werden nicht erfasst
kube-state-metrics
(KSM) läuft als eine einzige Replikatbereitstellung im Cluster und generiert Messwerte für fast alle Ressourcen im Cluster. Wenn KSM und der gke-metrics-agent
auf demselben Knoten ausgeführt werden, besteht ein größeres Risiko eines Ausfalls der Messwert-Agents auf allen Knoten.
Die Namen von KSM-Messwerten entsprechen dem Muster kube_<ResourceKind>
, z. B. kube_pod_container_info
. Messwerte, die mit kube_onpremusercluster_
beginnen, stammen vom lokalen Clustercontroller und nicht von KSM.
Wenn KSM-Messwerte fehlen, führen Sie die folgenden Schritte zur Fehlerbehebung aus:
- Prüfen Sie in Cloud Monitoring die CPU-, Arbeitsspeicher- und Neustartanzahl von KSM mit der Zusammenfassung der API-Messwerte wie
kubernetes.io/anthos/container/...
. Dies ist eine separate Pipeline mit KSM. Prüfen Sie, ob der KSM-Pod nicht durch unzureichende Ressourcen eingeschränkt ist.- Wenn diese API-Zusammenfassungsmesswerte für KSM nicht verfügbar sind, tritt das Problem wahrscheinlich auch auf
gke-metrics-agent
auf demselben Knoten auf.
- Wenn diese API-Zusammenfassungsmesswerte für KSM nicht verfügbar sind, tritt das Problem wahrscheinlich auch auf
- Prüfen Sie im Cluster den Status und die Logs des KSM-Pods und des
gke-metrics-agent
-Pods auf demselben Knoten mit KSM.
kube-state-metrics
-Absturzschleife
Symptom
In Cloud Monitoring sind keine Messwerte von kube-state-metrics
(KSM) verfügbar.
Ursache
Dieses Szenario tritt eher in großen Clustern oder Clustern mit vielen Ressourcen auf. KSM wird als einzelnes Replikat-Deployment ausgeführt und listet fast alle Ressourcen im Cluster auf, z. B. Pods, Deployments, DaemonSets, ConfigMaps, Secrets und PersistentVolumes. Für jedes dieser Ressourcen-Objekte werden Messwerte generiert. Wenn eine der Ressourcen viele Objekte hat, z. B. einen Cluster mit über 10.000 Pods, geht KSM möglicherweise der Arbeitsspeicher aus.
Betroffene Versionen
Dieses Problem kann bei jeder Version von Google Distributed Cloud auftreten.
Das Standard-Limit für CPU und Arbeitsspeicher wurde in den letzten Versionen von Google Distributed Cloud erhöht, sodass diese Ressourcenprobleme seltener auftreten sollten.
Problembehebung und Behelfslösung
So prüfen Sie, ob das Problem auf zu wenig Arbeitsspeicher zurückzuführen ist:
- Verwenden Sie
kubectl describe pod
oderkubectl get pod -o yaml
und überprüfen Sie die Fehler-Statusmitteilung. - Prüfen Sie den Messwert für den Arbeitsspeicherverbrauch und die Auslastung von KSM und achten Sie darauf, dass er das Limit erreicht, bevor er neu gestartet wird.
Wenn Sie feststellen, dass Probleme mit zu wenig Arbeitsspeicher das Problem sind, verwenden Sie eine der folgenden Lösungen:
Erhöhen Sie die Arbeitsspeicheranfrage und das Limit für KSM.
So passen Sie die CPU und den Arbeitsspeicher von KSM an:
Bei Google Distributed Cloud-Versionen 1.16.0 oder höher wird KSM von Google Cloud Observability verwaltet. Informationen zum Aktualisieren von KSM finden Sie unter Standardmäßige CPU- und Speicheranforderungen und Limits für eine Stackdriver-Komponente überschreiben.
Erstellen Sie für Google Distributed Cloud-Versionen 1.10.7 oder höher, 1.11.3 oder höher, 1.12.2 oder höher und 1.13 oder höher, aber niedriger als 1.16.0, eine
ConfigMap
, um die CPU und den Arbeitsspeicher anzupassen:Erstellen Sie eine
ConfigMap
mit dem Namenkube-state-metrics-resizer-config
im Namespacekube-system
(gke-managed-metrics-server
für Version 1.13 oder höher) mit der folgenden Definition. Passen Sie die Werte für CPUs und den Arbeitsspeicher nach Bedarf an:apiVersion: v1 kind: ConfigMap metadata: name: kube-state-metrics-resizer-config namespace: kube-system data: NannyConfiguration: |- apiVersion: nannyconfig/v1alpha1 kind: NannyConfiguration baseCPU: 200m baseMemory: 1Gi cpuPerNode: 3m memoryPerNode: 20Mi ```
Nachdem Sie die ConfigMap erstellt haben, starten Sie das KSM-Deployment neu, indem Sie den KSM-Pod mit dem folgenden Befehl löschen:
kubectl -n kube-system rollout restart deployment kube-state-metrics
Bei Google Distributed Cloud-Versionen 1.9 und niedriger, 1.10.6 und niedriger, 1.11.2 und niedriger sowie 1.12.1 und niedriger:
- Keine gute langfristige Lösung: Wenn Sie die KSM-bezogene Ressource bearbeiten, werden die Änderungen von
monitoring-operator
automatisch rückgängig gemacht. - Sie können
monitoring-operator
auf 0 Replikate herunterskalieren und dann das KSM-Deployment bearbeiten, um das Ressourcenlimit anzupassen. Der Cluster erhält jedoch keine Sicherheits-Patches, die über neue Patch-Releases mitmonitoring-operator
bereitgestellt werden. Denken Sie daran,monitoring-operator
wieder hochzuskalieren, nachdem der Cluster mit der Fehlerbehebung auf eine neuere Version aktualisiert wurde.
- Keine gute langfristige Lösung: Wenn Sie die KSM-bezogene Ressource bearbeiten, werden die Änderungen von
Reduzieren Sie die Anzahl der Messwerte aus KSM.
Für Google Distributed Cloud 1.13 stellt KSM standardmäßig nur eine kleinere Anzahl von Messwerten, die wichtigsten Messwerte, zur Verfügung. Dadurch ist die Ressourcennutzung geringer als bei früheren Versionen. Sie können jedoch dasselbe Verfahren anwenden, um die Anzahl der KSM-Messwerte weiter zu reduzieren.
Für Google Distributed Cloud-Versionen vor 1.13 verwendet KSM die Standard-Flags. Diese Konfiguration stellt eine große Anzahl an Messwerten bereit.
gke-metrics-agent
-Absturzschleife
Wenn bei gke-metrics-agent
nur Probleme mit unzureichendem Arbeitsspeicher auf dem Knoten auftreten, auf dem kube-state-metrics
existiert, ist die Ursache eine große Anzahl von kube-state-metrics
-Messwerten. Um dieses Problem zu beheben, skalieren Sie stackdriver-operator
herunter und ändern Sie KSM zur Bereitstellung einiger erforderlicher Messwerte, wie im vorherigen Abschnitt beschrieben.
Denken Sie daran, stackdriver-operator
wieder hochzuskalieren, nachdem der Cluster auf Google Distributed Cloud 1.13 aktualisiert wurde, wo KSM standardmäßig eine geringere Anzahl von Kernmesswerten bereitstellt.
gke-metric-agent
. Sie können CPU und Arbeitsspeicher für alle gke-metrics-agent
-Pods durch Hinzufügen des Felds resourceAttrOverride
zur benutzerdefinierten Stackdriver-Ressource anpassen.
stackdriver-metadata-agent
-Absturzschleife
Symptom
Beim Filtern von Messwerten in Cloud Monitoring ist kein Systemmetadatenlabel verfügbar.
Ursache
Die häufigste Ursache von stackdriver-metadata-agent
-Absturzschleifen ist zu wenig Arbeitsspeicher. Dieses Ereignis ähnelt kube-state-metrics
. Obwohl stackdriver-metadata-agent
nicht alle Ressourcen auflistet, listet es dennoch alle Objekte für die relevanten Ressourcentypen wie Pods, Bereitstellungen und NetworkPolicy auf. Der Agent wird als einzelne Replikat-Bereitstellung ausgeführt, was das Risiko von Speicherproblemen erhöht, wenn die Anzahl der Objekte zu groß ist.
Betroffene Version
Dieses Problem kann bei jeder Version von Google Distributed Cloud auftreten.
Das Standard-Limit für CPU und Arbeitsspeicher wurde in den letzten Versionen von Google Distributed Cloud erhöht, sodass diese Ressourcenprobleme seltener auftreten sollten.
Problembehebung und Behelfslösung
So prüfen Sie, ob das Problem auf zu wenig Arbeitsspeicher zurückzuführen ist:
- Verwenden Sie
kubectl describe pod
oderkubectl get pod -o yaml
und überprüfen Sie die Fehler-Statusmitteilung. - Prüfen Sie den Messwert für den Arbeitsspeicherverbrauch und die Auslastung von
stackdriver-metadata-agent
und stellen Sie sicher, dass er das Limit erreicht, bevor er neu gestartet wird.
resourceAttrOverride
der benutzerdefinierten Stackdriver-Ressource.
metrics-server
-Absturzschleife
Symptom
Der horizontale Pod-Autoscaler und kubectl top
funktionieren in Ihrem Cluster nicht.
Ursache und betroffene Versionen
Dieses Problem ist nicht sehr häufig, wird aber durch Fehler aufgrund von unzureichendem Arbeitsspeicher in großen Clustern oder in Clustern mit hoher Pod-Dichte verursacht.
Dieses Problem kann bei jeder Version von Google Distributed Cloud auftreten.
Problembehebung und Behelfslösung
Erhöhen Sie die Ressourcenlimits des Messwertservers.
In Google Distributed Cloud Version 1.13 und höher wurden der Namespace von metrics-server
und seine Konfiguration von kube-system
nach gke-managed-metrics-server
verschoben.
Nächste Schritte
Wenn Sie weitere Unterstützung benötigen, wenden Sie sich an den Google-Support.