Überblick über die Clusterverwaltung


In Google Kubernetes Engine legen Sie die Konfiguration und die Merkmale eines Clusters mit Google Cloud-Tools und -APIs wie den folgenden fest: Google Cloud CLI und die Google Cloud Console. Zu diesen Aufgaben gehören das Erstellen, Aktualisieren und Löschen von Clustern, das Hinzufügen oder Entfernen von Knoten und das Steuern des Zugriffs auf den Cluster mithilfe von Identity and Access Management (IAM).

Das interne Verhalten des Clusters wird über die Kubernetes API und die kubectl-Befehlszeile gesteuert. Sie können auch viele Verhaltensweisen eines Clusters über die Google Cloud Console konfigurieren.

Grundlegende Clusterverwaltung

Die grundlegenden Aufgaben zur Clusterverwaltung gelten speziell für GKE-Cluster in der Google Cloud und beziehen das Kubernetes-System selbst normalerweise nicht ein. Sie führen diese Aufgaben komplett mit der Google Cloud Console, der Google Cloud CLI oder der GKE API aus.

Cluster- und Knotenupgrades

Standardmäßig werden Cluster und Knotenpools automatisch aktualisiert. Hier finden Sie weitere Informationen über das Konfigurieren der Funktionsweise von Upgrades für jeden Cluster. Unter anderem erfahren Sie dort, wann diese Upgrades stattfinden können und wann nicht.

Konfiguration auf Clusterebene

Zu den Konfigurationsaufgaben auf Clusterebene gehören das Erstellen und Löschen von GKE-Clustern und -Knoten. Sie können steuern, wann Clusterwartungsaufgaben ausgeführt werden dürfen, und das Autoscaling auf Clusterebene konfigurieren.

Knotenkonfiguration

GKE bietet eine Reihe von Optionen für die Knoten des Clusters. Sie können beispielsweise einen oder mehrere Knotenpools erstellen. Knotenpools sind Gruppen von Knoten innerhalb des Clusters, die eine gemeinsame Konfiguration verwenden. Der Cluster muss mindestens einen Knotenpool haben. Beim Erstellen des Clusters wird ein Knotenpool namens default erstellt.

Bei Standardclustern können Sie andere Knotenoptionen pro Pool festlegen, darunter:

Cluster-Monitoring konfigurieren

Google empfiehlt die Verwendung des Managed Service for Prometheus von Google Cloud, um Ihre Kubernetes-Anwendungen und -Infrastruktur zu überwachen.

Managed Service for Prometheus ist die vollständig verwaltete Multi-Cloud-Lösung von Google Cloud für Prometheus-Messwerte. Damit können Sie Ihre Arbeitslasten global mit Prometheus überwachen und melden, ohne Prometheus manuell in großem Umfang verwalten und betreiben zu müssen.

Managed Service for Prometheus erfasst Messwerte von Prometheus-Exportern und ermöglicht Ihnen eine globale Abfrage der Daten mit PromQL. Das bedeutet, dass Sie weiterhin alle vorhandenen Grafana-Dashboards, PromQL-basierte Benachrichtigungen und Workflows verwenden können. Es ist hybrid- und Multi-Cloud-kompatibel, kann sowohl Kubernetes- als auch VM-Arbeitslasten überwachen, speichert Daten 24 Monate und sorgt für Portabilität, indem sie mit dem vorgelagerten Prometheus kompatibel bleibt. Außerdem können Sie Ihr Prometheus-Monitoring ergänzen, indem Sie in PromQL über 1.500 kostenlose Messwerte in Cloud Monitoring abfragen, einschließlich kostenloser GKE-Systemmesswerte.

Weitere Informationen zum Konfigurieren des Cluster-Monitoring finden Sie in den folgenden Anleitungen:

Clusternetzwerk konfigurieren

Ein weiterer Aspekt der Clusterverwaltung besteht darin, verschiedene Netzwerkfunktionen für Ihren Cluster zu aktivieren und zu steuern. Die meisten Netzwerkfunktionen werden bei der Clustererstellung festgelegt: Wenn Sie einen Cluster mithilfe einer Google Cloud-Benutzeroberfläche erstellen, müssen Sie die Netzwerkfunktionen aktivieren, die Sie verwenden möchten. Für einige dieser Funktionen sind unter Umständen weitere Konfigurationseinstellungen erforderlich, die über Kubernetes-Benutzeroberflächen wie die kubectl-Befehlszeile vorgenommen werden.

Damit beispielsweise die Erzwingung von Netzwerkrichtlinien für den GKE-Cluster aktiviert wird, müssen Sie die Funktion zuerst mit der Google Cloud Console oder der Google Cloud CLI aktivieren. Anschließend geben Sie die eigentlichen Regeln der Netzwerkrichtlinien mithilfe der Kubernetes Network Policy API oder der kubectl-Befehlszeile an. Bei Autopilot-Clustern ist die Netzwerkrichtlinie standardmäßig deaktiviert. Sie können diese Funktion jedoch aktivieren.

Weitere Informationen zum Aktivieren von Netzwerkfunktionen für GKE finden Sie in den folgenden Anleitungen:

Clustersicherheit konfigurieren

GKE enthält Google Cloud-spezifische und Kubernetes-Sicherheitsfeatures, die Sie mit Ihrem Cluster verwenden können. Sicherheitsfunktionen auf Google Cloud-Ebene, z. B. IAM, können Sie über die Google Cloud Console verwalten. Sicherheitsfunktionen innerhalb von Clustern, z. B. rollenbasierte Zugriffssteuerung, verwalten Sie mithilfe von Kubernetes-APIs und anderen Benutzeroberflächen.

Weitere Informationen zu den Sicherheitsfunktionen und -funktionen, die in GKE verfügbar sind, finden Sie unter Sicherheit – Übersicht und Clustersicherheit erhöhen. GKE Autopilot-Cluster implementieren viele dieser Sicherheitsfeatures und härten Best Practices automatisch. Weitere Informationen finden Sie unter Sicherheitsfunktionen in GKE Autopilot.

Für die Notfallwiederherstellung konfigurieren

Damit Ihre Produktionsarbeitslasten im Falle eines Dienstunterbrechungsereignisses verfügbar bleiben, sollten Sie einen Plan zur Notfallwiederherstellung (Disaster Recovery, DR) erstellen. Weitere Informationen zur Planung der Notfallwiederherstellung finden Sie im Leitfaden zur Planung der Notfallwiederherstellung.

Ihre Kubernetes-Konfiguration und alle nichtflüchtigen Volumes werden nur gesichert, wenn Sie explizit Maßnahmen ergreifen. Wenn Sie Ihre Kubernetes-Konfiguration und nichtflüchtige Volumes in GKE-Clustern sichern und wiederherstellen möchten, können Sie Backup for GKE verwenden.