Lernpfad: Skalierung von Anwendungen – Überlegungen zur Produktion

In dieser Reihe von Anleitungen werden einige Planungsaspekte vereinfacht, damit Sie sich auf das Erlernen der wichtigsten Features und Dienste von Google Kubernetes Engine (GKE) Enterprise konzentrieren können. Bevor Sie Ihre eigene Google Kubernetes Engine (GKE) Enterprise Edition-Umgebung ähnlich der in diesen Anleitungen beschriebenen erstellen, sind noch einige weitere Planungsaspekte zu beachten. Dabei werden die Clusterverwaltungsebene, Netzwerk und Verfügbarkeitstypen berücksichtigt.

Netzwerk

GKE-Cluster erfordern eine sorgfältige IP-Adressplanung. Die ausgewählten Netzwerkoptionen wirken sich auf die Architektur Ihrer GKE-Cluster aus. Einige dieser Optionen können nach der Konfiguration nicht mehr geändert werden, ohne den Cluster neu zu erstellen.

In dieser Reihe von Anleitungen verwenden Sie Cluster im Autopilot-Modus, die immer ein Netzwerk im VPC-nativen Modus nutzen. VPC-native Cluster verwenden Alias-IP-Adressbereiche auf GKE-Knoten und sind zum Erstellen von Clustern in freigegebenen VPCs erforderlich. VPC-native Cluster lassen sich leichter skalieren als weitergeleitete, geclusterte Cluster ohne Nutzung von Google Cloud-Routen. Daher sind sie weniger anfällig für Routingbeschränkungen.

Bevor Sie Ihre eigene GKE Enterprise-Umgebung erstellen und Arbeitslasten bereitstellen, lesen Sie die folgenden Netzwerkanleitungen:

Clustermodi

In dieser Reihe von Anleitungen erstellen Sie einen regionalen GKE Enterprise-Cluster, der den Autopilot-Modus verwendet. Autopilot-Cluster sind mit einer optimierten Cluster-Konfiguration vorkonfiguriert, die für Produktionsarbeitslasten bereit ist. Alternativ können Sie Cluster im Standard-Modus verwenden, um die Konfiguration der zugrunde liegenden Infrastruktur zu optimieren.

Eine umfassendere Übersicht erhalten Sie in den Planungsdokumenten, die mit den Auswahlmöglichkeiten für die Clusterkonfiguration beginnen.

Namespaces

Mit Namespaces können Sie Ihre Anwendungen organisieren und Komponenten voneinander isolieren. Jeder Namespace hat eigene Ressourcen wie Pods, Dienste und Deployments. Sie können beispielsweise einen Namespace für alle Frontend-Dienste und einen Namespace für Ihre Backend-Dienste erstellen. Diese Gruppierung vereinfacht die Verwaltung Ihrer Dienste und die Steuerung des Zugriffs darauf.

In dieser Reihe von Anleitungen stellen Sie die Pods und Dienste für die Beispielanwendung "Cymbal Bank" in einem einzelnen Namespace bereit. Dieser Ansatz reduziert die Komplexität der Bereitstellung, bietet aber nicht die Möglichkeit, Namespaces zum Zuweisen von Ressourcen zu verschiedenen Teams und Nutzern zu verwenden, wie es in einer Produktionsumgebung der Fall ist. Außerdem können Sie die GKE Enterprise-Teamverwaltungsfeatures nicht nutzen, mit denen Sie Ihre Flotten, Namespaces und Berechtigungen strukturieren können, sodass Teams unabhängig als separate "Mandanten" in Ihrer Flotte agieren können. mit ihren eigenen Ressourcen. Ein sicheres und produktionsbereites Beispiel für die Beispielanwendung "Cymbal Bank", die mehrere Namespaces verwendet, finden Sie unter Anwendungsarchitektur von Cymbal Bank.

Budget für Pod-Störungen

Mit Budgetrichtlinien für Pod-Störungen (Pod Disruption Budget, PDB) können Sie die Anwendungsleistung gewährleisten, indem Sie verhindern, dass Pods gleichzeitig ausfallen, wenn Sie eine Änderung am System vornehmen, und die Anzahl gleichzeitig nicht verfügbarer Pods in einer replizierten Anwendung begrenzen.

In dieser Reihe von Anleitungen konfigurieren und verwenden Sie keine PDBs. Wenn Sie die Anleitung zum Simulieren eines Ausfalls abgeschlossen haben, sollten Ihre Dienste und Knoten alle wie erwartet reagieren. Wenn Sie Ihre eigenen Arbeitslasten bereitstellen, können PDBs auf Knoten das Leeren von Knoten blockieren.

Wenn Sie PDBs verwenden, prüfen Sie Ihre Konfiguration, bevor Sie versuchen, Knoten zu sperren und zu leeren. Wenn die Knoten nicht erfolgreich geleert werden können, treten möglicherweise Probleme mit geplanten Wartungsereignissen auf.

Nächste Schritte

Arbeiten Sie zuerst die erste Anleitung zum Bereitstellen eines einzelnen GKE-Clusters durch, in dem eine auf Mikrodiensten basierende Anwendung ausgeführt wird.