Container zu Google Cloud migrieren: Von Kubernetes zu GKE migrieren

In diesem Dokument wird erläutert, wie Sie die Migration von einer selbstverwalteten Kubernetes-Umgebung zu Google Kubernetes Engine (GKE) planen, gestalten und umsetzen. Wird diese nicht richtig durchgeführt, kann das Verschieben von Anwendungen von einer Umgebung in eine andere eine schwierige Aufgabe sein. Daher müssen Sie die Migration sorgfältig planen und ausführen.

Dieses Dokument ist Teil einer mehrteiligen Reihe zur Migration zu Google Cloud. Weitere Informationen zu der Reihe finden Sie unter Migration zu Google Cloud: Migrationspfad auswählen.

Dieses Dokument ist Teil einer Reihe zur Migration von Containern zu Google Cloud:

Dieses Dokument ist hilfreich, wenn Sie eine Migration von einer selbstverwalteten Kubernetes-Umgebung zu GKE durchführen möchten. Möglicherweise nutzen Sie eine lokale Umgebung, eine private Hosting-Umgebung oder führen Ihre Umgebung bei einem anderen Cloud-Anbieter aus. Dieses Dokument hilft Ihnen auch dabei, die Möglichkeiten einer Migration zu bewerten und sich ein Bild davon zu machen, wie diese aussehen könnte.

Die Verwendung von GKE bietet folgende Vorteile:

In diesem Dokument wird davon ausgegangen, dass Sie die folgenden Aufgaben gelesen haben und mit ihnen vertraut sind:

Die folgende Grafik veranschaulicht den Migrationsprozess:

Migrationspfad mit vier Phasen

Bei jedem Migrationsschritt folgen Sie den unter Migration zu Google Cloud: Einstieg definierten Phasen:

  1. Arbeitslasten bewerten und erkennen
  2. Grundlagen planen und aufbauen
  3. Arbeitslasten bereitstellen
  4. Umgebung optimieren

Umgebung prüfen

In der Bewertungsphase bestimmen Sie die Anforderungen und Abhängigkeiten für die Migration Ihrer selbstverwalteten Kubernets-Umgebung zu GKE:

  1. Ein umfassendes Inventar Ihrer Anwendungen erstellen.
  2. Die Anwendungen nach ihren Attributen und Abhängigkeiten katalogisieren.
  3. Die Teams auf Google Cloud vorbereiten.
  4. Einen Test und einen Proof of Concept für Google Cloud erstellen.
  5. Die Gesamtbetriebskosten (TCO) der Zielumgebung berechnen.
  6. Die Arbeitslasten auswählen, die als Erstes migriert werden sollen.

Die folgenden Abschnitte basieren auf dem Dokument Migration zu Google Cloud: Arbeitslasten bewerten und erkennen.

Inventar erstellen

Zum Durchführen einer Migration müssen Sie Ihre aktuelle Kubernetes-Umgebung kennen. Zuerst sammeln Sie Informationen zu Ihren Clustern und konzentrieren sich dann auf die in diesen Clustern bereitgestellten Arbeitslasten und die Abhängigkeiten der Arbeitslasten. Am Ende der Bewertungsphase haben Sie zwei Inventare: eines für Ihre Cluster und eines für die in diesen Clustern bereitgestellten Arbeitslasten.

Beim Erstellen des Inventars Ihrer Cluster sollten Sie für jeden Cluster Folgendes berücksichtigen:

  • Anzahl und Typ der Knoten: Wenn Sie die Anzahl der Knoten und die Merkmale der einzelnen Knoten kennen, die in Ihrer aktuellen Umgebung vorhanden sind, können Sie die Größe der Cluster für den Wechsel zu GKE festlegen. Die Knoten in Ihrer neuen Umgebung werden möglicherweise auf einer anderen Generation der Hardwarearchitektur ausgeführt als die, die Sie in Ihrer Umgebung verwenden. Die Leistung der einzelnen Architekturgenerationen ist unterschiedlich, sodass die Anzahl der Knoten, die Sie in Ihrer neuen Umgebung benötigen, von der Anzahl der aktuellen Umgebung abweichen kann. Prüfen Sie alle Arten von Hardware, die Sie in Ihren Knoten verwenden, z. B. Hochleistungsspeichergeräte, GPUs und TPUs.
  • Interner oder externer Cluster: Prüfen Sie, welche internen oder externen Interaktionspartner die einzelnen Cluster haben. Zur Unterstützung Ihrer Anwendungsfälle umfasst diese Prüfung die im Cluster ausgeführten Arbeitslasten und die Schnittstellen, die mit den Clustern interagieren.
  • Mehrmandantenfähigkeit: Wenn Sie mehrmandantenfähige Cluster in Ihrer Umgebung verwalten, prüfen Sie, ob sie in Ihrer neuen Google Cloud-Umgebung funktionieren. Jetzt ist ein guter Zeitpunkt, um herauszufinden, wie Sie Ihre mehrmandantenfähigen Cluster verbessern können, da Ihre Mehrmandantenstrategie Einfluss auf den Aufbau der Basis in Google Cloud hat.
  • Kubernetes-Version: Sammeln Sie Informationen zur Kubernetes-Version Ihrer Cluster, um zu beurteilen, ob zwischen diesen Versionen und den in GKE verfügbaren Versionen eine Abweichung besteht. Wenn Sie eine ältere oder kürzlich veröffentlichte Version verwenden, greifen Sie möglicherweise auf Features zurück, die in GKE nicht verfügbar sind. Die Features sind vielleicht verworfen oder die Kubernetes-Version, mit der sie bereitgestellt werden, ist in GKE noch nicht verfügbar.
  • Kubernetes-Upgradezyklus: Zur Aufrechterhaltung einer zuverlässigen Umgebung sollten Sie wissen, wie Sie mit Kubernetes-Upgrades umgehen und wie sich Ihr Upgradezyklus in Bezug auf GKE-Upgrades verhält.
  • Knotenpools: Wenn Sie eine Form der Knotengruppierung verwenden, sollten Sie überlegen, inwiefern diese Gruppierungen dem Konzept der Knotenpools in GKE entsprechen, da Ihre Gruppierungskriterien eventuell nicht für GKE geeignet sind.
  • Knoteninitialisierung: Prüfen Sie, wie jeder Knoten initialisiert wird, bevor Sie ihn für das Ausführen Ihrer Arbeitslasten als verfügbar markieren. So können Sie die Initialisierungsverfahren nach GKE übertragen.

Die folgenden zu prüfenden Elemente in Ihrem Inventar beziehen sich auf die Sicherheit der Infrastruktur und der Kubernetes-Cluster:

  • Namespaces: Wenn Sie in Ihren Clustern Namespaces von Kubernetes verwenden, um Ressourcen logisch voneinander zu trennen, prüfen Sie, welche Ressourcen sich in jedem Namespace befinden, und machen Sie sich klar, warum Sie diese Trennung vorgenommen haben. Angenommen, Sie verwenden Namespaces als Teil Ihrer Mehrmandantenstrategie. Möglicherweise haben Sie Arbeitslasten in Namespaces bereitgestellt, die für Kubernetes-Systemkomponenten reserviert sind. In GKE haben Sie unter Umständen weniger Kontrolle darüber.
  • Rollenbasierte Zugriffssteuerung (RBAC): Wenn Sie in Ihren Clustern die RBAC-Autorisierung verwenden, erstellen Sie eine Liste mit der Beschreibung aller Clusterrollen und Clusterrollenbindungen, die Sie in Ihren Clustern konfiguriert haben.
  • Netzwerkrichtlinien: Erstellen Sie eine Liste aller Netzwerkrichtlinien, die Sie in Ihren Clustern konfiguriert haben, und machen Sie sich damit vertraut, wie Netzwerkrichtlinien in GKE funktionieren.
  • Pod-Sicherheitsrichtlinien und -kontexte: Erfassen Sie Informationen zu den PodSecurityPolicies und Pod-Sicherheitskontexten, die Sie in Ihren Clustern konfiguriert haben, und machen Sie sich damit vertraut, wie sie in GKE funktionieren.
  • Dienstkonten: Wenn ein Prozess in Ihrem Cluster mit dem Kubernetes API-Server interagiert, erfassen Sie Informationen zu den verwendeten Dienstkonten.

Nachdem Sie das Inventar der Kubernetes-Cluster vollständig erfasst und die Sicherheit Ihrer Umgebung bewertet haben, erstellen Sie das Inventar der in diesen Clustern bereitgestellten Arbeitslasten. Beim Prüfen Ihrer Arbeitslasten sollten Sie Informationen zu folgenden Aspekten sammeln:

  • Pods und Controller: Wenn Sie die Größe der Cluster in Ihrer neuen Umgebung bestimmen möchten, müssen Sie feststellen, wie viele Instanzen jeder Arbeitslast Sie bereitgestellt haben und ob Sie Ressourcenkontingente und Verbrauchslimits für Compute-Ressourcen verwenden. Erfassen Sie Informationen zu den Arbeitslasten, die auf den Steuerungsebenenknoten jedes Clusters ausgeführt werden, sowie zu den von den einzelnen Arbeitslasten verwendeten Controllern. Wie viele Bereitstellungen verwenden Sie zum Beispiel? Wie viele Daemon-Sätze verwenden Sie?
  • Horizontales Pod-Autoscaling: Für die Migration Ihrer Autoscaling-Richtlinien in die neue Umgebung sollten Sie sich damit vertraut machen, wie das horizontale Pod-Autoscaling in GKE funktioniert.
  • Zustandslose und zustandsorientierte Arbeitslasten: Zustandslose Arbeitslasten speichern keine Daten oder Zustände im Cluster oder im nichtflüchtigen Speicher. Zustandsorientierte Anwendungen speichern Daten zur späteren Verwendung. Ermitteln Sie für jede Arbeitslast, welche Komponenten zustandslos und welche zustandsorientiert sind. Die Migration von zustandsorientierten Arbeitslasten ist in der Regel schwieriger als die Migration zustandsloser Arbeitslasten.
  • Kubernetes-Features: Im Clusterinventar können Sie nachvollziehen, welche Kubernetes-Version auf jedem Cluster ausgeführt wird. Lesen Sie die Versionshinweise jeder Kubernetes-Version, um zu erfahren, welche Features enthalten sind und welche verworfen wurden. Gleichen Sie dann Ihre Arbeitslasten mit den benötigten Kubernetes-Features ab. Das Ziel dieser Aufgabe besteht darin, zu ermitteln, ob Sie verworfene oder noch nicht in GKE verfügbare Features verwenden. Wenn Sie nicht verfügbare Features finden, führen Sie eine Migration weg von diesen verworfenen Features durch und übernehmen Sie die neuen Features, sobald sie in GKE verfügbar sind.
  • Speicher: Prüfen Sie bei zustandsorientierten Arbeitslasten, ob sie Ansprüche auf nichtflüchtige Volumes verwenden. Erstellen Sie eine Liste aller Speicheranforderungen, z. B. Größe und Zugriffsmodus, und ermitteln Sie, wie diese Ansprüche auf nichtflüchtige Volumes den nichtflüchtigen Volumes zugeordnet sind, die Sie bereits geprüft haben.
  • Konfiguration und Einfügen von Secrets: Damit Sie Ihre bereitstellbaren Artefakte nicht bei jeder Änderung der Umgebungskonfiguration neu erstellen müssen, fügen Sie die Konfiguration und die Secrets mit ConfigMaps und Secrets in Pods ein. Ermitteln Sie für jede Arbeitslast, welche ConfigMaps und Secrets sie verwendet und wie Sie diese Objekte befüllen.
  • Abhängigkeiten: Ihre Arbeitslasten funktionieren wahrscheinlich nicht isoliert. Sie können Abhängigkeiten haben, entweder innerhalb des Clusters oder von externen Systemen. Erfassen Sie für jede Arbeitslast die Abhängigkeiten und stellen Sie fest, ob Ihre Arbeitslasten eine Toleranz dafür haben, wenn die Abhängigkeiten nicht verfügbar sind. Zu den gängigen Abhängigkeiten gehören beispielsweise verteilte Dateisysteme, Datenbanken, Verteilungsplattformen für Secrets, Identitäts- und Zugriffsverwaltungssysteme, Diensterkennungsmechanismen und andere externe Systeme.
  • Kubernetes-Dienste: Verwenden Sie Dienste, um Ihre Arbeitslasten für interne und externe Clients verfügbar zu machen. Sie müssen zu jedem Dienst den jeweiligen Typ kennen. Prüfen Sie bei extern zugänglichen Diensten, wie dieser Dienst mit dem Rest Ihrer Infrastruktur interagiert. Wie unterstützt Ihre Infrastruktur beispielsweise Load-Balancing-Dienste und Ingress-Objekte? Welche Controller für eingehenden Traffic haben Sie in Ihren Clustern bereitgestellt?
  • Service Mesh: Wenn Sie in Ihrer Umgebung ein Service Mesh verwenden, prüfen Sie, wie es konfiguriert ist. Außerdem müssen Sie wissen, wie viele Cluster es umfasst, welche Dienste Teil des Mesh sind und wie Sie die Topologie des Mesh ändern können. Verwenden Sie beispielsweise den Mechanismus für automatisches Einfügen, um dem Mesh automatisch Dienste hinzuzufügen?

Nachdem Sie Ihre Cluster und deren Arbeitslasten geprüft haben, bewerten Sie die restlichen unterstützenden Dienste und Aspekte in Ihrer Infrastruktur. Dazu gehören:

Bewertung abschließen

Nachdem Sie die Inventare erstellt haben, die sich auf Ihre Kubernetes-Cluster und -Arbeitslasten beziehen, schließen Sie die restlichen Aktivitäten der Bewertungsphase ab, die unter Migration zu Google Cloud: Arbeitslasten bewerten und erkennen beschrieben sind.

Grundlagen planen und aufbauen

In der Planungs- und Aufbauphase stellen Sie die Infrastruktur und die Dienste bereit, die Ihre Arbeitslasten in Google Cloud unterstützen:

  1. Erstellen Sie eine Ressourcenhierarchie.
  2. Konfigurieren Sie die Identitäts- und Zugriffsverwaltung.
  3. Richten Sie die Abrechnung ein.
  4. Richten Sie die Netzwerkverbindung ein.
  5. Erhöhen Sie die Sicherheit.
  6. Richten Sie Monitoring und Benachrichtigungen ein.

Wenn Sie bereits Infrastruktur als Code verwenden, um die Arbeitslasten in Ihrer Kubernetes-Umgebung zu verwalten, können Sie denselben Prozess auf Ihre Google Cloud-Umgebung anwenden. Sie analysieren Ihre Kubernetes-Deskriptoren, weil einige Google Cloud-Ressourcen, die von GKE automatisch für Sie bereitgestellt werden, mithilfe von Kubernetes-Labels und Annotationen konfigurierbar sind. Sie können beispielsweise einen internen Load-Balancer anstelle eines externen Load-Balancers bereitstellen, indem Sie einem LoadBalancer-Dienst eine Annotation hinzufügen.

Die folgenden Abschnitte basieren auf dem Dokument Migration zu Google Cloud: Grundlage aufbauen.

Ressourcenhierarchie erstellen

Wenn Sie eine effiziente Ressourcenhierarchie erstellen möchten, berücksichtigen Sie, wie Ihre Unternehmens- und Organisationsstrukturen Google Cloud zugeordnet werden können. Weitere Informationen dazu finden Sie unter Migration zu Google Cloud: Grundlage aufbauen und GKE-Umgebung für die Produktion vorbereiten.

Wenn Sie beispielsweise eine mehrmandantenfähige Umgebung in GKE benötigen, können Sie zwischen den folgenden Optionen wählen:

  • Für jeden Mandanten ein Google Cloud-Projekt erstellen
  • Ein Projekt für verschiedene Mandanten verwenden und mehrere GKE-Cluster bereitstellen
  • Kubernetes-Namespaces verwenden

Die Wahl hängt von Ihren Anforderungen an Isolierung, Komplexität und Skalierbarkeit ab. Wenn beispielsweise ein Projekt pro Mandant vorhanden ist, sind die Mandanten voneinander getrennt, die Verwaltung der Ressourcenhierarchie wird jedoch aufgrund der hohen Anzahl von Projekten komplexer. Obwohl die Verwaltung von Kubernetes-Namespaces im Vergleich einfacher ist als eine komplexe Ressourcenhierarchie, bietet diese Option eine weniger gute Isolierung. Beispielsweise kann die Steuerungsebene von mehreren Mandanten gemeinsam genutzt werden.

Identitäts- und Zugriffsverwaltung konfigurieren

Identity and Access Management umfasst Tools zum zentralen Konfigurieren einer detaillierten Zugriffssteuerung für Cloud-Ressourcen. Weitere Informationen finden Sie unter Identity and Access Management und Google GKE-Umgebung für die Produktion vorbereiten.

Prüfen Sie, wie die rollenbasierte Zugriffssteuerung (RBAC) von Kubernetes mit der Identitäts- und Zugriffsverwaltung in Google Cloud interagiert, und konfigurieren Sie die RBAC gemäß Ihren Anforderungen, die Sie in der Bewertungsphase ermittelt haben.

Abrechnung einrichten

Bevor Sie Google Cloud-Ressourcen bereitstellen, konfigurieren Sie Cloud Billing und machen Sie sich mit dem Preismodell von GKE vertraut. Weitere Informationen finden Sie unter Abrechnung.

Netzwerkverbindung einrichten

Die Netzwerkkonfiguration ist ein grundlegender Aspekt Ihrer Umgebung. Sehen Sie sich das GKE-Netzwerkmodell an und prüfen Sie die Konnektivitätsanforderungen Ihrer Arbeitslasten. Anschließend können Sie mit der Planung Ihrer Netzwerkkonfiguration beginnen. Weitere Informationen finden Sie unter Konnektivität und Netzwerke.

Sicherheit erhöhen

Es ist wichtig, die Unterschiede zwischen dem Sicherheitsmodell Ihrer Umgebung und dem Modell von Google Cloud zu verstehen. Außerdem müssen Sie wissen, wie Sie die Sicherheit Ihrer GKE-Cluster erhöhen können, um Ihre kritischen Ressourcen zu schützen. Weitere Informationen finden Sie unter Sicherheit.

Monitoring und Benachrichtigungen einrichten

Es ist entscheidend, ein klares Bild von der Leistung Ihrer Infrastruktur und Ihrer Arbeitslasten zu haben, um Verbesserungsmöglichkeiten zu ermitteln. GKE ist umfassend in die Operations-Suite von Google Cloud eingebunden, sodass Sie Logging- und Monitoring-Informationen zu Ihren GKE-Clustern und Arbeitslasten in diesen Clustern erhalten. Weitere Informationen finden Sie unter Monitoring und Benachrichtigungen.

Arbeitslasten bereitstellen

In der Bereitstellungsphase gehen Sie so vor:

  1. Stellen Sie Laufzeitplattform und -umgebungen bereit und konfigurieren Sie sie.
  2. Migrieren Sie Daten aus der alten Umgebung in die neue.
  3. Stellen Sie Ihre Arbeitslasten bereit.

Die folgenden Abschnitte basieren auf den Dokumenten Migration zu Google Cloud: Große Datasets übertragen, Migration zu Google Cloud: Arbeitslasten bereitstellen und Migration zu Google Cloud: Von manuellen zu automatisierten Containerbereitstellungen migrieren.

Laufzeitplattform und -umgebungen bereitstellen und konfigurieren

Bevor Sie eine Arbeitslast in Ihre neue Google Cloud-Umgebung verschieben, müssen Sie die GKE-Cluster bereitstellen.

Nach der Bewertungsphase wissen Sie jetzt, wie Sie die GKE-Cluster in Ihrer neuen Google Cloud-Umgebung bereitstellen, um Ihren Anforderungen gerecht zu werden. Sie können Folgendes bereitstellen:

  • Die Anzahl der Cluster, die Anzahl der Knoten pro Cluster, die Clustertypen und die Konfiguration jedes Clusters und jedes Knotens.
  • Die Anzahl der privaten Cluster.
  • Die Wahl zwischen VPC-nativen und routerbasierten Netzwerken.
  • Die Kubernetes-Versionen, die Sie in Ihren GKE-Clustern benötigen.
  • Die Knotenpools zum logischen Gruppieren der Knoten in Ihren GKE-Clustern und die Entscheidung, ob Sie Knotenpools mit der automatischen Knotenbereitstellung automatisch erstellen müssen.
  • Die Initialisierungsverfahren, die Sie von Ihrer Umgebung in die GKE-Umgebung übertragen können, sowie neue Verfahren, die Sie einführen können. Sie können beispielsweise GKE-Knoten automatisch starten, indem Sie für jeden Knoten oder Knotenpool in Ihren Clustern ein oder mehrere privilegierte Initialisierungsverfahren nutzen.

Nachdem Sie Ihre GKE-Cluster erstellt haben und bevor Sie eine Arbeitslast bereitstellen, müssen Sie Namespaces, RBAC, Netzwerkrichtlinien, Ressourcenkontingente und Pod-Sicherheitsrichtlinien für jeden GKE-Cluster bereitstellen und konfigurieren.

Daten aus Ihrer alten Umgebung in die neue Umgebung migrieren

Jetzt können Sie die Daten übertragen, die Ihre zustandsorientierten Arbeitslasten benötigen.

Das Dokument Migration zu Google Cloud: Große Datasets übertragen enthält eine Anleitung zu diesem Thema. Wenn Sie Ihre Arbeitslasten zur Anwendung einer Mikrodienstarchitektur modernisieren möchten oder dies bereits getan haben, finden Sie weitere Informationen unter Monolithische Anwendung zu Mikrodiensten in GKE migrieren. Weitere Informationen zu den in GKE verfügbaren Datenspeicheroptionen finden Sie unter Speicherkonfiguration. Sie können beispielsweise nichtflüchtige Compute Engine-Speicher verwenden, entweder zonale oder in einer Region replizierte Speicher, oder Sie verwenden Filestore.

Sie stellen die gesamte erforderliche Speicherinfrastruktur bereit, bevor Sie Ihre Daten verschieben. Wenn Sie Bereitsteller für Speicherklassen verwenden, konfigurieren Sie diese in den neuen Clustern.

Arbeitslasten bereitstellen

Zum Bereitstellen Ihrer Arbeitslasten müssen Sie gemäß Ihren Anforderungen einen Bereitstellungsprozess ausarbeiten und umsetzen. Wenn Sie mit Ihren Bereitstellungsprozessen nicht zufrieden sind und zu einem moderneren, automatisierten Prozess migrieren möchten, finden Sie weitere Informationen unter Migration zu Google Cloud: Manuelle Bereitstellungen zu automatisierten, containerisierten Bereitstellungen migrieren. Dort finden Sie Hinweise zur Migration weg von manuellen Bereitstellungen sowie zu Tools für die Containerorchestrierung und zur Automation. In der Bereitstellungsphase bietet sich auch die Gelegenheit, die Arbeitslasten zu modernisieren. Wenn Sie in Ihrer Umgebung beispielsweise Pods verwenden, sollten Sie diese Arbeitslasten zu Bereitstellungen migrieren.

Wenn der Bereitstellungsprozess bereit ist, können Sie Ihre Arbeitslasten in GKE bereitstellen.

Umgebung optimieren

Die Optimierung ist die letzte Phase Ihrer Migration. In dieser Phase machen Sie Ihre Umgebung effizienter als zuvor. Sie führen mehrere Iterationen einer wiederholbaren Schleife aus, bis Ihre Umgebung Ihre Optimierungsanforderungen erfüllt. Die Schritte dieser wiederholbaren Schleife sind folgende:

  1. Aktuelle Umgebung, Teams und Optimierungsschleife bewerten
  2. Optimierungsanforderungen und -ziele festlegen
  3. Umgebung und Teams optimieren
  4. Optimierungsschleife verbessern

Die folgenden Abschnitte basieren auf dem Dokument Migration zu Google Cloud: Umgebung optimieren.

Aktuelle Umgebung, Teams und Optimierungsschleife bewerten

Die erste Bewertung bezieht sich auf die Migration von Ihrer aktuellen Umgebung zu GKE, und diese Bewertung ist auf die Optimierungsphase zugeschnitten.

Optimierungsanforderungen festlegen

Prüfen Sie die folgenden Optimierungsanforderungen für Ihre GKE-Umgebung:

  • Implementieren Sie erweiterte Bereitstellungsprozesse: Prozesse wie Canary-Deployments oder Blau/Grün-Bereitstellungen bieten Ihnen mehr Flexibilität und können die Zuverlässigkeit Ihrer Umgebung erhöhen, für erweiterte Tests sorgen und die Auswirkungen von Problemen auf Ihre Nutzer reduzieren.
  • Konfigurieren Sie ein Service Mesh: Durch das Einführen eines Service Mesh in Ihrer Umgebung können Sie Features wie Beobachtbarkeit, Trafficverwaltung und gegenseitige Authentifizierung für Ihre Dienste nutzen und Ihre DevOps-Teams entlasten. Sie können ein Service Mesh mit mehreren Clustern bereitstellen, um Ihre Arbeitslasten besser zu segmentieren, oder ein erweitertes Service Mesh verwenden, um die Migration in die neue Umgebung zu unterstützen.
  • Richten Sie das Autoscaling ein: Sie haben verschiedene, sich ergänzende Möglichkeiten, Ihre GKE-Umgebung automatisch zu skalieren. Sie können Ihre Cluster und die Arbeitslasten in jedem Cluster automatisch skalieren. Durch Konfigurieren des Cluster-Autoscalings können Sie die Größe eines GKE-Clusters automatisch an die Anforderungen Ihrer Arbeitslasten anpassen, indem Sie dem Cluster Worker-Knoten hinzufügen oder daraus entfernen. Wenn Sie Ihre Arbeitslasten automatisch skalieren möchten, passen Sie die Verbrauchsanfragen und -limits für CPU und Arbeitsspeicher mit dem vertikalen Pod-Autoscaling an. Wenn Sie Autoscaling verwenden, müssen Sie sich keine Gedanken über die Werte machen, die für die CPU- und Arbeitsspeicheranforderungen der einzelnen Container angegeben werden müssen.
  • Reduzieren Sie die Kosten mithilfe von virtuellen Maschinen (VMs) auf Abruf: Wenn einige Ihrer Arbeitslasten gegenüber Laufzeitumgebungen ohne Verfügbarkeitsgarantien tolerant sind, sollten Sie diese Arbeitslasten in einem Knotenpool aus VMs auf Abruf bereitstellen. VMs auf Abruf sind günstiger als Standard-VMs von Compute Engine, sodass Sie die Kosten für Ihre Cluster senken können.
  • Binden Sie GKE in andere Produkte ein: Einige Google Cloud-Produkte können in GKE eingebunden werden, um die Sicherheit Ihrer Umgebung zu erhöhen. Sie können beispielsweise Container auf Sicherheitslücken analysieren oder verwaltete Basis-Images in Container Registry verwenden.

Obwohl Sie einige dieser Optimierungsanforderungen in einer Kubernetes-Umgebung umsetzen können, ist dies in GKE einfacher, da für das Ausführen des Clusters kein Aufwand anfällt. Stattdessen können Sie sich auf die Optimierung selbst konzentrieren.

Optimierung abschließen

Nachdem Sie die Liste Ihrer Optimierungsanforderungen erstellt haben, schließen Sie die restlichen Aktivitäten der Optimierungsphase ab.

Nächste Schritte