Autopilot-Modus-Arbeitslasten in GKE Standard


Mit ComputeClasses können Sie GKE Autopilot-Arbeitslasten in Ihren GKE-Clustern im Standardmodus ausführen. Auf dieser Seite werden die Methoden beschrieben, mit denen Sie Ihre Arbeitslasten im Autopilot-Modus ausführen können. Außerdem wird erläutert, wann Sie eine Arbeitslast in einem bestimmten Modus ausführen sollten.

Diese Informationen richten sich an folgende Personen:

  • Cloud-Architekten, die die Betriebskosten in Organisationen optimieren möchten.
  • Plattformadministratoren, die den Aufwand für die manuelle Infrastrukturverwaltung reduzieren möchten.
  • Site Reliability Engineers (SREs), die die Wartung, Upgrades und Skalierung der Infrastruktur nach Möglichkeit an Google Cloud übertragen möchten.

Sie sollten mit den folgenden Konzepten vertraut sein:

GKE Autopilot

Autopilot ist ein Betriebsmodus in GKE, in dem Google Ihre Knoteninfrastruktur, Skalierung, Sicherheit und vorkonfigurierten Funktionen verwaltet. Der Autopilot-Modus ist für die Ausführung der meisten Produktionsarbeitslasten in einer Umgebung optimiert, in der empfohlene Einstellungen für Sicherheit, Zuverlässigkeit, Leistung und Skalierbarkeit angewendet werden. Informationen zur Entscheidung zwischen dem Autopilot-Modus und dem Standardmodus basierend auf Ihren Anforderungen finden Sie unter GKE-Betriebsmodi.

Sie können den Autopilot-Modus auf folgende Arten verwenden:

  • Cluster im Autopilot-Modus erstellen: Google verwaltet den gesamten Cluster und wendet Best Practices für Automatisierung, Zuverlässigkeit, Sicherheit und Kosten an.
  • Arbeitslasten im Autopilot-Modus in Standardclustern ausführen: Sie stellen Autopilot-Compute-Klassen bereit und wählen sie in Arbeitslasten aus. Google verwaltet die Knoten, die GKE für diese spezifischen Arbeitslasten erstellt. Sie haben die Kontrolle über den Cluster und können Ihre eigenen Knotenpools neben den von GKE verwalteten Knoten ausführen.

Autopilot-Modus für Compute-Klassen

Eine ComputeClass ist eine benutzerdefinierte Kubernetes-Ressource, die eine Liste von Knotenkonfigurationen wie Maschinentypen oder Funktionseinstellungen definiert. Sie können bestimmte Compute-Klassen in Kubernetes-Arbeitslastspezifikationen auswählen. Wenn für eine Arbeitslast, die eine ComputeClass auswählt, ein neuer Knoten erforderlich ist, versucht GKE, den Knoten mit einer der Konfigurationen bereitzustellen, die in der ComputeClass deklariert sind. GKE versucht jede Konfiguration in der ComputeClass der Reihe nach und greift auf die nächste Konfiguration zurück, wenn die Knotenerstellung fehlschlägt. Weitere Informationen finden Sie unter Benutzerdefinierte Compute-Klassen.

Wenn Sie Autopilot-Arbeitslasten in Ihren GKE-Standardclustern ausführen möchten, aktivieren Sie den Autopilot-Modus in einer ComputeClass und wählen diese ComputeClass in bestimmten Arbeitslasten aus. Google verwaltet alle neuen Knoten, die von GKE für diese Arbeitslasten bereitgestellt werden, ähnlich wie die Knoten in Autopilot-Clustern. Die meisten Vorteile und Sicherheitsfunktionen des Autopilot-Modus gelten für diese Arbeitslasten und die Hostknoten.

Compute-Klassen im Autopilot-Modus bieten Clusteradministratoren zusätzliche Flexibilität bei der Auswahl des gewünschten Kontrollniveaus für bestimmte Arbeitslasten und die Infrastruktur in Ihrem Cluster, z. B. auf folgende Weise:

  • Sie können bestimmte Arbeitslasten vollständig von GKE verwalten lassen, indem Sie sie im Autopilot-Modus ausführen.
  • Sie behalten die volle Kontrolle über Arbeitslasten und Infrastruktur, die nicht den Autopilot-Modus verwenden, z. B. manuell erstellte Knotenpools.
  • Sie können eine Autopilot-Compute-Klasse als Standard für Ihren Cluster oder Namespace festlegen, sodass Arbeitslasten im Autopilot-Modus ausgeführt werden, sofern sie nicht explizit eine andere Option anfordern.

Mit diesen Optionen können Clusteradministratoren den Grad und den Umfang der Verwendung von Autopilot festlegen.

Compute-Klassen im Autopilot-Modus bieten Clusteradministratoren zusätzliche Flexibilität bei der Auswahl des gewünschten Kontrollniveaus für bestimmte Arbeitslasten und die Infrastruktur in Ihrem Cluster, z. B. auf folgende Weise:

  • Sie können bestimmte Arbeitslasten vollständig von GKE verwalten lassen, indem Sie sie im Autopilot-Modus ausführen.
  • Sie behalten die volle Kontrolle über Arbeitslasten und Infrastruktur, die nicht den Autopilot-Modus verwenden, z. B. manuell erstellte Knotenpools.
  • Sie können eine Autopilot-Compute-Klasse als Standard für Ihren Cluster oder Namespace festlegen, sodass Arbeitslasten im Autopilot-Modus ausgeführt werden, sofern sie nicht explizit eine andere Option anfordern.

Mit diesen Optionen können Clusteradministratoren den Grad und den Umfang der Verwendung von Autopilot festlegen.

Vorteile von Autopilot-Compute-Klassen in Standardclustern

Wenn Sie einige Ihrer Arbeitslasten im Autopilot-Modus ausführen, profitieren Sie von Vorteilen wie den folgenden:

  • Kosten für die Infrastrukturverwaltung senken: Google führt Upgrades durch, wartet, konfiguriert und optimiert bestimmte Knoten für Sie.
  • Autopilot-Preismodell verwenden: Arbeitslasten, die eine Autopilot-ComputeClass verwenden, werden nach dem Autopilot-Preismodell abgerechnet. Dieses Preismodell umfasst die Abrechnung pro Pod für Arbeitslasten, für die keine bestimmte Hardware angefordert wird. Weitere Informationen finden Sie im Abschnitt „Preise“.
  • Skalierung und Sicherheitsstatus verbessern: Autopilot-Arbeitslasten profitieren von Vorteilen wie dem Zugriff auf die containeroptimierte Compute-Plattform, verbesserten Standardsicherheitsbeschränkungen und dem automatischen Skalieren von Knoten basierend auf Ressourcenanforderungen. Die Knoten für diese Arbeitslasten verwenden Funktionen wie automatische Knotenupgrades und automatische Reparaturen.
  • Zuverlässigkeit verbessern: Das Service Level Agreement (SLA) für GKE enthält ein Service Level Objective (SLO) für die Pod-Betriebszeit für Autopilot.

Viele dieser Vorteile werden auch von Autopilot-Clustern geboten, die ebenfalls eine stärker verwaltete Umgebung als Standardcluster bieten und mehrere Vorteile in Bezug auf Sicherheit, Netzwerk und Ressourcenverwaltung bieten. Weitere Informationen finden Sie unter Autopilot-Übersicht.

Hardwareauswahl in Autopilot ComputeClasses

In Autopilot-Compute-Klassen können Sie bestimmte Hardware für Ihre Knoten auswählen, z. B. GPUs oder Maschinentypen. Alternativ können Sie Pods auch von GKE auf einer containeroptimierten Compute-Plattform für allgemeine Zwecke platzieren lassen. Die Option „Allgemein“ wird für die meisten Produktionsarbeitslasten empfohlen, für die keine spezielle Hardware erforderlich ist.

In der folgenden Tabelle werden diese Konfigurationsoptionen beschrieben. Außerdem erfahren Sie, wie Sie eine Option in einer ComputeClass auswählen und wie sich diese Auswahl auf Ihr Abrechnungsmodell auswirkt:

Tabelle 1. Hardwareauswahl in Autopilot-Compute-Klassen
Arbeitslastanforderung Empfohlene ComputeClass-Konfiguration Abrechnungsmodell
Arbeitslasten für allgemeine Zwecke

Verwenden Sie eine Autopilot-ComputeClass mit der Prioritätsregel podFamily, um Arbeitslasten auszuführen, für die keine spezielle Hardware auf der containeroptimierten Autopilot-Compute-Plattform erforderlich ist. Diese Plattform eignet sich gut für allgemeine Arbeitslasten wie die folgenden:

  • Webserver
  • Ereignisgesteuerte Jobs
  • Batchverarbeitung
  • CI/CD-Pipelines

Die integrierten Autopilot-Compute-Klassen, die für Standardcluster verfügbar sind, verwenden die Prioritätsregel podFamily.

Pod-basiertes Abrechnungsmodell
Arbeitslasten, die bestimmte Hardware erfordern

Verwenden Sie eine ComputeClass, die eine beliebige verfügbare Hardwarekonfigurationsregel verwendet, z. B. die Regel machineFamily oder die Regel gpus.

Knotenbasiertes Abrechnungsmodell

Konfiguration von Autopilot in ComputeClasses

Sie können den Autopilot-Modus in einem Standardcluster verwenden, indem Sie eine integrierte Autopilot-Compute-Klasse verwenden, die von GKE bereitgestellt wird, oder indem Sie den Autopilot-Modus in einer benutzerdefinierten Compute-Klasse aktivieren, die Sie erstellen. In den folgenden Abschnitten werden die einzelnen Optionen beschrieben.

Integrierte Autopilot-Compute-Klassen

GKE konfiguriert bestimmte Autopilot-ComputeClasses für Sie. Sie können diese integrierten Autopilot-Klassen in jedem infrage kommenden Cluster auswählen. Die integrierten Autopilot-ComputeClasses in Standardclustern verwenden die Prioritätsregel podFamily, um Pods auf der containeroptimierten Compute-Plattform auszuführen. Weitere Informationen finden Sie unter Integrierte Compute-Klassen in GKE.

Benutzerdefinierte Autopilot-Compute-Klassen

Sie können Autopilot in jeder benutzerdefinierten Compute-Klasse aktivieren, die Sie verwalten. Diese Option ist nützlich, wenn Ihre Arbeitslasten bestimmte Hardwareanforderungen haben. Mit dem Feld autopilot in der benutzerdefinierten Ressource ComputeClass können Sie Autopilot in einer bestimmten ComputeClass aktivieren oder deaktivieren.

Wenn Sie Autopilot in einer vorhandenen ComputeClass aktivieren möchten, müssen Sie sie löschen, die Konfiguration aktualisieren und die ComputeClass dann in Ihrem Cluster neu erstellen. Ihre Änderungen werden auf alle neuen Knoten angewendet, die von GKE für Arbeitslasten erstellt werden, die Sie nach der Aktualisierung der Autopilot-ComputeClass bereitstellen.

Weitere Informationen zum Aktivieren von Autopilot in Ihren benutzerdefinierten Compute-Klassen finden Sie unter Spezielle Hardware für Ihre Autopilot-Pods auswählen.

Preise

Die GKE Autopilot-Preise gelten für die Knoten und Arbeitslasten, die GKE für eine Autopilot-Compute-Klasse erstellt. In der folgenden Tabelle wird das Abrechnungsmodell beschrieben, das für verschiedene Autopilot-ComputeClass-Konfigurationen in Ihren Clustern im Standardmodus gilt.

Tabelle 2. Preise für Autopilot-Compute-Klassen
Abrechnungsmodelle für verschiedene ComputeClass-Konfigurationen
Pod-basiertes Abrechnungsmodell Das Pod-basierte Abrechnungsmodell gilt für Autopilot-Compute-Klassen, die die Prioritätsregel podFamily verwenden, anstatt bestimmte Maschinen oder Hardware auszuwählen. Die integrierten Autopilot-Compute-Klassen, die die podFamily-Regel verwenden, nutzen das Pod-basierte Abrechnungsmodell.
Knotenbasiertes Abrechnungsmodell Das knotenbasierte Abrechnungsmodell gilt für Autopilot-Compute-Klassen, für die explizit bestimmte Knotenkonfigurationen wie N2-Instanzen oder GPUs angefordert werden.

Die Autopilot-Preise gelten nur für die Arbeitslasten und Knoten, die eine Autopilot-ComputeClass verwenden. Für Ihren Cluster im Standardmodus und alle anderen Knotenpools, die Sie ausführen, gelten weiterhin die Preise für den GKE Standard-Modus.

Vorkonfigurierte Einstellungen für von Autopilot verwaltete Knoten

Bevor Sie den Autopilot-Modus in Ihren Compute-Klassen aktivieren, sollten Sie wissen, was Sie von den Knoten erwarten können, die GKE zum Ausführen der Autopilot-Arbeitslasten erstellt. Google konfiguriert bestimmte Funktionen und Sicherheitsbeschränkungen auf Autopilot-Knoten. Arbeitslasten, die auf Ihren Knoten im Standardmodus bereitgestellt werden und korrekt funktionieren, werden im Autopilot-Modus möglicherweise abgelehnt, wenn sie die Sicherheitsanforderungen von Autopilot nicht erfüllen.

In der folgenden Tabelle werden die Feature-Konfigurationen beschrieben, die die entsprechenden Einstellungen in Ihrem Standardcluster überschreiben. Wenn eine Konfiguration nicht in dieser Tabelle enthalten ist, verwenden die Autopilot-Knoten die Standardclustereinstellung. Die Identitätsföderation von Arbeitslasten für GKE ist beispielsweise nicht in dieser Tabelle enthalten. Das bedeutet, dass die Einstellung für die Identitätsföderation von Arbeitslasten für GKE des Standard-Clusters für die Autopilot-Knoten gilt, die von GKE erstellt werden.

Tabelle 4. Vorkonfigurierte Einstellungen für Autopilot-Knoten
Funktion Standardeinstellung auf Clusterebene Einstellung für von Autopilot verwaltete Knoten
Knotenupgrades und ‑wartung

Konfigurierbar:

Vorkonfiguriert:

  • Automatische Knotenreparatur: aktiviert
  • Automatisches Knotenupgrade: aktiviert
  • Strategie für Knotenupgrades: Surge-Upgrades mit vorkonfigurierten Parametern
Autoscaling Konfigurierbar: Autoscaling-Profil Vorkonfiguriert: optimize-utilization-Autoscaling-Profil
Netzwerk VPC-nativ oder routenbasiert VPC-nativer Cluster erforderlich
Sicherheit

Konfigurierbar:

Vorkonfiguriert:

Betriebssystem des Knotens

Konfigurierbar:

Vorkonfiguriert:

Bootlaufwerk des Knotens

Konfigurierbar:

Konfigurierbar:

  • Typ der Bootdisk: verwendet den Wert im Feld „ComputeClass“ storage.bootDiskType. Wenn dieses Feld nicht festgelegt ist, legt GKE den Typ des Bootlaufwerks so fest:
    • Wenn die ComputeClass podFamily-Regeln verwendet, verwendet GKE einen pd-balanced-Speicher.
    • Wenn für die ComputeClass keine podFamily-Regeln verwendet werden, verwendet GKE den Standard-Bootlaufwerktyp für den Cluster.
  • Größe des Bootlaufwerks: GKE verwendet den Wert im Feld storage.bootDiskSize der Compute-Klasse. Wenn dieses Feld nicht festgelegt ist, legt GKE die Größe des Bootlaufwerks so fest:
Knotenmetadaten

Ressourcenanfragen für Autopilot-Arbeitslasten

Damit Autopilot-Arbeitslasten effizient ausgeführt werden können, erzwingt GKE bestimmte Mindest- und Höchstwerte für CPU-, Arbeitsspeicher- und sitzungsspezifische Speicheranforderungen in Ihren Pods. GKE wendet auch Standardanfragen auf Pods an, die keine dieser Ressourcen explizit anfordern. Die spezifischen Werte für die minimalen, maximalen und standardmäßigen Ressourcenanforderungen in GKE Autopilot-Arbeitslasten variieren je nach Art der Hardware, die Ihre Pods verwenden.

Für sitzungsspezifischen Speicher ist der Standardwert, wenn Sie keinen sitzungsspezifischen Speicher anfordern, für alle Compute-Klassen und Hardwareauswahlen gleich. Weitere Informationen finden Sie unter Standardanfragen für Ressourcen.

In der folgenden Tabelle finden Sie Links zu den CPU- und Arbeitsspeicheranforderungen für Ihre Pod-Anfragen, je nach Hardwaretyp:

Tabelle 5. Autopilot-CPU- und Arbeitsspeicheranforderungen
Ressourcentyp Mindest- und Höchstzahl von Anfragen Standardanfragen
Allgemeine Pods
podFamily-Prioritätsregel
Sehen Sie sich die Zeile „Allgemein“ in der Tabelle Mindest- und Höchstwerte für Compute-Klassen an. Sehen Sie sich die Zeile „Allgemein“ in der Tabelle Standardanfragen für Compute-Klassen an.
GPUs und TPUs Hängt von Art und Anzahl des Hardwarebeschleunigers ab. Weitere Informationen finden Sie unter Mindest- und Höchstwerte für die Accelerator ComputeClass. Hängt von Art und Anzahl des Hardwarebeschleunigers ab. Weitere Informationen finden Sie unter Standardanfragen für Beschleuniger.
Bestimmte Compute Engine-Maschinentypen und ‑Maschinentypfamilien
  • Minimum: Keine Mindestwerte für CPU oder Arbeitsspeicher.
  • Maximum: Der Höchstwert ist die Ressourcenkapazität der Compute Engine-Instanz.
Für jeden Compute Engine-Maschinentyp oder jede Maschinenfamilie die Standardanfragen in der Zeile „Allgemein“ in der Tabelle Standardanfragen für ComputeClasses.

Nächste Schritte