Arbeitslasten bereitstellen


Wie Sie in unserem Leitfaden zum Clusterlebenszyklus bereits gelesen haben, verwenden Sie als GKE-Nutzer in der Regel Google Cloud-Tools für die Clusterverwaltung und Kubernetes-Tools wie kubectl für clusterinterne Aufgaben wie das Bereitstellen von Anwendungen. Wenn Sie also bereits mit dem Bereitstellen von Arbeitslasten in einer anderen Kubernetes-Implementierung vertraut sind, sollten Sie mit GKE viele derselben Workflows verwenden. Wenn Sie noch nicht mit dem Bereitstellen von Arbeitslasten in Kubernetes vertraut sind, lesen Sie den Hilfeartikel Deployments und die anderen Ressourcen unter Einstieg in Kubernetes.

GKE bietet jedoch auch zusätzliche Funktionen für die Bereitstellung und Verwaltung Ihrer Arbeitslasten, darunter Observability-Tools, vollständig verwaltete Datenbankoptionen für zustandsorientierte Anwendungen und spezielle Hardwareoptionen für spezielle Arbeitslasttypen, einschließlich KI/ML-Arbeitslasten.

Diese Seite bietet Entwicklern und Administratoren, die Arbeitslasten in GKE-Clustern bereitstellen möchten, einen kurzen Überblick mit Links zu ausführlicheren Dokumentationen. Viele weitere detaillierte Anleitungen und Tutorials finden Sie in der GKE-Kerndokumentation im Abschnitt Bereitstellen….

Bevor Sie diese Seite lesen, sollten Sie mit Folgendem vertraut sein:

Erforderliche Rollen

Wenn Sie kein Projektinhaber sind, benötigen Sie mindestens die folgende IAM-Rolle (Identity and Access Management), um Arbeitslasten bereitzustellen:

  • Kubernetes Engine-Clusterbetrachter (roles/container.clusterViewer): Hiermit wird die Berechtigung container.clusters.get gewährt, die für die Authentifizierung bei Clustern in einem Google Cloud-Projekt erforderlich ist. Sie sind jedoch nicht berechtigt, Aktionen innerhalb dieser Cluster auszuführen. Ihr Clusteradministrator kann Sie mit IAM oder Kubernetes RBAC autorisieren, weitere Aktionen im Cluster auszuführen.

    Ausführliche Informationen zu allen Berechtigungen, die in dieser Rolle enthalten sind, und zum Zuweisen einer Rolle mit Lese-/Schreibberechtigungen finden Sie in der IAM-Dokumentation unter Kubernetes Engine-Rollen.

Weitere Informationen zur Funktionsweise der Zugriffssteuerung in GKE finden Sie unter Zugriffssteuerung.

Zustandslose Anwendungen

Zustandslose Anwendungen speichern weder Daten noch den Anwendungsstatus im Cluster oder nichtflüchtigen Speicher. Zustandslose Anwendungen können direkt über das Menü Arbeitslasten in der Google Cloud Console oder mithilfe der Kubernetes API bereitgestellt werden. Wie Sie eine zustandslose Linux-Anwendung in GKE bereitstellen, erfahren Sie unter Zustandslose Linux-Anwendung bereitstellen. Alternativ können Sie auch erfahren, wie Sie eine zustandslose Windows Server-Anwendung bereitstellen.

Zustandsorientierte Anwendungen und Speicher

Anwendungen, die Daten speichern müssen, die über die Lebensdauer ihres Pods hinausgehen, werden als zustandsorientierte Anwendungen bezeichnet. Sie oder Ihr Administrator können ein Kubernetes-Objekt vom Typ PersistentVolume verwenden, um diesen Speicher bereitzustellen. In GKE wird der PersistentVolume-Speicher von Compute Engine-Laufwerken unterstützt. Wie Sie eine einfache zustandsorientierte Anwendung in GKE bereitstellen, erfahren Sie unter Zustandsorientierte Anwendung bereitstellen.

Wenn die Daten Ihrer zustandsorientierten Anwendung in einer Datenbank und nicht in einem Speicher gespeichert werden sollen, der an die Lebensdauer eines Clusters gebunden ist, bietet GKE die folgenden Optionen:

  • Vollständig verwaltete Datenbanken: Eine verwaltete Datenbank wie Cloud SQL oder Spanner bietet einen geringeren operativen Aufwand und ist für die Google Cloud-Infrastruktur optimiert. Verwaltete Datenbanken sind weniger mühsam zu warten und zu betreiben als eine Datenbank, die Sie direkt in Kubernetes bereitstellen.
  • Kubernetes-Anwendung: Sie können eine Datenbankinstanz (z. B. MySQL oder PostgreSQL) auf einem GKE-Cluster bereitstellen und ausführen.

Weitere Informationen zu den Datenoptionen in GKE finden Sie unter Daten in GKE und Datenbankbereitstellungen in GKE planen.

KI-/ML-Arbeitslasten

GKE bietet umfassenden Support für die Bereitstellung von KI-/ML-Arbeitslasten. Dazu gehören die Unterstützung für das Training und Bereitstellen von Modellen auf spezieller Hardware sowie die flexible Einbindung in verteilte Computing- und Datenverarbeitungs-Frameworks. Weitere Informationen finden Sie in den folgenden Anleitungen:

  • Im Artikel TPUs in GKE erfahren Sie, wie Sie Cloud TPU-Beschleuniger für KI-/ML-Arbeitslasten in GKE verwenden. GKE bietet vollständige Unterstützung für die Verwaltung des TPU-Knotens und des Knotenpool-Lebenszyklus, einschließlich Erstellen, Konfigurieren und Löschen von TPU-VMs. Sie können TPU-Arbeitslasten sowohl in Standard- als auch in Autopilot-Clustern bereitstellen.
  • Im Hilfeartikel GPUs in GKE erfahren Sie, wie Sie GPU-Hardware für GKE-Arbeitslasten anfordern und verwenden.

Arbeitslasten mit anderen speziellen Anforderungen

GKE bietet Funktionen und Anleitungen, die Ihnen bei der Bereitstellung von Arbeitslasten mit anderen speziellen Anforderungen helfen, z. B. bei Anwendungen, die bestimmte Knotenarchitekturen erfordern oder bei denen ihre Pods auf denselben oder auf separaten Knoten ausgeführt werden müssen. Weitere Informationen zur Bereitstellung einiger dieser Tools finden Sie in den folgenden Anleitungen:

  • Im Hilfeartikel Compute-Klassen in Autopilot wird erläutert, wie Sie beim Bereitstellen von Anwendungen in Autopilot-Clustern bestimmte Computing-Architekturen für die Planung Ihrer Pods auswählen können. Bei Standardclustern können Sie beim Erstellen eines Clusters direkt die Maschinenfamilie angeben, die Sie für Ihre Knoten verwenden möchten.
  • Im Hilfeartikel Benutzerdefinierte Compute-Klassen erfahren Sie, wie Sie benutzerdefinierte Compute-Klassen erstellen, um noch flexibler Hardwareoptionen für Ihre Anwendungen sowohl in Autopilot- als auch in Standardclustern angeben zu können.
  • Im Hilfeartikel Arbeitslasttrennung in GKE konfigurieren erfahren Sie, wie Sie dafür sorgen, dass die Pods Ihrer Anwendung auf denselben oder auf verschiedenen zugrunde liegenden Maschinen ausgeführt werden.
  • GKE Sandbox beschreibt, wie Sie Ihren Hostkernel mithilfe von Sandbox-Pods schützen, wenn Sie unbekannte oder nicht vertrauenswürdige Arbeitslasten bereitstellen.

Arbeitslasten beobachten

GKE bietet eine Reihe von Funktionen zur Beobachtung Ihrer Arbeitslasten und ihrer Verfügbarkeit. Dazu gehören eine Übersicht über den Arbeitslaststatus und Messwerte in der Google Cloud Console sowie detailliertere Messwerte, Protokolle und Benachrichtigungen.

Bereitstellung von Arbeitslasten verwalten

Wenn Sie oder Ihr Administrator eine CI/CD-Pipeline (Continuous Integration/Continuous Delivery) für das Bereitstellen Ihrer Arbeitslasten einrichten möchten, finden Sie unter Best Practices für Continuous Integration und Delivery in der GKE GKE-spezifische Best Practices und Richtlinien für CI/CD sowie Anleitungen zum Einrichten von CI/CD-Pipelines mit bestimmten Tools und Produkten.

Nächste Schritte