Arbeitslasten bereitstellen


Wie Sie in unserem Leitfaden zum Clusterlebenszyklus lesen können, verwenden Sie als GKE-Nutzer in der Regel Google Cloud Tools für die Clusterverwaltung und Kubernetes-Tools wie kubectl für clusterinterne Aufgaben wie die Bereitstellung von Anwendungen. Wenn Sie also bereits mit der Bereitstellung von Arbeitslasten in einer anderen Kubernetes-Implementierung vertraut sind, sollten Sie bei der Bereitstellung von Arbeitslasten in GKE viele der gleichen Abläufe verwenden können. Wenn Sie noch nicht mit der Bereitstellung von Arbeitslasten in Kubernetes vertraut sind, lesen Sie die Informationen unter Bereitstellungen und in den anderen Ressourcen unter Kubernetes kennenlernen.

GKE bietet jedoch auch zusätzliche Funktionen für die Bereitstellung und Verwaltung Ihrer Arbeitslasten, darunter Tools zur Beobachtbarkeit, vollständig verwaltete Datenbankoptionen für zustandsorientierte Anwendungen und spezielle Hardwareoptionen für spezielle Arbeitslasttypen, einschließlich KI/ML-Arbeitslasten.

Auf dieser Seite finden Sie einen kurzen Überblick für Entwickler und Administratoren, die Arbeitslasten in GKE-Clustern bereitstellen möchten. Außerdem enthält sie Links zu detaillierteren Dokumentationen. Viele weitere spezifische Anleitungen und Tutorials finden Sie in den Abschnitten Bereitstellen... der GKE-Dokumentation.

Bevor Sie diese Seite lesen, sollten Sie mit Folgendem vertraut sein:

Erforderliche Rollen

Wenn Sie kein Projektinhaber sind, benötigen Sie mindestens die folgende IAM-Rolle (Identity and Access Management), um Arbeitslasten bereitzustellen:

  • Betrachter für Kubernetes Engine-Cluster (roles/container.clusterViewer): Diese Rolle gewährt die Berechtigung container.clusters.get, die für die Authentifizierung bei Clustern in einem Google Cloud -Projekt erforderlich ist. Sie sind jedoch nicht autorisiert, Aktionen innerhalb dieser Cluster auszuführen. Ihr Clusteradministrator kann Sie mithilfe von IAM oder Kubernetes RBAC autorisieren, andere Aktionen im Cluster auszuführen.

    Ausführliche Informationen zu allen in dieser Rolle enthaltenen Berechtigungen und zum Zuweisen einer Rolle mit Lese-/Schreibberechtigungen finden Sie in der IAM-Dokumentation unter Kubernetes Engine-Rollen.

Weitere Informationen zur Zugriffssteuerung in GKE finden Sie unter Zugriffssteuerung.

Zustandslose Anwendungen

Zustandslose Anwendungen speichern weder Daten noch den Anwendungsstatus im Cluster oder nichtflüchtigen Speicher. Statuslose Anwendungen können direkt über das Menü Arbeitslasten in derGoogle Cloud Console sowie über die Kubernetes API bereitgestellt werden. Hier erfahren Sie, wie Sie eine zustandslose Linux-Anwendung in GKE bereitstellen. Hier erfahren Sie, wie Sie eine zustandslose Windows Server-Anwendung bereitstellen.

Zustandsorientierte Anwendungen und Speicher

Anwendungen, die Daten speichern müssen, die über die Lebensdauer ihres Pods hinaus bestehen, werden als zustandsorientierte Anwendungen bezeichnet. Sie oder Ihr Administrator können ein Kubernetes-Objekt vom Typ PersistentVolume verwenden, um diesen Speicher bereitzustellen. In GKE wird der Speicher von PersistentVolumes durch Compute Engine-Laufwerke unterstützt. Informationen zum Bereitstellen einer einfachen zustandsorientierten Anwendung in GKE finden Sie unter Zustandsorientierte Anwendung bereitstellen.

Wenn die Daten Ihrer zustandsorientierten Anwendung in einer Datenbank und nicht in einem Speicher, der an die Lebensdauer eines Clusters gebunden ist, beibehalten werden sollen, bietet GKE die folgenden Optionen:

  • Vollständig verwaltete Datenbanken: Eine verwaltete Datenbank wie Cloud SQL oder Spanner bietet einen geringeren operativen Aufwand und ist für die Google Cloud -Infrastruktur optimiert. Verwaltete Datenbanken sind weniger mühsam zu warten und zu betreiben als eine Datenbank, die Sie direkt in Kubernetes bereitstellen.
  • Kubernetes-Anwendung: Sie können eine Datenbankinstanz (z. B. MySQL oder PostgreSQL) auf einem GKE-Cluster bereitstellen und ausführen.

Weitere Informationen zu Datenoptionen in GKE finden Sie unter Daten in GKE und Datenbankbereitstellungen in GKE planen.

KI-/ML-Arbeitslasten

GKE bietet umfassende Unterstützung für die Bereitstellung von KI-/ML-Arbeitslasten. Dazu gehört die Unterstützung für das Trainieren und Bereitstellen von Modellen auf spezieller Hardware sowie die flexible Einbindung in verteiltes Computing und Datenverarbeitungs-Frameworks. Weitere Informationen finden Sie in den folgenden Anleitungen:

  • TPUs in GKE bietet eine Einführung in die Verwendung von Cloud TPU-Beschleunigern für KI-/ML-Arbeitslasten in GKE. GKE bietet vollständige Unterstützung für die Verwaltung des TPU-Knoten- und Knotenpool-Lebenszyklus, einschließlich des Erstellens, Konfigurierens und Löschens von TPU-VMs. Sie können TPU-Arbeitslasten sowohl in Standard- als auch in Autopilot-Clustern bereitstellen.
  • Unter GPUs in GKE wird beschrieben, wie Sie GPU-Hardware mit GKE-Arbeitslasten anfordern und verwenden.

Arbeitslasten mit anderen besonderen Anforderungen

GKE bietet Funktionen und Anleitungen, mit denen Sie Arbeitslasten mit anderen speziellen Anforderungen bereitstellen können, z. B. Anwendungen, die bestimmte Knotenarchitekturen erfordern oder deren Pods auf denselben oder auf separaten Knoten ausgeführt werden müssen. Weitere Informationen zur Bereitstellung einiger dieser Tools finden Sie in den folgenden Anleitungen:

  • Unter Compute-Klassen in Autopilot wird beschrieben, wie Sie bestimmte Compute-Architekturen für die Planung Ihrer Pods auswählen können, wenn Sie Anwendungen in Autopilot-Clustern bereitstellen. Bei Standardclustern können Sie die Maschinenfamilie, die Sie für Ihre Knoten verwenden möchten, direkt beim Erstellen eines Clusters angeben.
  • Im Hilfeartikel Benutzerdefinierte Compute-Klassen wird beschrieben, wie Sie benutzerdefinierte Compute-Klassen erstellen, um die Hardwareoptionen für Ihre Anwendungen in Autopilot- und Standardclustern noch flexibler festzulegen.
  • Unter Arbeitslasttrennung in GKE konfigurieren erfahren Sie, wie Sie dafür sorgen, dass die Pods Ihrer Anwendung auf denselben oder auf unterschiedlichen zugrunde liegenden Maschinen ausgeführt werden.
  • Unter GKE Sandbox wird beschrieben, wie Sie Ihren Hostkernel mit Sandbox-Pods schützen, wenn Sie unbekannte oder nicht vertrauenswürdige Arbeitslasten bereitstellen.

Arbeitslasten beobachten

GKE bietet eine Reihe von Funktionen zur Beobachtung Ihrer Arbeitslasten und ihres Zustands, darunter Übersichten über den Arbeitslaststatus und Messwerte in der Google Cloud Console sowie detailliertere Messwerte, Logs und Benachrichtigungen.

Bereitstellung von Arbeitslasten verwalten

Wenn Sie oder Ihr Administrator eine CI/CD-Pipeline (Continuous Integration and Delivery) für die Bereitstellung Ihrer Arbeitslasten einrichten möchten, finden Sie GKE-spezifische Best Practices und Richtlinien für CI/CD unter Best Practices für Continuous Integration und Delivery in GKE sowie Anleitungen zum Einrichten von CI/CD-Pipelines mit bestimmten Tools und Produkten.

Nächste Schritte