Äußerst skalierbarer und vollständig automatisierter Kubernetes-Dienst
Stellen Sie Ihre Container auf Autopilot, um Knoten und Kapazitäten nicht mehr verwalten zu müssen und Cluster-Kosten zu senken. Fachkenntnisse zu Clustern sind hierfür kaum erforderlich.
Der Autopilot-Modus von GKE ist eine automatisierte, vollständig verwaltete Kubernetes-Plattform zur Verwaltung der Computing-Infrastruktur Ihres Clusters. Sie erfordert weder Konfiguration noch Monitoring, bietet dabei aber den vollen Funktionsumfang von Kubernetes. Und mit der Abrechnung pro Pod wird sichergestellt, dass Sie nur für die ausgeführten Pods zahlen und nicht für Systemkomponenten, den Aufwand des Betriebssystems oder nicht zugewiesene Kapazitäten. So lassen sich durch operative Effizienz und effektive Ressourcennutzung bis zu 85 % an Kosten einsparen.
Privat vernetzte Cluster in GKE können auf einen privaten oder öffentlichen Endpunkt beschränkt werden, auf den nur bestimmte Adressbereiche zugreifen können. GKE Sandbox für den Standardbetrieb bietet eine zweite Schutzschicht zwischen containerisierten Arbeitslasten in GKE, um die Arbeitslastsicherheit zu optimieren.
GKE-Cluster unterstützen Netzwerkrichtlinien von Kubernetes grundsätzlich, um den Traffic mit Firewallregeln auf Pod-Ebene einzuschränken.
Vordefinierte Kubernetes-Anwendungen und -Vorlagen
Sie erhalten Zugriff auf containerisierte Lösungen für Unternehmen mit Bereitstellungsvorlagen, die sich durch Portabilität, einfache Lizenzierung und eine konsolidierte Abrechnung auszeichnen. Das sind nicht einfach nur Container-Images, sondern von Google entwickelte, gewerbliche Open-Source-Anwendungen, mit denen Entwickler produktiver arbeiten können. Nutzen Sie im Google Cloud Marketplace Click-to-Deploy für Bereitstellungen in lokalen Netzwerken oder in Drittanbieter-Clouds.
GKE implementiert die vollständige Kubernetes API, das Vier-Wege-Autoscaling, Release-Versionen und Support für mehrere Cluster und kann auf bis zu 15.000 Knoten erweitert werden.
Horizontales Pod-Autoscaling kann auf der CPU-Auslastung oder benutzerdefinierten Messwerten basieren. Cluster-Autoscaling funktioniert auf Pro-Knotenpool-Basis. Vertikales Pod-Autoscaling analysiert kontinuierlich die CPU- und Speichernutzung der Pods und passt CPU- und Arbeitsspeicheranfragen automatisch an.
Automatisierte Tools für die einfache Migration von Arbeitslasten
Mit Migrate to Containers lassen sich herkömmliche Anwendungen schnell und einfach modernisieren und von virtuellen Maschinen in Container migrieren. Bei unserem einzigartigen automatisierten Ansatz werden die wichtigsten Anwendungselemente aus der VM extrahiert, damit Sie diese einfach in Container in GKE oder Anthos-Cluster einfügen können – jedoch ohne VM-Ebenen wie z. B. Gastbetriebssysteme, die mit Containern überflüssig werden.
Dieses Produkt funktioniert auch mit GKE Autopilot.
Backup for GKE bietet Kunden, die zustandsorientierte Arbeitslasten in GKE ausführen, eine einfache Möglichkeit, containerisierte Anwendungen und Daten zu schützen, zu verwalten und wiederherzustellen.
Identitäts- und Zugriffsverwaltung
Den Zugriff innerhalb eines Clusters können Sie mit Ihren Google-Konten und Rollenberechtigungen steuern.
Hybridnetzwerk
Sie können einen IP-Adressbereich für Ihren Cluster reservieren, damit Ihre Cluster-IP-Adressen mit den privaten Netzwerk-IP-Adressen über Google Cloud VPN kommunizieren.
Sicherheit und Compliance
GKE wird von mehr als 750 Experten des Google-Sicherheitsteams betreut und ist sowohl HIPAA- als auch PCI DSS-konform.
Integriertes Logging und Monitoring
Aktivieren und konfigurieren Sie Cloud Logging und Cloud Monitoring einfach durch Anklicken und Sie erhalten jederzeit Einblick in die Ausführung Ihrer Anwendung.
Clusteroptionen
Sie können Cluster auswählen, die auf die Verfügbarkeit, Versionsstabilität, Isolierung und Pod-Traffic-Anforderungen Ihrer Arbeitslasten zugeschnitten sind.
Autoscaling
Sie können das Deployment Ihrer Anwendungen je nach Ressourcennutzung (CPU, Arbeitsspeicher) automatisch skalieren.
Automatisches Upgrade
Ihr Cluster ist mit der aktuellen Release-Version von Kubernetes automatisch immer auf dem neuesten Stand.
Automatische Reparatur
Bei aktivierter automatischer Reparatur sorgt GKE dafür, dass Knoten nach fehlgeschlagener Systemdiagnose repariert werden.
Ressourcenlimits
Mit Kubernetes können Sie angeben, wie viel CPU und Arbeitsspeicher (RAM) ein Container benötigt. Dadurch lassen sich die Arbeitslasten in Ihrem Cluster besser organisieren.
Container-Isolation
GKE Sandbox bietet eine zweite Schutzschicht zwischen containerisierten Arbeitslasten in GKE für eine optimierte Arbeitslastsicherheit.
Zustandsorientierte Anwendungsunterstützung
GKE eignet sich nicht nur für 12-Faktoren-Anwendungen. Sie können Container mit nichtflüchtigem Speicher verknüpfen und sogar vollständige Datenbanken hosten.
Docker-Image-Unterstützung
GKE unterstützt das gängige Docker-Containerformat.
Betriebssystem speziell für Container
GKE läuft auf Container-Optimized OS, einem robusten, von Google entwickelten und verwalteten Betriebssystem.
Private Container Registry
Dank der Einbindung in Google Container Registry können Sie private Docker-Images ganz einfach speichern und abrufen.
Schnelle, konsistente Builds
Mit Cloud Build können Sie Ihre Container zuverlässig in GKE bereitstellen, ohne dass Sie eine Authentifizierung einrichten müssen.
Arbeitslastenübertragung – lokal und in der Cloud
Dank der Ausführung von Certified Kubernetes in GKE können Sie Arbeitslasten cloudübergreifend sowie lokal auf andere Kubernetes-Plattformen übertragen.
Unterstützung für GPU und TPU
GKE unterstützt GPUs und TPUs. Dadurch wird die Ausführung von ML-, GPGPU-, HPC- und anderen Arbeitslasten vereinfacht, die von speziellen Hardwarebeschleunigern profitieren.
Eingebundenes Dashboard
Die Google Cloud Console bietet nützliche Dashboards für Cluster und zugehörige Ressourcen. So können Sie Ressourcen in Clustern ansehen, untersuchen, verwalten und löschen.
Spot-VMs
Kostengünstige Compute-Instanzen für Batchjobs und fehlertolerante Arbeitslasten.
Mit Spot-VMs können Sie Einsparungen von bis zu 91 % erzielen bei gleichem Leistungs- und Funktionsumfang wie mit regulären VMs.
Unterstützung für nichtflüchtigen Speicher
Langlebiger, leistungsstarker Blockspeicher für Containerinstanzen. Daten werden zu Integritätszwecken redundant gespeichert. Die Speichergröße kann jederzeit unterbrechungsfrei geändert werden und die Datenverschlüsselung erfolgt automatisch. Sie können nichtflüchtige Speicher auf HDDs oder SSDs erstellen. Außerdem können Sie Snapshots des nichtflüchtigen Speichers erstellen und damit neue nichtflüchtige Speicherlaufwerke generieren.
Unterstützung für lokale SSDs
GKE bietet jederzeit verschlüsselten lokalen SSD-Blockspeicher (Solid State Drive). Lokale SSDs sind physisch mit dem Server verbunden, auf dem die VM-Instanz gehostet wird. Dies ermöglicht eine extrem hohe Anzahl von Eingabe/-Ausgabevorgängen pro Sekunde (IOPS) bei äußerst niedriger Latenz im Vergleich zu nichtflüchtigen Speichern.
Globales Load-Balancing
Das globale Load-Balancing sorgt dafür, dass eingehende Anfragen regionsübergreifend auf Instanzenpools verteilt werden. So lassen sich Leistung, Durchsatz und Verfügbarkeit zu geingen Kosten maximieren.
Linux- und Windows-Unterstützung
GKE wird sowohl für Linux- als auch für Windows-Arbeitslasten vollständig unterstützt und führt sowohl Windows Server- als auch Linux-Knoten aus.
Unterstützung für Hybrid- und Multi-Cloud
Nutzen Sie Kubernetes und Cloud-Technologie im eigenen Rechenzentrum. GKE bietet schnelle, verwaltete und einfache Installationen sowie Google-geprüfte Upgrades über Anthos.
Serverlose Container
Durch die Ausführung von zustandslosen, serverlosen Containern eliminieren Sie die Infrastrukturverwaltung und profitieren von der automatischen Skalierung mit Cloud Run.
Nutzungsmessung
Detailgenaue Sichtbarkeit Ihrer Kubernetes-Cluster. Sehen Sie sich die Ressourcennutzung Ihrer GKE-Cluster aufgeteilt nach Namespaces und Labels an und ordnen Sie die Ressourcen sinnvollen Entitäten zu.
Release-Versionen
Release-Versionen verbessern die Kontrolle über die automatischen Updates einzelner Cluster auf Grundlage von Stabilitätsanforderungen und Arbeitslasten der Cluster. Sie können zwischen schnell, regelmäßig oder stabil wählen. Jede Version hat einen anderen Release-Rhythmus und ist auf verschiedene Arten von Arbeitslasten ausgerichtet.
Sicherheit der Softwarelieferkette
Mit Container Analysis können Sie die Sicherheit von Infrastrukturkomponenten und -paketen für Container-Images verifizieren, durchsetzen und verbessern.
Sekundengenaue Abrechnung
Google bietet eine sekundengenaue Abrechnung. Sie zahlen nur für die tatsächlich genutzte Rechenzeit.
Funktionsweise
Ein GKE-Cluster besteht aus einer Steuerungsebene und Maschinen, die als Knoten bezeichnet werden. Auf den Knoten werden die Dienste für die Container ausgeführt, die die Arbeitslast ausmachen. Die Systemsteuerung entscheidet, was auf diesen Knoten ausgeführt wird, einschließlich Planung und Skalierung. Im Autopilot-Modus wird Ihnen die Verwaltung abgenommen. Sie stellen einfach Ihre Anwendungen bereit und führen sie aus.
In diesem Lab erfahren Sie, wie Sie eine Continuous Delivery-Pipeline mit der Google Kubernetes Engine, Google Cloud Source Repositories, Google Cloud Container Builder und Spinnaker erstellen. Nachdem Sie eine Beispielanwendung erstellt haben, konfigurieren Sie diese Dienste so, dass die Anwendung automatisch erstellt, getestet und bereitgestellt wird.
Mit Migrate to Containers können Sie Arbeitslasten verschieben und in GKE direkt in Container umwandeln. Migrieren Sie eine zweistufige LAMP-Stack-Anwendung sowohl mit Anwendungs- als auch mit Datenbank-VMs von VMware zu GKE.
Mit einem zuverlässigen Partner richten Sie die Google Kubernetes Engine lokal ein und nutzen die erstklassige Verwaltung von Kubernetes in einer private Infrastruktur. Alternativ können Sie die Migrationsdienste aus dem Google Cloud Marketplace nutzen.
Erstellen Sie eine containerisierte Webanwendung, testen Sie sie lokal und stellen Sie sie dann in einem GKE-Cluster bereit – alles direkt über den Cloud Shell-Editor. Am Ende dieser kurzen Anleitung werden Sie in der Lage sein, eine Kubernetes-Anwendung zu erstellen, zu bearbeiten und zu debuggen.
Vorhandene Bereitstellungen und Ausführungen in GKE
Current, eine führende Challenger-Bank mit Sitz in New York, hostet die meisten ihrer Anwendungen, einschließlich der geschäftskritischen GraphQL API, in Docker-Containern. Dabei kommt GKE für die automatisierte Bereitstellung der Cluster und die Verwaltung von Containeranwendungen zum Einsatz.
Nachdem das Guthaben aufgebraucht wurde, basieren die Gesamtkosten auf dem Clusterbetriebsmodus, den Clusterverwaltungsgebühren und anwendbaren Gebühren für Multi-Cluster-Ingress.
Kostenlose Stufe
Die kostenlose GKE-Stufe umfasst ein monatliches Guthaben von 74,40 $ pro Rechnungskonto, das auf zonale und Autopilot-Cluster angewendet wird.
Kostenlos
Cluster-Betriebsmodus
Standardmodus
Verwendet Compute Engine-Knoten im Cluster. Jede Instanz wird entsprechend den Compute Engine-Preisen in Rechnung gestellt.
0,10 $
pro Cluster und Stunde
Autopilot-Modus
Eine Pauschalgebühr pro Cluster sowie die CPU-, Arbeitsspeicher- und Rechenressourcen, die für Ihre Pods bereitgestellt werden.
0,10 $
pro Cluster und Stunde
Clusterverwaltungsgebühren
Die Clusterverwaltungsgebühr gilt unabhängig vom Betriebsmodus, der Clustergröße oder der Topologie für alle GKE-Cluster.
0,10 $
pro Cluster und Stunde
Preise für Multi-Cluster-Ingress
Standalone-Modell
Die Preise für eigenständige Multi-Cluster-Ingress basieren auf der Anzahl der Pods, die als Back-Ends für die Multi-Cluster-Ingress betrachtet werden.
3,00 $
pro Back-End-Pod und Monat (730 Stunden)
Anthos
Multi-Cluster-Ingress ist in Anthos inklusive.
Kostenlos
für Anthos-Nutzer
GKE-Preisgestaltung
Nachdem das Guthaben aufgebraucht wurde, basieren die Gesamtkosten auf dem Clusterbetriebsmodus, den Clusterverwaltungsgebühren und anwendbaren Gebühren für Multi-Cluster-Ingress.
Dienst
Beschreibung
Preis ($)
Kostenlose Stufe
Die kostenlose GKE-Stufe umfasst ein monatliches Guthaben von 74,40 $ pro Rechnungskonto, das auf zonale und Autopilot-Cluster angewendet wird.
Kostenlos
Clusterbetriebsmodus
Standardmodus
Verwendet Compute Engine-Knoten im Cluster. Jede Instanz wird entsprechend den Compute Engine-Preisen in Rechnung gestellt.
0,10 $
pro Cluster und Stunde
Autopilot-Modus
Eine Pauschalgebühr pro Cluster sowie die CPU-, Arbeitsspeicher- und Rechenressourcen, die für Ihre Pods bereitgestellt werden.
0,10 $
pro Cluster und Stunde
Clusterverwaltungsgebühren
Die Clusterverwaltungsgebühr gilt unabhängig vom Betriebsmodus, der Clustergröße oder der Topologie für alle GKE-Cluster.
0,10 $
pro Cluster und Stunde
Preise für Multi-Cluster-Ingress
Standalone-Modell
Die Preise für eigenständige Multi-Cluster-Ingress basieren auf der Anzahl der Pods, die als Back-Ends für die Multi-Cluster-Ingress betrachtet werden.
3,00 $
pro Back-End-Pod und Monat (730 Stunden)
Anthos
Multi-Cluster-Ingress ist in Anthos inklusive.
Kostenlos
für Anthos-Nutzer
Preisrechner
Schätzen Sie Ihre monatlichen GKE-Kosten, einschließlich regionsspezifischer Preise und Gebühren.