Melden Sie sich zu unserem Live-Webinar am 18. November an und holen Sie sich aktuelle Tipps und Tricks zu Kubernetes.  

Weiter zu

Google Kubernetes Engine

Kubernetes automatisch bereitstellen, skalieren und verwalten – ganz einfach.

Neue Kundinnen und Kunden erhalten 300 $ an Guthaben, um GKE auszuprobieren.

  • action/check_circle_24px Erstellt mit Sketch.

    Kubernetes auf einer Plattform ausführen, die von den leitenden K8s-Entwicklern entworfen wurde

  • action/check_circle_24px Erstellt mit Sketch.

    Schneller Einstieg dank Single-Click-Clustern mit vertikaler Skalierung bis auf 15.000 Knoten

  • action/check_circle_24px Erstellt mit Sketch.

    Hochverfügbare Steuerungsebene, einschließlich multizonaler und regionaler Cluster

  • action/check_circle_24px Erstellt mit Sketch.

    Geringer betrieblicher Aufwand durch branchenweit einzigartiges Vier-Wege-Autoscaling

  • action/check_circle_24px Erstellt mit Sketch.

    Standardmäßig sicher, einschließlich Scannen auf Sicherheitslücken von Container-Images und Datenverschlüsselung

Vorteile

Entwicklung von Anwendungen beschleunigen, ohne die Sicherheit zu gefährden

Entwickeln Sie unterschiedlichste Anwendungen, die Unterstützung für zustandsorientierte, serverlose und Anwendungsbeschleuniger bieten. Sichern und beschleunigen Sie mit Kubernetes-eigenen CI/CD-Tools jede Phase des Erstellungs- und Bereitstellungszyklus.

Vorgänge mit Release-Versionen optimieren

Wählen Sie die Release-Version, die Ihren Unternehmensanforderungen entspricht. Schnelle, regelmäßige und stabile Release-Versionen haben unterschiedliche Rhythmen für Knoten-Upgrades und bieten Supportstufen, die der jeweiligen Version entsprechen.

Vorgänge am 2. Tag mithilfe von Google SREs reduzieren

Dank der Site Reliability Engineers (SREs) von Google sparen Sie Zeit und können sich ganz auf Ihre Anwendungen konzentrieren. Unsere SREs haben Ihren Cluster und seine Computing-, Netzwerk- und Speicherressourcen ständig im Blick.

Wichtige Features

Wichtige Features

GKE bietet zwei Betriebsarten

GKE bietet nun zwei Betriebsarten: Standard und Autopilot. Die Betriebsart „Standard“ haben wir seit der Einführung von GKE kontinuierlich weiterentwickelt. Sie ermöglicht das vollständige Steuern der Knoten sowie das Anpassen und Ausführen benutzerdefinierter administrativer Arbeitslasten. Der neue Autopilot-Modus ist eine vollständig verwaltete Lösung ohne Nutzereingriff, die Ihre gesamte Clusterinfrastruktur für Sie verwaltet, ohne dass Sie sich um das Konfigurieren und das Monitoring kümmern müssen. Und mit der Abrechnung pro Pod wird im Autopilot-Modus sichergestellt, dass Sie nur für die ausgeführten Pods zahlen und nicht für die Systemkomponenten, den betriebssystembedingten Aufwand und nicht zugewiesene Kapazität.

Pod- und Cluster-Autoscaling

GKE ist branchenweit der erste vollständig verwaltete Kubernetes-Dienst, der die vollständige Kubernetes API, das Vier-Wege-Autoscaling, Release-Versionen und Support für mehrere Cluster implementiert. Horizontales Pod-Autoscaling kann auf der CPU-Auslastung oder benutzerdefinierten Messwerten basieren. Cluster-Autoscaling funktioniert auf Pro-Knotenpool-Basis und vertikales Pod-Autoscaling analysiert kontinuierlich die CPU- und Speichernutzung der Pods und passt CPU- und Speicheranforderungen als Reaktion darauf automatisch an.

Vordefinierte Kubernetes-Anwendungen und -Vorlagen

Sie erhalten Zugriff auf containerisierte Lösungen für Unternehmen mit vordefinierten Deployment-Vorlagen. Sie zeichnen sich durch Übertragbarkeit, vereinfachte Lizenzierung und konsolidierte Abrechnung aus. Das sind nicht einfach nur Container-Images, sondern von Google entwickelte, gewerbliche Open-Source-Anwendungen, mit denen Entwickler produktiver arbeiten können. Nutzen Sie Click-to-Deploy für lokale Bereitstellungen oder zum Bereitstellen in Drittanbieter-Clouds aus dem Google Cloud Marketplace.

Containernatives Netzwerk und containernative Sicherheit

GKE Sandbox bietet eine zweite Schutzschicht zwischen containerisierten Arbeitslasten in GKE für eine optimierte Arbeitslastsicherheit. GKE-Cluster unterstützen Netzwerkrichtlinien von Kubernetes nativ, um den Traffic mit Firewallregeln auf Pod-Ebene einzuschränken. Private Cluster in GKE können auf einen privaten oder öffentlichen Endpunkt beschränkt werden, auf den nur bestimmte Adressbereiche zugreifen können.

Herkömmliche Arbeitslasten ganz leicht zu GKE-Containern migrieren

Mit Migrate for Anthos and GKE lassen sich herkömmliche Anwendungen schnell und einfach modernisieren, damit Sie sie anstatt auf virtuellen Maschinen nativ in Containern ausführen können. Bei unserem einzigartigen automatisierten Ansatz werden die wichtigsten Anwendungselemente aus der VM extrahiert, damit Sie diese einfach in Container in Google Kubernetes Engine oder Anthos-Cluster einfügen können – jedoch ohne die VM-Ebenen (z. B. Gastbetriebssystem), die für Container nicht benötigt werden. Dieses Produkt funktioniert auch mit GKE Autopilot.

Alle Features ansehen

Dokumentation

Dokumentation

Best Practice
Best Practices für den Betrieb von Containern

Hier finden Sie die Best Practices für den Betrieb von Containern in GKE.

Tutorial
GKE-Tutorial: Containerisierte Webanwendung bereitstellen

Eine einfache Anwendung erstellen, diese in einen Container verpacken und das Container-Image für GKE bereitstellen – alles direkt im Cloud Shell-Editor

Best Practice
GKE-Umgebung für die Produktion vorbereiten

In dieser Anleitung wird beschrieben, wie Sie Ihre Arbeitslasten sicher, effizient und kostengünstig in GKE einrichten.

Tutorial
GKE-Cluster härten

Hier erfahren Sie, wie Sie die Schritte zur Härtung Ihres GKE-Clusters umsetzen.

Tutorial
GKE-Ressourcen

Hier finden Sie weitere Informationen zu Features, Updates, Preisen und vielem mehr.

Tutorial
Was Sie mit Google Cloud erstellen können

Die technischen Leitfäden zu Google Cloud unterstützen Sie dabei, GKE optimal zu nutzen.

Anwendungsfälle

Anwendungsfälle

Anwendungsfall
Continuous-Delivery-Pipeline

Mit GKE können Sie Anwendungen und Dienste ganz einfach bereitstellen, aktualisieren und verwalten. Das ermöglicht eine schnelle Entwicklung und Iteration. Konfigurieren Sie GKE, Cloud Source Repositories, Cloud Build und Spinnaker für Google Cloud-Dienste, um Anwendungen automatisch zu erstellen, zu testen und bereitzustellen. Bei Änderungen am Anwendungscode wird die Continuous-Delivery-Pipeline ausgelöst, um die aktualisierte Version automatisch neu zu erstellen, zu testen und bereitzustellen.

Diagramm: Möglicher Aufbau einer Continuous-Delivery-Pipeline
Anwendungsfall
Migration einer zweistufigen Anwendung zu GKE

Mit Migrate for Anthos können Sie Arbeitslasten verschieben und in GKE direkt in Container umwandeln. Migrieren Sie eine zweistufige LAMP-Stack-Anwendung sowohl mit Anwendungs- als auch mit Datenbank-VMs von VMware zu GKE. Verbessern Sie die Sicherheit, indem nur vom Anwendungscontainer und nicht von außerhalb des Clusters auf die Datenbank zugegriffen werden kann. Ersetzen Sie den SSH-Zugriff durch einen authentifizierten Shell-Zugang über kubectl. Durch eine automatische Integration von Cloud Logging können Sie Container-Systemlogs einsehen.

Diagramm: Arbeitslasten in GKE verschieben und umwandeln

Alle Features

Alle Features

Sicherung für GKE Sicherung für GKE bietet Kunden, die zustandsorientierte Arbeitslasten in GKE ausführen, eine einfache, cloudnative Möglichkeit, Containeranwendungen und -daten zu schützen, zu verwalten und wiederherzustellen.
Identitäts- und Zugriffsverwaltung Den Zugriff innerhalb eines Clusters können Sie mit Ihren Google-Konten und Rollenberechtigungen steuern.
Hybridnetzwerk Sie können über Google Cloud VPN einen IP-Adressbereich für Ihren Cluster reservieren, damit Ihre Cluster-IP-Adressen mit den privaten Netzwerk-IP-Adressen koexistieren können.
Sicherheit und Compliance GKE wird von mehr als 750 Experten des Google-Sicherheitsteams betreut und ist sowohl HIPAA- als auch PCI DSS-konform.
Integriertes Logging und Monitoring Mit Cloud Logging und Cloud Monitoring erhalten Sie jederzeit Einblick in die Ausführung Ihrer Anwendung. Beide Dienste lassen sich ganz einfach durch Anklicken von Kästchen konfigurieren.
Clusteroptionen Sie können Cluster auswählen, die auf die Verfügbarkeit, Versionsstabilität, Isolierung und Pod-Traffic-Anforderungen Ihrer Arbeitslasten zugeschnitten sind.
Autoscaling Sie können Ihr Anwendungs-Deployment je nach Ressourcennutzung (CPU, Arbeitsspeicher) automatisch skalieren.
Automatisches Upgrade Ihr Cluster ist mit der neuesten Release-Version von Kubernetes automatisch immer auf dem aktuellen Stand. Neue Kubernetes-Versionen werden in GKE schnell bereitgestellt.
Automatische Reparatur Wenn die automatische Reparatur aktiviert ist, veranlasst GKE die Reparatur von Knoten, bei denen die Systemdiagnose einen Fehler erkennt.
Ressourcenlimits Mit Kubernetes können Sie angeben, wie viel CPU und Arbeitsspeicher (RAM) ein Container benötigt. Dadurch lassen sich die Arbeitslasten in Ihrem Cluster besser organisieren.
Container-Isolation GKE Sandbox bietet eine zweite Schutzschicht zwischen containerisierten Arbeitslasten in GKE für eine optimierte Arbeitslastsicherheit.
Zustandsorientierte Anwendungsunterstützung GKE eignet sich nicht nur für 12-Faktoren-Anwendungen. Sie können Container mit nichtflüchtigem Speicher verknüpfen und sogar vollständige Datenbanken hosten.
Docker-Image-Unterstützung GKE unterstützt das gängige Docker-Containerformat.
Vollständig verwaltet GKE-Cluster werden vollständig durch die Site Reliability Engineers (SREs) von Google verwaltet. Sie sorgen dafür, dass Ihr Cluster immer verfügbar und aktuell ist.
Betriebssystem speziell für Container GKE läuft auf Container-Optimized OS, einem robusten, von Google entwickelten und verwalteten Betriebssystem.
Private Container Registry Dank der Einbindung in Google Container Registry können Sie private Docker-Images ganz einfach speichern und abrufen.
Schnelle, konsistente Builds Mit Cloud Build können Sie Ihre Container zuverlässig in GKE bereitstellen, ohne dass Sie eine Authentifizierung einrichten müssen.
Arbeitslastenübertragung – lokal und in der Cloud GKE führt Certified Kubernetes aus, sodass Sie Arbeitslasten cloudübergreifend sowie lokal auf andere Kubernetes-Plattformen übertragen können.
Unterstützung für GPU und TPU GKE unterstützt GPUs und TPUs. Dadurch wird die Ausführung von ML-, GPGPU-, HPC- und anderen Arbeitslasten vereinfacht, die von speziellen Hardwarebeschleunigern profitieren.
Eingebundenes Dashboard Die Cloud Console bietet nützliche Dashboards für die Cluster eines Projekts und die zugehörigen Ressourcen. Damit können Sie Ressourcen in Clustern ansehen, untersuchen, verwalten und löschen.
Spot-VMs Kostengünstige Compute-Instanzen für Batchjobs und fehlertolerante Arbeitslasten. Mit Spot-VMs können Sie Einsparungen von bis 91 % erzielen und gleichzeitig von derselben Leistung und denselben Funktionen wie bei regulären VMs profitieren.
Unterstützung für nichtflüchtigen Speicher Langlebiger, leistungsstarker Blockspeicher für Containerinstanzen. Daten werden zu Integritätszwecken redundant gespeichert. Die Speichergröße kann jederzeit unterbrechungsfrei geändert werden und die Datenverschlüsselung erfolgt automatisch. Sie können nichtflüchtigen Speicher auf HDDs oder SSDs erstellen. Außerdem können Sie Snapshots des nichtflüchtigen Speichers erstellen und damit neue nichtflüchtige Speicherlaufwerke generieren.
Unterstützung für lokale SSDs GKE bietet jederzeit verschlüsselten lokalen SSD-Blockspeicher (Solid State Drive). Lokale SSDs sind physisch mit dem Server verbunden, auf dem die VM-Instanz gehostet wird. Dies ermöglicht eine extrem hohe Anzahl von Eingabe/-Ausgabevorgängen pro Sekunde (IOPS) und eine äußerst niedrige Latenz im Vergleich zu nichtflüchtigem Speicher.
Globales Load-Balancing Die globale Load-Balancing-Technologie sorgt dafür, dass eingehende Anfragen regionenübergreifend auf Instanzenpools verteilt werden. So maximieren Sie auf kostengünstige Weise die Leistung, den Durchsatz und die Verfügbarkeit.
Linux- und Windows-Unterstützung GKE wird sowohl für Linux- als auch für Windows-Arbeitslasten vollständig unterstützt und kann Windows Server- wie auch Linux-Knoten ausführen.
Unterstützung für Hybrid- und Multi-Cloud Nutzen Sie Kubernetes und Cloud-Technologie im eigenen Rechenzentrum. GKE bietet schnelle, verwaltete und einfache Installationen sowie von Google in Anthos GKE geprüfte Upgrades.
Serverlose Container Sie können zustandslose, serverlose Container ausführen. Dadurch eliminieren Sie die Infrastrukturverwaltung und profitieren von der automatischen Skalierung mit Cloud Run.
Nutzungsmessung Detailgenaue Sichtbarkeit Ihrer Kubernetes-Cluster. Sehen Sie sich die Ressourcennutzung Ihrer GKE-Cluster aufgeteilt nach Namespaces und Labels an und ordnen Sie die Ressourcen effektiv zu.
Release-Versionen Release-Versionen verbessern die Kontrolle darüber, welche automatischen Updates auf einen bestimmten Cluster angewendet werden. Dies hängt von den Stabilitätsanforderungen des Clusters und seiner Arbeitslasten ab. Sie können zwischen schnell, regelmäßig oder stabil wählen. Jede Version hat einen anderen Release-Rhythmus und ist auf verschiedene Arten von Arbeitslasten ausgerichtet.
Sicherheit der Softwarelieferkette Mit Container Analysis können Sie die Sicherheit von Infrastrukturkomponenten und -paketen für Container-Images verifizieren, durchsetzen und verbessern.
Sekundengenaue Abrechnung Google bietet eine sekundengenaue Abrechnung. Sie zahlen nur für die tatsächlich genutzte Rechenzeit.

Preise

Preise

Ein Autopilot-Cluster bzw. zonaler Cluster pro Rechnungskonto ist kostenlos.

Die Clusterverwaltung kostet 0,10 $ pro Cluster und Stunde, ausgenommen Anthos-Cluster. Nutzer-Pods in Autopilot-Clustern werden pro Sekunde für CPU-Kerne, Arbeitsspeicher und sitzungsspezifischen Speicher abgerechnet, bis ein Pod gelöscht wird. Für Worker-Knoten in Standardclustern fallen Computing-Kosten an, bis ein Cluster gelöscht wird.