GKE

Google Kubernetes Engine (GKE)

Äußerst skalierbarer und vollständig automatisierter Kubernetes-Dienst

Stellen Sie Ihre Container auf Autopilot und führen Sie Ihre Unternehmensarbeitslasten sicher und ohne K8s-Kenntnisse aus.

Neue Kunden erhalten 300 $ an Guthaben, um GKE auszuprobieren.


Features

Höhere Geschwindigkeit, geringeres Risiko und niedrigere Gesamtbetriebskosten

Mit der neuen GKE Enterprise-Premium-Version profitieren Plattformteams von höherer Geschwindigkeit, da sie mehrere Cluster von einem Ort aus konfigurieren und beobachten und so Konfigurationen für Teams anstelle von Clustern definieren können. Außerdem gibt es Self-Service-Optionen für Entwickler zum Bereitstellen und Verwalten von Anwendungen. Durch erweiterte Sicherheitsfunktionen und GitOps-basierte Konfigurationsverwaltung können Sie Risiken reduzieren. Mit einer vollständig integrierten und verwalteten Lösung senken Sie die Gesamtbetriebskosten und erzielen in drei Jahren einen ROI von bis zu 196 %.

Flexible Versionen

Die GKE-Standardversion bietet eine vollständig automatisierte Verwaltung des Clusterlebenszyklus, Pod- und Cluster-Autoscaling, Kostentransparenz und automatisierte Optimierung der Infrastrukturkosten. Sie umfasst alle vorhandenen Vorteile von GKE und bietet sowohl den Autopilot- als auch den Standardbetriebsmodus. Die neue GKE Enterprise-Premiumversion bietet alle oben genannten Vorteile sowie Verwaltung, Governance, Sicherheit und Konfiguration für mehrere Teams und Cluster – alles in einer einheitlichen Console mit integriertem Service Mesh. 

Serverlose Kubernetes-Umgebung mit Autopilot-Modus

GKE Autopilot ist ein automatischer Betriebsmodus, mit dem die dem Cluster zugrunde liegenden Rechenressourcen verwaltet werden, ohne dass Sie diese konfigurieren oder überwachen müssen. Gleichzeitig wird eine vollständige Kubernetes-Lösung bereitgestellt. Und mit der Abrechnung pro Pod wird sichergestellt, dass Sie nur für die ausgeführten Pods zahlen und nicht für Systemkomponenten, den Aufwand des Betriebssystems oder nicht zugewiesene Kapazitäten. So lassen sich durch operative Effizienz und effektive Ressourcennutzung bis zu 85 % an Kosten einsparen. Sowohl der Autopilot- als auch der Standardbetriebsmodus sind im Rahmen der GKE Enterprise-Version verfügbar.

Containernative Netzwerke und Sicherheit

Privat vernetzte Cluster in GKE können auf einen privaten oder öffentlichen Endpunkt beschränkt werden, auf den nur bestimmte Adressbereiche zugreifen können. GKE Sandbox für den Standardbetrieb bietet eine zweite Schutzschicht zwischen containerisierten Arbeitslasten in GKE, um die Arbeitslastsicherheit zu optimieren. GKE-Cluster unterstützen Netzwerkrichtlinien von Kubernetes grundsätzlich, um den Traffic mit Firewallregeln auf Pod-Ebene einzuschränken.

Pod- und Cluster-Autoscaling

GKE implementiert die vollständige Kubernetes API, das Vier-Wege-Autoscaling, Release-Versionen und Support für mehrere Cluster und kann auf bis zu 15.000 Knoten erweitert werden. Horizontales Pod-Autoscaling kann auf der CPU-Auslastung oder benutzerdefinierten Messwerten basieren. Cluster-Autoscaling funktioniert auf Pro-Knotenpool-Basis. Vertikales Pod-Autoscaling analysiert kontinuierlich die CPU- und Speichernutzung der Pods und passt CPU- und Arbeitsspeicheranfragen automatisch an.

Vordefinierte Kubernetes-Anwendungen und -Vorlagen

Sie erhalten Zugriff auf containerisierte Lösungen für Unternehmen mit Bereitstellungsvorlagen, die sich durch Portabilität, einfache Lizenzierung und eine konsolidierte Abrechnung auszeichnen. Das sind nicht einfach nur Container-Images, sondern von Google entwickelte, gewerbliche Open-Source-Anwendungen, mit denen Entwickler produktiver arbeiten können. Nutzen Sie im Google Cloud Marketplace Click-to-Deploy für Bereitstellungen in lokalen Netzwerken oder in Drittanbieter-Clouds.

Unterstützung für GPU und TPU

GKE unterstützt GPUs und TPUs. Dadurch wird die Ausführung von ML-, GPGPU-, HPC- und anderen Arbeitslasten vereinfacht, die von speziellen Hardwarebeschleunigern profitieren.

Verwaltung mehrerer Teams über Flottenteambereiche

Verwenden Sie Flotten, um Cluster und Arbeitslasten zu organisieren und Ressourcen mühelos mehreren Teams zuzuweisen, um die Geschwindigkeit zu verbessern und Inhaberschaft zu delegieren. Mit Teambereichen können Sie Teilmengen von Flottenressourcen auf Teambasis definieren, wobei jeder Bereich einem oder mehreren Clustern der Flottenmitglieder zugeordnet ist.

Multi-Cluster-Verwaltung über Flotten

Sie können mehrere Cluster auswählen, um Dienste nach Umgebungen, Stufen, Sprachen, Teams oder Infrastrukturanbietern zu trennen. Flotten und die Google Cloud-Komponenten und -Features unterstützen die Verwaltung mehrerer Cluster, um sie so einfach wie möglich zu gestalten.

Backup for GKE

Backup for GKE bietet Kunden, die zustandsorientierte Arbeitslasten in GKE ausführen, eine einfache Möglichkeit, containerisierte Anwendungen und Daten zu schützen, zu verwalten und wiederherzustellen.

Multi-Cloud-Unterstützung mit Arbeitslastenübertragung

Dank der Ausführung von Certified Kubernetes in GKE können Sie Arbeitslasten cloudübergreifend sowie lokal auf andere Kubernetes-Plattformen übertragen. Mit GKE in Google Cloud, GKE on AWS oder GKE on Azure können Sie Ihre Anwendungen außerdem überall konsistent ausführen.

Hybrid-Unterstützung

Nutzen Sie Kubernetes und Cloud-Technologie im eigenen Rechenzentrum mit Google Distributed Cloud. GKE bietet schnelle, verwaltete und einfache Installationen sowie Google-geprüfte Upgrades.

Verwaltetes Service Mesh

Verwalten, beobachten und sichern Sie Ihre Dienste mit der Google-Implementierung des leistungsstarken Open-Source-Projekts von Istio. So vereinfachen Sie Traffic-Verwaltung und -Monitoring mit einem vollständig verwalteten Service Mesh.

Verwaltete GitOps-Bereitstellung

Mit der verwalteten GitOps-Konfigurationsbereitstellung können Sie konsistente Konfigurationen und Sicherheitsrichtlinien für Cluster, Flotten und Teams erstellen und erzwingen.

Identitäts- und Zugriffsverwaltung

Kontrollieren Sie den Zugriff innerhalb des Clusters mit Ihren Google-Konten und Rollenberechtigungen.

Hybridnetzwerk

Sie können einen IP-Adressbereich für Ihren Cluster reservieren, damit Ihre Cluster-IP-Adressen mit den privaten Netzwerk-IP-Adressen über Google Cloud VPN kommunizieren.

Sicherheit und Compliance

GKE wird von mehr als 750 Experten des Google-Sicherheitsteams betreut und ist sowohl HIPAA- als auch PCI-DSS-konform.

Integriertes Logging und Monitoring

Aktivieren und konfigurieren Sie Cloud Logging und Cloud Monitoring einfach durch Anklicken und Sie erhalten jederzeit Einblick in die Ausführung Ihrer Anwendung.

Clusteroptionen

Sie können Cluster auswählen, die auf die Verfügbarkeit, Versionsstabilität, Isolierung und Pod-Traffic-Anforderungen Ihrer Arbeitslasten zugeschnitten sind.

Autoscaling

Sie können das Deployment Ihrer Anwendungen je nach Ressourcennutzung (CPU, Arbeitsspeicher) automatisch skalieren.

Automatisches Upgrade

Ihr Cluster ist mit der aktuellen Release-Version von Kubernetes automatisch immer auf dem neuesten Stand.

Automatische Reparatur

Bei aktivierter automatischer Reparatur sorgt GKE dafür, dass Knoten nach fehlgeschlagener Systemdiagnose repariert werden.

Ressourcenlimits

Mit Kubernetes können Sie angeben, wie viel CPU und Arbeitsspeicher (RAM) ein Container benötigt. Dadurch lassen sich die Arbeitslasten in Ihrem Cluster besser organisieren.

Container-Isolation

GKE Sandbox bietet eine zweite Schutzschicht zwischen containerisierten Arbeitslasten in GKE für eine optimierte Arbeitslastsicherheit.

Zustandsorientierte Anwendungsunterstützung

GKE eignet sich nicht nur für 12-Faktoren-Anwendungen. Sie können Container mit nichtflüchtigem Speicher verknüpfen und sogar vollständige Datenbanken hosten.

Docker-Image-Unterstützung

GKE unterstützt das übliche Docker-Containerformat.

Betriebssystem speziell für Container

GKE läuft auf Container-Optimized OS, einem robusten, von Google entwickelten und verwalteten Betriebssystem.

Private Container Registry

Dank der Einbindung in Google Container Registry können Sie private Docker-Images ganz einfach speichern und abrufen.

Schnelle, konsistente Builds

Mit Cloud Build können Sie Ihre Container zuverlässig in GKE bereitstellen, ohne dass Sie eine Authentifizierung einrichten müssen.

Eingebundenes Dashboard

Die Google Cloud Console bietet nützliche Dashboards für Cluster und zugehörige Ressourcen. Damit können Sie Ressourcen in Clustern ansehen, untersuchen, verwalten und löschen.

Spot-VMs

Kostengünstige Recheninstanzen für Batchjobs und fehlertolerante Arbeitslasten. Mit Spot-VMs können Sie Einsparungen von bis zu 91 % erzielen und gleichzeitig von der Leistung und den Funktionen herkömmlicher VMs profitieren.

Support für nichtflüchtigen Speicher

Langlebiger, leistungsstarker Blockspeicher für Containerinstanzen. Daten werden zu Integritätszwecken redundant gespeichert. Die Speichergröße kann jederzeit unterbrechungsfrei geändert werden und die Datenverschlüsselung erfolgt automatisch. Sie können nichtflüchtigen Speicher auf HDDs oder SSDs erstellen. Sie haben außerdem die Möglichkeit, Snapshots des nichtflüchtigen Speichers zu erstellen und damit neue nichtflüchtige Speicher zu generieren.

Support für lokale SSDs

GKE bietet jederzeit verschlüsselten lokalen SSD-Blockspeicher (Solid State Drive). Lokale SSDs sind physisch mit dem Server verbunden, auf dem die VM-Instanz gehostet wird. Dies ermöglicht eine extrem hohe Anzahl von Eingabe/-Ausgabevorgängen pro Sekunde (IOPS) und eine äußerst niedrige Latenz im Vergleich zu nichtflüchtigen Speichern.

Globales Load-Balancing

Die globale Load-Balancing-Technologie sorgt dafür, dass eingehende Anfragen regionsübergreifend auf Pools von Instanzen verteilt werden. So maximieren Sie Leistung, Durchsatz und Verfügbarkeit zu niedrigen Kosten.

Linux- und Windows-Unterstützung

GKE wird sowohl für Linux- als auch für Windows-Arbeitslasten vollständig unterstützt und führt sowohl Windows Server- als auch Linux-Knoten aus.

Serverlose Container

Durch die Ausführung von zustandslosen, serverlosen Containern eliminieren Sie die Infrastrukturverwaltung und profitieren von der automatischen Skalierung mit Cloud Run.

Nutzungsmessung

Detailgenaue Sichtbarkeit Ihres Kubernetes-Cluster. Sehen Sie sich die Ressourcennutzung Ihrer GKE-Cluster aufgeteilt nach Namespaces und Labels an und ordnen Sie die Ressourcen sinnvollen Entitäten zu.

Releasekanäle

Release-Versionen verbessern die Kontrolle darüber, welche automatischen Updates auf einen bestimmten Cluster angewendet werden – basierend auf den Stabilitätsanforderungen und Arbeitslasten dieses Clusters. Sie können zwischen schnell, regelmäßig und stabil wählen. Jede Version hat einen anderen Release-Rhythmus und ist auf verschiedene Arten von Arbeitslasten ausgerichtet.

Sicherheit der Softwarelieferkette

Mit der Artefaktanalyse können Sie die Sicherheit von Infrastrukturkomponenten und -paketen für Container-Images verifizieren, durchsetzen und verbessern.

Sekundengenaue Abrechnung

Google bietet eine sekundengenaue Abrechnung. Sie zahlen nur für die tatsächlich genutzte Rechenzeit.

Funktionsweise

Ein GKE-Cluster besteht aus einer Steuerungsebene und Maschinen, die als Knoten bezeichnet werden. Auf den Knoten werden die Dienste für die Container ausgeführt, die die Arbeitslast ausmachen. Die Systemsteuerung entscheidet, was auf diesen Knoten ausgeführt wird, einschließlich Planung und Skalierung. Im Autopilot-Modus wird Ihnen die Verwaltung abgenommen. Sie stellen einfach Ihre Anwendungen bereit und führen sie aus.

Technisches GKE-Diagramm
Google Kubernetes Engine in a minute (1:21)

Gängige Einsatzmöglichkeiten

Multi-Cluster-Infrastruktur verwalten

Multi-Cluster-Bereitstellungen mit Flotten vereinfachen

Mit Flotten können Sie die Verwaltung von Multi-Cluster-Bereitstellungen vereinfachen und beispielsweise die Produktions- von der Nicht-Produktionsumgebung trennen oder Dienste auf verschiedene Ebenen, Standorte oder Teams aufteilen. Flotten ermöglichen es Ihnen, Kubernetes-Cluster zu gruppieren und zu normalisieren. Damit können Sie die Infrastruktur leichter verwalten und Best Practices von Google besser umsetzen.
Weitere Informationen zur Flottenverwaltung
Multi-Cluster-Infrastruktur

    Multi-Cluster-Bereitstellungen mit Flotten vereinfachen

    Mit Flotten können Sie die Verwaltung von Multi-Cluster-Bereitstellungen vereinfachen und beispielsweise die Produktions- von der Nicht-Produktionsumgebung trennen oder Dienste auf verschiedene Ebenen, Standorte oder Teams aufteilen. Flotten ermöglichen es Ihnen, Kubernetes-Cluster zu gruppieren und zu normalisieren. Damit können Sie die Infrastruktur leichter verwalten und Best Practices von Google besser umsetzen.
    Weitere Informationen zur Flottenverwaltung
    Multi-Cluster-Infrastruktur

      Den richtigen Partner für die Verwaltung von Multi-Cluster-Infrastrukturen finden

      Gemeinsam mit unseren Partnern können Sie Multi-Cluster-Infrastrukturen und -Arbeitslasten sicher verwalten.
      GKE-Partner finden
      Logos von Launch-Partnern

        Optimierte KI-Arbeitslasten sicher ausführen

        Optimierte KI-Arbeitslasten mit Plattformorchestrierung ausführen

        Eine robuste KI-/ML-Plattform berücksichtigt die folgenden Ebenen: (i) Infrastrukturorchestrierung, die GPUs zum Trainieren und Bereitstellen von Arbeitslasten in großem Maßstab unterstützt, (ii) Flexible Einbindung in verteiltes Computing und Datenverarbeitungs-Frameworks und (iii) Unterstützung für mehrere Teams in derselben Infrastruktur, um die Ressourcennutzung zu maximieren.

        Weitere Informationen zur KI-/ML-Orchestrierung in GKE
        Frameworks

        Optimierte KI-Arbeitslasten mit Plattformorchestrierung ausführen

        Eine robuste KI-/ML-Plattform berücksichtigt die folgenden Ebenen: (i) Infrastrukturorchestrierung, die GPUs zum Trainieren und Bereitstellen von Arbeitslasten in großem Maßstab unterstützt, (ii) Flexible Einbindung in verteiltes Computing und Datenverarbeitungs-Frameworks und (iii) Unterstützung für mehrere Teams in derselben Infrastruktur, um die Ressourcennutzung zu maximieren.

        Weitere Informationen zur KI-/ML-Orchestrierung in GKE
        Frameworks

        GKE mit gemeinsam genutzter GPU hilft bei der Suche nach Neutrinos

        Das San Diego Supercomputer Center (SDSC) und die University of Wisconsin-Madison berichten, wie die GPU-Freigabe in Google Kubernetes Engine ihnen hilft, am Südpol im Hochenergie-Neutrino-Observatorium IceCube Neutrinos zu erkennen.
        Hier weiterlesen
        Südpol

        Continuous Integration und Continuous Delivery

        Continuous-Delivery-Pipeline erstellen

        In diesem Lab erfahren Sie, wie Sie eine Continuous Delivery-Pipeline mit Google Kubernetes Engine, Google Cloud Source Repositories, Google Cloud Container Builder und Spinnaker erstellen. Nachdem Sie eine Beispielanwendung erstellt haben, konfigurieren Sie diese Dienste so, dass die Anwendung automatisch erstellt, getestet und implementiert wird.
        Praxisorientiertes Lab starten
        Diagramm

        Continuous-Delivery-Pipeline erstellen

        In diesem Lab erfahren Sie, wie Sie eine Continuous Delivery-Pipeline mit Google Kubernetes Engine, Google Cloud Source Repositories, Google Cloud Container Builder und Spinnaker erstellen. Nachdem Sie eine Beispielanwendung erstellt haben, konfigurieren Sie diese Dienste so, dass die Anwendung automatisch erstellt, getestet und implementiert wird.
        Praxisorientiertes Lab starten
        Diagramm

        Anwendungen bereitstellen und ausführen

        Containerisierte Webanwendung bereitstellen

        Erstellen Sie eine containerisierte Webanwendung, testen Sie sie lokal und stellen Sie sie dann in einem GKE-Cluster bereit – alles direkt über den Cloud Shell-Editor. Am Ende dieser kurzen Anleitung werden Sie in der Lage sein, eine Kubernetes-Anwendung zu erstellen, zu bearbeiten und zu debuggen.
        Anleitung starten

        Containerisierte Webanwendung bereitstellen

        Erstellen Sie eine containerisierte Webanwendung, testen Sie sie lokal und stellen Sie sie dann in einem GKE-Cluster bereit – alles direkt über den Cloud Shell-Editor. Am Ende dieser kurzen Anleitung werden Sie in der Lage sein, eine Kubernetes-Anwendung zu erstellen, zu bearbeiten und zu debuggen.
        Anleitung starten

        Den richtigen Partner für die Bereitstellung und Ausführung finden

        Mit vertrauenswürdigen Partnern wie WALT Labs, Zencore, FTG und weiteren können Sie GKE bereitstellen und in GKE ausführen.

          Vorhandene Bereitstellungen und Ausführungen in GKE

          Current, eine führende Challenger-Bank mit Sitz in New York, hostet die meisten ihrer Anwendungen, einschließlich der geschäftskritischen GraphQL API, in Docker-Containern. Dabei kommt GKE für die automatisierte Bereitstellung der Cluster und die Verwaltung von Containeranwendungen zum Einsatz.
          So hat Current Anwendungen mit GKE bereitgestellt
          Visa-Kreditkarten von Current

          Arbeitslasten migrieren

          Migration einer zweistufigen Anwendung in GKE

          Mit Migrate to Containers können Sie Arbeitslasten verschieben und in GKE direkt in Container umwandeln. Migrieren Sie eine zweistufige LAMP-Stack-Anwendung sowohl mit Anwendungs- als auch mit Datenbank-VMs von VMware zu GKE.
          Referenzdiagramm

          Migration einer zweistufigen Anwendung in GKE

          Mit Migrate to Containers können Sie Arbeitslasten verschieben und in GKE direkt in Container umwandeln. Migrieren Sie eine zweistufige LAMP-Stack-Anwendung sowohl mit Anwendungs- als auch mit Datenbank-VMs von VMware zu GKE.
          Referenzdiagramm

          Migrationspartner und -dienste

          Mit einem zuverlässigen Partner richten Sie die Google Kubernetes Engine lokal ein und nutzen die erstklassige Verwaltung von Kubernetes in einer privaten Infrastruktur. Alternativ können Sie die Migrationsdienste aus dem Google Cloud Marketplace nutzen.
          Migrationspartner finden

          Preise

          GKE-PreisgestaltungNachdem das Guthaben aufgebraucht wurde, basieren die Gesamtkosten auf der Version, dem Clusterbetriebsmodus, den Clusterverwaltungsgebühren und anwendbaren Gebühren für eingehende Datenübermittlungen.
          DienstBeschreibungPreis ($)
          Kostenlose Stufe

          Die kostenlose GKE-Stufe umfasst ein monatliches Guthaben von 74,40 $ pro Rechnungskonto, das auf zonale und Autopilot-Cluster angewendet wird.

          Kostenlos

          Kubernetes

          Enterprise Edition

          Bietet Features der Standardversion sowie Multi-Team-, Multi-Cluster- und Self-Service-Vorgänge, erweiterte Sicherheit, Service Mesh, Konfiguration und eine einheitliche Konsolenumgebung.

          0,0083 $

          pro vCPU und Stunde

          Standard Edition

          Bietet eine vollständig automatisierte Verwaltung des Clusterlebenszyklus, Pod- und Cluster-Autoscaling, Kostentransparenz und automatisierte Optimierung der Infrastrukturkosten.

          0,10 $

          pro Cluster und Stunde

          Compute

          Autopilot-Modus: CPU-, Arbeitsspeicher- und Rechenressourcen, die für Ihre Pods bereitgestellt werden.

          Standardmodus: Jede Instanz wird gemäß den Compute Engine-Preisen in Rechnung gestellt.

          Siehe Compute Engine-Preise

          Mehr zu den Preisen von GKE: Vollständige Preisinformationen

          GKE-Preisgestaltung

          Nachdem das Guthaben aufgebraucht wurde, basieren die Gesamtkosten auf der Version, dem Clusterbetriebsmodus, den Clusterverwaltungsgebühren und anwendbaren Gebühren für eingehende Datenübermittlungen.

          Kostenlose Stufe
          Beschreibung

          Die kostenlose GKE-Stufe umfasst ein monatliches Guthaben von 74,40 $ pro Rechnungskonto, das auf zonale und Autopilot-Cluster angewendet wird.

          Preis ($)

          Kostenlos

          Kubernetes
          Beschreibung

          Enterprise Edition

          Bietet Features der Standardversion sowie Multi-Team-, Multi-Cluster- und Self-Service-Vorgänge, erweiterte Sicherheit, Service Mesh, Konfiguration und eine einheitliche Konsolenumgebung.

          Preis ($)

          0,0083 $

          pro vCPU und Stunde

          Standard Edition

          Bietet eine vollständig automatisierte Verwaltung des Clusterlebenszyklus, Pod- und Cluster-Autoscaling, Kostentransparenz und automatisierte Optimierung der Infrastrukturkosten.

          Beschreibung

          0,10 $

          pro Cluster und Stunde

          Compute
          Beschreibung

          Autopilot-Modus: CPU-, Arbeitsspeicher- und Rechenressourcen, die für Ihre Pods bereitgestellt werden.

          Standardmodus: Jede Instanz wird gemäß den Compute Engine-Preisen in Rechnung gestellt.

          Preis ($)

          Siehe Compute Engine-Preise

          Mehr zu den Preisen von GKE: Vollständige Preisinformationen

          Preisrechner

          Schätzen Sie Ihre monatlichen GKE-Kosten, einschließlich regionsspezifischer Preise und Gebühren.

          Individuelles Angebot

          Wenden Sie sich an unser Vertriebsteam, wenn Sie ein individuelles Angebot für Ihr Unternehmen erhalten möchten.

          Proof of Concept starten

          Neukunden erhalten ein Guthaben von 300 $

          Anwendung in einem GKE-Cluster bereitstellen

          Professionelle Unterstützung bei der Bewertung und Implementierung von GKE

          Click-to-Deploy-Kubernetes-Anwendungen

          Anwendungen bereitstellen und Monitoring einrichten

          Google Cloud
          • ‪English‬
          • ‪Deutsch‬
          • ‪Español‬
          • ‪Español (Latinoamérica)‬
          • ‪Français‬
          • ‪Indonesia‬
          • ‪Italiano‬
          • ‪Português (Brasil)‬
          • ‪简体中文‬
          • ‪繁體中文‬
          • ‪日本語‬
          • ‪한국어‬
          Konsole
          • Sparen Sie Geld mit unserem transparenten Preisansatz
          • „Pay-as-you-go“-Preise von Google Cloud bieten automatische Einsparungen basierend auf der monatlichen Nutzung und ermäßigten Preisen für Prepaid-Ressourcen Kontaktieren Sie uns, um ein Angebot zu erhalten.
          Google Cloud