Übersicht über Google Distributed Cloud (nur Software) für Bare-Metal-Lösung

Google Distributed Cloud ist unsere Lösung, mit der Sie die Infrastruktur und Dienste von Google Cloud auf Ihr Rechenzentrum erweitern können. Wir bieten Google Distributed Cloud sowohl mit verbundenen als auch mit Air Gap-Konfigurationen an, die auf der von Google bereitgestellten Hardware ausgeführt werden. Wir bieten Google Distributed Cloud auch als reines Softwareprodukt an, das auf Ihrer eigenen Hardware ausgeführt wird. Google Distributed Cloud-Software kann entweder auf VMware oder auf Bare Metal installiert werden. Diese Anleitung richtet sich an Google Distributed Cloud-Software, die direkt auf Ihren Bare-Metal-Maschinen ausgeführt wird.

Google Distributed Cloud basiert auf Google Kubernetes Engine (GKE) mit einem eigenen Kubernetes-Paket, das GKE für die Verwendung in einer lokalen Umgebung erweitert. Mit Google Distributed Cloud können Sie GKE-Cluster lokal erstellen, verwalten und aktualisieren und dabei Google Cloud-Features verwenden. Außerdem können Sie Containeranwendungen in Ihren Clustern mithilfe der Infrastruktur von Google in großem Maßstab bereitstellen und betreiben.

Wenn Sie Google Distributed Cloud-Software installieren, können Sie GKE Enterprise verwenden, eine Enterprise-Stufe für GKE mit leistungsstarken Features zum Steuern, Verwalten und Betreiben von Containerarbeitslasten in großem Maßstab. Weitere Informationen zu GKE Enterprise und den für Bare Metal verfügbaren Features finden Sie in der technischen Übersicht zu GKE Enterprise.

Warum Google Distributed Cloud auf Bare-Metal verwenden?

Das Ausführen von Google Distributed Cloud-Software auf Bare Metal nutzt Ihre vorhandene Unternehmensinfrastruktur und hilft Ihnen dabei, Anwendungen während ihres gesamten Lebenszyklus zu modernisieren.

Eigenen Knoten verwenden

Mit einer reinen Softwareinstallation auf Bare Metal von Google Distributed Cloud stellen Sie Anwendungen direkt auf Ihrer eigenen Hardwareinfrastruktur bereit, was die beste Leistung und Flexibilität bietet. Sie haben die direkte Kontrolle über Anwendungsskalierung, Sicherheit und Netzwerklatenz. Durch GKE-Komponenten profitieren Sie außerdem von den Vorteilen von Containeranwendungen, einschließlich leistungsstarker Features aus der Enterprise-Stufe.

Verbesserte Leistung und niedrigere Kosten

Google Distributed Cloud verwaltet die Anwendungsbereitstellung und den Zustand in Ihren vorhandenen Unternehmensrechenzentren, um den Betrieb effizienter zu gestalten. Außerdem können Sie Container am Rand des Netzwerks ausführen, um Analyseanwendungen mit voller Leistung auszuführen.

Wenn Sie Google Distributed Cloud auf Bare-Metal anstelle von virtuellen Maschinen verwenden, können Sie Anwendungscontainer auf einer Vielzahl von leistungsoptimierten Hardwaretypen wie GPUs und SSDs verwalten. Das Ausführen von Google Distributed Cloud auf Bare Metal ermöglicht auch direkten Anwendungszugriff auf Hardware.

Kompatible Sicherheit

Da Sie Ihre Knotenumgebung steuern, können Sie Ihr Netzwerk, Ihre Hardware und Ihre Anwendungen entsprechend Ihrer Anforderungen optimieren. Entsprechend können Sie die Systemsicherheit direkt steuern, ohne sich um die Kompatibilität mit virtuellen Maschinen und Betriebssystemen kümmern zu müssen.

Bereitstellung der überwachten Anwendung

Google Distributed Cloud bietet ein erweitertes Monitoring des Zustands und der Leistung Ihrer Umgebung. Sie können die Skalierung der Anwendungen leichter anpassen und gleichzeitig die Zuverlässigkeit trotz Schwankungen bei der Arbeitslast und dem Netzwerktraffic aufrechterhalten.

Sie verwalten Monitoring, Logging und Analyse von Clustern und Arbeitslasten über Connect.

Netzwerklatenz und Flexibilität

Da Sie Ihre Netzwerkanforderungen verwalten, kann Ihr Netzwerk für niedrige Latenz optimiert werden. Diese Netzwerkoptimierung kann für die Leistung in kommerziellen oder Finanzanalysen und anderen Unternehmens- oder Netzwerk-Edge-Anwendungen entscheidend sein.

Hochverfügbar

Google Distributed Cloud unterstützt mehrere Steuerknoten in einem Cluster. Wenn ein Knoten der Steuerungsebene ausfällt, können Sie Ihre Umgebung trotzdem verwalten.

Sicheres Design und Steuerung

Sie können die Sicherheit Ihrer Infrastruktur mit minimalen Verbindungen zu externen Ressourcen an Ihre eigenen Anforderungen anpassen. Am wichtigsten ist jedoch, dass die VM-Komplexität bei der Bereitstellung von Sicherheitssystemen nicht beeinträchtigt wird und Sie bei der Interaktion mit vorhandenen Sicherheitssystemen die vollständige Kontrolle über das Betriebssystem behalten.

Google Distributed Cloud arbeitet mit einfachen, sicheren Verbindungen zu Google APIs. Mit Connect und Cloud Monitoring können Sie Cluster und Anwendungen von einem zentralen Ort aus verwalten. Diese Zentralisierung sorgt auch dafür, dass Ihre Bereitstellungen reibungslos funktionieren, und ermöglicht dem Google Cloud-Support, Probleme effektiver zu beheben.

Preflight-Prüfung bei der Installation

Mit Google Distributed Cloud werden Ihre GKE-Cluster auf Open-Source- und Enterprise-Linux-Systemen sowie auf einer minimalen Hardwareinfrastruktur ausgeführt und sind somit in Ihrer Umgebung flexibel. Außerdem umfasst er verschiedene Preflight-Prüfungen, die für erfolgreiche Konfigurationen und Installationen sorgen.

Anwendungsbereitstellung und Load-Balancing

Google Distributed Cloud enthält Load-Balancing-Mechanismen für Layer 4 und Ebene 7 bei der Clustererstellung.

Verbesserte etcd-Zuverlässigkeit

Google Distributed Cloud-Steuerungsebenen enthalten einen etcddefrag-Pod, um die Größe der etcd-Datenbanken zu überwachen und zu defragmentieren. Der Pod etcddefrag gibt den Speicher aus großen etcd-Datenbanken zurück und stellt etcd wieder her, wenn der Speicherplatz überschritten wird.

Funktionsweise

Google Distributed Cloud erweitert die Google Kubernetes Engine (GKE), sodass Sie GKE-Cluster lokal auf Ihren eigenen Linux-Servern erstellen können. Sie verwalten diese lokalen Cluster in Google Cloud zusammen mit regulären GKE-Clustern und Clustern in anderen Umgebungen als Teil einer Flotte.

Herkömmliche GKE-Cluster werden in Google Cloud ausgeführt, wobei die Kubernetes-Steuerungsebene und die Netzwerkinfrastruktur von Google Cloud verwaltet werden. Da Google Distributed Cloud-Cluster in Ihrem Rechenzentrum ausgeführt werden, bieten wir zusätzlich zur GKE-Software einige Verwaltungs- und Steuerungsebenensoftware an. Die in Ihrem Rechenzentrum ausgeführte Software wird bei der Installation und beim Upgrade heruntergeladen.

Das folgende Diagramm zeigt das vereinfachte Ergebnis einer abgeschlossenen Installation:

Diagramm eines Administrator- und eines Nutzerclusters
Google Distributed Cloud-Architektur auf Bare Metal mit einem Administratorcluster und einem Nutzercluster (zum Vergrößern klicken)

Schlüsselkomponenten

Die folgenden Komponenten bilden eine reine Softwareinstallation auf Bare Metal von Google Distributed Cloud:

  • Der Administratorcluster besteht aus einem oder mehreren Knoten der Steuerungsebene. Jeder Knoten ist eine physische Maschine, auf der ein unterstütztes Linux-Betriebssystem ausgeführt wird. Die Standardbereitstellung besteht aus einem Administratorcluster, der den Lebenszyklus eines oder mehrerer Nutzercluster über Kubernetes Resource Management (KRM) verwaltet. Jede Knotenmaschine in der Installation hat eine eigene IP-Adresse.

  • In einem Nutzercluster werden die Arbeitslasten ausgeführt, die Ihre Anwendungen implementieren, z. B. in GKE in Google Cloud. Jeder Nutzercluster besteht aus mindestens einem Knoten der Steuerungsebene und einem Worker-Knoten.

  • Die Administratorworkstation ist in der Regel eine separate Maschine, die die Tools und Clusterartefakte wie Konfigurationsdateien enthält. Clusterersteller und -entwickler verwenden diese Tools und Artefakte, um ihre lokalen GKE-Cluster mit den entsprechenden Berechtigungen zu verwalten:

    • Wenn Sie bmctl über die Administratorworkstation ausführen, können Sie Cluster erstellen und aktualisieren sowie einige andere administrative Aufgaben ausführen

    • Wenn Sie kubectl über die Administratorworkstation ausführen, können Sie mit Ihren Administrator- und Nutzerclustern interagieren und Arbeitslasten bereitstellen und verwalten

  • Die GKE On-Prem API ist die von Google Cloud gehostete API für die Verwaltung des Clusterlebenszyklus. Sie können die API-Clients (Google Cloud Console, Google Cloud CLI und Terraform) verwenden, um den Lebenszyklus Ihrer lokalen Cluster zu erstellen und zu verwalten. Alternativ können Sie sich bei der Administratorworkstation anmelden, um Ihre Cluster über die bmctl-Befehlszeile zu verwalten.

  • Die Console bietet auch eine Weboberfläche für Ihr Google Cloud-Projekt, einschließlich lokaler Cluster. In der Console werden wichtige Messwerte zu Ihren Clustern angezeigt, mit denen Sie den Zustand des Clusters überwachen können.

  • Clusteradministratoren und -entwickler verwenden kubectl, um über virtuelle IP-Adressen (VIPs) auf Cluster-Steuerungsebenen zuzugreifen, die als Teil der Clusterkonfiguration angegeben werden. Anwendungsnutzer und -entwickler verwenden VIPs für Dienste und eingehenden Traffic, um auf Arbeitslasten zuzugreifen bzw. diese freizugeben.

Verbindung zur Flotte herstellen

Alle Nutzercluster (und optional Administratorcluster) sind Mitglieder einer Flotte: einer logischen Gruppierung von Kubernetes-Clustern. Mit Flotten kann Ihre Organisation die Verwaltung von einzelnen Clustern auf ganze Gruppen von Clustern ausweiten und Ihre Teams dabei unterstützen, ähnliche Best Practices wie bei Google anzuwenden. Sie können Flottencluster gemeinsam in der Google Cloud Console ansehen und verwalten und flottenrelevante GKE Enterprise-Features verwenden, um Ihre Arbeitslasten in großem Maßstab zu verwalten, zu steuern und auszuführen. Eine vollständige Liste der verfügbaren Flottenfeatures für lokale Umgebungen finden Sie in den GKE Enterprise-Bereitstellungsoptionen.

Die Verbindung jedes Flottenclusters zu Google Cloud wird von einem Connect-Agent verwaltet, der im Rahmen des Installationsprozesses von Google Distributed Cloud bereitgestellt wird. Weitere Informationen zur Funktionsweise dieses Agents finden Sie in der Übersicht zum Connect Agent.

Mit einer Flottenmitgliedschaft können Sie auch Google Distributed Cloud-Preise für Bare-Metal verwalten, wie im nächsten Abschnitt beschrieben.

Eine ausführlichere Beschreibung der GKE Enterprise-Features und deren Zusammenspiel finden Sie in der technischen Übersicht zu GKE Enterprise.

Preise

Mit Google Distributed Cloud erstellte GKE-Cluster werden im Rahmen von GKE Enterprise pro vCPU abgerechnet. Für die Enterprise-Stufe aktivieren Sie die Anthos API in Ihrem Google Cloud-Projekt.

Ausführliche Preisinformationen, einschließlich der Kontaktaufnahme mit dem Vertrieb, finden Sie unter Google Kubernetes Engine-Preise.

Versionen

Weitere Informationen zu Google Distributed Cloud-Versionen finden Sie in der Richtlinie zur Versionsunterstützung.

Google Distributed Cloud auf Bare Metal installieren

Da GKE-Cluster, die mit Google Distributed Cloud erstellt wurden, in Ihrer eigenen Infrastruktur ausgeführt werden, sind sie hoch konfigurierbar. Sobald Sie das Bereitstellungsmodell ausgewählt haben, das den Anforderungen Ihrer Organisation und Ihres Anwendungsfalls entspricht, können Sie aus einer Reihe von unterstützten Load-Balancing-Modi, IP-Adressierungsoptionen, Sicherheitsfunktionen, Verbindungsoptionen und vielem mehr wählen. Beim Einrichten eines GKE-Cluster auf Bare-Metal-Servern müssen vor und während der Installation Entscheidungen getroffen werden. Diese Dokumentation enthält Leitfäden, die Ihrem Team bei der Auswahl der richtigen Features und Optionen helfen. Wenden Sie sich an Ihr Netzwerk- und Anwendungsteam, um sicherzustellen, dass Ihre Installation den Anforderungen Ihrer Organisation entspricht.