Google Distributed Cloud (nur Software) für Bare Metal – Übersicht

Google Distributed Cloud ist unsere Lösung, die die Infrastruktur und Dienste von Google Cloud auf Ihr Rechenzentrum ausdehnt. Wir bieten Google Distributed Cloud sowohl in verbundenen als auch in Konfigurationen mit Air Gap an, die auf der von Google bereitgestellten Hardware ausgeführt werden. Wir bieten Google Distributed Cloud auch als reines Softwareprodukt (früher Google Distributed Cloud Virtual) an, das auf Ihrer eigenen Hardware ausgeführt wird. Google Distributed Cloud-Software kann entweder auf VMware oder Bare Metal installiert werden. Diese Anleitung bezieht sich auf Google Distributed Cloud-Software, die direkt auf Ihren Bare-Metal-Maschinen ausgeführt wird.

Google Distributed Cloud-Software basiert auf Google Kubernetes Engine (GKE) und hat ein eigenes Kubernetes-Paket, das GKE für die Verwendung in einer lokalen Umgebung erweitert. Mit Google Distributed Cloud können Sie GKE-Cluster vor Ort erstellen, verwalten und aktualisieren und dabei Google Cloud-Features nutzen. Außerdem können Sie mit der Infrastruktur von Google in großem Maßstab Containeranwendungen in Ihren Clustern bereitstellen und betreiben.

Durch die Installation von Google Distributed Cloud-Software können Sie GKE Enterprise verwenden: eine Enterprise-Stufe für GKE mit leistungsstarken Features zum Steuern, Verwalten und Betreiben von Containerarbeitslasten in großem Maßstab. Weitere Informationen zu GKE Enterprise und den für Bare Metal verfügbaren Features finden Sie in der technischen Übersicht zu GKE Enterprise.

Vorteile von Google Distributed Cloud für Bare Metal

Wenn Sie Google Distributed Cloud-Software auf Bare-Metal ausführen, profitieren Sie von Ihrer vorhandenen Unternehmensinfrastruktur und können Anwendungen während ihres gesamten Lebenszyklus modernisieren.

Eigenen Knoten verwenden

Mit einer reinen Softwareinstallation auf Bare-Metal-Lösung von Google Distributed Cloud stellen Sie Anwendungen direkt auf Ihrer eigenen Hardwareinfrastruktur bereit, die eine optimale Leistung und Flexibilität bietet. Sie haben die direkte Kontrolle über den Umfang der Anwendung, die Sicherheit und die Netzwerklatenz. Außerdem können Sie die Vorteile von Containeranwendungen über GKE-Komponenten nutzen, darunter auch leistungsstarke Features der Enterprise-Stufe.

Verbesserte Leistung und niedrigere Kosten

Google Distributed Cloud verwaltet die Bereitstellung und den Zustand von Anwendungen in Ihren vorhandenen Unternehmensrechenzentren für einen effizienteren Betrieb. Außerdem können Sie Container am Rand des Netzwerks ausführen, sodass Analyseanwendungen mit voller Leistung ausgeführt werden können.

Wenn Sie Google Distributed Cloud auf Bare Metal anstelle von virtuellen Maschinen verwenden, können Sie Anwendungscontainer auf einer Vielzahl von leistungsoptimierten Hardwaretypen wie GPUs und SSDs verwalten. Die Ausführung von Google Distributed Cloud auf Bare Metal ermöglicht auch den direkten Anwendungszugriff auf die Hardware.

Kompatible Sicherheit

Da Sie Ihre Knotenumgebung steuern, können Sie Ihr Netzwerk, Ihre Hardware und Ihre Anwendungen entsprechend Ihrer Anforderungen optimieren. Entsprechend können Sie die Systemsicherheit direkt steuern, ohne sich um die Kompatibilität mit virtuellen Maschinen und Betriebssystemen kümmern zu müssen.

Bereitstellung der überwachten Anwendung

Google Distributed Cloud bietet ein erweitertes Monitoring des Zustands und der Leistung Ihrer Umgebung. Sie können den Umfang von Anwendungen einfacher anpassen und die Zuverlässigkeit trotz Schwankungen der Arbeitslast und des Netzwerktraffics aufrechterhalten.

Sie verwalten Monitoring, Logging und Analyse von Clustern und Arbeitslasten über Connect.

Netzwerklatenz und Flexibilität

Da Sie Ihre Netzwerkanforderungen verwalten, kann Ihr Netzwerk für niedrige Latenz optimiert werden. Diese Netzwerkoptimierung kann für die Leistung bei kommerziellen oder Finanzanalysen und anderen Edge-Anwendungen für Unternehmen oder Netzwerke entscheidend sein.

Hochverfügbar

Google Distributed Cloud unterstützt mehrere Steuerknoten in einem Cluster. Wenn ein Knoten der Steuerungsebene ausfällt, können Sie Ihre Umgebung weiterhin verwalten.

Sicheres Design und Steuerung

Ihre Infrastruktursicherheit kann an Ihre eigenen Anforderungen angepasst werden, mit minimalen Verbindungen zu externen Ressourcen. Am wichtigsten ist jedoch, dass die Bereitstellung von Sicherheitssystemen keine zusätzliche VM-Komplexität aufweist und Sie bei der Interaktion mit vorhandenen Sicherheitssystemen die vollständige Kontrolle über das Betriebssystem behalten.

Google Distributed Cloud arbeitet mit einfachen sicheren Verbindungen zu Google APIs. Mit Connect und Cloud Monitoring können Sie Cluster und Anwendungen von einem zentralen Ort aus verwalten. Diese Zentralisierung sorgt auch für einen reibungslosen Ablauf Ihrer Bereitstellungen und ermöglicht es dem Google Cloud-Support, Probleme effektiver zu beheben.

Preflight-Prüfung bei der Installation

Mit Google Distributed Cloud werden Ihre GKE-Cluster auf Open-Source- und Enterprise-Linux-Systemen sowie auf einer minimalen Hardwareinfrastruktur ausgeführt. Dadurch sind Ihre GKE-Cluster in Ihrer Umgebung flexibel. Außerdem umfasst es verschiedene Preflight-Prüfungen, um für erfolgreiche Konfigurationen und Installationen zu sorgen.

Anwendungsbereitstellung und Load-Balancing

Google Distributed Cloud verwendet Layer-4- und Layer-7-Load-Balancing-Mechanismen bei der Clustererstellung.

Verbesserte etcd-Zuverlässigkeit

Die Steuerungsebenen von Google Distributed Cloud enthalten einen etcddefrag-Pod, um die Größe von etcd-Datenbanken zu überwachen und zu defragmentieren. Der Pod etcddefrag gibt in großen etcd-Datenbanken Speicherplatz frei und stellt etcd wieder her, wenn der Speicherplatz überschritten ist.

Funktionsweise

Google Distributed Cloud erweitert die Google Kubernetes Engine (GKE), damit Sie GKE-Cluster auf Ihren eigenen Linux-Servern in Ihrem Unternehmen erstellen können. Sie verwalten diese lokalen Cluster in Google Cloud zusammen mit regulären GKE-Clustern und Clustern in anderen Umgebungen als Teil einer Flotte.

Herkömmliche GKE-Cluster werden in Google Cloud ausgeführt, wo die Kubernetes-Steuerungsebene und die Netzwerkinfrastruktur von Google Cloud verwaltet werden. Da Google Distributed Cloud-Cluster in Ihrem Rechenzentrum ausgeführt werden, bieten wir zusätzlich zur GKE-Software auch etwas Verwaltungs- und Steuerungsebenensoftware an. Die Software, die in Ihrem Rechenzentrum ausgeführt wird, wird im Rahmen der Installations- und Upgradeprozesse heruntergeladen.

Das folgende Diagramm zeigt das vereinfachte Ergebnis einer abgeschlossenen Installation:

Diagramm eines Administratorclusters und eines Nutzerclusters
Google Distributed Cloud-Architektur auf Bare Metal mit einem Administratorcluster und einem Nutzercluster (zum Vergrößern klicken)

Schlüsselkomponenten

Die folgenden Komponenten bilden eine reine Softwareinstallation auf Bare-Metal-Lösung von Google Distributed Cloud:

  • Der Administratorcluster besteht aus einem oder mehreren Knoten der Steuerungsebene. Jeder Knoten ist eine physische Maschine, auf der ein unterstütztes Linux-Betriebssystem ausgeführt wird. Die Standardbereitstellung besteht aus einem Administratorcluster, der den Lebenszyklus eines oder mehrerer Nutzercluster über Kubernetes Resource Management (KRM) verwaltet. Jede Knotenmaschine in der Installation hat eine eigene IP-Adresse.

  • In einem Nutzercluster werden die Arbeitslasten ausgeführt, die Ihre Anwendungen implementieren, wie in GKE in Google Cloud. Jeder Nutzercluster besteht aus mindestens einem Knoten der Steuerungsebene und einem Worker-Knoten.

  • Die Administratorworkstation ist in der Regel ein separater Computer, der die Tools und Clusterartefakte wie Konfigurationsdateien enthält. Clusterersteller und -entwickler verwenden diese Tools und Artefakte für die Verwaltung ihrer lokalen GKE-Cluster mit den entsprechenden Berechtigungen:

    • Wenn Sie bmctl über die Administratorworkstation ausführen, können Sie Cluster erstellen und aktualisieren sowie einige weitere Verwaltungsaufgaben ausführen

    • Wenn Sie kubectl über die Administratorworkstation ausführen, können Sie mit Ihren Administrator- und Nutzerclustern interagieren, einschließlich der Bereitstellung und Verwaltung von Arbeitslasten

  • Die GKE On-Prem API ist die von Google Cloud gehostete API für die Verwaltung des Clusterlebenszyklus. Sie verwenden die API-Clients (Google Cloud Console, Google Cloud CLI und Terraform), um den Lebenszyklus Ihrer lokalen Cluster zu erstellen und zu verwalten. Dies ist eine Alternative zur Anmeldung bei der Administratorworkstation, um Ihre Cluster mit der bmctl-Befehlszeile zu verwalten.

  • Die Console bietet auch eine Weboberfläche für Ihr Google Cloud-Projekt, einschließlich lokaler Cluster. In der Console werden wichtige Messwerte zu Ihren Clustern angezeigt, mit denen Sie den Clusterzustand überwachen können.

  • Clusteradministratoren und -entwickler verwenden kubectl, um über virtuelle IP-Adressen (VIPs), die im Rahmen der Clusterkonfiguration angegeben werden, auf Cluster-Steuerungsebenen zuzugreifen. Anwendungsnutzer und -entwickler verwenden Dienst- und Ingress-VIPs, um auf Arbeitslasten zuzugreifen und diese freizugeben.

Verbindung zur Flotte herstellen

Alle Nutzercluster (und optional Administratorcluster) sind Mitglieder einer Flotte: einer logischen Gruppierung von Kubernetes-Clustern. Mit Flotten kann Ihre Organisation die Verwaltung von einzelnen Clustern auf ganze Gruppen von Clustern ausbauen. So können Ihre Teams ähnliche Best Practices wie die von Google anwenden. Sie können Flottencluster gemeinsam in der Google Cloud Console ansehen und verwalten und mit flottenrelevanten GKE Enterprise-Features Ihre Arbeitslasten im großen Maßstab verwalten, steuern und betreiben. Eine vollständige Liste der verfügbaren Flottenfeatures für lokale Umgebungen finden Sie in den GKE Enterprise-Bereitstellungsoptionen.

Die Verbindung eines jeden Flottenclusters zu Google Cloud wird von einem Connect-Agent verwaltet, der im Rahmen des Installationsprozesses von Google Distributed Cloud bereitgestellt wird. Weitere Informationen zur Funktionsweise dieses Agents finden Sie in der Connect-Agent-Übersicht.

Die Flottenmitgliedschaft wird auch zum Verwalten der Bare-Metal-Preise von Google Distributed Cloud verwendet, wie im nächsten Abschnitt beschrieben.

Ausführlichere Erläuterungen zu den Features von GKE Enterprise und deren Zusammenspiel finden Sie in der technischen Übersicht zu GKE Enterprise.

Preise

Lokale GKE-Cluster, die mit Google Distributed Cloud erstellt wurden, werden im Rahmen von GKE Enterprise pro vCPU berechnet. Zur Aktivierung der Enterprise-Stufe aktivieren Sie die Anthos API in Ihrem Google Cloud-Projekt.

Vollständige Preisinformationen, einschließlich der Kontaktaufnahme mit dem Vertrieb, finden Sie unter Google Kubernetes Engine-Preise.

Versionen

Weitere Informationen zu Google Distributed Cloud-Versionen finden Sie unter Versionsunterstützungsrichtlinie.

Google Distributed Cloud auf Bare Metal installieren

Da GKE-Cluster, die mit Google Distributed Cloud erstellt wurden, in Ihrer eigenen Infrastruktur ausgeführt werden, sind sie hoch konfigurierbar. Sobald Sie das Bereitstellungsmodell ausgewählt haben, das Ihren spezifischen Organisations- und Anwendungsanforderungen entspricht, können Sie aus einer Reihe von unterstützten Load-Balancing-Modi, IP-Adressierungsoptionen, Sicherheitsfeatures, Verbindungsoptionen und mehr auswählen. Bei der Einrichtung eines GKE-Cluster on Bare Metal müssen vor und während der Installation Entscheidungen getroffen werden. Diese Dokumentationsreihe enthält Leitfäden, die Ihrem Team dabei helfen, die richtigen Features und Optionen für Sie auszuwählen. Wenden Sie sich an Ihre Netzwerk- und Anwendungsteams, um sicherzustellen, dass Ihre Installation den Anforderungen Ihrer Organisation entspricht.