Google Distributed Cloud unterstützt eine Vielzahl von Systemen auf der Hardware, die von den Zielbetriebssystem-Distributionen unterstützt wird. Eine Google Distributed Cloud-Konfiguration kann auf minimaler Hardware oder auf mehreren Maschinen ausgeführt werden, um Flexibilität, Verfügbarkeit und Leistung zu ermöglichen.
Unabhängig von Ihrer Google Distributed Cloud-Konfiguration müssen Ihre Knoten und Cluster über genügend CPU-, RAM- und Speicherressourcen verfügen, um den Anforderungen von Clustern und ausgeführten Arbeitslasten gerecht zu werden.
Diese Seite richtet sich an Administratoren, Architekten und Betreiber, die IT-Lösungen und die Systemarchitektur gemäß der Unternehmensstrategie definieren. Weitere Informationen zu gängigen Rollen und Beispielaufgaben, auf die wir in Google Cloud-Inhalten verweisen, finden Sie unter Häufig verwendete GKE Enterprise-Nutzerrollen und -Aufgaben.
Mindestens erforderliche und empfohlene CPU-, RAM- und Speicheranforderungen
Wenn Sie Google Distributed Cloud installieren, können Sie verschiedene Arten von Clustern erstellen:
- Ein Nutzercluster, der Arbeitslasten ausführt.
- Ein Administratorcluster der Nutzercluster zur Ausführung von Arbeitslasten erstellt und steuert.
- Ein eigenständiger Cluster ist ein einzelner Cluster, der Arbeitslasten verwalten und ausführen kann. Ein eigenständiger Cluster kann jedoch keine Nutzercluster erstellen oder verwalten.
- Ein Hybridcluster kann Arbeitslasten verwalten und ausführen. Ein Hybridcluster kann außerdem zusätzliche Nutzercluster erstellen und verwalten.
Zusätzlich zum Clustertyp können Sie in Bezug auf die Ressourcenanforderungen aus den folgenden Installationsprofilen auswählen:
Standard: Das Standardprofil hat Standardanforderungen an Systemressourcen, die für alle Clustertypen verwendet werden können.
Edge: Das Edge-Profil hat die Systemressourcenanforderungen erheblich reduziert. Die Verwendung dieses Profils wird für Edge-Geräte mit begrenzten Ressourcen empfohlen. Sie können das Edge-Profil nur für eigenständige Cluster verwenden.
Ressourcenanforderungen für alle Clustertypen mit dem Standardprofil
In der folgenden Tabelle werden die mindestens erforderlichen und empfohlenen Hardwarevoraussetzungen für Google Distributed Cloud beschrieben, um Administrator-, Hybrid-, Nutzer- und eigenständige Cluster über das Standardprofil zu betreiben und zu verwalten.
Ressource | Minimum | Empfohlen |
---|---|---|
CPUs / vCPUs* | 4 Core | 8 Core |
RAM | 16 GiB | 32 GiB |
Speicherplatz | 128 GiB | 256 GiB |
* Google Distributed Cloud unterstützt nur x86-64-CPUs und vCPUs auf CPU-Mikroarchitekturebene (x86-64-v3) und höher.
Ressourcenanforderungen für eigenständige Cluster mit dem Edge-Profil
In der folgenden Tabelle werden die mindestens erforderlichen und empfohlenen Hardwarevoraussetzungen für Google Distributed Cloud beschrieben, um eigenständige Cluster mit dem Edge-Profil zu betreiben und zu verwalten:
Ressource | Minimum | Empfohlen |
---|---|---|
CPUs / vCPUs* | 2 Core | 4 Core |
RAM | Ubuntu: 4 GiB RHEL: 6 GiB |
Ubuntu: 8 GiB RHEL: 12 GiB |
Speicherplatz | 128 GiB | 256 GiB |
* Google Distributed Cloud unterstützt nur x86-64-CPUs und vCPUs auf CPU-Mikroarchitekturebene (x86-64-v3) und höher.
So konfigurieren Sie eigenständige Cluster mit dem Edge-Profil:
Führen Sie
bmctl
auf einer separaten Workstation aus. Wenn Siebmctl
auf dem Zielclusterknoten ausführen müssen, benötigen Sie 2 GiB Arbeitsspeicher, um die Mindestanforderungen zu erfüllen. Beispiel: Sie benötigen 6 GiB für Ubuntu und 8 GiB für RHEL.Legen Sie
MaxPodsPerNode
auf 110 fest. Der Cluster führt im Durchschnitt nicht mehr als 30 Nutzer-Pods pro Knoten aus. Für eine höhereMaxPodsPerNode
-Konfiguration benötigen Sie möglicherweise zusätzliche Ressourcen oder führen mehr als 30 Nutzer-Pods pro Knoten aus.Die Komponenten von VM Runtime on GDC werden in dieser Konfiguration von Mindestressourcen nicht berücksichtigt. Je nach Anzahl der im Cluster bereitgestellten VMs benötigt VM Runtime on GDC zusätzliche Ressourcen.
Zusätzliche Speicheranforderungen
Google Distributed Cloud stellt keine Speicherressourcen zur Verfügung. Sie müssen den erforderlichen Speicher auf Ihrem System bereitstellen und konfigurieren.
Ausführliche Informationen zu den Speicheranforderungen finden Sie unter Voraussetzungen für die Installation: Übersicht.
Weitere Informationen zur Konfiguration des erforderlichen Speichers finden Sie unter Speicher für Google Distributed Cloud konfigurieren.
Voraussetzungen für Knotenrechner
Für Knotenrechner gelten folgende Voraussetzungen:
- Die Mindestanforderungen an die Hardware werden erfüllen
- Das Betriebssystem ist eine der unterstützten Linux-Distributionen. Weitere Informationen, einschließlich der Kernel-Anforderungen, finden Sie unter Betriebssystem auswählen.
- Internetzugriff.
- Ebene-3-Verbindung zu allen anderen Knotenmaschinen
- Zugriff auf die VIP der Steuerungsebene.
- Zugriff auf erforderliche Ports Spezifische Portanforderungen für Knoten der Steuerungsebene, Worker-Knoten und Load Balancer-Knoten finden Sie auf der Seite „Netzwerkanforderungen“ unter Portnutzung.
- Korrekt konfigurierte DNS-Nameserver.
- Keine doppelten Hostnamen.
- Einer der folgenden NTP-Dienste muss aktiviert sein und funktionieren:
- chrony
- ntp
- ntpdate
- systemd-timesyncd
- Ein funktionsfähiger Paketmanager, z. B.
apt
oderdnf
. Unter Ubuntu müssen Sie Uncomplicated Firewall (UFW) deaktivieren. Führen Sie
systemctl stop ufw
aus, um UFW zu deaktivieren.Eines der folgenden Netzwerk-Kernelmodule muss geladen sein:
ip_tables
(dies unterscheidet sich vom Frontend-Debian-Paketiptables
, das nicht erforderlich ist)nf_tables
Führen Sie den folgenden Befehl aus, um ein Modul zu laden:
modprobe MODULE_NAME
Bei der Clustererstellung wird nur auf den erforderlichen freien Speicherplatz für die Google Distributed Cloud-Systemkomponenten geprüft. Mit dieser Änderung haben Sie mehr Kontrolle über den Speicherplatz, den Sie Anwendungsarbeitslasten zuweisen. Achten Sie beim Installieren von Google Distributed Cloud darauf, dass die Dateisysteme, die die folgenden Verzeichnisse sichern, die erforderliche Kapazität haben und die folgenden Anforderungen erfüllen:
/
: 17 GiB (18.253.611.008 Byte)./var/lib/containerd
:- 30 GiB (32.212.254.720 Byte) für Knoten der Steuerungsebene.
- 10 GiB (10.485.760 Byte) für Worker-Knoten.
/var/lib/kubelet
: 500 MiB (524.288.000 Byte)./var/lib/etcd
: 20 GiB (21.474.836.480 Byte nur für Knoten der Steuerungsebene)./var/lib/etcd-events
: 5 GiB (5,368,709,120 Byte nur für Knoten der Steuerungsebene)
Unabhängig von der Clusterversion können sich die vorherigen Verzeichnislisten in denselben oder in unterschiedlichen Partitionen befinden. Wenn sie sich in derselben zugrunde liegenden Partition befinden, entspricht der Speicherplatzbedarf der Summe des Speicherplatzes, der für jedes einzelne Verzeichnis in dieser Partition erforderlich ist. Bei allen Releaseversionen erstellt der Cluster die Verzeichnisse, sofern erforderlich.
Die Verzeichnisse
/var/lib/etcd
und/etc/kubernetes
sind entweder nicht vorhanden oder leer.Bei Maschinen mit RHEL 9.2 oder Ubuntu 22.04 müssen die
inotify
-Limits des Linux-Kernels für die maximale Anzahl von Nutzerinstanzen und Nutzerüberwachungen größer oder gleich Folgendem sein:fs.inotify.max_user_instances
:8192
fs.inotify.max_user_watches
:524288
Weitere Informationen finden Sie in der Konfigurationsdokumentation für RHEL oder Ubuntu.
Zusätzlich zu den Voraussetzungen für die Installation und Ausführung von Google Distributed Cloud müssen Kunden die relevanten Standards ihrer Branche oder ihres Geschäftssegments erfüllen, z. B. die PCI-DSS-Anforderungen für Unternehmen, die Kreditkarten verarbeiten, oder SISGs (Security Technical Implementation Guides) für Unternehmen in der Verteidigungsindustrie.
Voraussetzungen für Load-Balancer-Rechner
Wenn Ihre Bereitstellung über keinen speziellen Load-Balancer-Knotenpool verfügt, können Sie Worker-Knoten oder Steuerungsebenenknoten erstellen, um einen Load-Balancer-Knotenpool zu erstellen. Für diesen Fall gelten zusätzliche Voraussetzungen:
- Maschinen befinden sich im selben Ebene-2-Subnetz.
- Alle VIPs befinden sich im Subnetz des Load-Balancer-Knotens und können vom Gateway des Subnetzes aus verbunden werden.
- Das Gateway des Load-Balancer-Subnetzes sollte nicht relevante ARPs erfassen, um Pakete an den Master-Load-Balancer weiterzuleiten.