Netzwerkanforderungen

Netzwerkanforderungen

Anforderungen an externe Netzwerke

Für Anthos-Cluster auf Bare-Metal ist eine Internetverbindung erforderlich. Anthos-Cluster auf Bare-Metal ruft Clusterkomponenten aus Container Registry ab und der Cluster ist bei Connect registriert.

Sie können eine Verbindung zu Google über das öffentliche Internet (mit HTTPS), über ein Virtual Private Network (VPN) oder über eine Dedicated Interconnect-Verbindung herstellen.

Interne Netzwerkanforderungen

Anthos-Cluster auf Bare-Metal funktioniert mit L2- oder L3-Verbindungen zwischen Clusterknoten und erfordert, dass sich die Knoten des Load-Balancers in derselben L2-Domain befinden. Bei den Knoten des Load-Balancers kann es sich um die Knoten der Steuerungsebene oder eine dedizierte Gruppe von Knoten handeln. Informationen zur Konfiguration finden Sie unter Load-Balancer auswählen und konfigurieren.

Die L2-Netzwerkanforderung gilt unabhängig davon, ob Sie den Load-Balancer auf dem Knotenpool der Steuerungsebene oder in einer dedizierten Gruppe von Knoten ausführen.

Die Anforderungen an Load-Balancer-Maschinen sind:

  • Alle Load-Balancer für einen bestimmten Cluster befinden sich in derselben L2-Domain.
  • Alle VIPs müssen sich im Load-Balancer-Maschinensubnetz befinden und müssen mit dem Gateway des Subnetzes verbunden werden können.
  • Nutzer müssen eingehenden Traffic für den Load-Balancer zulassen.

Clusterbereitstellung für einen Nutzer mit hoher Verfügbarkeit

Das folgende Diagramm zeigt eine Reihe von wichtigen Netzwerkkonzepten für Anthos-Cluster auf Bare-Metal in einer möglichen Netzwerkkonfiguration.

Anthos-Cluster in Bare-Metal – typische Netzwerkkonfiguration

  • Auf den Knoten der Steuerungsebene werden Load-Balancer ausgeführt. Sie befinden sich alle im selben L2-Netzwerk, während für andere Verbindungen (einschließlich Worker-Knoten) nur eine L3-Verbindung erforderlich ist.
  • Konfigurationsdateien definieren IP-Adressen für Worker-Knotenpools sowie virtuelle IP-Adressen für Dienste, für eingehenden Traffic und für Steuerungsebenenzugriff (Kubernetes API).
  • Eine Verbindung zu Google Cloud ist ebenfalls erforderlich.

Portnutzung

In diesem Abschnitt wird erläutert, wie UDP- und TCP-Ports auf Clusterknoten und Load-Balancer-Knoten verwendet werden.

Masterknoten

ProtokollRichtungPortbereichZweckVerwendet von
UDPEingehend6081GENEVE-KapselungSelf
TCPEingehend22Bereitstellung und Aktualisierung von AdministratorclusterknotenAdministratorworkstation
TCPEingehend443ClusterverwaltungAdministratorcluster-Knoten
TCPEingehend6443Kubernetes API-ServerAlle
TCPEingehend6444Steuerungsebene HAAlle
TCPEingehend2379–2380etcd server client-APIkube-apiserver, etcd
TCPEingehend10250kubelet APISelf, Steuerungsebene
TCPEingehend10251kube-schedulerSelf
TCPEingehend10252kube-controller-managerSelf
TCPBeides4240CNI-SystemdiagnoseAlle

Worker-Knoten

ProtokollRichtungPortbereichZweckVerwendet von
TCPEingehend22Bereitstellung und Aktualisierung von NutzerclusterknotenAdministratorcluster-Knoten
UDPEingehend6081GENEVE-KapselungSelf
TCPEingehend10250kubelet APISelf, Steuerungsebene
TCPEingehend30000 bis 32767NodePort-DiensteSelf
TCPBeides4240CNI-SystemdiagnoseAlle

Load-Balancer-Knoten

ProtokollRichtungPortbereichZweckVerwendet von
UDPEingehend6081GENEVE-KapselungSelf
TCPEingehend6444Kubernetes API-ServerAlle
TCPBeides4240CNI-SystemdiagnoseAlle
TCPEingehend7946LB-SystemdiagnoseLB-Knoten
UDPEingehend7946LB-SystemdiagnoseLB-Knoten