Wir empfehlen, einen der folgenden Load Balancing-Modi zu konfigurieren:
Im gebündelten Modus stellt Google Distributed Cloud den Load Balancer bereit und verwaltet ihn. Sie benötigen keine Lizenz für einen Load Balancer und die Einrichtung ist einfach.
Im manuellen Modus verwendet Google Distributed Cloud einen Load Balancer Ihrer Wahl, z. B. F5 BIG-IP oder Citrix. Der manuelle Load-Balancing-Modus erfordert mehr Konfiguration als der gebündelte Modus.
Das manuelle Load Balancing wird für die folgenden Clustertypen unterstützt:
Nutzercluster, für die Controlplane V2 aktiviert ist. Bei der Controlplane V2 befinden sich die Knoten der Steuerungsebene für einen Nutzercluster im Nutzercluster selbst.
Nutzercluster, die Kubeception verwenden. Der Begriff kubeception bezieht sich auf den Fall, dass die Steuerungsebene für einen Nutzercluster auf einem oder mehreren Knoten im Administratorcluster ausgeführt wird. Wenn die Steuerungsebene V2 nicht aktiviert ist, verwendet ein Nutzercluster kubeception.
Auf dieser Seite werden die Schritte beschrieben, die Sie ausführen müssen, wenn Sie den manuellen Load-Balancing-Modus verwenden.
In diesem Thema reservieren Sie IP-Adressen für Knoten der Steuerungsebene und Arbeitsknoten für die spätere Verwendung. Außerdem reservieren Sie IP-Adressen für virtuelle IP-Adressen (VIPs) und legen NodePort-Werte fest. Sie wählen die IP-Adressen und NodePort-Werte aus, die Sie verwenden möchten, und erfassen sie dann in einer Tabelle oder einem anderen Tool. Wenn Sie Ihre Cluster erstellen möchten, benötigen Sie die IP-Adressen und NodePort-Werte, um die Konfigurationsdateien für Ihren Administratorcluster und Ihren Nutzercluster sowie die IP-Blockdateien für Ihre Cluster auszufüllen.
Sie benötigen die IP-Adressen und NodePort-Werte auch, wenn Sie den Load Balancer manuell für Nutzercluster konfigurieren.
Knoten-IP-Adressen reservieren
Beim manuellen Load-Balancing-Modus können Sie kein DHCP verwenden. Sie müssen für Ihre Clusterknoten statische IP-Adressen reservieren. Sie müssen genügend Adressen für die Knoten im Administratorcluster und die Knoten in allen Nutzerclustern reservieren, die Sie erstellen möchten. Weitere Informationen dazu, wie viele Knoten-IP-Adressen Sie reservieren müssen, finden Sie unter IP-Adressen planen (Steuerungsebene V2) und IP-Adressen planen (Kubeception).
IP-Adressen konfigurieren
Wo Sie die reservierten statischen IP-Adressen konfigurieren, hängt vom Clustertyp und davon ab, ob Controlplane V2 in Ihren Nutzerclustern aktiviert ist.
HA-Administratorcluster
In der folgenden Tabelle wird beschrieben, wozu die IP-Adressen dienen und wo Sie sie für Hochverfügbarkeits-Administratorcluster konfigurieren.
Statische IP-Adressen | Configuration |
---|---|
Knoten der Steuerungsebene | Wenn
Topologiedomains aktiviert ist, fügen Sie die IP-Adressen in einer IP-Blockdatei für den Administratorcluster und den Pfad in das Feld Wenn Topologiedomains nicht aktiviert sind, fügen Sie die IP-Adressen in der Konfigurationsdatei des Administratorclusters im Abschnitt |
1.16 und niedriger: Add-on-Knoten | IP-Blockdatei des Administratorclusters und fügen Sie den Pfad in das Feld network.ipMode.ipBlockFilePath in der Konfigurationsdatei des Administratorclusters ein. |
In Version 1.28 und höher haben neue HA-Administratorcluster keine Add-on-Knoten. Sie müssen also keine IP-Adressen für Add-on-Knoten reservieren, wie in früheren Versionen.
Nicht-HA-Administratorcluster
In der folgenden Tabelle wird beschrieben, wofür die IP-Adressen verwendet werden und wo Sie sie für nicht hochverfügbare Administratorcluster konfigurieren.
Statische IP-Adressen | Configuration |
---|---|
Knoten der Steuerungsebene | IP-Blockdatei des Administratorclusters und fügen Sie den Pfad in das Feld network.ipMode.ipBlockFilePath in der Konfigurationsdatei des Administratorclusters ein. |
Add-on-Knoten | IP-Blockdatei des Adminclusters |
Ab Version 1.28 müssen alle neuen Administratorcluster HA-Cluster (Hochverfügbarkeit) mit drei Knoten der Steuerungsebene sein.
CP V2-Nutzercluster
In der folgenden Tabelle wird beschrieben, wofür die IP-Adressen verwendet werden und wo Sie sie für Nutzercluster mit aktivierter Controlplane V2 konfigurieren.
Statische IP-Adressen | Configuration |
---|---|
Knoten der Steuerungsebene | Wenn
Topologiedomains aktiviert sind, fügen Sie die IP-Adressen in einer IP-Blockdatei für den Nutzercluster und den Pfad in das Feld Wenn Topologiedomains nicht aktiviert sind, fügen Sie die IP-Adressen in der Konfigurationsdatei des Nutzerclusters im Abschnitt |
Worker-Knoten | IP-Blockdatei des Nutzerclusters und fügen Sie den Pfad in das Feld network.ipMode.ipBlockFilePath in der Konfigurationsdatei des Nutzerclusters ein. |
Kubeception-Nutzercluster
In der folgenden Tabelle wird beschrieben, wofür die IP-Adressen verwendet werden und wo Sie sie für Nutzercluster konfigurieren, die kubeception verwenden.
Statische IP-Adressen | Configuration |
---|---|
Knoten der Steuerungsebene | IP-Blockdatei des Administratorclusters und fügen Sie den Pfad in das Feld network.ipMode.ipBlockFilePath in der Konfigurationsdatei des Administratorclusters ein. |
Worker-Knoten | IP-Blockdatei des Nutzerclusters und fügen Sie den Pfad in das Feld network.ipMode.ipBlockFilePath in der Konfigurationsdatei des Nutzerclusters ein. |
IP-Adressen für virtuelle IP-Adressen reservieren
Unabhängig davon, ob Sie den integrierten, den gebundelten oder den manuellen Load-Balancing-Modus verwenden, müssen Sie mehrere IP-Adressen für das Load Balancing reservieren. Mit diesen VIPs können externe Clients die Kubernetes API-Server und Ihren Dienst für eingehenden Traffic in Nutzerclustern erreichen.
VIPs konfigurieren
Wo Sie VIPs konfigurieren, hängt vom Clustertyp ab.
HA-Administratorcluster
In der folgenden Tabelle wird beschrieben, wozu das VIP dient und wo Sie es für Hochverfügbarkeits-Administratorcluster konfigurieren.
VIP | Configuration |
---|---|
VIP für den Kubernetes API-Server des Administratorclusters | Konfigurationsdatei für den Administratorcluster im Feld loadBalancer.vips.controlPlaneVIP |
1.15 und niedriger: Add-on-VIP | Konfigurationsdatei für den Administratorcluster im Feld loadBalancer.vips.addonsVIP |
Beachten Sie die folgenden Unterschiede zwischen den Versionen:
In Version 1.16 und höher müssen Sie kein Add-on-VIP für HA-Administratorcluster konfigurieren.
In Version 1.28 und höher haben neue HA-Administratorcluster keine Add-on-Knoten.
Nicht-HA-Administratorcluster
In der folgenden Tabelle wird beschrieben, wofür die VIP dient und wo Sie sie für nicht hochverfügbare Administratorcluster konfigurieren.
VIP | Configuration |
---|---|
VIP für den Kubernetes API-Server des Administratorclusters | Konfigurationsdatei für den Administratorcluster im Feld loadBalancer.vips.controlPlaneVIP |
1.15 und niedriger: Add-on-VIP | Konfigurationsdatei für den Administratorcluster im Feld loadBalancer.vips.addonsVIP |
Beachten Sie die folgenden Unterschiede zwischen den Versionen:
In Version 1.16 und höher müssen Sie für Administratorcluster ohne HA keine VIP für Add-ons konfigurieren.
CP V2-Nutzercluster
In der folgenden Tabelle wird beschrieben, wozu die VIPs dienen und wo Sie sie für Nutzercluster mit aktivierter Controlplane V2 konfigurieren.
VIPs | Configuration |
---|---|
VIP für den Kubernetes API-Server des Nutzerclusters | Nutzercluster-Konfigurationsdatei im Feld loadBalancer.vips.controlPlaneVIP |
VIP für den Ingress-Dienst im Nutzercluster | Nutzercluster-Konfigurationsdatei im Feld loadBalancer.vips.ingressVIP |
Kubeception-Nutzercluster
In der folgenden Tabelle wird beschrieben, wozu die VIPs dienen und wo Sie sie für Nutzercluster konfigurieren, die kubeception verwenden.
VIPs | Configuration |
---|---|
VIP für den Kubernetes API-Server des Nutzerclusters | Nutzercluster-Konfigurationsdatei im Feld loadBalancer.vips.controlPlaneVIP |
VIP für den Ingress-Dienst im Nutzercluster | Nutzercluster-Konfigurationsdatei im Feld loadBalancer.vips.ingressVIP |
NodePort-Werte reservieren
In Google Distributed Cloud werden der Kubernetes API-Server und der Ingress-Dienst von Kubernetes-Diensten bereitgestellt. Im manuellen Load-Balancing-Modus müssen Sie Ihre eigenen NodePort-Werte für diese Dienste auswählen. Wählen Sie Werte im Bereich von 30.000 bis 32.767 aus.
NodePort-Werte konfigurieren
Wo Sie NodePort-Werte konfigurieren, hängt davon ab, ob für den Nutzercluster die Steuerungsebene V2 aktiviert ist.
HA-Administratorcluster
In der folgenden Tabelle wird beschrieben, wozu der NodePort dient und wo Sie ihn für Hochverfügbarkeits-Administratorcluster konfigurieren.
nodePort |
Configuration |
---|---|
1.15 und niedriger: nodePort für Add-on-Knoten |
Konfigurationsdatei für den Administratorcluster im Feld loadBalancer.manualLB.addonsNodePort |
In Version 1.16 und höher müssen Sie für Add-on-Knoten in HA-Administratorclustern keinen NodePort konfigurieren.
Nicht-HA-Administratorcluster
In der folgenden Tabelle wird beschrieben, wofür die NodePort-Werte verwendet werden und wo Sie sie für Administratorcluster ohne Hochverfügbarkeit konfigurieren.
nodePort |
Configuration |
---|---|
1.16 und niedriger: nodePort für den Kubernetes API-Server des Administratorclusters |
1.15 und niedriger: Konfigurationsdatei für den Admincluster im Feld loadBalancer.vips.controlPlaneNodePort |
1.15 und älter: nodePort für Add-on-Knoten |
Konfigurationsdatei für den Administratorcluster im Feld loadBalancer.manualLB.addonsNodePort |
In Version 1.16 und höher müssen Sie für Administratorcluster ohne Hochverfügbarkeit keinen NodePort für Add-on-Knoten konfigurieren.
CP V2-Nutzercluster
In der folgenden Tabelle wird beschrieben, wozu die NodePorts dienen und wo Sie sie für Nutzercluster mit aktivierter Controlplane V2 konfigurieren. Ab Version 1.30 müssen Sie keine Werte für die NodePorts des Ingress konfigurieren.
nodePorts |
Configuration |
---|---|
HTTP-nodePort für den Ingress-Dienst im Nutzercluster |
Konfigurationsdatei des Nutzerclusters in loadBalancer.manualLB.ingressHTTPNodePort |
HTTPS-nodePort für den Ingress-Dienst im Nutzercluster |
Konfigurationsdatei des Nutzerclusters in loadBalancer.manualLB.ingressHTTPSNodePort |
Kubeception-Nutzercluster
In der folgenden Tabelle wird beschrieben, wofür die NodePort-Werte verwendet werden und wo Sie sie für Nutzercluster konfigurieren, die kubeception verwenden.
nodePort |
Configuration |
---|---|
nodePort für den Kubernetes API-Server des Nutzerclusters |
Nutzercluster-Konfigurationsdatei im Feld loadBalancer.manualLB.controlPlaneNodePort |
nodePort für den Konnektivitätsserver des Nutzerclusters (der Konnektivitätsserver verwendet die VIP der Steuerungsebene) |
Nutzercluster-Konfigurationsdatei im Feld loadBalancer.manualLB.konnectivityServerNodePort |
HTTP-nodePort für den Ingress-Dienst im Nutzercluster |
Konfigurationsdatei des Nutzerclusters in loadBalancer.manualLB.ingressHTTPNodePort |
HTTPS-nodePort für den Ingress-Dienst im Nutzercluster |
Konfigurationsdatei des Nutzerclusters in loadBalancer.manualLB.ingressHTTPSNodePort |
Beispiel für eine Clusterkonfigurationsdatei
Das folgende Beispiel zeigt einen Teil einer Konfigurationsdatei für einen Administrator- und Nutzercluster:
HA-Administratorcluster
Version 1.16 und höher:
network: controlPlaneIPBlock: netmask: "255.255.248.0" gateway: "21.0.143.254" ips: - ip: "21.0.140.226" hostname: "admin-cp-vm-1" - ip: "21.0.141.48" hostname: "admin-cp-vm-2" - ip: "21.0.141.65" hostname: "admin-cp-vm-3" loadBalancer: vips: controlPlaneVIP: "172.16.21.40" kind: ManualLB
Für Version 1.15 und niedriger sind für Add-on-Knoten eine VIP und ein NodePort erforderlich.
network: controlPlaneIPBlock: netmask: "255.255.248.0" gateway: "21.0.143.254" ips: - ip: "21.0.140.226" hostname: "admin-cp-vm-1" - ip: "21.0.141.48" hostname: "admin-cp-vm-2" - ip: "21.0.141.65" hostname: "admin-cp-vm-3" loadBalancer: vips: controlPlaneVIP: "172.16.21.40" addonsVIP: "203.0.113.4" kind: ManualLB manualLB: addonsNodePort: 31405
Nicht-HA-Administratorcluster
Version 1.16 und höher:
network: ipMode: type: static ipBlockFilePath: "ipblock-admin.yaml" loadBalancer: vips: controlPlaneVIP: "172.16.21.40" kind: ManualLB manualLB: controlPlaneNodePort: 30562
Für Version 1.15 und niedriger sind eine VIP und ein NodePort für Add-on-Knoten erforderlich.
network: ipMode: type: static ipBlockFilePath: "ipblock-admin.yaml" loadBalancer: vips: controlPlaneVIP: "172.16.21.40" addonsVIP: "172.16.21.41" kind: ManualLB manualLB: controlPlaneNodePort: 30562 addonsNodePort: 30563
CP V2-Nutzercluster
network:
ipMode:
type: static
ipBlockFilePath: "ipblock1.yaml"
controlPlaneIPBlock:
netmask: "255.255.255.0"
gateway: "172.16.21.1"
ips:
- ip: "172.16.21.6"
hostname: "cp-vm-1"
- ip: "172.16.21.7"
hostname: "cp-vm-2"
- ip: "172.16.21.8"
hostname: "cp-vm-3"
loadBalancer:
vips:
controlPlaneVIP: "172.16.21.40"
ingressVIP: "172.16.21.30"
kind: ManualLB
manualLB:
ingressHTTPNodePort: 30243
ingressHTTPSNodePort: 30879
Kubeception-Nutzercluster
network:
ipMode:
type: static
ipBlockFilePath: "ipblock1.yaml"
loadBalancer:
vips:
controlPlaneVIP: "172.16.21.40"
ingressVIP: "172.16.21.30"
kind: ManualLB
manualLB:
ingressHTTPNodePort: 30243
ingressHTTPSNodePort: 30879
konnectivityServerNodePort: 30563
controlPlaneNodePort: 30562
Load-Balancer konfigurieren
Verwenden Sie die Verwaltungskonsole oder die Tools des Load-Balancers, um die folgenden Zuordnungen in Ihrem Load-Balancer zu konfigurieren. Die Vorgehensweise hängt vom verwendeten Load Balancer ab.
HA-Administratorcluster
Traffic zu Knoten der Steuerungsebene
Welche Zuordnung Sie konfigurieren müssen, hängt davon ab, ob Sie beim Erstellen des Administratorclusters erweiterte Cluster aktiviert haben.
Wenn erweiterte Cluster nicht aktiviert sind: Google Distributed Cloud führt automatisch das Load Balancing des Traffics der Steuerungsebene für HA-Administratorcluster aus. Sie müssen zwar keine Zuordnung im Load Balancer konfigurieren, aber Sie müssen im Feld
loadBalancer.vips.controlPlaneVIP
eine IP-Adresse angeben.Wenn erweiterte Cluster aktiviert sind, müssen Sie Ihren Load Balancer so konfigurieren:
Geben Sie im Feld
loadBalancer.vips.controlPlaneVIP
eine IP-Adresse an.Konfigurieren Sie die folgende Zuordnung:
- (
controlPlaneVIP
:443
) -> (CONTROL_PLANE_NODE_IP_ADDRESSES:6433
)
- (
Prüfen Sie, ob die Back-End-Systemdiagnose richtig konfiguriert ist. Die Systemdiagnose muss HTTPS verwenden und den
/readyz
-Endpunkt auf Port6443
prüfen. Die Systemdiagnose muss überprüfen, ob dieser Endpunkt den Statuscode200
zurückgibt, um den Knoten als fehlerfrei zu betrachten.
Traffic zu Diensten in den Add-on-Knoten
1.15 und niedriger: Im Folgenden sehen Sie die Zuordnung zu den IP-Adressen und NodePort-Werten für Traffic zu Diensten in Add-on-Knoten:
- (
addonsVIP
:8443) -> (NODE_IP_ADDRESSES:addonsNodePort
)
Fügen Sie diese Zuordnung für alle Knoten im Administratorcluster hinzu, sowohl für die Knoten der Steuerungsebene als auch für die Add-on-Knoten.
In Version 1.16 und höher müssen Sie diese Zuordnung für Add-on-Knoten für HA-Administratorcluster nicht konfigurieren.
Nicht-HA-Administratorcluster
Traffic der Steuerungsebene
Im Folgenden sehen Sie die Zuordnung zur IP-Adresse und zum NodePort-Wert für den Knoten der Steuerungsebene:
- (
controlPlaneVIP
:443) -> (NODE_IP_ADDRESSES:controlPlaneNodePort
)
Fügen Sie diese Zuordnung für alle Knoten im Administratorcluster hinzu, sowohl für den Knoten der Steuerungsebene als auch für die Add-on-Knoten.
Traffic zu Diensten in den Add-on-Knoten
1.15 und niedriger: Im Folgenden sehen Sie die Zuordnung zu den IP-Adressen und NodePort-Werten für Dienste, die in Add-on-Knoten ausgeführt werden:
- (
addonsVIP
:8443) -> (NODE_IP_ADDRESSES:addonsNodePort
)
Fügen Sie diese Zuordnung für alle Knoten im Administratorcluster hinzu, sowohl für den Knoten der Steuerungsebene als auch für die Add-on-Knoten.
Ab Version 1.16 müssen Sie diese Zuordnung für Add-on-Knoten für Administratorcluster ohne Hochverfügbarkeit nicht konfigurieren.
CP V2-Nutzercluster
Traffic der Steuerungsebene
Welche Zuordnung Sie konfigurieren müssen, hängt davon ab, ob Sie beim Erstellen des Nutzerclusters erweiterte Cluster aktivieren.
Wenn erweiterte Cluster nicht aktiviert sind: Google Distributed Cloud führt automatisch das Load Balancing des Traffics der Steuerungsebene für Nutzercluster aus. Sie müssen zwar keine Zuordnung im Load Balancer konfigurieren, aber Sie müssen im Feld
loadBalancer.vips.controlPlaneVIP
eine IP-Adresse angeben.Wenn erweiterte Cluster aktiviert sind, müssen Sie Ihren Load Balancer so konfigurieren:
Geben Sie im Feld
loadBalancer.vips.controlPlaneVIP
eine IP-Adresse an.Konfigurieren Sie die folgende Zuordnung:
- (
controlPlaneVIP
:443
) -> (CONTROL_PLANE_NODE_IP_ADDRESSES:6433
)
- (
Prüfen Sie, ob die Back-End-Systemdiagnose richtig konfiguriert ist. Die Systemdiagnose muss HTTPS verwenden und den
/readyz
-Endpunkt auf Port6443
prüfen. Die Systemdiagnose muss überprüfen, ob dieser Endpunkt den Statuscode200
zurückgibt, um den Knoten als fehlerfrei zu betrachten.
Traffic auf Datenebene
Welche Zuordnung Sie konfigurieren müssen, hängt davon ab, ob Sie beim Erstellen des Nutzerclusters erweiterte Cluster aktivieren.
Wenn erweiterte Cluster nicht aktiviert sind, führen Sie die folgenden Schritte aus, bevor der Cluster erstellt wird:
Konfigurieren Sie in der Konfigurationsdatei für Nutzercluster
loadBalancer.vips.ingressVIP
,loadBalancer.manualLB.ingressHTTPNodePort
undloadBalancer.manualLB.ingressHTTPSNodePort
.Konfigurieren Sie in Ihrem Load Balancer die IP‑Adressenzuordnungen für jeden Ingress-NodePort:
- (
ingressVIP
:80
) -> (NODE_IP_ADDRESSES:ingressHTTPNodePort
) - (
ingressVIP
:443
) -> (NODE_IP_ADDRESSES:ingressHTTPSNodePort
)
- (
Wenn erweiterte Cluster aktiviert sind, gehen Sie so vor:
Konfigurieren Sie
loadBalancer.vips.ingressVIP
in der Konfigurationsdatei des Nutzerclusters, bevor der Cluster erstellt wird. Sie müssen keine Werte für jeden Ingress-NodePort konfigurieren, da sie keine Auswirkungen haben, wenn erweiterte Cluster aktiviert sind.Rufen Sie nach dem Erstellen des Clusters die Werte für jeden Ingress-NodePort ab:
kubectl --kubeconfig USER_CLUSTER_KUBECONFIG -n gke-system get service istio-ingress -oyaml
Suchen Sie in der Dienstspezifikation im Abschnitt „Ports“ nach „HTTP“ und „HTTPS“ und notieren Sie sich die NodePort-Werte.
Konfigurieren Sie in Ihrem Load Balancer die IP‑Adressenzuordnungen für jeden Ingress-NodePort:
- (
ingressVIP
:80
) -> (NODE_IP_ADDRESSES:ingressHTTPNodePort
) - (
ingressVIP
:443
) -> (NODE_IP_ADDRESSES:ingressHTTPSNodePort
)
- (
Fügen Sie in beiden Fällen diese Zuordnungen für alle Knoten der Steuerungsebene und Worker-Knoten im Nutzercluster hinzu. Da Sie NodePorts für den Cluster konfiguriert haben, öffnet Kubernetes die NodePorts auf allen Clusterknoten. Bei dieser Konfiguration kann jeder Knoten im Cluster den Traffic auf der Datenebene verarbeiten.
Nachdem Sie die Zuordnungen konfiguriert haben, überwacht der Load Balancer den Traffic an der IP-Adresse, die Sie für die Eingangs-VIP des Nutzerclusters auf den Standard-HTTP- und HTTPS-Ports konfiguriert haben. Der Load Balancer leitet Anfragen an einen beliebigen Knoten im Cluster weiter. Nachdem eine Anfrage an einen der Clusterknoten weitergeleitet wurde, übernimmt das interne Kubernetes-Netzwerk und leitet die Anfrage an den Ziel-Pod weiter.
Kubeception-Nutzercluster
Traffic der Steuerungsebene
Im Folgenden sehen Sie die Zuordnung zu den IP-Adressen und NodePort-Werten für den Traffic der Steuerungsebene:
- (
controlPlaneVIP
:443
) -> (NODE_IP_ADDRESSES:controlPlaneNodePort
) - (
controlPlaneVIP
:8132
) -> (NODE_IP_ADDRESSES:konnectivityServerNodePort
)
Fügen Sie diese Zuordnung für alle Knoten im Administrator hinzu, also sowohl für den Administratorcluster als auch für die Knoten der Steuerungsebene des Nutzerclusters.
Traffic auf Datenebene
Im Folgenden wird die Zuordnung zu den IP-Adressen und NodePort-Werten für den Traffic der Datenebene dargestellt:
- (
ingressVIP
:80
) -> (NODE_IP_ADDRESSES:ingressHTTPNodePort
) - (
ingressVIP
:443
) -> (NODE_IP_ADDRESSES:ingressHTTPSNodePort
)
Fügen Sie diese Zuordnungen für alle Knoten im Nutzercluster hinzu. Bei Nutzerclustern mit kubeception sind alle Knoten im Cluster Worker-Knoten.
Verbindungen zu fehlerhaften Knoten zurücksetzen (empfohlen)
Zusätzlich zu den oben genannten Anforderungen empfehlen wir Ihnen, den Load-Balancer so zu konfigurieren, dass Clientverbindungen zurückgesetzt werden, wenn ein Backend-Knotenfehler auftritt. Ohne diese Konfiguration können Clients des Kubernetes API-Servers nicht mehr auf mehrere Minuten reagieren, wenn eine Serverinstanz ausfällt. Dies kann zu einer Instabilität auf der Kubernetes-Steuerungsebene führen.
- Bei F5 BIG-IP wird diese Einstellung auf der Konfigurationsseite des Backend-Pools "Action On Service Down" genannt.
- Bei HAProxy wird diese Einstellung in der Backend-Serverkonfiguration mit "Mark-down"-Shutdown-Sitzungen bezeichnet.
- Wenn Sie einen anderen Load-Balancer verwenden, finden Sie in der Dokumentation die entsprechende Einstellung.
Support für das manuelle Load Balancing erhalten
Google bietet keinen Support für Load-Balancer, die mit dem manuellen Load-Balancing-Modus konfiguriert wurden. Wenn Probleme mit dem Load-Balancer auftreten, wenden Sie sich an den Anbieter des Load-Balancers.