本页面介绍如何为 Anthos clusters on Bare Metal 配置捆绑式负载均衡。Anthos clusters on Bare Metal 部署了 L4 负载均衡器,这些负载均衡器在专用的工作程序节点池或控制平面的节点上运行。
请参阅负载均衡器概览,查看 Anthos clusters on Bare Metal 中可用的负载均衡拓扑。
配置捆绑式负载平衡
要求
- 所有负载均衡器节点都必须位于同一 L2 子网中。
- 所有 VIP 都必须位于负载均衡器的节点子网中,并且可通过子网的网关路由。
- 负载均衡器子网的网关必须侦听免费 ARP 消息,并将 ARP 数据包转发到负载均衡器节点。
配置字段
修改集群配置文件的 cluster.spec.loadBalancer
部分以配置捆绑式负载均衡。如需了解集群配置文件和有效配置的示例,请参阅以下某个页面:
loadBalancer.mode
此值必须为 bundled
才能启用捆绑式负载均衡。
loadBalancer.ports.controlPlaneLBPort
此值指定发送到 Kubernetes 控制平面(Kubernetes API 服务器)的流量要使用的目标端口。
loadBalancer.vips.controlPlaneVIP
此值指定发送到 Kubernetes 控制平面(Kubernetes API 服务器)的流量要使用的目标 IP 地址。此 IP 地址必须与运行负载均衡器的节点位于同一 L2 子网。请勿在配置文件的 [address pools](#address-pools)
部分中列出此地址。
loadBalancer.vips.ingressVIP
此值指定要用于在负载均衡器后用于入站流量的 Service 的 IP 地址。管理员集群配置文件中不允许使用此字段。此地址必须列在配置的地址池部分中。
loadBalancer.addressPools
配置的此部分包含一个或多个按以下格式指定的地址池:
- name: pool-name
avoidBuggyIPs: boolean
manualAssign: boolean
addresses:
- ip-range
- ip-range
- name:地址池的名称 pool-name,以便您进行整理。
- avoidBuggIPs:(可选)
true
或false
。如果为true
,则池会忽略以.0
和.255
结尾的 IP 地址。某些网络硬件会丢弃流向这些特殊地址的流量。您可以省略此字段,其默认值为false
。 - manualAssign:(可选)。
true
或false
。 如果为true
,则此池中的地址不会自动分配给 Kubernetes Service。如果为true
,则只有在服务明确指定时,此池中的 IP 地址才会被使用。您可以省略此字段,其默认值为 false。 - addresses:包含一个或多个不重叠的 IP 地址范围的列表。可以用 CIDR 表示法(如
198.51.100.0/24
)或范围表示法(如198.51.100.0-198.51.100.10
,短划线前后没有空格)指定 ip-range。
addresses
列表中的 IP 地址范围不得重叠,并且必须与运行负载均衡器的节点位于同一子网中。
loadBalancer.nodePoolSpec
配置的这一部分指定要运行负载均衡器的节点列表。默认情况下,负载均衡器节点可以运行常规工作负载;这些节点上没有特殊的污点。以下示例展示了包含两个节点的节点池。第一个节点 1.2.3.4
使用 k8sIP
字段指定节点在集群中的 IP 地址。1.2.3.4
地址仅用于 SSH 访问。
nodePoolSpec:
nodes:
- address: 1.2.3.4
k8sIP: 10.0.0.32
- address: 10.0.0.33
负载均衡器节点池中的所有节点必须与在配置文件的 loadBalancer.addressPools
部分中配置的负载均衡器 VIP 位于同一 L2 子网中。如果某个节点配置了 k8sIP
,则只有该地址需要与其他负载均衡器 VIP 位于同一 L2 子网。
如果未设置 nodePoolSpec
,捆绑式负载均衡器会在控制平面节点上运行。如果可能,建议您在不同的节点池中运行负载均衡器。
控制平面负载均衡
控制层面负载均衡器提供控制层面虚拟 IP 地址 (VIP)。Anthos clusters on Bare Metal 将 Docker 容器中的 keepdlived 和 HAProxy 作为负载平衡器节点上的 systemd 服务运行,以公布控制层面 VIP。keepalived 在负载均衡器节点上使用虚拟路由器冗余协议 (VRRP) 以实现高可用性。
使用以下命令访问负载平衡器节点上的 keepalived 和 HAProxy 日志:
journalctl -u docker.keepalived.service
journalctl -u docker.haproxy.service
数据平面负载均衡
数据平面负载均衡器用于类型为 LoadBalancer
的所有 Kubernetes Service。Anthos clusters on Bare Metal 使用在 L2 模式下运行的 MetalLB 进行数据平面负载均衡。数据平面负载均衡只能通过 Anthos clusters on Bare Metal 进行配置,请勿直接修改 MetaLB 的 ConfigMap。您可以使用所有 MetalBL 功能,包括跨 Service 共享 IP 地址。如需了解功能信息,请参阅 MetalLB 文档。
MetalBL 使用 daemonset 在每个节点上运行一个 speaker pod,通过 memberlist 实现高可用性。每个 Kubernetes Service 都有一个 MetalLB 专用负载均衡器节点,而不是整个集群一个。这样一来,如果存在多个 Service,流量会在负载均衡器节点之间分配。
数据平面负载均衡器可以在控制平面节点或一组工作器节点上运行。将数据平面负载均衡器捆绑到控制平面节点可提高控制平面节点的利用率。但捆绑到控制平面节点也会增加控制平面的过载风险并增加控制平面上的机密信息(如 SSH 密钥)的风险。
保留客户端来源 IP 地址
使用捆绑式第 2 层负载均衡解决方案创建的 LoadBalancer
Service 使用外部流量政策的默认 Cluster
设置。spec.externalTrafficPolicy: Cluster
设置会将外部流量路由到集群范围的端点,但也会遮掩客户端来源 IP 地址。
以下部分介绍了如何配置集群以保留客户端来源 IP 地址。
NodePort
项服务
Kubernetes 会为 NodePort
Service 执行来源网络地址转换 (NAT)。如需保留客户端来源 IP 地址,请将 service.spec.externalTrafficPolicy
设置为 Local
。Kubernetes 不会再执行来源 NAT,但您必须确保有 Pod 正在您选择的节点 IP 地址上运行。
LoadBalancer
Service
在 LoadBalancer
Service 中使用 externalTrafficPolicy: Local
时,请将应用 pod 设置为在负载均衡器节点上运行。将以下 nodeSelector
添加到您的应用 Pod 以进行此更改:
apiVersion: v1
kind: Pod
...
spec:
nodeSelector:
baremetal.cluster.gke.io/lbnode: "true"
...
入站
如果您的应用是 HTTP 服务,您可以通过配置入站流量组件来实现客户端 IP 地址可见性:
打开
istio-ingress
Service 进行修改:kubectl edit service -n gke-system istio-ingress
将
externalTrafficPolicy: Local
添加到spec
,然后保存并退出编辑器。apiVersion: v1 kind: Service ... spec: ... externalTrafficPolicy: Local
打开
istio-ingress
Deployment 进行修改:kubectl edit deployment -n gke-system istio-ingress
将以下
nodeSelector
添加到 Deployment,然后保存并退出编辑器。apiVersion: apps/v1 kind: Deployment ... spec: ... template: ... spec: ... nodeSelector: baremetal.cluster.gke.io/lbnode: "true" ...
现在,Ingress 后面的所有服务都会看到具有客户端 IP 地址的 X-Forwarded-For
标头,如以下示例所示:
X-Forwarded-For: 21.0.104.4