이 페이지에서는 베어메탈용 GKE의 번들 부하 분산을 구성하는 방법을 설명합니다. 베어메탈용 GKE는 워커 노드의 전용 풀 또는 제어 영역과 동일한 노드에서 실행되는 레이어 4 부하 분산기를 배포합니다.
베어메탈용 GKE에서 사용할 수 있는 부하 분산 토폴로지의 예시는 부하 분산기 개요를 참조하세요.
요구사항
- 모든 부하 분산기 노드는 동일한 레이어 2 서브넷에 있어야 합니다.
- 모든 VIP는 부하 분산기 노드 서브넷에 있어야 하며 서브넷의 게이트웨이를 통해 라우팅할 수 있어야 합니다.
- 부하 분산기 서브넷의 게이트웨이는 Gratuitous ARP 메시지를 리슨하고 ARP 패킷을 부하 분산기 노드로 전달해야 합니다.
구성 필드
번들 부하 분산을 구성하려면 클러스터 구성 파일의 cluster.spec.loadBalancer
섹션을 수정합니다. 클러스터 구성 파일 및 올바른 구성의 예시에 대한 자세한 내용은 다음 페이지 중 하나를 참조하세요.
loadBalancer.mode
번들 부하 분산을 사용 설정하려면 이 값이 bundled
여야 합니다.
loadBalancer.ports.controlPlaneLBPort
이 값은 Kubernetes 제어 영역(Kubernetes API 서버)에 전송되는 트래픽에 사용할 대상 포트를 지정합니다.
loadBalancer.vips.controlPlaneVIP
이 값은 Kubernetes 제어 영역(Kubernetes API 서버)에 전송되는 트래픽에 사용할 대상 IP 주소를 지정합니다. 이 IP 주소는 클러스터의 노드와 동일한 Layer 2 서브넷에 있어야 합니다. 구성 파일의 address pools
섹션에 이 주소를 나열하지 마세요.
loadBalancer.vips.ingressVIP
이 값은 인그레스 트래픽의 부하 분산기를 기반으로 하는 서비스에 사용되는 IP 주소를 지정합니다. 이 필드는 관리자 클러스터 구성 파일에서 허용되지 않습니다. 이 주소는 구성의 주소 풀 섹션에 나열되어야 합니다.
loadBalancer.addressPools
이 구성 섹션에는 하나 이상의 주소 풀이 포함되어 있습니다. 각 주소 풀은 IP 주소 범위 목록을 지정합니다. LoadBalancer
유형의 서비스를 만들면 서비스의 외부 IP 주소가 이 범위에서 선택됩니다. 주소 풀은 다음 형식으로 지정됩니다.
- name: pool-name
avoidBuggyIPs: boolean
manualAssign: boolean
addresses:
- ip-range
- ip-range
- name: 조직의 자체적인 용도를 위한 주소 풀 pool-name입니다.
- avoidBuggyIPs:(선택사항)
true
또는false
true
이면 풀은.0
과.255
로 끝나는 IP 주소를 생략합니다. 일부 네트워크 하드웨어는 이 특수 주소에 대한 트래픽을 삭제합니다. 이 필드를 생략할 수 있으며 기본값은false
입니다. - manualAssign: (선택사항)
true
또는false
.true
이면 이 풀의 주소가 Kubernetes 서비스에 자동으로 할당되지 않습니다.true
이면 이 풀의 IP 주소는 서비스에서 명시적으로 지정된 경우에만 사용됩니다. 이 필드를 생략할 수 있으며 기본값은false
입니다. - addresses 1개 이상의 겹치지 않는 IP 주소 범위 목록입니다.
CIDR 표기법(예:
198.51.100.0/24
) 또는 범위 표기법(예: 대시 앞뒤로 공백 없이198.51.100.0-198.51.100.10
)을 사용하여 ip-range를 지정할 수 있습니다
addresses
목록의 IP 주소 범위는 겹치면 안 되며 부하 분산기를 실행하는 노드와 동일한 서브넷에 있어야 합니다.
loadBalancer.nodePoolSpec
구성의 이 섹션에서는 부하 분산기를 실행할 노드 목록을 지정합니다. 부하 분산기 노드는 기본적으로 일반 워크로드를 실행할 수 있습니다. 이러한 노드에는 특별한 taint가 없습니다. 아래 예시는 노드 두 개가 있는 노드 풀을 보여줍니다. 첫 번째 노드인 1.2.3.4
는 k8sIP
필드를 사용하여 클러스터에 있는 노드의 IP 주소를 지정합니다. 1.2.3.4
주소는 SSH 액세스에만 사용됩니다.
nodePoolSpec:
nodes:
- address: 1.2.3.4
k8sIP: 10.0.0.32
- address: 10.0.0.33
부하 분산기 노드 풀의 모든 노드는 구성 파일의 loadBalancer.addressPools
섹션에 구성된 부하 분산기 VIP와 동일한 레이어 2 서브넷에 있어야 합니다.
노드에 k8sIP
가 설정되어 있으면 해당 주소만 다른 부하 분산기 VIP와 동일한 레이어 2 서브넷에 있어야 합니다.
nodePoolSpec
이 설정되지 않으면 번들 부하 분산기는 제어 영역 노드에서 실행됩니다. 가능하면 별도의 노드 풀에서 부하 분산기를 실행하는 것이 좋습니다.
제어 영역 부하 분산
제어 영역 부하 분산기는 제어 영역 가상 IP 주소(VIP)를 제공합니다. 베어메탈용 GKE는 부하 분산기 노드에서 Keepalived 및 HAProxy를 Kubernetes 정적 포드로 실행하여 제어 영역 VIP를 알립니다. Keepalived는 고가용성을 위해 부하 분산기 노드에서 가상 라우터 중복 프로토콜(VRRP)을 사용합니다.
데이터 영역 부하 분산
데이터 영역 부하 분산기는 LoadBalancer
유형의 모든 Kubernetes 서비스에 사용됩니다.
베어메탈용 GKE는 데이터 영역 부하 분산에 Layer 2 모드에서 실행되는 MetalLB를 사용합니다. 데이터 영역 부하 분산은 베어메탈용 GKE를 통해서만 구성할 수 있으며 MetalLB의 ConfigMap을 직접 수정하지 마세요. 서비스 간 IP 주소 공유를 포함한 모든 MetalLB 기능을 사용할 수 있습니다.
기능 정보는 MetalLB 문서를 참조하세요.
MetalLB는 고가용성을 위해 memberlist를 사용하여 데몬셋을 사용하여 각 노드에서 스피커 포드를 실행합니다. 전체 클러스터용 하나가 아닌 각 Kubernetes 서비스마다 MetalLB 전용 부하 분산기 노드가 있습니다. 이렇게 하면 서비스가 여러 개 있는 경우 부하 분산기 노드에 트래픽이 분산됩니다.
데이터 영역 부하 분산기는 제어 영역 노드 또는 워커 노드의 하위 집합에서 실행될 수 있습니다. 제어 영역 노드의 데이터 영역 부하 분산기를 번들로 묶으면 제어 영역 노드의 사용률이 증가합니다. 그러나 제어 영역 과부하가 발생할 위험이 증가하고 제어 영역에서 SSH 키와 같은 기밀 정보의 위험 프로필이 증가합니다.
클라이언트 소스 IP 주소 유지
번들 Layer 2 부하 분산 솔루션으로 만든 LoadBalancer
서비스는 외부 트래픽 정책에 대한 기본 Cluster
설정을 사용합니다.
spec.externalTrafficPolicy: Cluster
설정은 클러스터 차원의 엔드포인트로 외부 트래픽을 라우팅하지만 클라이언트 소스 IP 주소도 가립니다.
다음 섹션에서는 클라이언트 소스 IP 주소를 보존하도록 클러스터를 구성하는 방법을 설명합니다.
서비스 NodePort
개
Kubernetes는 NodePort
서비스에 대해 소스 네트워크 주소 변환(NAT)을 수행합니다. 클라이언트 소스 IP 주소를 유지하려면 service.spec.externalTrafficPolicy
를 Local
로 설정합니다. Kubernetes가 더 이상 소스 NAT를 수행하지 않지만 선택한 노드 IP에서 정확하게 실행되는 포드가 있는지 확인해야 합니다.
서비스 LoadBalancer
개
LoadBalancer
서비스에서 externalTrafficPolicy: Local
을 사용하는 경우 부하 분산기 노드에서 정확하게 실행되도록 애플리케이션 포드를 설정합니다. 이를 변경하려면 애플리케이션 포드에 다음 nodeSelector
를 추가합니다.
apiVersion: v1
kind: Pod
...
spec:
nodeSelector:
baremetal.cluster.gke.io/lbnode: "true"
...
인그레스
애플리케이션이 HTTP 서비스인 경우 인그레스 구성요소를 설정하여 클라이언트 IP를 공개 상태로 만들 수 있습니다.
수정할
istio-ingress
서비스를 엽니다.kubectl edit service -n gke-system istio-ingress
externalTrafficPolicy: Local
을spec
에 추가하고 편집기를 저장한 후 종료합니다.apiVersion: v1 kind: Service ... spec: ... externalTrafficPolicy: Local
수정할
istio-ingress
배포를 엽니다.kubectl edit deployment -n gke-system istio-ingress
배포에 다음
nodeSelector
를 추가하고 저장한 후 편집기를 종료합니다.apiVersion: apps/v1 kind: Deployment ... spec: ... template: ... spec: ... nodeSelector: baremetal.cluster.gke.io/lbnode: "true" ...
이제 다음 예시와 같이 인그레스를 기반으로 하는 모든 서비스에 클라이언트 IP가 있는 X-Forwarded-For
헤더가 표시됩니다.
X-Forwarded-For: 21.0.104.4