AKS의 멀티 리전 배포

이 주제에서는 Microsoft® Azure Kubernetes Service(AKS)에서 Apigee Hybrid의 멀티 리전 배포를 설정하는 방법을 설명합니다.

멀티 리전 배포를 위한 토폴로지는 다음과 같습니다.

  • 활성-활성: 애플리케이션이 여러 지리적 위치에 배포되고 배포에 대한 지연 시간이 짧은 API 응답이 필요한 경우. 클라이언트와 가장 가까운 여러 지리적 위치에 하이브리드를 배포할 수 있는 옵션이 있습니다. 예를 들면 미국 서부 해안, 미국 동부 해안, 유럽, APAC이 있습니다.
  • 활성-수동: 기본 리전과 장애 조치 또는 재해 복구 리전이 있는 경우.

다음 이미지와 같이 멀티 리전 하이브리드 배포의 리전은 Cassandra를 통해 통신합니다.

기본 요건

여러 지역에 하이브리드를 구성하기 전에 다음 기본 요건을 만족해야 합니다.

  • 클러스터 설정 단계로 이동하기 전에 Google Cloud 및 조직 구성과 같은 기본 요건을 충족을 위해 하이브리드 설치 가이드를 따르세요.
  • Cassandra 멀티 리전 요구사항:
    • 포드 네트워크 네임스페이스에 방화벽, VPN, VPC 피어링, vNet 피어링을 비롯한 리전 간 연결이 있는지 확인합니다.
    • 포드 네트워크 네임스페이스에 서로 다른 클러스터(대부분의 AKS 설치에서와 같이 '섬(Island) 네트워크 모드'로 실행되는 클러스터)의 포드 간 연결이 없으면 Apigee Hybrid 멀티 리전 설치에서 모든 리전에 대한 재정의 파일에 cassandra.hostNetwork: true를 설정하여 Kubernetes hostNetwork 기능을 사용 설정합니다.

      Kubernetes hostNetwork 기능에 대한 자세한 내용은 Kubernetes 문서에서 호스트 네임스페이스를 참조하세요.

    • 멀티 리전 구성을 새 리전으로 확장하기 전 기존 클러스터에서 hostNetwork를 사용 설정합니다.
    • hostNetwork가 사용 설정되었으면 워커 노드가 역방향 DNS 조회를 수행할 수 있는지 확인합니다. Apigee cassandra는 정방향 및 역방향 DNS 조회를 모두 사용해서 시작 중 호스트 IP를 획득합니다.
    • 모든 리전의 Kubernetes 클러스터 간에 Cassandra 포트 7000 및 7001을 열어 리전 및 데이터 센터 간의 워커 노드가 통신하도록 사용 설정합니다. 포트 구성을 참조하세요.

자세한 내용은 Kubernetes 문서를 참조하세요.

각 리전에 가상 네트워크 만들기

Azure 권장사항에 따라 여기에서 리전 간 통신을 설정합니다. VNet-to-VNet: Azure에서 여러 리전 간 가상 네트워크 연결.

다중 리전 클러스터 만들기

여러 가지 CIDR 블록을 사용하여 여러 리전에 Kubernetes 클러스터를 설정합니다. 1단계: 클러스터 만들기도 참조하세요. 앞에서 만든 위치 및 가상 네트워크 이름을 사용합니다.

모든 리전의 Kubernetes 클러스터 간에 Cassandra 포트 7000과 7001을 엽니다(7000은 문제 해결 중에 백업 옵션으로 사용할 수 있음).

멀티 리전 시드 호스트 구성

이 섹션에서는 기존 Cassandra 클러스터를 새 리전으로 확장하는 방법을 설명합니다. 이 설정을 사용하면 새 리전에서 클러스터를 부트스트랩하고 기존 데이터 센터에 연결할 수 있습니다. 이 구성이 없으면 멀티 리전 Kubernetes 클러스터가 서로를 알지 못합니다.

  1. kubectl 컨텍스트를 원래 클러스터로 설정한 후에 시드 이름을 검색합니다.
    kubectl config use-context original-cluster-name
  2. 다음 kubectl 명령어를 실행하여 현재 리전의 Cassandra의 시드 호스트 주소를 식별합니다.

    시드 호스트 주소를 사용하면 새 리전 인스턴스가 첫 번째 시작할 때 원래의 클러스터를 찾아 클러스터의 토폴로지를 학습할 수 있습니다. 시드 호스트 주소는 클러스터의 연락 지점으로 지정됩니다.

    kubectl get pods -o wide -n apigee | grep apigee-cassandra
    
    apigee-cassandra-default-0  1/1   Running   0   4d17h   120.38.1.9  aks-agentpool-21207753-vmss000000
    
  3. 이전 명령어에서 반환된 IP 중 멀티 리전 시드 호스트가 될 IP를 결정합니다. 단일 노드 Cassandra 클러스터만 실행 중인 이 예시의 경우 시드 호스트는 120.38.1.9입니다.
  4. 데이터 센터 2에서 클러스터 이름이 포함된 새 파일에 재정의 파일을 복사합니다. overrides_your_cluster_name.yaml).
  5. 데이터 센터 2에서 overrides_your_cluster_name.yamlcassandra.multiRegionSeedHostcassandra.datacenter를 구성합니다. 여기서 multiRegionSeedHost는 이전 명령어에서 반환한 IP 중 하나입니다.
    cassandra:
      multiRegionSeedHost: seed_host_IP
      datacenter: data_center_name
      rack: rack_name

    예를 들면 다음과 같습니다.

    cassandra:
      multiRegionSeedHost: 120.38.1.9
      datacenter: "centralus"
      rack: "ra-1"
  6. 새 데이터 센터/리전에서 하이브리드를 설치하기 전에 첫 번째 리전에서 설정한 것과 동일하게 TLS 인증서 및 사용자 인증 정보를 overrides_your_cluster_name.yaml에 설정합니다.

새 리전 설정

시드 호스트를 구성한 후에 새 리전을 설정할 수 있습니다.

새 리전을 설정 절차:

  1. 기존 클러스터에서 새 클러스터로 인증서를 복사합니다. 새 CA 루트는 Cassandra 및 mTLS용 기타 하이브리드 구성요소에서 사용됩니다. 따라서 클러스터 간에 일관된 인증서가 있어야 합니다.
    1. 컨텍스트를 원래 네임스페이스로 설정합니다.
      kubectl config use-context original-cluster-name
    2. 현재의 네임스페이스 구성을 파일로 내보냅니다.
      $ kubectl get namespace namespace -o yaml > apigee-namespace.yaml
    3. apigee-ca 보안 비밀을 파일로 내보냅니다.
      kubectl -n cert-manager get secret apigee-ca -o yaml > apigee-ca.yaml
    4. 컨텍스트를 새 리전의 클러스터 이름으로 설정합니다.
      kubectl config use-context new-cluster-name
    5. 네임스페이스 구성을 새 클러스터로 가져옵니다. 새 리전에서 다른 네임스페이스를 사용하는 경우 파일의 '네임스페이스'를 업데이트해야 합니다.
      kubectl apply -f apigee-namespace.yaml
    6. 보안 비밀을 새 클러스터로 가져옵니다.

      kubectl -n cert-manager apply -f apigee-ca.yaml
  2. 새 리전에 하이브리드를 설치합니다. 이전 섹션에 설명된 대로 overrides_your_cluster_name.yaml 파일에 첫 번째 리전에서 구성된 동일한 TLS 인증서가 포함되어 있는지 확인합니다.

    다음 두 명령어를 실행하여 새 리전에 하이브리드를 설치합니다.

    apigeectl init -f overrides_your_cluster_name.yaml
    apigeectl apply -f overrides_your_cluster_name.yaml
  3. 새 데이터 센터의 모든 노드에서 nodetool rebuild를 순차적으로 실행합니다. 데이터 크기에 따라 몇 분에서 몇 시간 정도 걸릴 수 있습니다.
    kubectl exec apigee-cassandra-default-0 -n apigee  -- nodetool -u JMX_user -pw JMX_password rebuild -- dc-1

    여기서 JMX_userJMX_password는 Cassandra JMX 사용자의 사용자 이름과 비밀번호입니다.

  4. 로그에서 재빌드 프로세스를 확인합니다. 또한 nodetool status 명령어를 사용하여 데이터 크기를 확인합니다.
    kubectl logs apigee-cassandra-default-0 -f -n apigee
    kubectl exec apigee-cassandra-default-0 -n apigee  -- nodetool -u JMX_user -pw JMX_password status

    다음 예시는 로그 항목의 예시를 보여줍니다.

    INFO  01:42:24 rebuild from dc: dc-1, (All keyspaces), (All tokens)
    INFO  01:42:24 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Executing streaming plan for Rebuild
    INFO  01:42:24 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Starting streaming to /10.12.1.45
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889, ID#0] Beginning stream session with /10.12.1.45
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Starting streaming to /10.12.4.36
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889 ID#0] Prepare completed. Receiving 1 files(0.432KiB), sending 0 files(0.000KiB)
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Session with /10.12.1.45 is complete
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889, ID#0] Beginning stream session with /10.12.4.36
    INFO  01:42:25 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Starting streaming to /10.12.5.22
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889 ID#0] Prepare completed. Receiving 1 files(0.693KiB), sending 0 files(0.000KiB)
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Session with /10.12.4.36 is complete
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889, ID#0] Beginning stream session with /10.12.5.22
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889 ID#0] Prepare completed. Receiving 3 files(0.720KiB), sending 0 files(0.000KiB)
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] Session with /10.12.5.22 is complete
    INFO  01:42:26 [Stream #3a04e810-580d-11e9-a5aa-67071bf82889] All sessions completed
  5. 시드 호스트를 업데이트합니다. overrides-DC_name.yaml에서 multiRegionSeedHost: 10.0.0.11을 삭제하고 다시 적용합니다.
    apigeectl apply -f overrides-DC_name.yaml