학습 과정: 확장 가능한 애플리케이션 - 장애 시뮬레이션


이 튜토리얼 모음은 Google Kubernetes Engine(GKE) Enterprise 버전에서 실행되는 최신 애플리케이션 환경을 배포, 실행, 관리하려는 IT 관리자와 운영자를 대상으로 합니다. 이 튜토리얼 모음을 진행하면서 Cymbal Bank 샘플 마이크로서비스 애플리케이션을 사용하여 모니터링 및 알림을 구성하고, 워크로드를 확장하며, 장애를 시뮬레이션하는 방법을 알아봅니다.

  1. 클러스터 만들기 및 샘플 애플리케이션 배포
  2. Google Cloud Managed Service for Prometheus로 모니터링
  3. 워크로드 확장
  4. 장애 시뮬레이션(이 튜토리얼)
  5. 중앙 집중식 변경 관리

개요 및 목표

애플리케이션이 중단 및 장애를 허용할 수 있어야 합니다. 이 기능을 사용하면 문제가 발생하더라도 사용자가 애플리케이션에 계속 액세스할 수 있습니다. Cymbal Bank 샘플 애플리케이션은 문제 해결 및 수정 없이도 장애를 처리하고 계속 실행할 수 있도록 설계되었습니다. 이러한 복원력을 제공하기 위해 GKE 리전 클러스터는 컴퓨팅 노드를 영역 간에 분산하고 Kubernetes 컨트롤러는 클러스터 내의 서비스 문제에 자동으로 응답합니다.

이 튜토리얼에서는 Google Cloud에서 장애를 시뮬레이션하는 방법과 Google Kubernetes Engine(GKE) Enterprise 버전 클러스터의 애플리케이션 서비스가 응답하는 방식을 알아봅니다. 다음 태스크를 완료하는 방법을 알아봅니다.

  • 노드 및 서비스 배포를 검토합니다.
  • 노드 또는 영역 장애를 시뮬레이션합니다.
  • 서비스가 나머지 노드에서 계속 실행되는지 확인합니다.

비용

이 튜토리얼 시리즈에서 GKE Enterprise를 사용 설정하고 Cymbal Bank 샘플 애플리케이션을 배포하면 GKE Enterprise를 중지하거나 프로젝트를 삭제할 때까지 가격 책정 페이지에 나열된 대로 Google Cloud에서 GKE Enterprise 요금이 클러스터별로 청구합니다.

Compute Engine VM과 같이 Cymbal Bank 샘플 애플리케이션을 실행하는 동안 발생하는 기타 Google Cloud 비용도 사용자가 부담합니다.

시작하기 전에

장애를 시뮬레이션하는 방법을 알아보려면 첫 번째 튜토리얼을 완료하여 Autopilot을 사용하는 GKE 클러스터를 만들고 Cymbal Bank 샘플 마이크로서비스 기반 애플리케이션을 배포해야 합니다.

Cymbal Bank에 대한 이 튜토리얼 모음을 순서대로 완료하는 것이 좋습니다. 튜토리얼 모음을 진행하면서 새로운 기술을 배우고 추가적인 Google Cloud 제품 및 서비스를 사용하게 됩니다.

노드 및 서비스 배포 검토

Google Cloud에서 리전은 리소스를 호스팅할 수 있는 특정 지리적 위치입니다. 리전은 3개 이상의 영역을 포함합니다. 예를 들어 us-central1 리전은 us-central1-a, us-central1-b, us-central1-c와 같이 여러 영역이 있는 미국 중서부 지역의 리전을 나타냅니다. 영역에서 같은 리전의 다른 영역으로 지연 시간이 짧은 고대역폭 네트워크로 연결합니다.

고가용성을 제공하는 내결함성 애플리케이션을 배포하기 위해 Google은 다중 영역 및 다중 리전에 애플리케이션을 배포할 것을 권장합니다. 이렇게 하면 영역이나 리전을 포함하는 경우에도 예기치 않은 구성 요소 장애를 방지하는 데 도움이 됩니다.

첫 번째 튜토리얼에서 GKE Enterprise 클러스터를 만들 때 몇 가지 기본 구성 값이 사용되었습니다. 기본적으로 Autopilot을 사용하는 GKE Enterprise 클러스터는 지정된 리전의 영역에 걸쳐 있는 노드를 만들고 실행합니다. 이 접근 방식에서는 Cymbal Bank 샘플 애플리케이션이 여러 영역에 이미 배포되어 있으므로 예상치 못한 장애로부터 보호하는 데 도움이 됩니다.

  1. GKE Enterprise 클러스터에서 노드 배포를 확인합니다.

    kubectl get nodes -o=custom-columns='NAME:.metadata.name,ZONE:.metadata.labels.topology\.kubernetes\.io/zone,INT_IP:.status.addresses[0].address'
    

    결과는 노드가 리전의 3개 영역 모두에 분산되었음을 보여주는 다음 예시 출력과 비슷합니다.

    NAME                         ZONE            INT_IP
    scalable-apps-pool-2-node5   us-central1-c   10.148.0.6
    scalable-apps-pool-2-node6   us-central1-c   10.148.0.7
    scalable-apps-pool-2-node2   us-central1-a   10.148.0.8
    scalable-apps-pool-2-node1   us-central1-a   10.148.0.9
    scalable-apps-pool-2-node3   us-central1-b   10.148.0.5
    scalable-apps-pool-2-node4   us-central1-b   10.148.0.4
    
  2. GKE Enterprise 클러스터 노드에서 Cymbal Bank 샘플 애플리케이션 서비스의 배포를 확인합니다.

    kubectl get pods -o wide
    

    다음 출력 예시는 서비스가 클러스터의 노드 간에 분산되는 것을 보여줍니다. 이전 단계에서 노드 배포 방법을 확인하기 위해 이 출력은 서비스가 리전의 영역 간에 실행되는 것을 보여줍니다.

    NAME                                  READY   STATUS    RESTARTS   AGE     IP          NODE
    accounts-db-0                         1/1     Running   0          6m30s   10.28.1.5   scalable-apps-pool-2-node3
    balancereader-7dc7d9ff57-shwg5        1/1     Running   0          6m30s   10.28.5.6   scalable-apps-pool-2-node1
    contacts-7ddc76d94-qv4x5              1/1     Running   0          6m29s   10.28.4.6   scalable-apps-pool-2-node2
    frontend-747b84bff4-xvjxq             1/1     Running   0          6m29s   10.28.3.6   scalable-apps-pool-2-node6
    ledger-db-0                           1/1     Running   0          6m29s   10.28.5.7   scalable-apps-pool-2-node1
    ledgerwriter-f6cc7889d-mttmb          1/1     Running   0          6m29s   10.28.1.6   scalable-apps-pool-2-node3
    loadgenerator-57d4cb57cc-7fvrc        1/1     Running   0          6m29s   10.28.4.7   scalable-apps-pool-2-node2
    transactionhistory-5dd7c7fd77-cmc2w   1/1     Running   0          6m29s   10.28.3.7   scalable-apps-pool-2-node6
    userservice-cd5ddb4bb-zfr2g           1/1     Running   0          6m28s   10.28.5.8   scalable-apps-pool-2-node1
    

중단 시뮬레이션

Google은 전력, 냉각, 네트워킹과 같은 물리적 인프라 장애로 인한 연관성 장애의 위험을 최소화하도록 영역을 설계합니다. 하지만 예기치 않은 문제가 발생할 수 있습니다. 노드나 영역을 사용할 수 없게 되면 다른 노드 또는 같은 리전의 영역에서 서비스가 계속 실행되기를 원할 것입니다.

Kubernetes 컨트롤러는 클러스터의 노드, 서비스, 배포 상태를 모니터링합니다. 예기치 않은 중단이 발생하면 컨트롤러가 영향을 받는 리소스를 다시 시작하고 트래픽이 작업 노드로 라우팅됩니다.

이 튜토리얼의 서비스 중단을 시뮬레이션하려면 영역 중 하나에서 노드를 차단하고 드레이닝합니다. 이 접근 방식은 노드가 실패하거나 전체 영역에 문제가 있을 때 발생하는 결과를 시뮬레이션합니다. Kubernetes 컨트롤러에서는 일부 서비스를 더 이상 사용할 수 없으며 다른 영역의 노드에서 다시 시작해야 함을 인식해야 합니다.

  • 영역 중 하나에서 노드를 차단하고 드레이닝합니다. 다음 예시에서는 us-central1-a의 2개 노드를 타겟팅합니다.

    kubectl drain scalable-apps-pool-2-node1 \
        --delete-emptydir-data --ignore-daemonsets
    
    kubectl drain scalable-apps-pool-2-node2 \
        --delete-emptydir-data --ignore-daemonsets
    

    이 명령어는 포드가 더 이상 이러한 노드에서 실행될 수 없도록 노드를 예약할 수 없는 것으로 표시합니다. Kubernetes는 작동 영역의 다른 노드로 포드를 다시 예약합니다.

시뮬레이션된 오류 응답 확인

이 시리즈의 이전 튜토리얼에서는 일부 서비스를 모니터링하고 문제가 있을 경우 알림을 생성하도록 GKE Enterprise 클러스터에 대해 관리형 Prometheus 인스턴스를 구성하는 방법을 배웠습니다. 서비스 중단을 시뮬레이션한 영역의 노드에서 포드가 실행 중인 경우 Prometheus에서 생성된 알림에서 Slack 알림 메시지를 받게 됩니다. 이 동작은 배포 상태를 모니터링하고, 문제가 있으면 알림을 보내고, 부하 변경 또는 오류에 맞게 자동으로 조정할 수 있는 최신 애플리케이션 환경을 빌드하는 방법을 보여줍니다.

GKE Enterprise 클러스터는 시뮬레이션된 서비스 중단에 자동으로 응답합니다. 영향을 받는 노드의 모든 서비스가 나머지 노드에서 다시 시작됩니다.

  1. GKE Enterprise 클러스터에서 노드 배포를 다시 확인합니다.

    kubectl get nodes -o=custom-columns='NAME:.metadata.name,ZONE:.metadata.labels.topology\.kubernetes\.io/zone,INT_IP:.status.addresses[0].address'
    

    결과는 노드가 이제 리전의 두 영역에만 분산되어 있음을 보여주는 다음 예시 출력과 비슷합니다.

    NAME                         ZONE            INT_IP
    scalable-apps-pool-2-node5   us-central1-c   10.148.0.6
    scalable-apps-pool-2-node6   us-central1-c   10.148.0.7
    scalable-apps-pool-2-node3   us-central1-b   10.148.0.5
    scalable-apps-pool-2-node4   us-central1-b   10.148.0.4
    
  2. Kubernetes 컨트롤러는 2개의 노드를 더 이상 사용할 수 없음을 인식하고 사용 가능한 노드 간에 서비스를 다시 배포합니다. 모든 서비스는 계속 실행됩니다.

    GKE Enterprise 클러스터 노드에서 Cymbal Bank 샘플 애플리케이션 서비스의 배포를 확인합니다.

    kubectl get pods -o wide
    

    다음 출력 예시는 서비스가 클러스터의 나머지 노드에 분산됨을 보여줍니다. 이전 단계에서 노드 분산 방법을 확인하기 위한 이 출력은 서비스가 이제 리전의 두 영역에서만 실행됨을 보여줍니다.

    NAME                                  READY   STATUS    RESTARTS   AGE     IP          NODE
    accounts-db-0                         1/1     Running   0          28m     10.28.1.5   scalable-apps-pool-2-node3
    balancereader-7dc7d9ff57-shwg5        1/1     Running   0          9m21s   10.28.5.6   scalable-apps-pool-2-node5
    contacts-7ddc76d94-qv4x5              1/1     Running   0          9m20s   10.28.4.6   scalable-apps-pool-2-node4
    frontend-747b84bff4-xvjxq             1/1     Running   0          28m     10.28.3.6   scalable-apps-pool-2-node6
    ledger-db-0                           1/1     Running   0          9m24s   10.28.5.7   scalable-apps-pool-2-node3
    ledgerwriter-f6cc7889d-mttmb          1/1     Running   0          28m     10.28.1.6   scalable-apps-pool-2-node3
    loadgenerator-57d4cb57cc-7fvrc        1/1     Running   0          9m21s   10.28.4.7   scalable-apps-pool-2-node5
    transactionhistory-5dd7c7fd77-cmc2w   1/1     Running   0          28m     10.28.3.7   scalable-apps-pool-2-node6
    userservice-cd5ddb4bb-zfr2g           1/1     Running   0          9m20s   10.28.5.8   scalable-apps-pool-2-node1
    
  3. 서비스의 AGE를 확인합니다. 이전 예시 출력에서 일부 서비스는 Cymbal Bank 샘플 애플리케이션의 다른 서비스보다 기간이 짧습니다. 이 새로운 서비스는 이전에 장애를 시뮬레이션한 노드 중 하나에서 실행되었습니다. Kubernetes 컨트롤러가 사용 가능한 노드에서 이러한 서비스를 다시 시작했습니다.

실제 시나리오에서는 문제를 해결하거나 기본 유지보수 문제가 해결될 때까지 기다립니다. 알림을 기반으로 Slack 메시지를 보내도록 Prometheus를 구성한 경우 이러한 알림이 전달되는 것을 볼 수 있습니다. 또한 필요에 따라 이전 튜토리얼의 단계를 반복하여 리소스를 확장함으로써 해당 리전에서 두 개의 영역만 사용할 수 있을 때 증가된 부하에 GKE Enterprise 클러스터가 어떻게 반응하는지 확인할 수도 있습니다. 클러스터는 사용 가능한 나머지 두 영역으로 확장되어야 합니다.

삭제

Cymbal Bank 튜토리얼 모음은 하나씩 순서대로 완료되도록 설계되었습니다. 튜토리얼 모음을 진행하면서 새로운 기술을 배우고 추가적인 Google Cloud 제품 및 서비스를 사용하게 됩니다.

다음 튜토리얼로 이동하기 전에 잠시 멈추고 이 튜토리얼에서 사용한 리소스에 대한 비용이 Google Cloud 계정에 청구되지 않도록 만든 프로젝트를 삭제합니다.

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

다음 단계

다음 튜토리얼에서 구성 동기화를 사용하여 변경 관리를 중앙화하는 방법 알아보기