SAP HANA 고가용성 계획 가이드

이 가이드에서는 Google Cloud에 고가용성(HA) SAP HANA 시스템을 배포하기 전에 알고 있어야 하는 옵션, 권장사항, 일반 개념을 간략하게 설명합니다.

여기서는 사용자가 SAP HANA 고가용성 시스템을 구현하는 데 일반적으로 필요한 개념과 방법을 이미 이해하고 있다고 가정합니다. 따라서 주로 Google Cloud에서 이러한 시스템을 구현하는 데 필요한 정보에 중점을 둡니다.

SAP HANA HA 시스템을 구현하는 데 필요한 일반적인 개념과 방법에 대한 자세한 내용은 다음을 참조하세요.

이 계획 가이드에서는 SAP HANA의 HA만 다루고 애플리케이션 시스템의 HA는 다루지 않습니다. SAP NetWeaver의 HA에 대한 자세한 내용은 Google Cloud 기반 SAP NetWeaver의 고가용성 계획 가이드를 참조하세요.

이 가이드는 SAP에서 제공하는 문서를 대체하지 않습니다.

Google Cloud 기반 SAP HANA의 고가용성 옵션

SAP HANA의 고가용성 구성을 설계할 때 인프라 수준이나 소프트웨어 수준에서 장애를 처리할 수 있는 Google Cloud 기능과 SAP 기능의 조합을 사용할 수 있습니다. 다음 표에서는 고가용성을 제공하는 데 사용되는 SAP 및 Google Cloud 기능을 설명합니다.

기능 설명
Compute Engine 라이브 마이그레이션

Compute Engine은 기본 인프라의 상태를 모니터링하고 인프라 유지보수 이벤트 발생 시 인스턴스를 자동으로 마이그레이션합니다. 사용자가 개입할 필요가 없습니다.

Compute Engine은 가능하면 마이그레이션이 진행되는 동안 인스턴스를 실행 상태로 유지합니다. 중요한 서비스 중단 상황이 발생할 경우 인스턴스가 중단된 후 다시 사용 가능해질 때까지 약간의 지연이 있을 수 있습니다.

멀티 호스트 시스템에서 배포 가이드에 사용된 `/hana/shared` 볼륨 같은 공유 볼륨은 마스터 호스트를 호스팅하는 VM에 연결된 영구 디스크이며 작업자 호스트에 NFS 마운트됩니다. 마스터 호스트의 라이브 마이그레이션 중에는 일시적으로 NFS 볼륨에 액세스할 없습니다. 마스터 호스트가 다시 시작되면 NFS 볼륨이 모든 호스트에서 다시 작동하고 정상 작동이 자동으로 다시 시작됩니다.

복구된 인스턴스는 인스턴스 ID, 비공개 IP 주소, 모든 인스턴스 메타데이터와 스토리지 등에서 원본 인스턴스와 동일합니다. 기본적으로 표준 인스턴스는 라이브 마이그레이션하도록 설정되어 있습니다. 이 설정을 변경하지 않는 것이 좋습니다.

자세한 내용은 라이브 마이그레이션을 참조하세요.

Compute Engine 자동 다시 시작

유지보수 이벤트가 있을 때 인스턴스가 종료되도록 설정되어 있거나 기본 하드웨어 문제로 인스턴스가 충돌하는 경우 Compute Engine이 인스턴스를 자동으로 다시 시작하도록 설정할 수 있습니다.

기본적으로 인스턴스는 자동으로 다시 시작되도록 설정되어 있습니다. 이 설정을 변경하지 않는 것이 좋습니다.

SAP HANA 서비스 자동 다시 시작

SAP HANA 서비스 자동 다시 시작은 SAP에서 제공하는 장애 조치 솔루션입니다.

SAP HANA에는 다양한 활동을 위해 항상 실행되는 여러 서비스가 구성되어 있습니다. 소프트웨어 장애나 사용자 오류로 서비스 사용이 중지되면 SAP HANA 서비스 자동 다시 시작 감시자 기능이 해당 서비스를 자동으로 다시 시작합니다. 서비스가 다시 시작되면 모든 필요한 데이터가 다시 메모리에 로드되고 작동이 다시 시작됩니다.

SAP HANA 백업

SAP HANA 백업은 데이터베이스를 과거 특정 시점으로 재구성하는 데 사용할 수 있는 데이터베이스의 데이터 복사본을 만듭니다.

Google Cloud에서 SAP HANA 백업을 사용하는 방법에 대한 자세한 내용은 SAP HANA 운영 가이드를 참조하세요.

SAP HANA 스토리지 복제

SAP HANA 스토리지 복제는 특정 하드웨어 파트너를 통해 스토리지 수준의 재해 복구 지원을 제공합니다. SAP HANA 스토리지 복제는 Google Cloud에서 지원되지 않습니다. 대신 Compute Engine 영구 디스크 스냅샷을 사용할 수 있습니다.

영구 디스크 스냅샷을 사용하여 Google Cloud에서 SAP HANA 시스템을 백업하는 방법에 대한 자세한 내용은 SAP HANA 운영 가이드를 참조하세요.

SAP HANA 호스트 자동 장애 조치

SAP HANA 호스트 자동 장애 조치는 수평 확장 시스템에 1개 이상의 대기 SAP HANA 호스트가 필요한 로컬 장애 복구 솔루션입니다. 기본 호스트 중 하나가 실패하면 호스트 자동 장애 조치에서 자동으로 대기 호스트를 온라인 상태로 만들고 실패한 호스트를 대기 호스트로 다시 시작합니다.

자세한 내용은 다음을 참고하세요.

SAP HANA 시스템 복제

SAP HANA 시스템 복제를 사용하면 고가용성 또는 재해 복구 상황 발생 시 기본 시스템에 사용할 1개 이상의 시스템을 구성할 수 있습니다. 성능 및 장애 조치 시간 측면에서 사용자의 요구사항을 충족하도록 복제를 조정할 수 있습니다.

Google Cloud 기반 SAP HANA의 OS 기반 HA 클러스터

Linux 운영체제 클러스터링은 애플리케이션 상태에 대한 애플리케이션 및 게스트 인식을 제공하며 장애 발생 시 복구 작업을 자동화합니다.

비클라우드 환경에서 적용되는 고가용성 클러스터 원칙도 일반적으로 Google Cloud에서 적용되지만 펜싱 및 가상 IP 등이 구현되는 방법에는 차이가 있습니다.

Google Cloud 기반 SAP HANA의 HA 클러스터에 Red Hat 또는 SUSE 고가용성 Linux 배포판을 사용할 수 있습니다.

클러스터 리소스 에이전트

Red Hat과 SUSE 모두 Google Cloud의 리소스 에이전트에 Pacemaker 클러스터 소프트웨어의 고가용성 구현을 제공합니다. Google Cloud의 리소스 에이전트는 STONITH 펜싱, 경로 또는 별칭 IP로 구현된 VIP, 스토리지 작업을 관리합니다.

기본 OS 리소스 에이전트에 아직 포함되지 않은 업데이트를 제공하기 위해 Google Cloud는 SAP HA 클러스터를 위한 도우미 리소스 에이전트를 주기적으로 제공합니다. 이러한 도우미 리소스 에이전트가 필요한 경우 에이전트를 다운로드하는 단계가 Google Cloud 배포 절차에 포함됩니다.

펜싱

Google Cloud Compute Engine OS 클러스터링의 컨텍스트에서 펜싱STONITH 형식을 취하여 2노드 클러스터의 각 구성원에 다른 노드를 다시 시작할 수 있는 기능을 제공합니다.

Red Hat과 SUSE가 모두 제공하는 리소스 에이전트는 Google Cloud에서 STONITH 펜싱을 관리합니다.

가상 IP 주소

Google Cloud 기반 SAP 고가용성 클러스터는 가상 또는 유동 IP 주소(VIP)를 사용하여 장애 조치 시 네트워크 트래픽을 다른 호스트로 리디렉션합니다.

일반적인 비클라우드 배포는 Gratuitous ARP(주소 요청 프로토콜) 요청을 사용하여 새 MAC 주소로의 VIP 이동 및 재할당을 알립니다.

Google Cloud에서는 Gratuitous ARP 요청을 사용하는 대신 HA 클러스터에서 VIP를 이동하고 재할당하는 여러 방법 중 하나를 사용합니다. 내부 TCP/UDP 부하 분산기를 사용하는 것이 좋지만 필요에 따라 경로 기반 VIP 구현 또는 별칭 IP 기반 VIP 구현을 사용할 수도 있습니다.

Google Cloud에서의 VIP 구현에 대한 자세한 내용은 Google Cloud에서의 가상 IP 구현을 참조하세요.

스토리지 및 복제

SAP HANA HA 클러스터 구성은 동기 SAP HANA 시스템 복제를 사용하여 기본 SAP HANA 데이터베이스와 보조 SAP HANA 데이터베이스를 동기화합니다. SAP HANA의 표준 OS 제공 리소스 에이전트는 장애 조치 중에 시스템 복제를 관리하고, 복제를 시작 및 중지하고, 복제 프로세스에서 활성 인스턴스 역할을 하는 인스턴스와 대기 인스턴스 역할을 하는 인스턴스를 전환할 수 있습니다.

공유 파일 스토리지가 필요한 경우 NFS 또는 SMB 기반 파일러가 필요한 기능을 제공할 수 있습니다.

고가용성 공유 스토리지 솔루션의 경우 NetApp Cloud Volumes 같은 타사 파일 공유 솔루션을 사용할 수 있습니다. Google Cloud는 NFS 파일 서버 솔루션인 Filestore를 제공하지만 Filestore는 현재 여러 영역에서 가용성이 높은 파일 서버를 제공하지 않습니다.

Compute Engine 리전 영구 디스크는 영역 간에 동기식으로 복제된 블록 스토리지를 제공합니다. 리전 영구 디스크는 SAP HA 시스템의 데이터베이스 스토리지로 지원되지 않지만 NFS 파일 서버와 함께 사용할 수 있습니다.

Google Cloud의 스토리지 옵션에 대한 자세한 내용은 다음을 참조하세요.

제한 시간 및 간격 설정

리소스 에이전트 및 클러스터 구성의 제한 시간과 확인 간격 설정은 클러스터 소프트웨어가 장애 조치를 트리거하는 속도에 영향을 줍니다. HA 클러스터의 Google Cloud 안내 및 자동화에서 사용되는 값은 클러스터 소프트웨어의 기본값과 약간 다를 수 있지만 대부분의 경우 두 가지 값 중 어느 값이나 충분합니다. 필요한 경우 값을 조정할 수 있습니다. 사용할 시스템을 출시하기 전에 환경에서 사용하는 모든 값을 테스트해야 합니다.

Google Cloud 계정에서 Google Cloud의 라이브 마이그레이션 유지보수 이벤트에 대해 제안하는 제한 시간 및 확인 간격 값은 사용 중인 머신 유형 및 기타 요소에 따라 약간 다를 수 있습니다. 자세한 내용은 라이브 마이그레이션을 참조하세요.

클러스터가 배포된 후 Cloud SDK 명령어 gcloud compute instances simulate-maintenance-event로 기본 호스트에서 라이브 마이그레이션 이벤트를 트리거하여 설정을 테스트합니다.

로깅 및 모니터링

리소스 에이전트에는 분석을 위해 Google Cloud의 작업 제품군에 로그를 전파하는 로깅 기능이 포함될 수 있습니다. 각 리소스 에이전트에는 로깅 옵션을 식별하는 구성 정보가 포함되어 있습니다. bash 구현의 경우 로깅 옵션은 gcloud logging입니다.

또한 Cloud Logging 에이전트를 설치하여 운영체제 프로세스에서 로그 출력을 캡처하고 리소스 사용률과 시스템 이벤트를 연관시킬 수 있습니다. Logging 에이전트는 Pacemaker 및 클러스터링 서비스의 로그 데이터를 포함하는 기본 시스템 로그를 캡처합니다. 자세한 내용은 Logging 에이전트 정보를 참조하세요.

Cloud Monitoring을 사용하여 서비스 엔드포인트의 가용성을 모니터링하는 서비스 점검을 구성하는 방법에 대한 자세한 내용은 업타임 체크 관리를 참조하세요.

서비스 계정 및 HA 클러스터

클러스터 소프트웨어가 Google Cloud 환경에서 수행할 수 있는 작업은 각 호스트 VM의 서비스 계정에 부여된 권한으로 보호됩니다. 보안 수준이 높은 환경에서는 호스트 VM의 서비스 계정에서 최소 권한 원칙을 준수하도록 권한을 제한할 수 있습니다.

서비스 계정 권한을 제한할 때 시스템이 Cloud Storage와 같은 Google Cloud 서비스와 상호작용할 수 있으므로 호스트 VM의 서비스 계정에 이러한 서비스 상호작용에 대한 권한을 포함해야 할 수 있습니다.

가장 제한적인 권한을 부여하려면 필요한 최소 권한이 있는 커스텀 역할을 만듭니다. 커스텀 역할에 대한 자세한 내용은 커스텀 역할 만들기 및 관리를 참조하세요. 리소스 IAM 정책의 역할 결합에 조건을 추가하면 HA 클러스터의 VM 인스턴스와 같은 리소스의 특정 인스턴스로만 권한을 제한하는 방식으로 더 제한적인 권한을 부여할 수 있습니다.

시스템에 필요한 최소 권한은 시스템이 액세스하는 Google Cloud 리소스와 시스템이 수행하는 작업에 따라 다릅니다. 따라서 HA 클러스터의 호스트 VM에 필요한 최소 권한을 결정하려면 호스트 VM의 시스템이 액세스하는 리소스와 이 시스템이 이 리소스로 수행하는 작업을 조사해야 합니다.

먼저 다음 목록은 일부 HA 클러스터 리소스와 리소스에 필요한 연결된 권한을 보여줍니다.

  • STONITH 펜싱
    • compute.instances.list
    • compute.instances.get
    • compute.instances.reset
    • compute.instances.stop
    • compute.instances.start
    • logging.logEntries.create
    • compute.zones.list
  • 별칭 IP를 사용하여 구현된 VIP
    • compute.instances.list
    • compute.instances.get
    • compute.zones.list
    • logging.logEntries.create
    • compute.instances.updateNetworkInterface
    • compute.zoneOperations.get
    • logging.logEntries.create
  • 정적 경로를 사용하여 구현된 VIP
    • compute.instances.list
    • compute.instances.get
    • compute.zones.list
    • logging.logEntries.create
    • compute.routes.get
    • compute.routes.create
    • compute.routes.delete
    • compute.routes.update
    • compute.routes.list
    • compute.networks.updatePolicy
    • compute.networks.get
    • compute.globalOperations.get
    • logging.logEntries.create
  • 내부 부하 분산기를 사용하여 구현된 VIP
    • 특정 권한이 필요하지 않습니다. 부하 분산기는 클러스터가 Google Cloud의 리소스와 상호작용하거나 리소스를 변경하지 않아도 되는 상태 확인 상태에서 작동합니다.

Google Cloud에서 가상 IP 구현

고가용성 클러스터는 예기치 않은 장애가 발생하는 경우 또는 예정된 유지보수를 위해 유동 또는 가상 IP 주소(VIP)를 사용하여 클러스터 노드 간에 워크로드를 이동합니다. VIP의 IP 주소는 변경되지 않으므로 클라이언트 애플리케이션은 작업이 다른 노드에 의해 제공되고 있다는 것을 알지 못합니다.

VIP는 유동 IP 주소라고도 합니다.

Google Cloud에서 VIP는 온프레미스 설치 시와 약간 다른 방식으로 구현됩니다. 즉, 장애 조치 발생 시 Gratuitous ARP 요청을 사용하여 변경사항을 알릴 수 없습니다. 대신 다음 방법 중 하나를 사용하여 SAP HA 클러스터의 VIP 주소를 구현할 수 있습니다.

내부 TCP/UDP 부하 분산 VIP 구현

일반적으로 부하 분산기는 여러 활성 시스템에 워크로드를 분산하고 어느 한 인스턴스에서의 처리 속도 저하나 장애로부터 보호하기 위해 애플리케이션의 여러 인스턴스에 사용자 트래픽을 분산합니다.

또한 내부 TCP/UDP 부하 분산 서비스는 Compute Engine 상태 확인과 함께 사용하여 장애를 감지하고 장애 조치를 트리거하고 OS 기반 HA 클러스터의 새로운 기본 SAP 시스템으로 트래픽을 다시 라우팅할 수 있는 장애 조치 지원을 제공합니다.

내부 TCP/UDP 부하 분산 장애 조치 지원은 다음과 같은 다양한 이유로 권장되는 VIP 구현입니다.

  • Compute Engine의 부하 분산은 99.99% 가용성 SLA를 제공합니다.
  • 부하 분산은 예측 가능한 교차 영역 장애 조치 시간으로 영역 장애로부터 보호하는 다중 영역 고가용성 클러스터를 지원합니다.
  • 부하 분산을 사용하면 장애 조치를 감지하고 트리거하는 데 필요한 시간이 일반적으로 장애 발생 후 몇 초 이내로 줄어듭니다. 전체 장애 조치 시간은 호스트, 데이터베이스 시스템, 애플리케이션 시스템 등이 포함될 수 있는 HA 시스템에 있는 각 구성요소의 장애 조치 시간에 따라 달라집니다.
  • 부하 분산을 사용하면 클러스터 구성이 간소화되고 종속 항목이 줄어듭니다.
  • 경로를 사용하는 VIP 구현과 달리 부하 분산에서는 자체 VPC 네트워크의 IP 범위를 사용하여 필요에 따라 IP 범위를 예약하고 구성할 수 있습니다.
  • 예정된 유지보수 중단 시 부하 분산을 사용하여 트래픽을 보조 시스템으로 간단히 다시 라우팅할 수 있습니다.

VIP의 부하 분산기 구현에 대한 상태 확인을 만들 때 호스트 상태를 확인하기 위해 상태 확인이 검색하는 호스트 포트를 지정합니다. SAP HA 클러스터의 경우 다른 서비스와 충돌하지 않도록 비공개 범위인 49152~65535에서 대상 호스트 포트를 지정합니다. 호스트 VM에서 socat 유틸리티 또는 HAProxy와 같은 보조 도우미 서비스로 대상 포트를 구성합니다.

보조 대기 시스템이 온라인 상태로 유지되는 데이터베이스 클러스터의 경우, 부하 분산은 상태 확인 및 도우미 서비스를 통해 현재 클러스터의 기본 시스템 역할을 하는 온라인 시스템으로 트래픽을 전달할 수 있습니다.

도우미 서비스와 포트 리디렉션을 사용하면 SAP 시스템에서 계획된 소프트웨어 유지보수를 위해 장애 조치를 트리거할 수 있습니다.

내부 TCP/UDP 부하 분산의 장애 조치 지원에 대한 자세한 내용은 내부 TCP/UDP 부하 분산의 장애 조치 구성을 참조하세요.

부하 분산기 VIP 구현을 포함한 HA 클러스터를 배포하려면 다음을 참조하세요.

정적 경로 VIP 구현

정적 경로 구현도 영역 장애에 대한 보호를 제공하지만 VM이 상주하는 기존 VPC 서브넷의 IP 범위 밖에서 VIP를 사용해야 합니다. 따라서 VIP가 확장 네트워크의 외부 IP 주소와 충돌하지 않도록 해야 합니다.

호스트 프로젝트로 네트워크 구성을 분리하기 위한 공유 VPC 구성과 함께 정적 경로 구현을 사용하면 복잡해질 수 있습니다.

VIP에 정적 경로 구현을 사용하는 경우 네트워크 관리자에게 문의하여 정적 경로 구현에 적합한 IP 주소를 결정하세요.

별칭 IP VIP 구현

다중 영역 HA 배포에는 별칭 IP VIP 구현이 권장되지 않습니다. 영역에 장애가 발생할 경우 다른 영역의 노드로의 별칭 IP 재할당이 지연될 수 있기 때문입니다. 대신 장애 조치를 지원하는 내부 TCP/UDP 부하 분산을 사용하여 VIP를 구현하세요.

SAP HA 클러스터의 모든 노드를 같은 영역에 배포하는 경우 별칭 IP를 사용하여 HA 클러스터의 VIP를 구현할 수 있습니다.

VIP에 별칭 IP 구현을 사용하는 기존 다중 영역 SAP HA 클러스터가 있는 경우 VIP 주소 변경 없이 내부 TCP/UDP 부하 분산 구현으로 마이그레이션할 수 있습니다. 별칭 IP와 내부 TCP/UDP 부하 분산 모두 VPC 네트워크의 IP 범위를 사용합니다.

다중 영역 HA 클러스터의 VIP 구현에는 별칭 IP 주소가 권장되지 않지만 SAP 배포에는 다른 사용 사례가 있습니다. 예를 들어 SAP Landscape Management에서 관리하는 것과 같은 유연한 SAP 배포를 위한 논리적 호스트 이름과 IP 할당을 제공하는 데 사용할 수 있습니다.

Google Cloud에서의 일반적인 VIP 권장사항

Google Cloud의 VIP에 대한 자세한 내용은 유동 IP 주소 권장사항을 참조하세요.

Google Cloud에서 SAP HANA 호스트 자동 장애 조치

Google Cloud는 SAP HANA에서 제공하는 로컬 장애 복구 솔루션인 SAP HANA 호스트 자동 장애 조치를 지원합니다. 호스트 자동 장애 조치 솔루션은 호스트가 실패할 경우 마스터 또는 작업자 호스트에서 작업을 인계하기 위해 예약된 하나 이상의 대기 호스트를 사용합니다. 대기 호스트는 어떤 데이터도 포함하지 않으며 어떤 작업도 처리하지 않습니다.

/hana/data/hana/log 볼륨은 마스터 및 작업자 호스트에만 마운트됩니다. 인계가 발생하면 호스트 자동 장애 조치 솔루션은 SAP HANA Storage Connector API 및 Compute Engine gceStorageConnector 플러그인을 사용하여 해당 디스크가 실패한 호스트에서 대기 호스트로 전환되도록 관리합니다. 펜싱의 사용 설정 여부를 포함하여 gceStorageConnector 플러그인의 구성 매개변수는 SAP HANA global.ini 파일의 스토리지 섹션에 저장됩니다.

/hana/shared/hanabackup 볼륨은 NFS 서버에 저장되며, 이 서버는 마스터 호스트에서 관리하고 대기 호스트를 포함한 모든 호스트에 마운트됩니다.

장애 조치가 완료되면 실패한 호스트는 대기 호스트로 다시 시작됩니다.

SAP는 Google Cloud의 수평 확장 시스템에서 최대 3개의 대기 호스트를 지원합니다. 대기 호스트는 SAP가 Google Cloud의 수평 확장 시스템에서 지원하는 최대 16개의 활성 호스트에 포함되지 않습니다.

현재 Google Cloud는 Compute Engine에서 sles-12-sp3-sapsles-12-sp2-sap 이미지 계열로 제공되는 SAP 공개 이미지용 SUSE Linux Enterprise Server(SLES)에서만 SAP HANA 호스트 자동 장애 조치를 지원합니다. Compute Engine에서 제공되는 공개 이미지를 확인하려면 이미지를 참조하세요.

다음 다이어그램은 SAP HANA 호스트 자동 장애 조치를 지원하는 Google Cloud의 멀티 호스트 아키텍처를 보여줍니다. 이 다이어그램에서는 작업자 호스트 2가 실패하고 대기 호스트가 데이터를 인계 받습니다. gceStorageClient 플러그인은 SAP Storage Connector API(표시되지 않음)와 함께 작동하여 실패한 작업자에서 /hana/data/hana/logs 볼륨을 포함한 디스크를 분리한 후 대기 호스트에 다시 마운트합니다. 그러면 이 호스트는 실패한 호스트가 대기 호스트로 전환될 때까지 작업자 호스트 2가 됩니다.

호스트 자동 장애 조치에 대한 지원을 포함한 수평 확장 SAP HANA 시스템의 아키텍처를 설명하는 다이어그램

SAP HANA 고가용성 구성을 위한 배포 옵션

Google Cloud는 SAP HANA HA 시스템 배포를 자동화하는 Deployment Manager 템플릿을 제공합니다. SAP HANA HA 시스템을 수동으로 배포하고 구성할 수도 있습니다.

Google Cloud에서 제공하는 Deployment Manager 템플릿에는 사용자가 완료하는 template.yaml 구성 파일이 포함되어 있습니다. Deployment Manager는 구성 파일을 읽고, SAP에서 완벽 지원하며 SAP 및 Google Cloud의 권장사항을 준수하는 SAP HANA 시스템을 배포합니다.

SAP HANA용 Linux 고가용성 클러스터 자동 배포

SAP HANA에서는 Deployment Manager가 다음을 포함하여 성능이 최적화된 고가용성 Linux 클러스터를 배포합니다.

  • 자동 장애 조치
  • 자동 다시 시작
  • 동기 복제
  • 메모리 미리 로드
  • Pacemaker 고가용성 클러스터 리소스 관리자
  • Google Cloud 펜싱 메커니즘
  • SAP HANA 인스턴스별 필수 영구 디스크가 포함된 VM
  • 각 VM에 있는 SAP HANA 인스턴스

자세한 내용은 SAP HANA 고가용성 클러스터 배포 가이드를 참조하세요.

SAP HANA 호스트 자동 장애 조치가 포함된 SAP HANA 수평 확장 시스템 자동 배포

SAP HANA 고가용성 클러스터 수동 배포

HA 클러스터를 수동으로 구성할 때 SAP HANA 시스템이 SAP 지원 가능성 요구사항 및 권장사항을 충족하도록 하려면 Google Cloud에서 제공하는 Deployment Manager 템플릿을 사용하여 VM 및 SAP HANA 인스턴스를 먼저 배포하세요.

SAP HANA용 Google Cloud에 HA 클러스터를 배포하고 수동으로 구성하는 방법에 대한 안내는 다음을 참조하세요.

다음 단계

Google Cloud와 SAP 모두 고가용성에 대한 자세한 정보를 제공합니다.

고가용성에 대해 Google Cloud에서 제공하는 추가 정보

Google Cloud 기반 SAP HANA의 고가용성에 대한 자세한 내용은 다음을 참조하세요.

다양한 장애 시나리오로부터 Google Cloud의 시스템을 보호하는 방법에 대한 일반적인 정보는 강력한 시스템 설계를 참조하세요.

SAP HANA 고가용성 기능에 대해 SAP에서 제공하는 추가 정보

SAP HANA 고가용성 기능에 대한 자세한 내용은 SAP에서 제공하는 다음 문서를 참조하세요.