Terraform: SAP HANA 수평 확장 고가용성 클러스터 구성 가이드

이 가이드에서는 Google Cloud의 SUSE Linux Enterprise Server(SLES) 고가용성(HA) 클러스터에 SAP HANA 수평 확장 시스템 배포를 자동화하는 방법을 보여줍니다.

이 가이드에서는 Terraform을 사용하여 멀티 호스트 SAP HANA 수평 확장 시스템, 내부 패스 스루 네트워크 부하 분산기 구현이 포함된 가상 IP 주소(VIP) 및 Google Cloud, SAP, SUSE의 모든 권장사항에 따른 OS 기반 HA 클러스터를 배포합니다.

SAP HANA 시스템 중 하나는 기본 활성 시스템 역할을 하며 다른 하나는 보조 대기 시스템 역할을 합니다. 같은 리전 내에서, 이상적으로는 서로 다른 영역의 SAP HANA 시스템 두 개 모두를 배포합니다.

배포된 클러스터에는 다음 기능과 특징이 포함됩니다.

  • Pacemaker 고가용성 클러스터 리소스 관리자
  • Google Cloud 펜싱 메커니즘
  • 다음을 포함하여 수준 4 TCP 내부 부하 분산기 구현을 사용하는 가상 IP(VIP):
    • VIP에 선택한 IP 주소의 예약
    • Compute Engine 인스턴스 그룹 두 개
    • TCP 내부 부하 분산기
    • Compute Engine 상태 점검
  • SUSE 고가용성 패턴
  • SUSE SAPHanaSR 리소스 에이전트 패키지
  • 동기 시스템 복제
  • 메모리 미리 로드
  • 실패한 인스턴스를 새 보조 인스턴스로 자동 다시 시작

SAP HANA 자동 호스트 장애 조치를 위한 대기 호스트가 있는 수평 확장 시스템이 필요한 경우에는 대신 Terraform: 호스트 자동 장애 조치가 포함된 SAP HANA 수평 확장 시스템 배포 가이드를 참조하세요.

Linux 고가용성 클러스터나 대기 호스트 없이 SAP HANA 시스템을 배포하려면 Terraform: SAP HANA 배포 가이드를 참조하세요.

이 가이드는 SAP HANA용 Linux 고가용성 구성에 익숙한 SAP HANA 고급 사용자를 대상으로 합니다.

기본 요건

SAP HANA 고가용성 클러스터를 만들기 전에 다음 기본 요건을 충족하는지 확인하세요.

네트워크 만들기

보안 문제로 새 네트워크를 만들어야 합니다. 방화벽 규칙을 추가하거나 다른 액세스 제어 방법을 사용하여 액세스 권한이 있는 사용자를 제어할 수 있습니다.

프로젝트에 기본 VPC 네트워크가 있더라도 사용하지 마세요. 명시적으로 직접 만든 방화벽 규칙만 적용되도록 VPC 네트워크를 직접 만드시기 바랍니다.

배포 중에 VM 인스턴스는 일반적으로 SAP용 Google Cloud 에이전트를 다운로드하기 위해 인터넷에 액세스할 수 있어야 합니다. Google Cloud에서 제공하는 SAP 인증 Linux 이미지 중 하나를 사용하는 경우 VM 인스턴스도 라이선스를 등록하고 OS 공급업체 저장소에 액세스하기 위해 인터넷에 액세스할 수 있어야 합니다. NAT 게이트웨이 및 VM 네트워크 태그가 있는 구성은 대상 VM에 외부 IP가 없더라도 이러한 액세스를 지원합니다.

프로젝트의 VPC 네트워크를 만들려면 다음 단계를 완료합니다.

  1. 커스텀 모드 네트워크를 만듭니다. 자세한 내용은 커스텀 모드 네트워크 만들기를 참조하세요.

  2. 서브네트워크를 만들고 리전과 IP 범위를 지정합니다. 자세한 내용은 서브넷 추가를 참조하세요.

NAT 게이트웨이 설정

공개 IP 주소가 없는 VM을 하나 이상 만들어야 하는 경우 네트워크 주소 변환(NAT)을 사용하여 VM이 인터넷에 액세스하도록 설정해야 합니다. VM이 인터넷에 아웃바운드 패킷을 보내고 그에 따라 설정된 인바운드 응답 패킷을 받을 수 있도록 하는 Google Cloud 분산 소프트웨어 정의 관리형 서비스인 Cloud NAT를 사용하세요. 또는 별도의 VM을 NAT 게이트웨이로 설정할 수 있습니다.

프로젝트에 Cloud NAT 인스턴스를 만들려면 Cloud NAT 사용을 참조하세요.

프로젝트에 Cloud NAT를 구성하면 VM 인스턴스가 공개 IP 주소 없이 인터넷에 안전하게 액세스할 수 있습니다.

방화벽 규칙 추가

묵시적인 방화벽 규칙은 Virtual Private Cloud(VPC) 네트워크 외부에서 들어오는 연결을 차단하는 것이 기본 설정되어 있습니다. 들어오는 연결을 허용하려면 VM에 방화벽 규칙을 설정합니다. VM에 들어오는 연결이 설정되면 이 연결을 통한 양방향 트래픽이 허용됩니다.

또한 동일한 네트워크에서 지정된 포트에 대한 외부 액세스를 허용하거나 VM 간 액세스를 제한하는 방화벽 규칙을 만들 수 있습니다. default VPC 네트워크 유형이 사용되는 경우 모든 포트에서 동일한 네트워크에 있는 VM 간의 연결을 허용하는 default-allow-internal 규칙과 같은 일부 기본 규칙도 추가로 적용됩니다.

사용자 환경에 적용 가능한 IT 정책 마다 다를 수 있지만, 방화벽 규칙 생성을 통해 데이터베이스 호스에 대한 연결을 격리하거나 제한해야 할 수도 있습니다.

시나리오에 따라 다음에 대한 액세스를 허용하는 방화벽 규칙을 만들 수 있습니다.

  • 모든 SAP 제품의 TCP/IP에 나열된 기본 SAP 포트
  • 사용자 컴퓨터 또는 기업 네트워크 환경에서 Compute Engine VM 인스턴스에 연결. 사용할 IP 주소를 모르는 경우 회사의 네트워크 관리자에게 문의하세요.

프로젝트의 방화벽 규칙을 만들려면 방화벽 규칙 만들기를 참조하세요.

SAP HANA가 설치된 고가용성 Linux 클러스터 만들기

다음 안내에서는 Terraform 구성 파일을 사용하여 두 개의 SAP HANA 시스템(기본 SAP HANA 시스템 및 동일한 Compute Engine 리전에 있는 보조 또는 대기 SAP HANA 시스템)이 있는 SLES 클러스터를 만듭니다. SAP HANA 시스템은 동기 시스템 복제를 사용하며, 대기 시스템은 복제된 데이터를 미리 로드합니다.

Terraform 구성 파일에서 SAP HANA 고가용성 클러스터의 구성 옵션을 정의합니다.

다음 안내에서는 Cloud Shell을 사용하지만 일반적으로 Google 제공업체에서 Terraform을 설치하고 구성한 로컬 터미널에 적용할 수 있습니다.

  1. 영구 디스크, CPU 등 리소스의 현재 할당량이 설치하려는 SAP HANA 시스템에 충분한지 확인합니다. 할당량이 충분하지 않은 경우 배포가 실패합니다.

    SAP HANA 할당량 요구사항은 SAP HANA의 가격 책정 및 할당량 고려사항을 참조하세요.

    할당량으로 이동

  2. Cloud Shell 또는 로컬 터미널을 엽니다.

    Cloud Shell 열기

  3. Cloud Shell 또는 터미널에서 다음 명령어를 실행하여 sap_hana_ha.tf 구성 파일을 작업 디렉터리에 다운로드합니다.

    $ wget https://storage.googleapis.com/cloudsapdeploy/terraform/latest/terraform/sap_hana_ha/terraform/sap_hana_ha.tf
  4. Cloud Shell 코드 편집기에서 sap_hana_ha.tf 파일을 열거나 터미널을 사용하는 경우 원하는 텍스트 편집기에서 파일을 엽니다.

    Cloud Shell 코드 편집기를 열려면 Cloud Shell 터미널 창 오른쪽 상단에 있는 연필 아이콘을 클릭합니다.

  5. sap_hana_ha.tf 파일에서 큰따옴표 내 콘텐츠를 설치 값으로 바꿔 인수 값을 업데이트합니다. 인수는 다음 표에 설명되어 있습니다.

    인수 데이터 유형 설명
    source 문자열

    배포 중에 사용할 Terraform 모듈의 위치와 버전을 지정합니다.

    sap_hana_ha.tf 구성 파일에는 source 인수의 인스턴스 두 개, 즉 활성 인스턴스와 주석으로 포함된 인스턴스가 포함됩니다. 기본적으로 활성화되는 source 인수는 latest를 모듈 버전으로 지정합니다. 기본적으로 앞에 오는 # 문자에 의해 비활성화되는 source 인수의 두 번째 인스턴스에서 모듈 버전을 식별하는 타임스탬프를 지정합니다.

    모든 배포에서 동일한 모듈 버전을 사용해야 하는 경우 버전 타임스탬프를 지정하는 source 인수에서 앞에 오는 # 문자를 삭제하고 latest를 지정하는 source 인수에 추가합니다.

    project_id 문자열 이 시스템을 배포할 Google Cloud 프로젝트의 ID를 지정합니다. 예를 들면 my-project-x입니다.
    machine_type 문자열 SAP 시스템을 실행하는 데 필요한 Compute Engine 가상 머신(VM)의 유형을 지정합니다. 커스텀 VM 유형이 필요한 경우 사전 정의된 VM 유형을 필요한 수(더 큼)에 가장 가까운 vCPU 수로 지정합니다. 배포가 완료되면 vCPU 수와 메모리 양을 수정합니다.

    예를 들면 n1-highmem-32입니다.

    network 문자열 VIP를 관리하는 부하 분산기를 만들어야 하는 네트워크의 이름을 지정합니다.

    공유 VPC 네트워크를 사용하는 경우 호스트 프로젝트의 ID를 네트워크 이름의 상위 디렉터리로 추가해야 합니다. 예를 들면 HOST_PROJECT_ID/NETWORK_NAME입니다.

    subnetwork 문자열 이전 단계에서 만든 서브네트워크의 이름을 지정합니다. 공유 VPC에 배포하는 경우 이 값을 SHARED_VPC_PROJECT_ID/SUBNETWORK로 지정합니다. 예를 들면 myproject/network1입니다.
    linux_image 문자열 SAP 시스템을 배포할 Linux 운영체제 이미지의 이름을 지정합니다. 예를 들면 sles-15-sp5-sap입니다. 사용 가능한 운영체제 이미지의 목록은 Google Cloud 콘솔의 이미지 페이지를 참조하세요.
    linux_image_project 문자열 인수 linux_image에 지정된 이미지가 포함된 Google Cloud 프로젝트를 지정합니다. 이 프로젝트는 자체 프로젝트이거나 Google Cloud 이미지 프로젝트일 수 있습니다. Compute Engine 이미지의 경우 suse-sap-cloud를 지정합니다. 운영체제의 이미지 프로젝트를 찾으려면 운영체제 세부정보를 참조하세요.
    primary_instance_name 문자열 기본 SAP HANA 시스템의 VM 인스턴스 이름을 지정합니다. 이름에 소문자, 숫자 또는 하이픈을 사용할 수 있습니다.
    primary_zone 문자열 기본 SAP HANA 시스템이 배포되는 영역을 지정합니다. 기본 영역과 보조 영역은 같은 리전에 있어야 합니다. 예를 들면 us-east1-c입니다.
    secondary_instance_name 문자열 보조 SAP HANA 시스템의 VM 인스턴스 이름을 지정합니다. 이름에 소문자, 숫자 또는 하이픈을 사용할 수 있습니다.
    secondary_zone 문자열 보조 SAP HANA 시스템이 배포되는 영역을 지정합니다. 기본 영역과 보조 영역은 같은 리전에 있어야 합니다. 예를 들면 us-east1-b입니다.
    majority_maker_instance_name 문자열

    주요 제조업체 역할을 하는 Compute Engine VM 인스턴스의 이름을 지정합니다.

    이 인수는 sap_hana_ha 모듈 버전 202307270727 이상에서 사용할 수 있습니다.

    majority_maker_instance_type 문자열 주요 제조업체 인스턴스에 사용할 Compute Engine 가상 머신(VM)의 유형을 지정합니다. 예를 들면 n1-highmem-32입니다.

    커스텀 VM 유형을 사용하려면 사전 정의된 VM 유형을 필요한 수(더 큼)에 가장 가까운 vCPU 수로 지정합니다. 배포가 완료되면 vCPU 수와 메모리 양을 수정합니다.

    이 인수는 sap_hana_ha 모듈 버전 202307270727 이상에서 사용할 수 있습니다.

    majority_maker_zone 문자열 주요 제조업체 VM 인스턴스가 배포되는 영역을 지정합니다. 이 영역은 기본 및 보조 영역과 동일한 리전에 있어야 합니다. 예를 들면 us-east1-d입니다.

    Google Cloud에서는 주요 제조업체 VM 인스턴스를 기본 및 보조 SAP HANA 시스템과 다른 영역에 배포하는 것이 좋습니다.

    이 인수는 sap_hana_ha 모듈 버전 202307270727 이상에서 사용할 수 있습니다.

    sap_hana_deployment_bucket 문자열 배포된 VM에 SAP HANA를 자동으로 설치하려면 SAP HANA 설치 파일이 포함된 Cloud Storage 버킷의 경로를 지정합니다. 경로에 gs://를 포함하지 마세요. 버킷 이름과 폴더 이름만 포함하세요. 예를 들면 my-bucket-name/my-folder입니다.

    Cloud Storage 버킷은 project_id 인수에 지정하는Google Cloud 프로젝트에 있어야 합니다.

    sap_hana_scaleout_nodes 정수 수평 확장 시스템에 필요한 작업자 호스트 수를 지정합니다. 수평 확장 시스템을 배포하려면 작업자 호스트가 하나 이상 필요합니다.

    Terraform은 기본 SAP HANA 인스턴스와 함께 작업자 호스트를 만듭니다. 예를 들어 3을 지정하는 경우 기본 영역과 보조 영역 모두에서 수평 확장 시스템에 4개의 SAP HANA 인스턴스가 배포됩니다.

    sap_hana_sid 문자열 배포된 VM에 SAP HANA를 자동으로 설치하려면 SAP HANA 시스템 ID를 지정합니다. ID는 3자리 영숫자 문자로 구성되고 문자로 시작되어야 합니다. 모든 문자는 대문자여야 합니다. 예를 들면 ED1입니다.
    sap_hana_instance_number 정수 선택사항. SAP HANA 시스템의 인스턴스 번호(0~99)를 지정합니다. 기본값은 0입니다.
    sap_hana_sidadm_password 문자열 배포된 VM에 SAP HANA를 자동으로 설치하려면 배포 중에 사용할 설치 스크립트의 임시 SIDadm 비밀번호를 지정합니다. 비밀번호는 8자 이상이어야 하며 대문자, 소문자, 숫자를 하나 이상 포함해야 합니다.

    비밀번호를 일반 텍스트로 지정하는 대신 보안 비밀을 사용하는 것이 좋습니다. 자세한 내용은 비밀번호 관리를 참조하세요.

    sap_hana_sidadm_password_secret 문자열 선택사항. Secret Manager를 사용하여 SIDadm 비밀번호를 저장하는 경우 이 비밀번호에 해당하는 보안 비밀의 이름을 지정합니다.

    Secret Manager에서 비밀번호인 보안 비밀 값이 최소 8자 이상이며 대문자, 소문자, 숫자가 각각 최소 1자 이상 포함되는지 확인합니다.

    자세한 내용은 비밀번호 관리를 참조하세요.

    sap_hana_system_password 문자열 배포된 VM에 SAP HANA를 자동으로 설치하려면 배포 중에 사용할 설치 스크립트의 임시 데이터베이스 수퍼유저 비밀번호를 지정합니다. 비밀번호는 최소 8자 이상이어야 하며 대문자, 소문자, 숫자를 각각 최소 1자 이상 포함해야 합니다.

    비밀번호를 일반 텍스트로 지정하는 대신 보안 비밀을 사용하는 것이 좋습니다. 자세한 내용은 비밀번호 관리를 참조하세요.

    sap_hana_system_password_secret 문자열 선택사항. Secret Manager를 사용하여 데이터베이스 수퍼유저 비밀번호를 저장하는 경우 이 비밀번호에 해당하는 보안 비밀의 이름을 지정합니다.

    Secret Manager에서 비밀번호인 보안 비밀 값이 최소 8자 이상이며 대문자, 소문자, 숫자가 각각 최소 1자 이상 포함되는지 확인합니다.

    자세한 내용은 비밀번호 관리를 참조하세요.

    sap_hana_double_volume_size 불리언 선택사항. HANA 볼륨 크기를 두 배로 늘리려면 true를 지정합니다. 이 인수는 같은 VM에 SAP HANA 인스턴스 여러 개나 재해 복구 SAP HANA 인스턴스를 배포하려는 경우에 유용합니다. 기본적으로 볼륨 크기는 SAP 자격증 요구사항과 지원 요구사항을 계속 충족하면서 VM 크기에 필요한 최소 크기로 자동 계산됩니다. 기본값은 false입니다.
    sap_hana_backup_size 정수 선택사항. /hanabackup 볼륨 크기(GB)를 지정합니다. 이 인수를 지정하지 않거나 0으로 설정하면 설치 스크립트에서 총 메모리 두 배인 HANA 백업 볼륨으로 Compute Engine 인스턴스를 프로비저닝합니다.
    sap_hana_sidadm_uid 정수 선택사항. SID_LCadm 사용자 ID의 기본값을 재정의할 값을 지정합니다. 기본값은 900입니다. SAP 환경 내에서 일관성을 위해 이 값을 다른 값으로 변경할 수 있습니다.
    sap_hana_sapsys_gid 정수 선택사항. sapsys의 기본 그룹 ID를 재정의합니다. 기본값은 79입니다.
    sap_vip 문자열 VIP에 사용할 IP 주소를 지정합니다. IP 주소는 서브네트워크에 할당된 IP 주소 범위 내에 있어야 합니다. Terraform 구성 파일에서 자동으로 이 IP 주소를 예약합니다.
    primary_instance_group_name 문자열 선택사항. 기본 노드의 비관리형 인스턴스 그룹 이름을 정의합니다. 기본 이름은 ig-PRIMARY_INSTANCE_NAME입니다.
    secondary_instance_group_name 문자열 선택사항. 보조 노드의 비관리형 인스턴스 그룹 이름을 지정합니다. 기본 이름은 ig-SECONDARY_INSTANCE_NAME입니다.
    loadbalancer_name 문자열 선택사항. 내부 패스 스루 네트워크 부하 분산기의 이름을 지정합니다. 기본 이름은 lb-SAP_HANA_SID-ilb입니다.
    network_tags 문자열 선택사항. 방화벽 또는 라우팅 목적으로 VM 인스턴스와 연결하려는 하나 이상의 쉼표로 구분된 네트워크 태그를 지정합니다.

    public_ip = false를 지정하고 네트워크 태그를 지정하지 않으면 다른 인터넷 액세스 방법을 제공해야 합니다.

    nic_type 문자열 선택사항. VM 인스턴스에 사용할 네트워크 인터페이스를 지정합니다. GVNIC 또는 VIRTIO_NET 값을 지정할 수 있습니다. Google 가상 NIC(gVNIC)를 사용하려면 gVNIC를 지원하는 OS 이미지를 linux_image 인수의 값으로 지정해야 합니다. OS 이미지 목록은 운영체제 세부정보를 참조하세요.

    이 인수 값을 지정하지 않으면 machine_type 인수에 지정하는 머신 유형에 따라 네트워크 인터페이스가 자동으로 선택됩니다.

    이 인수는 sap_hana 모듈 버전 202302060649 이상에서 사용할 수 있습니다.
    disk_type 문자열 선택사항. 배포의 모든 SAP 볼륨에 배포할 기본 영구 디스크 또는 하이퍼디스크 유형을 지정합니다. 기본값은 pd-ssd입니다. 이 인수에 유효한 값은 pd-ssd, pd-balanced, hyperdisk-extreme, hyperdisk-balanced, pd-extreme입니다.

    hyperdisk-extreme 또는 hyperdisk-balanced 값을 지정하면 /usr/sap 디렉터리는 별도의 균형 있는 영구 디스크(pd-balanced)에 마운트됩니다. 이는 /usr/sap 디렉터리에는 /hana/data 또는 /hana/log 디렉터리만큼의 고성능이 필요하지 않기 때문입니다. SAP HANA 수직 확장 배포에서는 /hana/shared 디렉터리에 별도의 균형 있는 영구 디스크도 배포됩니다.

    일부 고급 인수를 사용하여 이 기본 디스크 유형과 연결된 기본 디스크 크기 및 기본 IOPS를 재정의할 수 있습니다. 자세한 내용을 보려면 작업 디렉터리로 이동한 후 terraform init 명령어를 실행한 후 /.terraform/modules/sap_hana_ha/variables.tf 파일을 확인합니다. 프로덕션에서 이러한 인수를 사용하기 전에 테스트 환경에서 테스트해야 합니다.

    use_single_shared_data_log_disk 불리언 선택사항. 기본값은 false이며 Terraform이 다음 SAP 볼륨 /hana/data, /hana/log, /hana/shared, /usr/sap마다 별도의 영구 디스크 또는 하이퍼디스크를 배포하도록 지시합니다. 이러한 SAP 볼륨을 동일한 영구 디스크 또는 하이퍼디스크에 마운트하려면 true를 지정합니다.
    include_backup_disk 불리언 선택사항. 이 인수는 SAP HANA 수직 확장 배포에 적용됩니다. 기본값은 true이며 Terraform이 /hanabackup 디렉터리를 호스팅하기 위해 표준 HDD 영구 디스크를 배포하도록 지시합니다. 이 디스크의 크기는 sap_hana_backup_size 인수에 따라 결정됩니다.

    include_backup_disk 값을 false로 설정하면 /hanabackup 디렉터리에 디스크가 배포되지 않습니다.

    enable_fast_restart 불리언 선택사항. 이 인수는 배포에 SAP HANA 빠른 재시작 옵션이 사용 설정되었는지 여부를 결정합니다. 기본값은 true입니다. Google Cloud에서는 SAP HANA 빠른 재시작 옵션의 사용 설정을 적극 권장합니다.

    이 인수는 sap_hana_ha 모듈 버전 202309280828 이상에서 사용할 수 있습니다.

    public_ip 불리언 선택사항. 공개 IP 주소가 VM 인스턴스에 추가되는지 여부를 결정합니다. 기본값은 true입니다.
    service_account 문자열 선택사항. 호스트 VM와 호스트 VM에서 실행되는 프로그램에서 사용할 사용자 관리형 서비스 계정의 이메일 주소를 지정합니다. 예를 들면 svc-acct-name@project-id.iam.gserviceaccount.com입니다.

    이 인수를 값 없이 지정하거나 생략하면 설치 스크립트에서 Compute Engine 기본 서비스 계정을 사용합니다. 자세한 내용은 Google Cloud에서 SAP 프로그램의 ID 및 액세스 관리를 참조하세요.

    sap_deployment_debug 불리언 선택사항. Cloud Customer Care에서 배포에 디버깅을 사용 설정하도록 요청하는 경우에만 true를 지정하여 배포 시 상세 배포 로그를 생성합니다. 기본값은 false입니다.
    primary_reservation_name 문자열 선택사항. 특정 Compute Engine VM 예약을 사용하여 HA 클러스터의 기본 SAP HANA 인스턴스를 호스팅하는 VM 인스턴스를 프로비저닝하려면 예약 이름을 지정합니다. 기본적으로 설치 스크립트는 다음 조건에 따라 사용 가능한 Compute Engine 예약을 선택합니다.

    예약을 사용할 수 있도록 하려면 이름을 지정했는지 또는 설치 스크립트가 자동으로 예약을 선택했는지 여부에 관계없이 다음을 사용하여 예약을 설정해야 합니다.

    • specificReservationRequired 옵션이 true로 설정되거나 Google Cloud 콘솔에서 특정 예약 선택 옵션이 선택됩니다.
    • 일부 Compute Engine 머신 유형은 머신 유형의 SAP 인증서로 처리되지 않는 CPU 플랫폼을 지원합니다. 다음 머신 유형 중 하나에 대한 대상 예약인 경우 예약에서 다음과 같이 최소 CPU 플랫폼을 지정해야 합니다.
      • n1-highmem-32: Intel Broadwell
      • n1-highmem-64: Intel Broadwell
      • n1-highmem-96: Intel Skylake
      • m1-megamem-96: Intel Skylake
    • Google Cloud에서 사용하도록 SAP에서 인증한 다른 모든 머신 유형의 최소 CPU 플랫폼은 SAP 최소 CPU 요구사항을 준수합니다.
    secondary_reservation_name 문자열 선택사항. 특정 Compute Engine VM 예약을 사용하여 HA 클러스터의 보조 SAP HANA 인스턴스를 호스팅하는 VM 인스턴스를 프로비저닝하려면 예약 이름을 지정합니다. 기본적으로 설치 스크립트는 다음 조건에 따라 사용 가능한 Compute Engine 예약을 선택합니다.

    예약을 사용할 수 있도록 하려면 이름을 지정했는지 또는 설치 스크립트가 자동으로 예약을 선택했는지 여부에 관계없이 다음을 사용하여 예약을 설정해야 합니다.

    • specificReservationRequired 옵션이 true로 설정되거나 Google Cloud 콘솔에서 특정 예약 선택 옵션이 선택됩니다.
    • 일부 Compute Engine 머신 유형은 머신 유형의 SAP 인증서로 처리되지 않는 CPU 플랫폼을 지원합니다. 다음 머신 유형 중 하나에 대한 대상 예약인 경우 예약에서 다음과 같이 최소 CPU 플랫폼을 지정해야 합니다.
      • n1-highmem-32: Intel Broadwell
      • n1-highmem-64: Intel Broadwell
      • n1-highmem-96: Intel Skylake
      • m1-megamem-96: Intel Skylake
    • Google Cloud에서 사용하도록 SAP에서 인증한 다른 모든 머신 유형의 최소 CPU 플랫폼은 SAP 최소 CPU 요구사항을 준수합니다.
    primary_static_ip 문자열 선택사항. 고가용성 클러스터에서 기본 VM 인스턴스에 대해 적합한 고정 IP 주소를 지정합니다. 지정하지 않으면 VM 인스턴스에 대해 IP 주소가 자동으로 생성됩니다. 예를 들면 128.10.10.10입니다.

    이 인수는 sap_hana_ha 모듈 버전 202306120959 이상에서 사용할 수 있습니다.

    secondary_static_ip 문자열 선택사항. 고가용성 클러스터에서 보조 VM 인스턴스에 대해 적합한 고정 IP 주소를 지정합니다. 지정하지 않으면 VM 인스턴스에 대해 IP 주소가 자동으로 생성됩니다. 예를 들면 128.11.11.11입니다.

    이 인수는 sap_hana_ha 모듈 버전 202306120959 이상에서 사용할 수 있습니다.

    primary_worker_static_ips 목록(문자열) 선택사항입니다. SAP HANA 수평 확장 HA 시스템의 기본 인스턴스에 있는 작업자 인스턴스에 유효한 고정 IP 주소 배열을 지정합니다. 이 인수에 값을 지정하지 않으면 각 작업자 VM 인스턴스에 대해 IP 주소가 자동으로 생성됩니다. 예를 들면 [ "1.0.0.1", "2.3.3.4" ]입니다.

    고정 IP 주소는 인스턴스 생성 순서로 할당됩니다. 예를 들어 작업자 인스턴스를 3개 배포하도록 선택하지만 primary_worker_static_ips 인수에 IP 주소를 2개만 지정하면, 이러한 IP 주소는 Terraform 구성이 배포되는 처음 2개 VM 인스턴스에 할당됩니다. 세 번째 작업자 VM 인스턴스에 대해서는 IP 주소가 자동으로 생성됩니다.

    이 인수는 sap_hana_ha 모듈 버전 202307270727 이상에서 사용할 수 있습니다.

    secondary_worker_static_ips 목록(문자열) 선택사항입니다. SAP HANA 수평 확장 HA 시스템의 보조 인스턴스에 있는 작업자 인스턴스에 유효한 고정 IP 주소 배열을 지정합니다. 이 인수에 값을 지정하지 않으면 각 작업자 VM 인스턴스에 대해 IP 주소가 자동으로 생성됩니다. 예를 들면 [ "1.0.0.2", "2.3.3.5" ]입니다.

    고정 IP 주소는 인스턴스 생성 순서로 할당됩니다. 예를 들어 작업자 인스턴스를 3개 배포하도록 선택하지만 secondary_worker_static_ips 인수에 IP 주소를 2개만 지정하면, 이러한 IP 주소는 Terraform 구성이 배포되는 처음 2개 VM 인스턴스에 할당됩니다. 세 번째 작업자 VM 인스턴스에 대해서는 IP 주소가 자동으로 생성됩니다.

    이 인수는 sap_hana_ha 모듈 버전 202307270727 이상에서 사용할 수 있습니다.

    다음 예시에서는 SLES에서 SAP HANA 수평 확장 시스템의 고가용성 클러스터를 정의하는 완성된 구성 파일을 보여줍니다. 클러스터는 내부 패스 스루 네트워크 부하 분산기를 사용하여 VIP를 관리합니다.

    Terraform은 구성 파일에 정의된 Google Cloud 리소스를 배포한 후 스크립트를 이어서 수행하여 운영체제를 구성하고 SAP HANA를 설치하고 복제를 구성하며 Linux HA 클러스터를 구성합니다.

    명확하게 하기 위해 다음 구성 예시에서는 주석이 생략됩니다.

    # ...
    module "sap_hana_ha" {
    source = "https://storage.googleapis.com/cloudsapdeploy/terraform/latest/terraform/sap_hana_ha/sap_hana_ha_module.zip"
    #
    # By default, this source file uses the latest release of the terraform module
    # for SAP on Google Cloud.  To fix your deployments to a specific release
    # of the module, comment out the source argument above and uncomment the source argument below.
    #
    # source = "https://storage.googleapis.com/cloudsapdeploy/terraform/YYYYMMDDHHMM/terraform/sap_hana_ha/sap_hana_ha_module.zip"
    # ...
    project_id = "example-project-123456"
    machine_type = "n2-highmem-32"
    network = "example-network"
    subnetwork = "example-subnet-us-central1"
    linux_image = "sles-15-sp4-sap"
    linux_image_project = "suse-sap-cloud"
    
    primary_instance_name = "example-ha-vm1"
    primary_zone = "us-central1-a"
    
    secondary_instance_name = "example-ha-vm2"
    secondary_zone = "us-central1-b"
    
    majority_maker_instance_name = "example-ha-mj"
    majority_maker_instance_type = "n2-highmem-32"
    majority_maker_zone = "us-central1-c"
    
    sap_hana_scaleout_nodes = 2
    # ...
    sap_hana_deployment_bucket = "my-hana-bucket"
    sap_hana_sid = "HA1"
    sap_hana_instance_number = 00
    sap_hana_sidadm_password_secret = "hana_sid_adm_pwd"
    sap_hana_system_password_secret = "hana_sys_pwd"
    # ...
    sap_vip = "10.0.0.100"
    primary_instance_group_name = "ig-example-ha-vm1"
    secondary_instance_group_name = "ig-example-ha-vm2"
    loadbalancer_name = "lb-ha1"
    # ...
    network_tags = ["hana-ha-ntwk-tag"]
    service_account = "sap-deploy-example@example-project-123456.iam.gserviceaccount.com"
    primary_static_ip = "10.0.0.1"
    secondary_static_ip = "10.0.0.2"
    primary_worker_static_ips = ["10.0.0.3", "10.0.0.4"]
    secondary_worker_static_ips = ["10.0.0.5", "10.0.0.6"]
    enable_fast_restart = true
    # ...
    }
  6. 현재 작업 디렉터리를 초기화하고 Google Cloud용 Terraform 제공업체 플러그인과 모듈 파일을 다운로드합니다.

    terraform init

    terraform init 명령어는 다른 Terraform 명령어에 사용되는 작업 디렉터리를 준비합니다.

    작업 디렉터리에서 제공업체 플러그인과 구성 파일을 강제로 새로고침하려면 --upgrade 플래그를 지정합니다. --upgrade 플래그가 생략되고 작업 디렉터리를 변경하지 않으면 Terraform은 latestsource URL에 지정되더라도 로컬에서 캐시된 복사본을 사용합니다.

    terraform init --upgrade 
  7. 선택적으로 Terraform 실행 계획을 만듭니다.

    terraform plan

    terraform plan 명령어에서는 현재 구성에 필요한 변경사항을 보여줍니다. 이 단계를 건너뛰면 terraform apply 명령어가 자동으로 새 계획을 만들고 승인하라는 메시지를 표시합니다.

  8. 실행 계획을 적용합니다.

    terraform apply

    작업을 승인하라는 메시지가 표시되면 yes를 입력합니다.

    terraform apply 명령어는 Google Cloud 인프라를 설정한 후 HA 클러스터를 구성하고 Terraform의 구성 파일에 정의된 인수에 따라 SAP HANA를 설치하는 스크립트를 직접 제어합니다.

    Terraform에는 제어 기능이 있지만 상태 메시지는 Cloud Shell에 기록됩니다. 스크립트가 호출되면 상태 메시지는 Logging에 기록되며 로그 확인의 설명대로 Google Cloud 콘솔에서 이 메시지를 볼 수 있습니다.

HANA HA 시스템 배포 확인

SAP HANA HA 클러스터 확인에는 다음과 같은 여러 다양한 절차가 포함됩니다.

  • Logging 확인
  • SAP HANA 설치 및 VM의 구성 확인
  • 클러스터 구성 확인
  • 부하 분산기 및 인스턴스 그룹 상태 확인
  • SAP HANA Studio를 사용하여 SAP HANA 시스템 확인
  • 장애 조치 테스트 수행

로그 확인

  1. Google Cloud 콘솔에서 Cloud Logging을 열어 설치 진행 상황을 모니터링하고 오류를 확인합니다.

    Cloud Logging으로 이동

  2. 로그를 필터링합니다.

    로그 탐색기

    1. 로그 탐색기 페이지에서 쿼리 창으로 이동합니다.

    2. 리소스 드롭다운 메뉴에서 전역을 선택한 후 추가를 클릭합니다.

      전역 옵션이 표시되지 않으면 쿼리 편집기에 다음 쿼리를 입력합니다.

      resource.type="global"
      "Deployment"
      
    3. 쿼리 실행을 클릭합니다.

    기존 로그 뷰어

    • 기존 로그 뷰어 페이지의 기본 선택기 메뉴에서 전역을 로깅 리소스로 선택합니다.
  3. 필터링된 로그를 분석합니다.

    • "--- Finished"가 표시되면 배포 처리가 완료된 것이므로 다음 단계를 진행할 수 있습니다.
    • 할당량 오류가 표시되면 다음을 수행합니다.

      1. IAM 및 관리자 할당량 페이지에서 SAP HANA 계획 가이드에 나와 있는 SAP HANA 요구사항을 충족하지 않는 할당량을 늘립니다.

      2. Cloud Shell을 엽니다.

        Cloud Shell로 이동

      3. 작업 디렉터리로 이동하고 배포를 삭제하여 설치에 실패한 VM과 영구 디스크를 삭제합니다.

        terraform destroy

        작업을 승인하라는 메시지가 표시되면 yes를 입력합니다.

      4. 배포를 다시 실행합니다.

SAP HANA 설치 및 VM의 구성 확인

  1. SAP HANA 시스템이 오류 없이 배포되면 SSH를 사용하여 각 VM에 연결합니다. Compute Engine VM 인스턴스 페이지에서 각 VM 인스턴스의 SSH 버튼을 클릭하거나 선호하는 SSH 방법을 사용할 수 있습니다.

    Compute Engine VM 인스턴스 페이지의 SSH 버튼

  2. 루트 사용자로 전환합니다.

    sudo su -
  3. 명령 프롬프트에서 다음을 입력합니다.

    df -h

    출력은 다음 예시와 비슷합니다. 출력에 /hana/data 같은 /hana 디렉터리가 포함되어 있는지 확인합니다.

    example-ha-vm1:~ # df -h
    Filesystem                         Size  Used Avail Use% Mounted on
    devtmpfs                           4.0M  8.0K  4.0M   1% /dev
    tmpfs                              189G   48M  189G   1% /dev/shm
    tmpfs                               51G   26M   51G   1% /run
    tmpfs                              4.0M     0  4.0M   0% /sys/fs/cgroup
    /dev/sda3                           30G  6.2G   24G  21% /
    /dev/sda2                           20M  3.0M   17M  15% /boot/efi
    /dev/mapper/vg_hana_shared-shared  256G   41G  215G  16% /hana/shared
    /dev/mapper/vg_hana_data-data      308G   12G  297G   4% /hana/data
    /dev/mapper/vg_hana_log-log        128G  8.8G  120G   7% /hana/log
    /dev/mapper/vg_hana_usrsap-usrsap   32G  265M   32G   1% /usr/sap
    /dev/mapper/vg_hanabackup-backup   512G  8.5G  504G   2% /hanabackup
    tmpfs                               26G     0   26G   0% /run/user/174
    tmpfs                               26G     0   26G   0% /run/user/900
    tmpfs                               26G     0   26G   0% /run/user/0
    tmpfs                               26G     0   26G   0% /run/user/1000
  4. 사용자의 운영체제에 해당하는 상태 명령어를 입력하여 새 클러스터의 상태를 확인합니다.

    crm status
    

    다음 예시와 비슷한 출력이 표시됩니다. 이 예시에서는 기본 및 보조 SAP HANA 시스템의 VM 인스턴스와 주요 제조업체 인스턴스가 시작됩니다. example-ha-vm1은 활성 기본 인스턴스입니다.

    example-ha-vm1:~ # crm status
    Cluster Summary:
      * Stack: corosync
      * Current DC: example-ha-vm1 (version 2.1.2+20211124.ada5c3b36-150400.4.9.2-2.1.2+20211124.ada5c3b36) - partition with quorum
      * Last updated: Sat Jul 15 19:42:56 2023
      * Last change:  Sat Jul 15 19:42:21 2023 by root via crm_attribute on example-ha-vm1
      * 7 nodes configured
      * 23 resource instances configured
    
    Node List:
      * Online: [ example-ha-mj example-ha-vm1 example-ha-vm1w1 example-ha-vm1w2 example-ha-vm2 example-ha-vm2w1 example-ha-vm2w2 ]
    
    Full List of Resources:
      * STONITH-example-ha-vm1  (stonith:external/gcpstonith):   Started example-ha-mj
      * STONITH-example-ha-vm2        (stonith:external/gcpstonith):   Started example-ha-vm1
      * STONITH-example-ha-mjw2     (stonith:external/gcpstonith):   Started example-ha-vm1w1
      * STONITH-example-ha-vm1w1        (stonith:external/gcpstonith):   Started example-ha-vm1w2
      * STONITH-example-ha-vm2w1      (stonith:external/gcpstonith):   Started example-ha-vm2
      * STONITH-example-ha-vm1w2        (stonith:external/gcpstonith):   Started example-ha-vm2w1
      * STONITH-example-ha-vm2w2      (stonith:external/gcpstonith):   Started example-ha-mj
      * Resource Group: g-primary:
        * rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started example-ha-vm1
        * rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started example-ha-vm1
      * Clone Set: cln_SAPHanaTopology_HA1_HDB00 [rsc_SAPHanaTopology_HA1_HDB00]:
        * Started: [ example-ha-vm1 example-ha-vm1w1 example-ha-vm1w2 example-ha-vm2 example-ha-vm2w1 example-ha-vm2w2 ]
        * Stopped: [ example-ha-mj ]
      * Clone Set: msl_SAPHana_HA1_HDB00 [rsc_SAPHana_HA1_HDB00] (promotable):
        * Masters: [ example-ha-vm1 ]
        * Slaves: [ example-ha-vm1w1 example-ha-vm1w2 example-ha-vm2 example-ha-vm2w1 example-ha-vm2w2 ]
        * Stopped: [ example-ha-mj ]
  5. 다음 명령어에서 SID_LCsap_hana_ha.tf 파일에 지정한 sap_hana_sid 값으로 바꿔 SAP 관리자로 전환합니다. SID_LC 값은 소문자여야 합니다.

    su - SID_LCadm
    
  6. 다음 명령어를 입력하여 SAP HANA 서비스(예: hdbnameserver, hdbindexserver)가 인스턴스에서 실행 중인지 확인합니다.

    HDB info
    

클러스터 구성 확인

클러스터가 성공적으로 배포되면 클러스터의 매개변수 설정을 확인해야 합니다. 클러스터 소프트웨어에 표시된 설정과 클러스터 구성 파일의 매개변수 설정을 모두 확인합니다. 이 가이드에서 사용된 자동화 스크립트에서 만든 다음 예시의 설정과 자체 설정을 비교합니다.

  1. 클러스터 리소스 구성을 표시합니다.

    crm config show

    이 가이드에서 사용된 자동화 스크립트는 다음 예시와 같이 리소스 구성을 만듭니다.

      node 1: example-ha-vm1 \
        attributes hana_ha1_site=example-ha-vm1 hana_ha1_gra=2.0
      node 2: example-ha-vm2 \
        attributes hana_ha1_site=example-ha-vm2 hana_ha1_gra=2.0
      node 3: example-ha-mj
      node 4: example-ha-vm1w1 \
        attributes hana_ha1_site=example-ha-vm1 hana_ha1_gra=2.0
      node 5: example-ha-vm2w1 \
        attributes hana_ha1_site=example-ha-vm2 hana_ha1_gra=2.0
      node 6: example-ha-vm1w2 \
        attributes hana_ha1_site=example-ha-vm1 hana_ha1_gra=2.0
      node 7: example-ha-vm2w2 \
        attributes hana_ha1_site=example-ha-vm2 hana_ha1_gra=2.0
      primitive STONITH-example-ha-mjw2 stonith:external/gcpstonith \
        params instance_name=example-ha-mjw2 gcloud_path="/usr/bin/gcloud" logging=yes pcmk_reboot_timeout=300 pcmk_monitor_retries=4 pcmk_delay_max=30 \
        op monitor interval=300s timeout=120s \
        op start interval=0 timeout=60s \
        op stop timeout=15 interval=0s
      primitive STONITH-example-ha-vm1 stonith:external/gcpstonith \
        params instance_name=example-ha-vm1 gcloud_path="/usr/bin/gcloud" logging=yes pcmk_reboot_timeout=300 pcmk_monitor_retries=4 pcmk_delay_max=30 \
        op monitor interval=300s timeout=120s \
        op start interval=0 timeout=60s \
        op stop timeout=15 interval=0s
      primitive STONITH-example-ha-vm1w1 stonith:external/gcpstonith \
        params instance_name=example-ha-vm1w1 gcloud_path="/usr/bin/gcloud" logging=yes pcmk_reboot_timeout=300 pcmk_monitor_retries=4 pcmk_delay_max=30 \
        op monitor interval=300s timeout=120s \
        op start interval=0 timeout=60s \
        op stop timeout=15 interval=0s
      primitive STONITH-example-ha-vm1w2 stonith:external/gcpstonith \
        params instance_name=example-ha-vm1w2 gcloud_path="/usr/bin/gcloud" logging=yes pcmk_reboot_timeout=300 pcmk_monitor_retries=4 pcmk_delay_max=30 \
        op monitor interval=300s timeout=120s \
        op start interval=0 timeout=60s \
        op stop timeout=15 interval=0s
      primitive STONITH-example-ha-vm2 stonith:external/gcpstonith \
        params instance_name=example-ha-vm2 gcloud_path="/usr/bin/gcloud" logging=yes pcmk_reboot_timeout=300 pcmk_monitor_retries=4 \
        op monitor interval=300s timeout=120s \
        op start interval=0 timeout=60s \
        op stop timeout=15 interval=0s
      primitive STONITH-example-ha-vm2w1 stonith:external/gcpstonith \
        params instance_name=example-ha-vm2w1 gcloud_path="/usr/bin/gcloud" logging=yes pcmk_reboot_timeout=300 pcmk_monitor_retries=4 \
        op monitor interval=300s timeout=120s \
        op start interval=0 timeout=60s \
        op stop timeout=15 interval=0s
      primitive STONITH-example-ha-vm2w2 stonith:external/gcpstonith \
        params instance_name=example-ha-vm2w2 gcloud_path="/usr/bin/gcloud" logging=yes pcmk_reboot_timeout=300 pcmk_monitor_retries=4 \
        op monitor interval=300s timeout=120s \
        op start interval=0 timeout=60s \
        op stop timeout=15 interval=0s
      primitive rsc_SAPHanaTopology_HA1_HDB00 ocf:suse:SAPHanaTopology \
        operations $id=rsc_sap2_HA1_HDB00-operations \
        op monitor interval=10 timeout=600 \
        op start interval=0 timeout=600 \
        op stop interval=0 timeout=300 \
        params SID=HA1 InstanceNumber=00
      primitive rsc_SAPHana_HA1_HDB00 ocf:suse:SAPHanaController \
        op start interval=0 timeout=3600 \
        op stop interval=0 timeout=3600 \
        op promote interval=0 timeout=3600 \
        op demote interval=0 timeout=3600 \
        op monitor interval=60 role=Master timeout=700 \
        op monitor interval=61 role=Slave timeout=700 \
        params SID=HA1 InstanceNumber=00 PREFER_SITE_TAKEOVER=true DUPLICATE_PRIMARY_TIMEOUT=7200 AUTOMATED_REGISTER=true
      primitive rsc_vip_hc-primary anything \
        params binfile="/usr/bin/socat" cmdline_options="-U TCP-LISTEN:60000,backlog=10,fork,reuseaddr /dev/null" \
        op monitor timeout=20s interval=10s \
        op_params depth=0 \
        op start timeout=20s interval=0s \
        op stop timeout=20s interval=0s
      primitive rsc_vip_int-primary IPaddr2 \
        params ip=10.1.0.23 cidr_netmask=32 nic=eth0 \
        op monitor interval=3600s timeout=60s \
        op start timeout=20s interval=0s \
        op stop timeout=20s interval=0s
      group g-primary rsc_vip_int-primary rsc_vip_hc-primary \
        meta resource-stickiness=0
      ms msl_SAPHana_HA1_HDB00 rsc_SAPHana_HA1_HDB00 \
        meta clone-node-max=1 master-max=1 interleave=true target-role=Started interleave=true
      clone cln_SAPHanaTopology_HA1_HDB00 rsc_SAPHanaTopology_HA1_HDB00 \
        meta clone-node-max=1 target-role=Started interleave=true
      location LOC_STONITH_example-ha-vm1 STONITH-example-ha-vm1 -inf: example-ha-vm1
      location LOC_STONITH_example-ha-vm1w1 STONITH-example-ha-vm1w1 -inf: example-ha-vm1w1
      location LOC_STONITH_example-ha-vm1w2 STONITH-example-ha-vm1w2 -inf: example-ha-vm1w2
      location LOC_STONITH_example-ha-vm2 STONITH-example-ha-vm2 -inf: example-ha-vm2
      location LOC_STONITH_example-ha-vm2w1 STONITH-example-ha-vm2w1 -inf: example-ha-vm2w1
      location LOC_STONITH_example-ha-vm2w2 STONITH-example-ha-vm2w2 -inf: example-ha-vm2w2
      location SAPHanaCon_not_on_mm msl_SAPHana_HA1_HDB00 -inf: example-ha-mj
      location SAPHanaTop_not_on_mm cln_SAPHanaTopology_HA1_HDB00 -inf: example-ha-mj
      colocation col_saphana_ip_HA1_HDB00 4000: g-primary:Started msl_SAPHana_HA1_HDB00:Master
      order ord_SAPHana_HA1_HDB00 Optional: cln_SAPHanaTopology_HA1_HDB00 msl_SAPHana_HA1_HDB00
      property SAPHanaSR: \
        hana_ha1_glob_mts=true \
        hana_ha1_site_srHook_example-ha-vm2=SOK \
        hana_ha1_site_lss_example-ha-vm1=4 \
        hana_ha1_site_srr_example-ha-vm1=P \
        hana_ha1_site_lss_example-ha-vm2=4 \
        hana_ha1_site_srr_example-ha-vm2=S \
        hana_ha1_glob_srmode=syncmem \
        hana_ha1_glob_upd=ok \
        hana_ha1_site_mns_example-ha-vm1=example-ha-vm1 \
        hana_ha1_site_mns_example-ha-vm2=example-ha-vm2 \
        hana_ha1_site_lpt_example-ha-vm2=30 \
        hana_ha1_site_srHook_example-ha-vm1=PRIM \
        hana_ha1_site_lpt_example-ha-vm1=1689450463 \
        hana_ha1_glob_sync_state=SOK \
        hana_ha1_glob_prim=example-ha-vm1
      property cib-bootstrap-options: \
        have-watchdog=false \
        dc-version="2.1.2+20211124.ada5c3b36-150400.4.9.2-2.1.2+20211124.ada5c3b36" \
        cluster-infrastructure=corosync \
        cluster-name=hacluster \
        maintenance-mode=false \
        stonith-timeout=300s \
        stonith-enabled=true \
        concurrent-fencing=true
      rsc_defaults build-resource-defaults: \
        resource-stickiness=1000 \
        migration-threshold=5000
      op_defaults op-options: \
        timeout=600
    
  2. 클러스터 구성 파일 corosync.conf를 표시합니다.

    cat /etc/corosync/corosync.conf

    이 가이드에서 사용된 자동화 스크립트는 다음 예시와 같이 corosync.conf 파일에 매개변수 설정을 지정합니다.

      totem {
        version: 2
        secauth: off
        crypto_hash: sha1
        crypto_cipher: aes256
        cluster_name: hacluster
        clear_node_high_bit: yes
        token: 20000
        token_retransmits_before_loss_const: 10
        join: 60
        max_messages: 20
        transport: udpu
        interface {
          ringnumber: 0
          bindnetaddr: "10.1.0.7"
          mcastport: 5405
          ttl: 1
        }
      }
      logging {
        fileline: off
        to_stderr: no
        to_logfile: no
        logfile: /var/log/cluster/corosync.log
        to_syslog: yes
        debug: off
        timestamp: on
        logger_subsys {
          subsys: QUORUM
          debug: off
        }
      }
      quorum {
        provider: corosync_votequorum
    
      }
      nodelist {
        node {
          ring0_addr: example-ha-vm1
          nodeid: 1
        }
        node {
          ring0_addr: example-ha-vm2
          nodeid: 2
        }
        node {
          ring0_addr: example-ha-mj
          nodeid: 3
         }
        node {
          ring0_addr: example-ha-vm1w1
          nodeid: 4
         }
        node {
          ring0_addr: example-ha-vm2w1
          nodeid: 5
         }
        node {
          ring0_addr: example-ha-vm1w2
          nodeid: 6
         }
        node {
          ring0_addr: example-ha-vm2w2
          nodeid: 7
         }
      }
    

부하 분산기 및 인스턴스 그룹 상태 확인

부하 분산기와 상태 점검이 올바르게 설정되었는지 확인하려면 Google Cloud 콘솔에서 부하 분산기와 인스턴스 그룹을 확인합니다.

  1. Google Cloud 콘솔에서 부하 분산 페이지를 엽니다.

    Cloud Load Balancing으로 이동

  2. 부하 분산기 목록에서 HA 클러스터용 부하 분산기가 생성되었는지 확인합니다.

  3. 부하 분산기 세부정보 페이지의백엔드 섹션 아래에 있는 정상 열에서 인스턴스 그룹 중 하나가 1/1을 표시하고 다른 인스턴스 그룹이 0/1을 표시하는지 확인합니다. 장애 조치 후 정상 표시기인 1/1이 새 활성 인스턴스 그룹으로 전환됩니다.

    '1/1'로 표시된 활성 기본 인스턴스 그룹과 '0/1'로 표시된 비활성 보조 인스턴스 그룹과 함께 부하 분산기 세부정보 페이지가 표시됩니다.

SAP HANA Studio를 사용하여 SAP HANA 시스템 확인

SAP HANA Cockpit 또는 SAP HANA Studio를 사용하여 고가용성 클러스터에서 SAP HANA 시스템을 모니터링하고 관리할 수 있습니다.

  1. SAP HANA Studio를 사용하여 HANA 시스템에 연결합니다. 연결을 정의할 때 다음 값을 지정합니다.

    • Specify System(시스템 지정) 패널에서 Host Name(호스트 이름)으로 유동 IP 주소를 지정합니다.
    • Connection Properties(연결 속성) 패널에서 데이터베이스 사용자 인증에 데이터베이스 수퍼유저 이름과 sap_hana_ha.tf 파일의 sap_hana_system_password 인수에 지정한 비밀번호를 지정합니다.

    SAP HANA Studio 설치에 대한 SAP 정보는 SAP HANA Studio 설치 및 업데이트 가이드를 참조하세요.

  2. SAP HANA Studio가 HANA HA 시스템에 연결된 후 창 왼쪽의 탐색창에 있는 시스템 이름을 더블클릭하여 시스템 개요를 표시합니다.

    SAP HANA Studio의 탐색창 스크린샷

  3. 개요 탭의 일반 정보에서 다음을 확인합니다.

    • 작업 상태All services started가 표시됩니다.
    • 시스템 복제 상태All services are active and in sync가 표시됩니다.

    SAP HANA Studio의 개요 탭 스크린샷

  4. 일반 정보 아래의 시스템 복제 상태 링크를 클릭하여 복제 모드를 확인합니다. 동기 복제는 시스템 복제 탭에서 REPLICATION_MODE 열의 SYNCMEM에 나타납니다.

    SAP HANA Studio의 System Replication Status(시스템 복제 상태) 탭 스크린샷

배포 삭제 및 재시도

이전 섹션의 배포 확인 단계에서 설치 실패를 표시하면 다음 단계를 완료하여 배포를 실행취소하고 재시도해야 합니다.

  1. 같은 이유로 배포가 다시 실패하지 않도록 오류를 해결합니다. 로그 확인 또는 할당량 관련 오류 해결에 대한 자세한 내용은 로그 확인을 참조하세요.

  2. Cloud Shell을 열거나 로컬 워크스테이션에 Google Cloud CLI를 설치한 경우에는 터미널을 엽니다.

    Cloud Shell 열기

  3. 이 배포에 사용된 Terraform 구성 파일이 있는 디렉터리로 이동합니다.

  4. 다음 명령어를 실행하여 배포에 포함된 모든 리소스를 삭제합니다.

    terraform destroy

    작업을 승인하라는 메시지가 표시되면 yes를 입력합니다.

  5. 이 가이드의 앞부분에서 설명한 대로 배포를 재시도합니다.

장애 조치 테스트 수행

SAP HANA 시스템이 성공적으로 배포되었는지 확인한 다음 장애 조치 기능을 테스트해야 합니다.

다음 안내에서는 ip link set eth0 down 명령어를 사용하여 네트워크 인터페이스를 오프라인으로 전환합니다. 이 명령어는 장애 조치와 펜싱의 유효성을 모두 확인합니다.

장애 조치 테스트를 수행하려면 다음 단계를 완료합니다.

  1. 기본 SAP HANA 인스턴스에서 SSH를 사용하여 마스터 노드에 연결합니다. 각 VM 인스턴스의 SSH 버튼을 클릭하여 Compute Engine VM 인스턴스 페이지에서 연결하거나 선호하는 SSH 방법을 사용할 수 있습니다.

  2. 명령어 프롬프트에서 다음 명령어를 입력합니다.

    ip link set eth0 down

    ip link set eth0 down 명령어는 기본 SAP HANA 인스턴스와의 통신을 끊어 장애 조치를 트리거합니다.

  3. SSH를 사용하여 클러스터의 다른 노드에 연결하고 루트 사용자로 전환합니다.

  4. 다음 명령어를 실행하여 보조 인스턴스를 포함하는 데 사용된 VM에서 기본 SAP HANA 인스턴스가 현재 활성 상태인지 확인합니다.

    crm status
    

    클러스터에 자동으로 다시 시작이 사용 설정되어 있으므로 중지된 인스턴스가 다시 시작되고 보조 인스턴스가 역할을 합니다. 다음 예시에서는 각 SAP HANA 인스턴스의 역할이 전환되었음을 보여줍니다.

    example-ha-vm2:~ # crm status
    Cluster Summary:
      * Stack: corosync
      * Current DC: example-ha-vm2 (version 2.1.2+20211124.ada5c3b36-150400.4.9.2-2.1.2+20211124.ada5c3b36) - partition with quorum
      * Last updated: Mon Jul 17 19:47:11 2023
      * Last change:  Mon Jul 17 19:46:56 2023 by root via crm_attribute on example-ha-vm2
      * 7 nodes configured
      * 23 resource instances configured
    
    Node List:
      * Online: [ example-ha-mj example-ha-vm1 example-ha-vm1w1 example-ha-vm1w2 example-ha-vm2 example-ha-vm2w1 example-ha-vm2w2 ]
    
    Full List of Resources:
      * STONITH-example-ha-vm1      (stonith:external/gcpstonith):   Started example-ha-mj
      * STONITH-example-ha-vm2      (stonith:external/gcpstonith):   Started example-ha-vm1w1
      * STONITH-example-ha-mjw2     (stonith:external/gcpstonith):   Started example-ha-vm1w1
      * STONITH-example-ha-vm1w1    (stonith:external/gcpstonith):   Started example-ha-vm1w2
      * STONITH-example-ha-vm2w1    (stonith:external/gcpstonith):   Started example-ha-vm2
      * STONITH-example-ha-vm1w2    (stonith:external/gcpstonith):   Started example-ha-vm2w1
      * STONITH-example-ha-vm2w2    (stonith:external/gcpstonith):   Started example-ha-mj
      * Resource Group: g-primary:
        * rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started example-ha-vm2
        * rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started example-ha-vm2
      * Clone Set: cln_SAPHanaTopology_HA1_HDB00 [rsc_SAPHanaTopology_HA1_HDB00]:
        * Started: [ example-ha-vm1 example-ha-vm1w1 example-ha-vm1w2 example-ha-vm2 example-ha-vm2w1 example-ha-vm2w2 ]
        * Stopped: [ example-ha-mj ]
      * Clone Set: msl_SAPHana_HA1_HDB00 [rsc_SAPHana_HA1_HDB00] (promotable):
        * Masters: [ example-ha-vm2 ]
        * Slaves: [ example-ha-vm1 example-ha-vm1w1 example-ha-vm1w2 example-ha-vm2w1 example-ha-vm2w2 ]
        * Stopped: [ example-ha-mj ]
  5. Google Cloud 콘솔의 부하 분산기 세부정보 페이지에서 새 활성 기본 인스턴스가 정상 열에서 1/1을 표시하는지 확인합니다. 필요한 경우 페이지를 새로고칩니다.

    Cloud Load Balancing으로 이동

    예를 들면 다음 이미지를 참조하세요.

    정상 열의 '1/1'를 표시하는 'ig-example-ha-vm2' 인스턴스가 있는 부하 분산기 세부정보 페이지를 표시합니다.

  6. SAP HANA Studio에서 탐색창의 시스템 항목을 더블클릭하여 시스템 정보를 새로고쳐 시스템에 여전히 연결되어 있는지 확인합니다.

  7. System Replication Status(시스템 복제 상태) 링크를 클릭하여 기본 및 보조 호스트가 호스트를 바꿨고 활성 상태인지 확인합니다.

    SAP HANA Studio의 System Replication Status(시스템 복제 상태) 탭 스크린샷

SAP용 Google Cloud 에이전트 설치 검증

인프라가 배포되고 SAP HANA 시스템이 설치된 후 SAP용 Google Cloud 에이전트가 올바르게 작동하는지 확인합니다.

SAP용 Google Cloud 에이전트가 실행 중인지 확인

에이전트가 실행 중인지 확인하려면 다음 단계를 따릅니다.

  1. 호스트 VM 인스턴스와 SSH 연결을 설정합니다.

  2. 다음 명령어를 실행합니다.

    systemctl status google-cloud-sap-agent

    에이전트가 올바르게 작동하는 경우 출력에 active (running)이 포함됩니다. 예를 들면 다음과 같습니다.

    google-cloud-sap-agent.service - Google Cloud Agent for SAP
    Loaded: loaded (/usr/lib/systemd/system/google-cloud-sap-agent.service; enabled; vendor preset: disabled)
    Active:  active (running)  since Fri 2022-12-02 07:21:42 UTC; 4 days ago
    Main PID: 1337673 (google-cloud-sa)
    Tasks: 9 (limit: 100427)
    Memory: 22.4 M (max: 1.0G limit: 1.0G)
    CGroup: /system.slice/google-cloud-sap-agent.service
           └─1337673 /usr/bin/google-cloud-sap-agent
    

에이전트가 실행되고 있지 않으면 에이전트를 다시 시작합니다.

SAP 호스트 에이전트가 측정항목을 수신하는지 확인

SAP용 Google Cloud 에이전트가 인프라 측정항목을 수집하고 SAP 호스트 에이전트로 올바르게 전송하는지 확인하려면 다음 단계를 수행하세요.

  1. SAP 시스템에서 ST06 트랜잭션을 입력합니다.
  2. 개요 창에서 다음 필드의 가용성과 콘텐츠를 확인하여 SAP 및 Google 모니터링 인프라의 엔드 투 엔드 설정이 올바른지 확인합니다.

    • 클라우드 제공업체: Google Cloud Platform
    • 향상된 모니터링 액세스: TRUE
    • 향상된 모니터링 세부정보: ACTIVE

SAP HANA 모니터링 설정

선택적으로 SAP용 Google Cloud 에이전트를 사용해서 SAP HANA 인스턴스를 모니터링할 수 있습니다. 버전 2.0부터는 SAP HANA 모니터링 측정항목을 수집하고 이를 Cloud Monitoring으로 전송하도록 에이전트를 구성할 수 있습니다. Cloud Monitoring을 사용하면 대시보드를 만들어서 이러한 측정항목을 시각화하고, 측정항목 임곗값을 기반으로 알림을 설정할 수 있습니다.

SAP용 Google Cloud 에이전트를 사용하는 SAP HANA 모니터링 측정항목 수집에 대한 자세한 내용은 SAP HANA 모니터링 측정항목 수집을 참조하세요.

SAP HANA에 연결

이 안내에서는 SAP HANA에 외부 IP 주소를 사용하지 않으므로 SSH를 사용하여 배스천 인스턴스를 통하거나 SAP HANA Studio를 사용하여 Windows Server를 통해서만 SAP HANA 인스턴스에 연결할 수 있습니다.

  • 배스천 인스턴스를 통해 SAP HANA에 연결하려면 배스천 호스트에 연결한 다음 원하는 SSH 클라이언트를 사용하여 SAP HANA 인스턴스에 연결합니다.

  • SAP HANA Studio를 통해 SAP HANA 데이터베이스에 연결하려면 원격 데스크톱 클라이언트를 사용하여 Windows Server 인스턴스에 연결합니다. 연결 후 수동으로 SAP HANA Studio를 설치하고 SAP HANA 데이터베이스에 액세스합니다.

HANA 활성/활성(읽기 지원) 구성

SAP HANA 2.0 SPS1부터는 Pacemaker 클러스터에서 HANA 활성/활성(읽기 지원)을 구성할 수 있습니다. 자세한 내용은 SUSE Pacemaker 클러스터에서 HANA 활성/활성(읽기 지원) 구성을 참조하세요.

배포 후 태스크 수행

SAP HANA 인스턴스를 사용하기 전에 다음과 같은 배포 후 단계를 수행하는 것이 좋습니다. 자세한 내용은 SAP HANA 설치 및 업데이트 가이드를 참조하세요.

  1. SAP HANA 시스템 관리자와 데이터베이스 수퍼유저의 임시 비밀번호를 변경합니다.

  2. SAP HANA 소프트웨어를 최신 패치로 업데이트합니다.

  3. SAP HANA 시스템이 VirtIO 네트워크 인터페이스에 배포된 경우 TCP 매개변수 /proc/sys/net/ipv4/tcp_limit_output_bytes 값이 1048576으로 설정되어 있는지 확인하는 것이 좋습니다. 이러한 수정은 네트워크 지연 시간에 영향을 주지 않으면서 VirtIO 네트워크 인터페이스에서 전체적인 네트워크 처리량을 향상시키는 데 도움이 됩니다.

  4. Application Function Libraries(AFL) 또는 Smart Data Access(SDA)와 같은 추가 구성요소를 설치합니다.

  5. 새로운 SAP HANA 데이터베이스를 구성 및 백업합니다. 자세한 내용은 SAP HANA 운영 가이드를 참조하세요.

SAP HANA 워크로드 평가

Google Cloud에서 실행되는 SAP HANA 고가용성 워크로드에 대한 지속적 검증 확인을 자동화하려면 워크로드 관리자를 사용하면 됩니다.

워크로드 관리자를 사용하면 SAP HANA 고가용성 워크로드를 SAP, Google Cloud, OS 공급업체의 권장사항에 따라 자동으로 스캔하고 평가할 수 있습니다. 이를 통해 워크로드의 품질, 성능, 안정성을 향상시킬 수 있습니다.

Google Cloud에서 실행되는 SAP HANA 고가용성 워크로드를 평가할 수 있도록 워크로드 관리자가 지원하는 권장사항에 대한 자세한 내용은 SAP용 워크로드 관리자 권장사항을 참조하세요. 워크로드 관리자를 사용하여 평가를 만들고 실행하는 방법은 평가 작성 및 실행을 참조하세요.

문제 해결

SLES 기반 SAP HANA의 고가용성 구성 문제를 해결하려면 SAP의 고가용성 구성 문제 해결을 참조하세요.

지원 받기

SLES 기반 SAP HANA의 고가용성 클러스터 문제를 해결하는 데 도움이 필요하면 필요한 진단 정보를 수집하고 Cloud Customer Care에 문의해야 합니다. 자세한 내용은 SLES의 고가용성 클러스터 진단 정보를 참조하세요.

다음 단계