SLES의 수직 확장 HA 클러스터에서 SAPHanaSR을 SAPHanaSR-angi로 업그레이드

이 문서에서는 Google Cloud에서 실행되는 SLES 기반 확장형 고가용성 (HA) 클러스터에서 SAPHanaSR 리소스 에이전트를 SAPHanaSR 고급 차세대 인터페이스 (SAPHanaSR-angi) 리소스 에이전트로 업그레이드하는 방법을 설명합니다.

SAPHanaSR-angiSAPHanaSR의 후속 버전입니다. 또한 SLES for SAP 15 SP6부터 Google Cloud 는 SAPHanaSR-angi를 사용하는 것이 좋습니다. 이 리소스 에이전트의 이점 등 자세한 내용은 SUSE 페이지 SAPHanaSR-angi란 무엇인가요?를 참고하세요.

업그레이드 절차를 설명하기 위해 이 가이드에서는 SID가 ABC인 SAP 15 SP4용 SLES에서 실행되는 SAP HANA 수직 확장 HA 시스템을 가정합니다. 이 업그레이드 절차는 SUSE 블로그 SAPHanaSR-angi로 업그레이드하는 방법에서 가져온 것입니다.

시작하기 전에

SLES 기반 SAP HANA 확장 HA 클러스터에서 SAPHanaSR에서 SAPHanaSR-angi로 업그레이드하기 전에 SLES 15 SP4 이상 버전 중 하나의 최신 패치를 사용하고 있는지 확인합니다.

이전 OS 버전을 사용하는 경우 먼저 이러한 OS 버전 중 하나의 최신 패치로 업데이트해야 합니다. 이러한 OS 버전의 최신 패치에만 SUSE에서 이 업그레이드용으로 제공한 SAPHanaSR-upgrade-to-angi-demo 스크립트가 포함되어 있습니다. 스크립트는 /usr/share/SAPHanaSR/samples 디렉터리에서 사용할 수 있습니다.

확장 클러스터에서 SAPHanaSR-angi 리소스 에이전트로 업그레이드

SLES 기반 SAP HANA 수직 확장 HA 클러스터에서 SAPHanaSR-angi 리소스 에이전트로 업그레이드하려면 다음 단계를 완료하세요.

  1. 업그레이드할 인스턴스 준비
  2. 클러스터에서 리소스 구성 삭제
  3. 클러스터에 리소스 구성 추가
  4. HANA 클러스터 속성의 세부정보를 확인합니다.

업그레이드할 인스턴스 준비

  1. SAP HANA HA 시스템의 기본 인스턴스에서 ClusterTools2 Linux 패키지를 설치합니다.

    zypper -y install ClusterTools2

    패키지 설치 확인

    ClusterTools2 패키지 설치를 확인합니다.

    zypper info ClusterTools2

    출력은 다음과 비슷합니다.

    Information for package ClusterTools2:
     --------------------------------------
     Repository     : SLE-Module-SAP-Applications15-SP4-Updates
     Name           : ClusterTools2
     Version        : 3.1.3-150100.8.12.1
     Arch           : noarch
     Vendor         : SUSE LLC <https://www.suse.com/>
     Support Level  : Level 3
     Installed Size : 340.1 KiB
     Installed      : Yes
     Status         : up-to-date
     Source package : ClusterTools2-3.1.3-150100.8.12.1.src
     Upstream URL   : http://www.suse.com
     Summary        : Tools for cluster management
     Description    :
         ClusterTools2 provides tools for setting up and managing a corosync/
         pacemaker cluster.
         There are some other commandline tools to make life easier.
         Starting with version 3.0.0 is support for SUSE Linux Enterprise Server 12.
  2. SUSE에서 제공한 SAPHanaSR-upgrade-to-angi-demo 데모 스크립트를 /root/bin에 복사합니다. 이 스크립트는 구성 파일의 백업을 실행하고 업그레이드에 필요한 명령어를 생성합니다.

    데모 스크립트를 /root/bin에 복사하려면 다음 단계를 따르세요.

    cp -p /usr/share/SAPHanaSR/samples/SAPHanaSR-upgrade-to-angi-demo /root/bin/
    cd /root/bin
    ls -lrt

    출력은 다음 예시와 비슷합니다.

    ...
    -r--r--r-- 1 root root   157 Nov  8 14:45 global.ini_susTkOver
    -r--r--r-- 1 root root   133 Nov  8 14:45 global.ini_susHanaSR
    -r--r--r-- 1 root root   157 Nov  8 14:45 global.ini_susCostOpt
    -r--r--r-- 1 root root   175 Nov  8 14:45 global.ini_susChkSrv
    -r-xr-xr-x 1 root root 22473 Nov  8 14:45 SAPHanaSR-upgrade-to-angi-demo
    drwxr-xr-x 3 root root    26 Nov  9 07:50 crm_cfg
  3. SAP HANA HA 시스템의 보조 인스턴스에서 1~2단계를 반복합니다.

  4. HA 시스템의 인스턴스에서 데모 스크립트를 실행합니다.

    ./SAPHanaSR-upgrade-to-angi-demo --upgrade > upgrade-to-angi.txt
  5. 백업 파일이 있는지 확인합니다.

    ls -l

    출력은 다음 예시와 비슷합니다.

    /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/*
    -rw-r--r-- 1 root   root     443 Dec 10 20:09 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/20-saphana.sudo
    -rwxr-xr-x 1 root   root   22461 May 14  2024 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/SAPHanaSR-upgrade-to-angi-demo
    -rw-r--r-- 1 root   root   28137 Jan  9 04:36 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/cib.xml
    -rw-r--r-- 1 root   root    3467 Jan  9 04:36 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/crm_configure.txt
    -rw-r--r-- 1 abcadm sapsys   929 Dec 10 20:09 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/global.ini

클러스터에서 리소스 구성 삭제

  1. HA 시스템의 두 인스턴스 중 하나에서 SAPHanaSAPHanaTopology 클러스터 리소스를 유지보수 모드로 설정합니다.

    cs_wait_for_idle -s 3 >/dev/null
    crm resource maintenance msl_SAPHana_ABC_HDB00 on
    cs_wait_for_idle -s 3 >/dev/null
    crm resource maintenance cln_SAPHanaTopology_ABC_HDB00 on
    cs_wait_for_idle -s 3 >/dev/null
    echo "property cib-bootstrap-options: stop-orphan-resources=false" | crm configure load update -

    클러스터 리소스의 상태 확인

    SAPHanaSAPHanaTopology 리소스가 있는지 확인하려면 다음 단계를 따르세요.

    crm status

    출력에는 해당 리소스가 unmanaged임을 나타내야 합니다.

    Cluster Summary:
     ...
     Full List of Resources:
       *  STONITH-sles-sp4-angi-vm1   (stonith:fence_gce):     Started sles-sp4-angi-vm2
       *  STONITH-sles-sp4-angi-vm2   (stonith:fence_gce):     Started sles-sp4-angi-vm1
       *  Resource Group: g-primary:
         *    rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started sles-sp4-angi-vm1
         *    rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started sles-sp4-angi-vm1
       *  Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTopology_ABC_HDB00] (unmanaged):
         *    rsc_SAPHanaTopology_ABC_HDB00     (ocf::suse:SAPHanaTopology):     Started sles-sp4-angi-vm1 (unmanaged)
         *    rsc_SAPHanaTopology_ABC_HDB00     (ocf::suse:SAPHanaTopology):     Started sles-sp4-angi-vm2 (unmanaged)
       *  Clone Set: msl_SAPHana_ABC_HDB00 [rsc_SAPHana_ABC_HDB00] (promotable, unmanaged):
         *    rsc_SAPHana_ABC_HDB00     (ocf::suse:SAPHana):     Master sles-sp4-angi-vm1 (unmanaged)
         *    rsc_SAPHana_ABC_HDB00     (ocf::suse:SAPHana):     Slave sles-sp4-angi-vm2 (unmanaged)
  2. HA 시스템의 기본 인스턴스에서 기존 HA/DR 제공업체 후크 구성을 삭제합니다.

    grep "^\[ha_dr_provider_" /hana/shared/ABC/global/hdb/custom/config/global.ini
    su - abcadm -c "/usr/sbin/SAPHanaSR-manageProvider --sid=ABC --show --provider=SAPHanaSR" > /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.SAPHanaSR
    su - abcadm -c "/usr/sbin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --remove /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.SAPHanaSR"
    rm /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.SAPHanaSR
    rm /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.suschksrv
    su - abcadm -c "hdbnsutil -reloadHADRProviders"
    grep "^\[ha_dr_provider_" /hana/shared/ABC/global/hdb/custom/config/global.ini
    cp /etc/sudoers.d/20-saphana /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic
    grep -v "abcadm.*ALL..NOPASSWD.*crm_attribute.*abc" /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic > /etc/sudoers.d/20-saphana
    cp /etc/sudoers.d/20-saphana /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic
    grep -v "abcadm.*ALL..NOPASSWD.*SAPHanaSR-hookHelper.*sid=ABC" /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic > /etc/sudoers.d/20-saphana
    rm /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic
  3. HA 시스템의 보조 인스턴스에서 이전 단계를 반복하여 기존 HA/DR 제공업체 후크 구성을 삭제합니다.

  4. HA 시스템의 인스턴스에서 SAPHana 리소스 에이전트의 구성을 삭제합니다.

    cibadmin --delete --xpath "//rsc_colocation[@id='col_saphana_ip_ABC_HDB00']"
    cibadmin --delete --xpath "//rsc_order[@id='ord_SAPHana_ABC_HDB00']"
    cibadmin --delete --xpath "//master[@id='msl_SAPHana_ABC_HDB00']"
    cs_wait_for_idle -s 3 >/dev/null
    crm resource refresh rsc_SAPHana_ABC_HDB00

    SAPHana 리소스 에이전트의 상태 확인

    SAPHana 리소스 에이전트 구성이 삭제되었는지 확인하려면 다음 단계를 따르세요.

    crm status

    출력에는 해당 리소스가 unmanaged임을 나타내야 합니다.

    Cluster Summary:
     ...
     Full List of Resources:
       * STONITH-sles-sp4-angi-vm1   (stonith:fence_gce):     Started sles-sp4-angi-vm2
       * STONITH-sles-sp4-angi-vm2   (stonith:fence_gce):     Started sles-sp4-angi-vm1
       * Resource Group: g-primary:
         * rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started sles-sp4-angi-vm1
         * rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started sles-sp4-angi-vm1
       * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTopology_ABC_HDB00] (unmanaged):
         * rsc_SAPHanaTopology_ABC_HDB00     (ocf::suse:SAPHanaTopology):     Started sles-sp4-angi-vm1 (unmanaged)
         * rsc_SAPHanaTopology_ABC_HDB00     (ocf::suse:SAPHanaTopology):     Started sles-sp4-angi-vm2 (unmanaged)
  5. HA 시스템의 인스턴스에서 SAPHanaTopology 리소스 에이전트의 구성을 삭제합니다.

    cs_wait_for_idle -s 3 >/dev/null
    cibadmin --delete --xpath "//rsc_order[@id='ord_SAPHana_ABC_HDB00']"
    cibadmin --delete --xpath "//clone[@id='cln_SAPHanaTopology_ABC_HDB00']"
    cs_wait_for_idle -s 3 >/dev/null
    crm resource refresh rsc_SAPHanaTopology_ABC_HDB00

    SAPHanaTopology 리소스 에이전트의 상태 확인

    SAPHanaTopology 리소스 에이전트 구성이 삭제되었는지 확인하려면 다음 단계를 따르세요.

    crm status

    출력은 다음과 비슷합니다.

    Cluster Summary:
     * Stack: corosync
     * Current DC: sles-sp4-angi-vm1 (version 2.1.2+20211124.ada5c3b36-150400.4.20.1-2.1.2+20211124.ada5c3b36) - partition with quorum
     * Last updated: Wed Jan 29 03:30:36 2025
     * Last change:  Wed Jan 29 03:30:32 2025 by hacluster via crmd on sles-sp4-angi-vm1
     * 2 nodes configured
     * 4 resource instances configured
    
     Node List:
       * Online: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
    
     Full List of Resources:
       * STONITH-sles-sp4-angi-vm1   (stonith:fence_gce):     Started sles-sp4-angi-vm2
       * STONITH-sles-sp4-angi-vm2   (stonith:fence_gce):     Started sles-sp4-angi-vm1
       * Resource Group: g-primary:
         * rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started sles-sp4-angi-vm1
         * rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started sles-sp4-angi-vm1
  6. HA 시스템의 기본 인스턴스에서 다른 클러스터 속성을 삭제합니다.

    cs_wait_for_idle -s 3 >/dev/null
    crm_attribute --delete --type crm_config --name hana_abc_site_srHook_sles-sp4-angi-vm2
    crm_attribute --delete --type crm_config --name hana_abc_site_srHook_sles-sp4-angi-vm1
    cs_wait_for_idle -s 3 >/dev/null
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_op_mode --delete
    crm_attribute --node sles-sp4-angi-vm1 --name lpa_abc_lpt --delete
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_srmode --delete
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_vhost --delete
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_remoteHost --delete
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_site --delete
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_sync_state --lifetime reboot --delete
    crm_attribute --node sles-sp4-angi-vm1 --name master-rsc_SAPHana_ABC_HDB00 --lifetime reboot --delete
    crm_attribute --node sles-sp4-angi-vm2 --name lpa_abc_lpt --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_op_mode --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_vhost --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_site --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_srmode --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_remoteHost --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_sync_state --lifetime reboot --delete
    crm_attribute --node sles-sp4-angi-vm2 --name master-rsc_SAPHana_ABC_HDB00 --lifetime reboot --delete
  7. HA 시스템의 기본 인스턴스에서 SAPHanaSR 패키지를 삭제합니다.

    cs_wait_for_idle -s 3 >/dev/null
    crm cluster run "rpm -e --nodeps 'SAPHanaSR'"

    클러스터 상태 확인

    HA 클러스터의 상태를 확인하려면 다음 단계를 따르세요.

    crm status

    출력은 다음 예시와 비슷합니다.

    Cluster Summary:
     ...
     Node List:
       * Online: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
    
     Full List of Resources:
       * STONITH-sles-sp4-angi-vm1   (stonith:fence_gce):     Started sles-sp4-angi-vm2
       * STONITH-sles-sp4-angi-vm2   (stonith:fence_gce):     Started sles-sp4-angi-vm1
       * Resource Group: g-primary:
         * rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started sles-sp4-angi-vm1
         * rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started sles-sp4-angi-vm1
  8. HA 시스템의 기본 인스턴스에서 SAPHanaSR-doc 패키지를 삭제합니다.

    zypper remove SAPHanaSR-doc
  9. HA 시스템의 보조 인스턴스에서 SAPHanaSR-doc 패키지를 삭제합니다.

클러스터에 리소스 구성 추가

  1. HA 시스템의 인스턴스 중 하나에서 SAPHanaSR-angi 리소스 패키지 관리자를 설치합니다.

    cs_wait_for_idle -s 3 >/dev/null
    crm cluster run "zypper --non-interactive in -l -f -y 'SAPHanaSR-angi'"
    crm cluster run "rpm -q 'SAPHanaSR-angi' --queryformat %{NAME}"
    hash -r
  2. HA 시스템의 기본 인스턴스에서 HA/DR 제공업체 후크 구성을 추가합니다.

    su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --add /usr/share/SAPHanaSR-angi/samples/global.ini_susHanaSR"
    su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --add /usr/share/SAPHanaSR-angi/samples/global.ini_susTkOver"
    su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --add /usr/share/SAPHanaSR-angi/samples/global.ini_susChkSrv"
    su - abcadm -c "hdbnsutil -reloadHADRProviders"
    grep -A2 "^\[ha_dr_provider_" /hana/shared/ABC/global/hdb/custom/config/global.ini
    su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --show --provider=SAPHanaSR"
    su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --show --provider=suschksrv"
    echo "abcadm ALL=(ALL) NOPASSWD: /usr/bin/SAPHanaSR-hookHelper --sid=ABC *" >> /etc/sudoers.d/20-saphana
    echo "abcadm ALL=(ALL) NOPASSWD: /usr/sbin/crm_attribute -n hana_abc_*" >> /etc/sudoers.d/20-saphana
    sudo -l -U abcadm | grep -e crm_attribute -e SAPHanaSR-hookHelper
  3. HA 시스템의 보조 인스턴스에서 이전 단계를 반복하여 HA/DR 제공업체 후크 구성을 추가합니다.

  4. HA 시스템의 인스턴스에서 SAPHanaTopology 리소스 에이전트 구성을 추가합니다.

    cs_wait_for_idle -s 3 >/dev/null
    echo "
    #
    primitive rsc_SAPHanaTop_ABC_HDB00 ocf:suse:SAPHanaTopology op start interval=0 timeout=600 op stop interval=0 timeout=600 op monitor interval=50 timeout=600 params SID=ABC InstanceNumber=00
    #
    clone cln_SAPHanaTopology_ABC_HDB00 rsc_SAPHanaTop_ABC_HDB00 meta clone-node-max=1 interleave=true
    #
    " | crm configure load update -
    crm configure show cln_SAPHanaTopology_ABC_HDB00

    클러스터 상태 확인

    HA 클러스터의 상태를 확인하려면 다음 단계를 따르세요.

    crm status

    출력은 다음 예시와 비슷합니다.

    Cluster Summary:
     ...
       * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]:
            * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
    
  5. HA 시스템의 인스턴스 중 하나에서 SAPHanaCon를 비관리 클러스터 리소스로 추가합니다.

    cs_wait_for_idle -s 3 >/dev/null
    echo "
    #
    primitive rsc_SAPHanaCon_ABC_HDB00 ocf:suse:SAPHanaController op start interval=0 timeout=3600 op stop interval=0 timeout=3600 op promote interval=0 timeout=900 op demote interval=0 timeout=320 op monitor interval=60 role=Promoted timeout=700 op monitor interval=61 role=Unpromoted timeout=700 params SID=ABC InstanceNumber=00 PREFER_SITE_TAKEOVER=true DUPLICATE_PRIMARY_TIMEOUT=7200 AUTOMATED_REGISTER=true meta maintenance=true
    #
    clone mst_SAPHanaCon_ABC_HDB00 rsc_SAPHanaCon_ABC_HDB00 meta clone-node-max=1 promotable=true interleave=true maintenance=true
    #
    order ord_SAPHanaTop_first Optional: cln_SAPHanaTopology_ABC_HDB00 mst_SAPHanaCon_ABC_HDB00
    #
    colocation col_SAPHanaCon_ip_ABC_HDB00 2000: g-primary:Started mst_SAPHanaCon_ABC_HDB00:Promoted
    #
    " | crm configure load update -
    crm configure show mst_SAPHanaCon_ABC_HDB00

    클러스터 상태 확인

    HA 클러스터의 상태를 확인하려면 다음 단계를 따르세요.

    crm status

    출력은 다음 예시와 비슷합니다.

    Cluster Summary:
    ...
     * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]:
       * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
     * Clone Set: mst_SAPHanaCon_ABC_HDB00 [rsc_SAPHanaCon_ABC_HDB00] (promotable, unmanaged):
       * rsc_SAPHanaCon_ABC_HDB00  (ocf::suse:SAPHanaController):   Slave sles-sp4-angi-vm1 (unmanaged)
       * rsc_SAPHanaCon_ABC_HDB00  (ocf::suse:SAPHanaController):   Slave sles-sp4-angi-vm2 (unmanaged)
  6. HA 시스템의 인스턴스 중 하나에서 HANA 파일 시스템 클러스터 리소스를 추가합니다.

    cs_wait_for_idle -s 3 >/dev/null
    echo "
    #
    primitive rsc_SAPHanaFil_ABC_HDB00 ocf:suse:SAPHanaFilesystem op start interval=0 timeout=10 op stop interval=0 timeout=20 on-fail=fence op monitor interval=120 timeout=120 params SID=ABC InstansceNumber=00
    #
    clone cln_SAPHanaFil_ABC_HDB00 rsc_SAPHanaFil_ABC_HDB00 meta clone-node-max=1 interleave=true
    #
    " | crm configure load update -
    crm configure show cln_SAPHanaFil_ABC_HDB00
    #
    clone cln_SAPHanaFil_ABC_HDB00 rsc_SAPHanaFil_ABC_HDB00 \
           meta clone-node-max=1 interleave=true

    클러스터 상태 확인

    HA 클러스터의 상태를 확인하려면 다음 단계를 따르세요.

    crm status

    출력은 다음 예시와 비슷합니다.

    Cluster Summary:
     ...
       * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]:
         * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
       * Clone Set: mst_SAPHanaCon_ABC_HDB00 [rsc_SAPHanaCon_ABC_HDB00] (promotable, unmanaged):
         * rsc_SAPHanaCon_ABC_HDB00  (ocf::suse:SAPHanaController):   Slave sles-sp4-angi-vm1 (unmanaged)
         * rsc_SAPHanaCon_ABC_HDB00  (ocf::suse:SAPHanaController):   Slave sles-sp4-angi-vm2 (unmanaged)
       * Clone Set: cln_SAPHanaFil_ABC_HDB00 [rsc_SAPHanaFil_ABC_HDB00]:
         * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
  7. HA 시스템의 인스턴스 중 하나에서 HA 클러스터를 유지보수 모드에서 삭제합니다.

    cs_wait_for_idle -s 3 >/dev/null
    crm resource refresh cln_SAPHanaTopology_ABC_HDB00
    cs_wait_for_idle -s 3 >/dev/null
    crm resource maintenance cln_SAPHanaTopology_ABC_HDB00 off
    cs_wait_for_idle -s 3 >/dev/null
    crm resource refresh mst_SAPHanaCon_ABC_HDB00
    cs_wait_for_idle -s 3 >/dev/null
    crm resource maintenance mst_SAPHanaCon_ABC_HDB00 off
    cs_wait_for_idle -s 3 >/dev/null
    crm resource refresh cln_SAPHanaFil_ABC_HDB00
    cs_wait_for_idle -s 3 >/dev/null
    crm resource maintenance cln_SAPHanaFil_ABC_HDB00 off
    cs_wait_for_idle -s 3 >/dev/null
    echo "property cib-bootstrap-options: stop-orphan-resources=true" | crm configure load update -
  8. HA 클러스터의 상태를 확인합니다.

    cs_wait_for_idle -s 3 >/dev/null
    crm_mon -1r --include=failcounts,fencing-pending;echo;SAPHanaSR-showAttr;cs_clusterstate -i|grep -v "#"

    출력은 다음 예시와 비슷합니다.

    Cluster Summary:
     * Stack: corosync
     * Current DC: sles-sp4-angi-vm1 (version 2.1.2+20211124.ada5c3b36-150400.4.20.1-2.1.2+20211124.ada5c3b36) - partition with quorum
     * Last updated: Wed Jan 29 05:21:05 2025
     * Last change:  Wed Jan 29 05:21:05 2025 by root via crm_attribute on sles-sp4-angi-vm1
     * 2 nodes configured
     * 10 resource instances configured
    
    Node List:
     * Online: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
    
    Full List of Resources:
     * STONITH-sles-sp4-angi-vm1   (stonith:fence_gce):     Started sles-sp4-angi-vm2
     * STONITH-sles-sp4-angi-vm2   (stonith:fence_gce):     Started sles-sp4-angi-vm1
     * Resource Group: g-primary:
       * rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started sles-sp4-angi-vm1
       * rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started sles-sp4-angi-vm1
     * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]:
       * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
     * Clone Set: mst_SAPHanaCon_ABC_HDB00 [rsc_SAPHanaCon_ABC_HDB00] (promotable):
       * Masters: [ sles-sp4-angi-vm1 ]
       * Slaves: [ sles-sp4-angi-vm2 ]
     * Clone Set: cln_SAPHanaFil_ABC_HDB00 [rsc_SAPHanaFil_ABC_HDB00]:
       * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
    
    Migration Summary:
    
    Global cib-update dcid prim              sec               sid topology
    ------------------------------------------------------------------------
    global 0.68471.0  1    sles-sp4-angi-vm1 sles-sp4-angi-vm2 ABC ScaleUp
    
    Resource                      maintenance promotable
    -----------------------------------------------------
    mst_SAPHanaCon_ABC_HDB00      false       true
    cln_SAPHanaTopology_ABC_HDB00 false
    
    Site              lpt        lss mns               opMode    srHook srMode  srPoll srr
    ---------------------------------------------------------------------------------------
    sles-sp4-angi-vm1 1738128065 4   sles-sp4-angi-vm1 logreplay PRIM   syncmem PRIM   P
    sles-sp4-angi-vm2 30         4   sles-sp4-angi-vm2 logreplay        syncmem SOK    S
    
    Host              clone_state roles                        score site              srah version     vhost
    ----------------------------------------------------------------------------------------------------------------------
    sles-sp4-angi-vm1 PROMOTED    master1:master:worker:master 150   sles-sp4-angi-vm1 -    2.00.073.00 sles-sp4-angi-vm1
    sles-sp4-angi-vm2 DEMOTED     master1:master:worker:master 100   sles-sp4-angi-vm2 -    2.00.073.00 sles-sp4-angi-vm2

HANA 클러스터 속성의 세부정보 확인

  • HA 클러스터의 인스턴스 중 하나에서 HANA 클러스터 속성의 세부정보를 확인합니다.

    SAPHanaSR-showAttr

    출력은 다음 예시와 비슷합니다.

    Global cib-update dcid prim              sec               sid topology
    ------------------------------------------------------------------------
    global 0.98409.1  1    sles-sp4-angi-vm2 sles-sp4-angi-vm1 ABC ScaleUp
    
    Resource                      maintenance promotable
    -----------------------------------------------------
    mst_SAPHanaCon_ABC_HDB00      false       true
    cln_SAPHanaTopology_ABC_HDB00 false
    
    Site              lpt        lss mns               opMode    srHook srMode  srPoll srr
    ---------------------------------------------------------------------------------------
    sles-sp4-angi-vm1 30         4   sles-sp4-angi-vm1 logreplay SOK    syncmem SOK    S
    sles-sp4-angi-vm2 1742448908 4   sles-sp4-angi-vm2 logreplay PRIM   syncmem PRIM   P
    
    Host              clone_state roles                        score site              srah version     vhost
    ----------------------------------------------------------------------------------------------------------------------
    sles-sp4-angi-vm1 DEMOTED     master1:master:worker:master 100   sles-sp4-angi-vm1 -    2.00.073.00 sles-sp4-angi-vm1
    sles-sp4-angi-vm2 PROMOTED    master1:master:worker:master 150   sles-sp4-angi-vm2 -    2.00.073.00 sles-sp4-angi-vm2

지원 받기

Compute Engine에서 SAP OS 이미지용 SLES의 PAYG 라이선스를 구매한 경우 Cloud 고객 지원팀의 지원을 받아 SUSE에 문의할 수 있습니다. 자세한 내용은 Compute Engine에서 사용한 만큼만 지불 (PAYG) SLES 라이선스에는 어떻게 지원이 제공되나요?를 참고하세요.

Google Cloud에서 지원을 받는 방법에 관한 자세한 내용은 Google Cloud에서 SAP 지원 받기를 참고하세요.