SAPHanaSR
리소스 에이전트를 SAPHanaSR
고급 차세대 인터페이스 (SAPHanaSR-angi
) 리소스 에이전트로 업그레이드하는 방법을 설명합니다.
SAPHanaSR-angi
는 SAPHanaSR
의 후속 버전입니다. 또한 SLES for SAP 15 SP6부터 Google Cloud 는 SAPHanaSR-angi
를 사용하는 것이 좋습니다. 이 리소스 에이전트의 이점 등 자세한 내용은 SUSE 페이지 SAPHanaSR-angi
란 무엇인가요?를 참고하세요.
업그레이드 절차를 설명하기 위해 이 가이드에서는 SID가 ABC
인 SAP 15 SP4용 SLES에서 실행되는 SAP HANA 수직 확장 HA 시스템을 가정합니다. 이 업그레이드 절차는 SUSE 블로그 SAPHanaSR-angi
로 업그레이드하는 방법에서 가져온 것입니다.
시작하기 전에
SLES 기반 SAP HANA 확장 HA 클러스터에서 SAPHanaSR
에서 SAPHanaSR-angi
로 업그레이드하기 전에 SLES 15 SP4 이상 버전 중 하나의 최신 패치를 사용하고 있는지 확인합니다.
이전 OS 버전을 사용하는 경우 먼저 이러한 OS 버전 중 하나의 최신 패치로 업데이트해야 합니다. 이러한 OS 버전의 최신 패치에만 SUSE에서 이 업그레이드용으로 제공한 SAPHanaSR-upgrade-to-angi-demo
스크립트가 포함되어 있습니다. 스크립트는 /usr/share/SAPHanaSR/samples
디렉터리에서 사용할 수 있습니다.
확장 클러스터에서 SAPHanaSR-angi
리소스 에이전트로 업그레이드
SLES 기반 SAP HANA 수직 확장 HA 클러스터에서 SAPHanaSR-angi
리소스 에이전트로 업그레이드하려면 다음 단계를 완료하세요.
업그레이드할 인스턴스 준비
SAP HANA HA 시스템의 기본 인스턴스에서
ClusterTools2
Linux 패키지를 설치합니다.zypper -y install ClusterTools2
패키지 설치 확인
ClusterTools2
패키지 설치를 확인합니다.zypper info ClusterTools2
출력은 다음과 비슷합니다.
Information for package ClusterTools2: -------------------------------------- Repository : SLE-Module-SAP-Applications15-SP4-Updates Name : ClusterTools2 Version : 3.1.3-150100.8.12.1 Arch : noarch Vendor : SUSE LLC <https://www.suse.com/> Support Level : Level 3 Installed Size : 340.1 KiB Installed : Yes Status : up-to-date Source package : ClusterTools2-3.1.3-150100.8.12.1.src Upstream URL : http://www.suse.com Summary : Tools for cluster management Description : ClusterTools2 provides tools for setting up and managing a corosync/ pacemaker cluster. There are some other commandline tools to make life easier. Starting with version 3.0.0 is support for SUSE Linux Enterprise Server 12.
SUSE에서 제공한
SAPHanaSR-upgrade-to-angi-demo
데모 스크립트를/root/bin
에 복사합니다. 이 스크립트는 구성 파일의 백업을 실행하고 업그레이드에 필요한 명령어를 생성합니다.데모 스크립트를
/root/bin
에 복사하려면 다음 단계를 따르세요.cp -p /usr/share/SAPHanaSR/samples/SAPHanaSR-upgrade-to-angi-demo /root/bin/ cd /root/bin ls -lrt
출력은 다음 예시와 비슷합니다.
... -r--r--r-- 1 root root 157 Nov 8 14:45 global.ini_susTkOver -r--r--r-- 1 root root 133 Nov 8 14:45 global.ini_susHanaSR -r--r--r-- 1 root root 157 Nov 8 14:45 global.ini_susCostOpt -r--r--r-- 1 root root 175 Nov 8 14:45 global.ini_susChkSrv -r-xr-xr-x 1 root root 22473 Nov 8 14:45 SAPHanaSR-upgrade-to-angi-demo drwxr-xr-x 3 root root 26 Nov 9 07:50 crm_cfg
SAP HANA HA 시스템의 보조 인스턴스에서 1~2단계를 반복합니다.
HA 시스템의 인스턴스에서 데모 스크립트를 실행합니다.
./SAPHanaSR-upgrade-to-angi-demo --upgrade > upgrade-to-angi.txt
백업 파일이 있는지 확인합니다.
ls -l
출력은 다음 예시와 비슷합니다.
/root/SAPHanaSR-upgrade-to-angi-demo.1736397409/* -rw-r--r-- 1 root root 443 Dec 10 20:09 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/20-saphana.sudo -rwxr-xr-x 1 root root 22461 May 14 2024 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/SAPHanaSR-upgrade-to-angi-demo -rw-r--r-- 1 root root 28137 Jan 9 04:36 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/cib.xml -rw-r--r-- 1 root root 3467 Jan 9 04:36 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/crm_configure.txt -rw-r--r-- 1 abcadm sapsys 929 Dec 10 20:09 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/global.ini
클러스터에서 리소스 구성 삭제
HA 시스템의 두 인스턴스 중 하나에서
SAPHana
및SAPHanaTopology
클러스터 리소스를 유지보수 모드로 설정합니다.cs_wait_for_idle -s 3 >/dev/null crm resource maintenance msl_SAPHana_ABC_HDB00 on cs_wait_for_idle -s 3 >/dev/null crm resource maintenance cln_SAPHanaTopology_ABC_HDB00 on cs_wait_for_idle -s 3 >/dev/null echo "property cib-bootstrap-options: stop-orphan-resources=false" | crm configure load update -
클러스터 리소스의 상태 확인
SAPHana
및SAPHanaTopology
리소스가 있는지 확인하려면 다음 단계를 따르세요.crm status
출력에는 해당 리소스가
unmanaged
임을 나타내야 합니다.Cluster Summary: ... Full List of Resources: * STONITH-sles-sp4-angi-vm1 (stonith:fence_gce): Started sles-sp4-angi-vm2 * STONITH-sles-sp4-angi-vm2 (stonith:fence_gce): Started sles-sp4-angi-vm1 * Resource Group: g-primary: * rsc_vip_int-primary (ocf::heartbeat:IPaddr2): Started sles-sp4-angi-vm1 * rsc_vip_hc-primary (ocf::heartbeat:anything): Started sles-sp4-angi-vm1 * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTopology_ABC_HDB00] (unmanaged): * rsc_SAPHanaTopology_ABC_HDB00 (ocf::suse:SAPHanaTopology): Started sles-sp4-angi-vm1 (unmanaged) * rsc_SAPHanaTopology_ABC_HDB00 (ocf::suse:SAPHanaTopology): Started sles-sp4-angi-vm2 (unmanaged) * Clone Set: msl_SAPHana_ABC_HDB00 [rsc_SAPHana_ABC_HDB00] (promotable, unmanaged): * rsc_SAPHana_ABC_HDB00 (ocf::suse:SAPHana): Master sles-sp4-angi-vm1 (unmanaged) * rsc_SAPHana_ABC_HDB00 (ocf::suse:SAPHana): Slave sles-sp4-angi-vm2 (unmanaged)
HA 시스템의 기본 인스턴스에서 기존 HA/DR 제공업체 후크 구성을 삭제합니다.
grep "^\[ha_dr_provider_" /hana/shared/ABC/global/hdb/custom/config/global.ini su - abcadm -c "/usr/sbin/SAPHanaSR-manageProvider --sid=ABC --show --provider=SAPHanaSR" > /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.SAPHanaSR su - abcadm -c "/usr/sbin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --remove /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.SAPHanaSR" rm /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.SAPHanaSR rm /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.suschksrv su - abcadm -c "hdbnsutil -reloadHADRProviders" grep "^\[ha_dr_provider_" /hana/shared/ABC/global/hdb/custom/config/global.ini cp /etc/sudoers.d/20-saphana /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic grep -v "abcadm.*ALL..NOPASSWD.*crm_attribute.*abc" /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic > /etc/sudoers.d/20-saphana cp /etc/sudoers.d/20-saphana /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic grep -v "abcadm.*ALL..NOPASSWD.*SAPHanaSR-hookHelper.*sid=ABC" /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic > /etc/sudoers.d/20-saphana rm /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic
HA 시스템의 보조 인스턴스에서 이전 단계를 반복하여 기존 HA/DR 제공업체 후크 구성을 삭제합니다.
HA 시스템의 인스턴스에서
SAPHana
리소스 에이전트의 구성을 삭제합니다.cibadmin --delete --xpath "//rsc_colocation[@id='col_saphana_ip_ABC_HDB00']" cibadmin --delete --xpath "//rsc_order[@id='ord_SAPHana_ABC_HDB00']" cibadmin --delete --xpath "//master[@id='msl_SAPHana_ABC_HDB00']" cs_wait_for_idle -s 3 >/dev/null crm resource refresh rsc_SAPHana_ABC_HDB00
SAPHana
리소스 에이전트의 상태 확인SAPHana
리소스 에이전트 구성이 삭제되었는지 확인하려면 다음 단계를 따르세요.crm status
출력에는 해당 리소스가
unmanaged
임을 나타내야 합니다.Cluster Summary: ... Full List of Resources: * STONITH-sles-sp4-angi-vm1 (stonith:fence_gce): Started sles-sp4-angi-vm2 * STONITH-sles-sp4-angi-vm2 (stonith:fence_gce): Started sles-sp4-angi-vm1 * Resource Group: g-primary: * rsc_vip_int-primary (ocf::heartbeat:IPaddr2): Started sles-sp4-angi-vm1 * rsc_vip_hc-primary (ocf::heartbeat:anything): Started sles-sp4-angi-vm1 * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTopology_ABC_HDB00] (unmanaged): * rsc_SAPHanaTopology_ABC_HDB00 (ocf::suse:SAPHanaTopology): Started sles-sp4-angi-vm1 (unmanaged) * rsc_SAPHanaTopology_ABC_HDB00 (ocf::suse:SAPHanaTopology): Started sles-sp4-angi-vm2 (unmanaged)
HA 시스템의 인스턴스에서
SAPHanaTopology
리소스 에이전트의 구성을 삭제합니다.cs_wait_for_idle -s 3 >/dev/null cibadmin --delete --xpath "//rsc_order[@id='ord_SAPHana_ABC_HDB00']" cibadmin --delete --xpath "//clone[@id='cln_SAPHanaTopology_ABC_HDB00']" cs_wait_for_idle -s 3 >/dev/null crm resource refresh rsc_SAPHanaTopology_ABC_HDB00
SAPHanaTopology
리소스 에이전트의 상태 확인SAPHanaTopology
리소스 에이전트 구성이 삭제되었는지 확인하려면 다음 단계를 따르세요.crm status
출력은 다음과 비슷합니다.
Cluster Summary: * Stack: corosync * Current DC: sles-sp4-angi-vm1 (version 2.1.2+20211124.ada5c3b36-150400.4.20.1-2.1.2+20211124.ada5c3b36) - partition with quorum * Last updated: Wed Jan 29 03:30:36 2025 * Last change: Wed Jan 29 03:30:32 2025 by hacluster via crmd on sles-sp4-angi-vm1 * 2 nodes configured * 4 resource instances configured Node List: * Online: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ] Full List of Resources: * STONITH-sles-sp4-angi-vm1 (stonith:fence_gce): Started sles-sp4-angi-vm2 * STONITH-sles-sp4-angi-vm2 (stonith:fence_gce): Started sles-sp4-angi-vm1 * Resource Group: g-primary: * rsc_vip_int-primary (ocf::heartbeat:IPaddr2): Started sles-sp4-angi-vm1 * rsc_vip_hc-primary (ocf::heartbeat:anything): Started sles-sp4-angi-vm1
HA 시스템의 기본 인스턴스에서 다른 클러스터 속성을 삭제합니다.
cs_wait_for_idle -s 3 >/dev/null crm_attribute --delete --type crm_config --name hana_abc_site_srHook_sles-sp4-angi-vm2 crm_attribute --delete --type crm_config --name hana_abc_site_srHook_sles-sp4-angi-vm1 cs_wait_for_idle -s 3 >/dev/null crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_op_mode --delete crm_attribute --node sles-sp4-angi-vm1 --name lpa_abc_lpt --delete crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_srmode --delete crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_vhost --delete crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_remoteHost --delete crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_site --delete crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_sync_state --lifetime reboot --delete crm_attribute --node sles-sp4-angi-vm1 --name master-rsc_SAPHana_ABC_HDB00 --lifetime reboot --delete crm_attribute --node sles-sp4-angi-vm2 --name lpa_abc_lpt --delete crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_op_mode --delete crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_vhost --delete crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_site --delete crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_srmode --delete crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_remoteHost --delete crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_sync_state --lifetime reboot --delete crm_attribute --node sles-sp4-angi-vm2 --name master-rsc_SAPHana_ABC_HDB00 --lifetime reboot --delete
HA 시스템의 기본 인스턴스에서
SAPHanaSR
패키지를 삭제합니다.cs_wait_for_idle -s 3 >/dev/null crm cluster run "rpm -e --nodeps 'SAPHanaSR'"
클러스터 상태 확인
HA 클러스터의 상태를 확인하려면 다음 단계를 따르세요.
crm status
출력은 다음 예시와 비슷합니다.
Cluster Summary: ... Node List: * Online: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ] Full List of Resources: * STONITH-sles-sp4-angi-vm1 (stonith:fence_gce): Started sles-sp4-angi-vm2 * STONITH-sles-sp4-angi-vm2 (stonith:fence_gce): Started sles-sp4-angi-vm1 * Resource Group: g-primary: * rsc_vip_int-primary (ocf::heartbeat:IPaddr2): Started sles-sp4-angi-vm1 * rsc_vip_hc-primary (ocf::heartbeat:anything): Started sles-sp4-angi-vm1
HA 시스템의 기본 인스턴스에서
SAPHanaSR-doc
패키지를 삭제합니다.zypper remove SAPHanaSR-doc
HA 시스템의 보조 인스턴스에서
SAPHanaSR-doc
패키지를 삭제합니다.
클러스터에 리소스 구성 추가
HA 시스템의 인스턴스 중 하나에서
SAPHanaSR-angi
리소스 패키지 관리자를 설치합니다.cs_wait_for_idle -s 3 >/dev/null crm cluster run "zypper --non-interactive in -l -f -y 'SAPHanaSR-angi'" crm cluster run "rpm -q 'SAPHanaSR-angi' --queryformat %{NAME}" hash -r
HA 시스템의 기본 인스턴스에서 HA/DR 제공업체 후크 구성을 추가합니다.
su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --add /usr/share/SAPHanaSR-angi/samples/global.ini_susHanaSR" su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --add /usr/share/SAPHanaSR-angi/samples/global.ini_susTkOver" su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --add /usr/share/SAPHanaSR-angi/samples/global.ini_susChkSrv" su - abcadm -c "hdbnsutil -reloadHADRProviders" grep -A2 "^\[ha_dr_provider_" /hana/shared/ABC/global/hdb/custom/config/global.ini su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --show --provider=SAPHanaSR" su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --show --provider=suschksrv" echo "abcadm ALL=(ALL) NOPASSWD: /usr/bin/SAPHanaSR-hookHelper --sid=ABC *" >> /etc/sudoers.d/20-saphana echo "abcadm ALL=(ALL) NOPASSWD: /usr/sbin/crm_attribute -n hana_abc_*" >> /etc/sudoers.d/20-saphana sudo -l -U abcadm | grep -e crm_attribute -e SAPHanaSR-hookHelper
HA 시스템의 보조 인스턴스에서 이전 단계를 반복하여 HA/DR 제공업체 후크 구성을 추가합니다.
HA 시스템의 인스턴스에서
SAPHanaTopology
리소스 에이전트 구성을 추가합니다.cs_wait_for_idle -s 3 >/dev/null echo " # primitive rsc_SAPHanaTop_ABC_HDB00 ocf:suse:SAPHanaTopology op start interval=0 timeout=600 op stop interval=0 timeout=600 op monitor interval=50 timeout=600 params SID=ABC InstanceNumber=00 # clone cln_SAPHanaTopology_ABC_HDB00 rsc_SAPHanaTop_ABC_HDB00 meta clone-node-max=1 interleave=true # " | crm configure load update - crm configure show cln_SAPHanaTopology_ABC_HDB00
클러스터 상태 확인
HA 클러스터의 상태를 확인하려면 다음 단계를 따르세요.
crm status
출력은 다음 예시와 비슷합니다.
Cluster Summary: ... * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]: * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
HA 시스템의 인스턴스 중 하나에서
SAPHanaCon
를 비관리 클러스터 리소스로 추가합니다.cs_wait_for_idle -s 3 >/dev/null echo " # primitive rsc_SAPHanaCon_ABC_HDB00 ocf:suse:SAPHanaController op start interval=0 timeout=3600 op stop interval=0 timeout=3600 op promote interval=0 timeout=900 op demote interval=0 timeout=320 op monitor interval=60 role=Promoted timeout=700 op monitor interval=61 role=Unpromoted timeout=700 params SID=ABC InstanceNumber=00 PREFER_SITE_TAKEOVER=true DUPLICATE_PRIMARY_TIMEOUT=7200 AUTOMATED_REGISTER=true meta maintenance=true # clone mst_SAPHanaCon_ABC_HDB00 rsc_SAPHanaCon_ABC_HDB00 meta clone-node-max=1 promotable=true interleave=true maintenance=true # order ord_SAPHanaTop_first Optional: cln_SAPHanaTopology_ABC_HDB00 mst_SAPHanaCon_ABC_HDB00 # colocation col_SAPHanaCon_ip_ABC_HDB00 2000: g-primary:Started mst_SAPHanaCon_ABC_HDB00:Promoted # " | crm configure load update - crm configure show mst_SAPHanaCon_ABC_HDB00
클러스터 상태 확인
HA 클러스터의 상태를 확인하려면 다음 단계를 따르세요.
crm status
출력은 다음 예시와 비슷합니다.
Cluster Summary: ... * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]: * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ] * Clone Set: mst_SAPHanaCon_ABC_HDB00 [rsc_SAPHanaCon_ABC_HDB00] (promotable, unmanaged): * rsc_SAPHanaCon_ABC_HDB00 (ocf::suse:SAPHanaController): Slave sles-sp4-angi-vm1 (unmanaged) * rsc_SAPHanaCon_ABC_HDB00 (ocf::suse:SAPHanaController): Slave sles-sp4-angi-vm2 (unmanaged)
HA 시스템의 인스턴스 중 하나에서 HANA 파일 시스템 클러스터 리소스를 추가합니다.
cs_wait_for_idle -s 3 >/dev/null echo " # primitive rsc_SAPHanaFil_ABC_HDB00 ocf:suse:SAPHanaFilesystem op start interval=0 timeout=10 op stop interval=0 timeout=20 on-fail=fence op monitor interval=120 timeout=120 params SID=ABC InstansceNumber=00 # clone cln_SAPHanaFil_ABC_HDB00 rsc_SAPHanaFil_ABC_HDB00 meta clone-node-max=1 interleave=true # " | crm configure load update - crm configure show cln_SAPHanaFil_ABC_HDB00 # clone cln_SAPHanaFil_ABC_HDB00 rsc_SAPHanaFil_ABC_HDB00 \ meta clone-node-max=1 interleave=true
클러스터 상태 확인
HA 클러스터의 상태를 확인하려면 다음 단계를 따르세요.
crm status
출력은 다음 예시와 비슷합니다.
Cluster Summary: ... * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]: * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ] * Clone Set: mst_SAPHanaCon_ABC_HDB00 [rsc_SAPHanaCon_ABC_HDB00] (promotable, unmanaged): * rsc_SAPHanaCon_ABC_HDB00 (ocf::suse:SAPHanaController): Slave sles-sp4-angi-vm1 (unmanaged) * rsc_SAPHanaCon_ABC_HDB00 (ocf::suse:SAPHanaController): Slave sles-sp4-angi-vm2 (unmanaged) * Clone Set: cln_SAPHanaFil_ABC_HDB00 [rsc_SAPHanaFil_ABC_HDB00]: * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
HA 시스템의 인스턴스 중 하나에서 HA 클러스터를 유지보수 모드에서 삭제합니다.
cs_wait_for_idle -s 3 >/dev/null crm resource refresh cln_SAPHanaTopology_ABC_HDB00 cs_wait_for_idle -s 3 >/dev/null crm resource maintenance cln_SAPHanaTopology_ABC_HDB00 off cs_wait_for_idle -s 3 >/dev/null crm resource refresh mst_SAPHanaCon_ABC_HDB00 cs_wait_for_idle -s 3 >/dev/null crm resource maintenance mst_SAPHanaCon_ABC_HDB00 off cs_wait_for_idle -s 3 >/dev/null crm resource refresh cln_SAPHanaFil_ABC_HDB00 cs_wait_for_idle -s 3 >/dev/null crm resource maintenance cln_SAPHanaFil_ABC_HDB00 off cs_wait_for_idle -s 3 >/dev/null echo "property cib-bootstrap-options: stop-orphan-resources=true" | crm configure load update -
HA 클러스터의 상태를 확인합니다.
cs_wait_for_idle -s 3 >/dev/null crm_mon -1r --include=failcounts,fencing-pending;echo;SAPHanaSR-showAttr;cs_clusterstate -i|grep -v "#"
출력은 다음 예시와 비슷합니다.
Cluster Summary: * Stack: corosync * Current DC: sles-sp4-angi-vm1 (version 2.1.2+20211124.ada5c3b36-150400.4.20.1-2.1.2+20211124.ada5c3b36) - partition with quorum * Last updated: Wed Jan 29 05:21:05 2025 * Last change: Wed Jan 29 05:21:05 2025 by root via crm_attribute on sles-sp4-angi-vm1 * 2 nodes configured * 10 resource instances configured Node List: * Online: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ] Full List of Resources: * STONITH-sles-sp4-angi-vm1 (stonith:fence_gce): Started sles-sp4-angi-vm2 * STONITH-sles-sp4-angi-vm2 (stonith:fence_gce): Started sles-sp4-angi-vm1 * Resource Group: g-primary: * rsc_vip_int-primary (ocf::heartbeat:IPaddr2): Started sles-sp4-angi-vm1 * rsc_vip_hc-primary (ocf::heartbeat:anything): Started sles-sp4-angi-vm1 * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]: * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ] * Clone Set: mst_SAPHanaCon_ABC_HDB00 [rsc_SAPHanaCon_ABC_HDB00] (promotable): * Masters: [ sles-sp4-angi-vm1 ] * Slaves: [ sles-sp4-angi-vm2 ] * Clone Set: cln_SAPHanaFil_ABC_HDB00 [rsc_SAPHanaFil_ABC_HDB00]: * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ] Migration Summary: Global cib-update dcid prim sec sid topology ------------------------------------------------------------------------ global 0.68471.0 1 sles-sp4-angi-vm1 sles-sp4-angi-vm2 ABC ScaleUp Resource maintenance promotable ----------------------------------------------------- mst_SAPHanaCon_ABC_HDB00 false true cln_SAPHanaTopology_ABC_HDB00 false Site lpt lss mns opMode srHook srMode srPoll srr --------------------------------------------------------------------------------------- sles-sp4-angi-vm1 1738128065 4 sles-sp4-angi-vm1 logreplay PRIM syncmem PRIM P sles-sp4-angi-vm2 30 4 sles-sp4-angi-vm2 logreplay syncmem SOK S Host clone_state roles score site srah version vhost ---------------------------------------------------------------------------------------------------------------------- sles-sp4-angi-vm1 PROMOTED master1:master:worker:master 150 sles-sp4-angi-vm1 - 2.00.073.00 sles-sp4-angi-vm1 sles-sp4-angi-vm2 DEMOTED master1:master:worker:master 100 sles-sp4-angi-vm2 - 2.00.073.00 sles-sp4-angi-vm2
HANA 클러스터 속성의 세부정보 확인
HA 클러스터의 인스턴스 중 하나에서 HANA 클러스터 속성의 세부정보를 확인합니다.
SAPHanaSR-showAttr
출력은 다음 예시와 비슷합니다.
Global cib-update dcid prim sec sid topology ------------------------------------------------------------------------ global 0.98409.1 1 sles-sp4-angi-vm2 sles-sp4-angi-vm1 ABC ScaleUp Resource maintenance promotable ----------------------------------------------------- mst_SAPHanaCon_ABC_HDB00 false true cln_SAPHanaTopology_ABC_HDB00 false Site lpt lss mns opMode srHook srMode srPoll srr --------------------------------------------------------------------------------------- sles-sp4-angi-vm1 30 4 sles-sp4-angi-vm1 logreplay SOK syncmem SOK S sles-sp4-angi-vm2 1742448908 4 sles-sp4-angi-vm2 logreplay PRIM syncmem PRIM P Host clone_state roles score site srah version vhost ---------------------------------------------------------------------------------------------------------------------- sles-sp4-angi-vm1 DEMOTED master1:master:worker:master 100 sles-sp4-angi-vm1 - 2.00.073.00 sles-sp4-angi-vm1 sles-sp4-angi-vm2 PROMOTED master1:master:worker:master 150 sles-sp4-angi-vm2 - 2.00.073.00 sles-sp4-angi-vm2
지원 받기
Compute Engine에서 SAP OS 이미지용 SLES의 PAYG 라이선스를 구매한 경우 Cloud 고객 지원팀의 지원을 받아 SUSE에 문의할 수 있습니다. 자세한 내용은 Compute Engine에서 사용한 만큼만 지불 (PAYG) SLES 라이선스에는 어떻게 지원이 제공되나요?를 참고하세요.
Google Cloud에서 지원을 받는 방법에 관한 자세한 내용은 Google Cloud에서 SAP 지원 받기를 참고하세요.