Bereitstellungsleitfaden für ein vertikal skalierbares SAP HANA-System in einem SLES-Hochverfügbarkeitscluster

In diesem Leitfaden wird erläutert, wie Sie einen leistungsoptimierten SUSE Linux Enterprise Server (SLES)-Cluster für ein vertikal skalierbares SAP HANA-System mit einem Host auf der Google Cloud Platform (GCP) bereitstellen. Sie füllen eine Konfigurationsdateivorlage aus und stellen mit Cloud Deployment Manager einen Cluster und zwei SAP HANA-Systeme mit Best Practices von Compute Engine und SAP bereit.

Eines der SAP HANA-Systeme dient als primäres, aktives System und das andere als sekundäres Standby-System. Jedes SAP HANA-System wird auf einer Compute Engine-VM in derselben Region bereitgestellt, idealerweise in verschiedenen Zonen.

Überblick über einen Linux-Hochverfügbarkeitscluster für ein vertikal skalierbares SAP HANA-System mit einem Knoten

Der bereitgestellte Cluster enthält die folgenden Funktionen und Features:

  • Hochverfügbarkeitsclusterressourcen-Manager von Pacemaker
  • GCP-Abgrenzungsmechanismus
  • SUSE-Hochverfügbarkeitsmuster
  • SUSE SAPHanaSR-Ressourcen-Agent-Paket
  • Synchrone Systemreplikation
  • Vorab in den Arbeitsspeicher laden
  • Automatischer Neustart der fehlgeschlagenen Instanz als neue sekundäre Instanz

Wenn Sie für das automatische Host-Failover von SAP HANA ein horizontal skalierbares System mit Standby-Hosts benötigen, verwenden Sie stattdessen die Bereitstellungsanleitung für ein horizontal skalierbares SAP HANA-System mit automatischem SAP HANA-Host-Failover.

Wenn Sie ein SAP HANA-System ohne Linux-Hochverfügbarkeitscluster oder Standby-Hosts bereitstellen möchten, verwenden Sie die Bereitstellungsanleitung für SAP HANA.

Diese Anleitung richtet sich an fortgeschrittene SAP HANA-Nutzer, die mit Linux-Hochverfügbarkeitskonfigurationen für SAP HANA vertraut sind.

Vorbereitung

Vor dem Erstellen eines SAP HANA-Hochverfügbarkeitsclusters sind die folgenden Voraussetzungen zu erfüllen:

  • Sie oder Ihre Organisation haben ein GCP-Konto und Sie haben ein Projekt für die SAP HANA-Bereitstellung erstellt. Informationen zum Erstellen von GCP-Konten und -Projekten finden Sie unter Google-Konto einrichten in der Bereitstellungsanleitung für SAP HANA.
  • Die SAP HANA-Installationsmedien sind in einem Cloud Storage-Bucket gespeichert, der in Ihrem Bereitstellungsprojekt und Ihrer Region verfügbar ist. Informationen zum Hochladen von SAP HANA-Installationsmedien in einen Cloud Storage-Bucket finden Sie in der Anleitung zur Bereitstellung von SAP HANA unter SAP HANA herunterladen.

Netzwerk erstellen

Erstellen Sie aus Sicherheitsgründen ein neues Netzwerk. Durch das Festlegen von Firewallregeln oder die Nutzung eines anderen Verfahrens der Zugriffskontrolle steuern Sie, wer Zugriff hat.

Wenn Ihr Projekt ein Standard-VPC-Netzwerk hat, verwenden Sie es nicht. Erstellen Sie stattdessen Ihr eigenes VPC-Netzwerk, sodass nur die von Ihnen explizit formulierten Firewallregeln gelten.

Während der Bereitstellung müssen VM-Instanzen normalerweise auf das Internet zugreifen können, um den Monitoring-Agent von Google herunterzuladen. Wenn Sie eines der von SAP zertifizierten Linux-Images verwenden, die auf der GCP verfügbar sind, benötigen die VM-Instanzen außerdem einen Internetzugang, um die Lizenz zu registrieren und auf Repositories von Betriebssystemherstellern zuzugreifen. Eine Konfiguration mit einem NAT-Gateway und VM-Netzwerk-Tags unterstützt diesen Zugriff selbst dann, wenn die Ziel-VMs keine externen IP-Adressen haben.

So richten Sie das Netzwerk ein:

  1. Rufen Sie Cloud Shell auf.

    Zu Cloud Shell

  2. Führen Sie diesen Befehl aus, um ein neues Netzwerk im benutzerdefinierten Subnetzwerkmodus zu erstellen:

    gcloud compute networks create [YOUR_NETWORK_NAME] --subnet-mode custom

    [YOUR_NETWORK_NAME] ist der Name des neuen Netzwerks. Der Netzwerkname darf nur Kleinbuchstaben, Ziffern und Bindestriche (-) enthalten.

    Geben Sie --subnet-mode custom an, um die Verwendung des standardmäßigen automatischen Modus zu vermeiden, durch den in jeder Compute Engine-Region automatisch ein Subnetz erstellt wird. Weitere Informationen finden Sie unter Modus für Subnetzerstellung.

  3. Erstellen Sie ein Subnetzwerk und geben Sie die Region und den IP-Adressbereich an:

    gcloud compute networks subnets create [YOUR_SUBNETWORK_NAME] \
            --network [YOUR_NETWORK_NAME] --region [YOUR_REGION] --range [YOUR_RANGE]

    Dabei gilt:

    • [YOUR_SUBNETWORK_NAME] ist das neue Subnetzwerk.
    • [YOUR_NETWORK_NAME] ist der Name des Netzwerks, das Sie im vorherigen Schritt erstellt haben.
    • [REGION] ist die Region, in der sich das Subnetzwerk befinden soll.
    • [YOUR_RANGE] ist der im CIDR-Format angegebene IP-Adressbereich, z. B. 10.1.0.0/24. Wenn Sie mehrere Subnetzwerke erstellen möchten, weisen Sie den Subnetzwerken im Netzwerk nicht überlappende CIDR-IP-Adressbereiche zu. Beachten Sie, dass jedes Subnetzwerk und seine internen IP-Adressbereiche einer einzelnen Region zugeordnet sind.
  4. Wiederholen Sie den vorherigen Schritt, falls Sie weitere Subnetzwerke erstellen möchten.

NAT-Gateway einrichten

Wenn Sie eine oder mehrere VMs ohne öffentliche IP-Adressen erstellen möchten, müssen Sie ein NAT-Gateway erstellen, damit Ihre VMs auf das Internet zugreifen können, um den Monitoring-Agent von Google herunterzuladen.

Wenn Sie der VM eine externe öffentliche IP-Adresse zuweisen möchten, können Sie diesen Vorgang überspringen.

So erstellen Sie ein NAT-Gateway:

  1. Legen Sie eine VM an, die in dem soeben erstellten Subnetzwerk als NAT-Gateway fungieren soll:

    gcloud compute instances create [YOUR_VM_NAME] --can-ip-forward \
            --zone [YOUR_ZONE]  --image-family [YOUR_IMAGE_FAMILY] \
            --image-project [YOUR_IMAGE_PROJECT] \
            --machine-type=[YOUR_MACHINE_TYPE] --subnet [YOUR_SUBNETWORK_NAME] \
            --metadata startup-script="sysctl -w net.ipv4.ip_forward=1; iptables \
            -t nat -A POSTROUTING -o eth0 -j MASQUERADE" --tags [YOUR_VM_TAG]

    Dabei gilt:

    • [YOUR_VM_NAME] ist der Name der von Ihnen erstellten VM, die für das NAT-Gateway verwendet werden soll.
    • [YOUR_ZONE] ist die Zone, in der sich die VM befinden soll.
    • [YOUR_IMAGE_FAMILY] und [YOUR_IMAGE_PROJECT] geben das für das NAT-Gateway zu verwendende Image an.
    • [YOUR_MACHINE_TYPE] ist ein beliebiger unterstützter Maschinentyp. Wenn Sie einen hohen Netzwerktraffic erwarten, wählen Sie einen Maschinentyp mit mindestens acht virtuellen CPUs.
    • [YOUR_SUBNETWORK_NAME] ist der Name des Subnetzwerks, in dem sich die VM befinden soll.
    • [YOUR_VM_TAG] ist das Tag, das auf die von Ihnen erstellte VM angewendet wird. Wenn Sie diese VM auch als Bastion Host verwenden, wird dieses Tag verwendet, um die entsprechende Firewallregel nur auf diese VM anzuwenden.
  2. Erstellen Sie eine Route, die so getaggt ist, dass der Traffic nicht über das Standard-Internetgateway, sondern über die NAT-VM geleitet wird:

    gcloud compute routes create [YOUR_ROUTE_NAME] \
            --network [YOUR_NETWORK_NAME] --destination-range 0.0.0.0/0 \
            --next-hop-instance [YOUR_VM_NAME] --next-hop-instance-zone \
            [YOUR_ZONE] --tags [YOUR_TAG_NAME] --priority 800

    Dabei gilt:

    • [YOUR_ROUTE_NAME] ist der Name der Route, die Sie erstellen.
    • [YOUR_NETWORK_NAME] ist das von Ihnen erstellte Netzwerk.
    • [YOUR_VM_NAME] gibt die VM an, die Sie für Ihr NAT-Gateway verwenden.
    • [YOUR_ZONE] ist die Zone, in der sich die VM befindet.
    • [YOUR_TAG_NAME] stellt das Tag auf der Route dar, das den Verkehr durch die NAT-VM leitet.
  3. Wenn Sie die NAT-Gateway-VM auch als Bastion Host verwenden möchten, führen Sie den folgenden Befehl aus. Mit diesem Befehl wird eine Firewallregel erstellt, die eingehenden SSH-Zugriff auf diese Instanz aus dem Internet zulässt:

    gcloud compute firewall-rules create allow-ssh --network [YOUR_NETWORK_NAME] --allow tcp:22 --source-ranges 0.0.0.0/0 --target-tags "[YOUR_VM_TAG]"

    Dabei gilt:

    • [YOUR_NETWORK_NAME] ist das von Ihnen erstellte Netzwerk.
    • [YOUR_VM_TAG] stellt das Tag dar, das Sie beim Erstellen der NAT-Gateway-VM angegeben haben. Dieses Tag sorgt dafür, dass diese Firewallregel nur für die VM gilt, die das NAT-Gateway hostet, und nicht für alle VMs im Netzwerk.

Firewallregeln festlegen

Standardmäßig verhindert eine implizite Firewallregel eingehende Verbindungen von außerhalb Ihres Virtual Private Cloud-Netzwerks (VPC). Wenn Sie eingehende Verbindungen erlauben möchten, richten Sie für Ihre VM eine Firewallregel ein. Nachdem eine eingehende Verbindung zu einer VM hergestellt wurde, ist Traffic über diese Verbindung in beide Richtungen zulässig.

Sie können eine Firewallregel erstellen, um externen Zugriff auf bestimmte Ports zuzulassen oder zwischen VMs im selben Netzwerk einzuschränken. Wenn der VPC-Netzwerktyp default verwendet wird, gelten auch einige zusätzliche Standardregeln, wie die Regel default-allow-internal, die den Zugriff zwischen VMs im selben Netzwerk an allen Ports erlaubt.

Abhängig von der für Ihre Umgebung geltenden IT-Richtlinie müssen Sie möglicherweise die Konnektivität zu Ihrem Datenbankhost isolieren oder anderweitig einschränken. Dazu erstellen Sie Firewallregeln.

Je nach Szenario können Sie Firewallregeln erstellen, die den Zugriff für Folgendes erlauben:

  • SAP-Standardports, die unter TCP/IP-Ports aller SAP-Produkte aufgeführt sind.
  • Verbindungen von Ihrem Computer oder dem Unternehmensnetzwerk aus zu Ihrer Compute Engine-VM-Instanz. Wenn Sie sich nicht sicher sind, welche IP-Adresse Sie verwenden sollen, wenden Sie sich an den Netzwerkadministrator Ihres Unternehmens.
  • Kommunikation zwischen VMs, wenn z. B. Ihr Datenbankserver und Ihr Anwendungsserver auf verschiedenen VMs ausgeführt werden. Damit eine Kommunikation zwischen VMs möglich ist, müssen Sie eine Firewallregel erstellen, die aus dem Subnetzwerk stammenden Traffic zulässt.
  • SSH-Verbindungen zu Ihrer VM-Instanz, einschließlich SSH über den Browser.
  • Verbindung zu Ihrer VM über ein Drittanbieter-Tool unter Linux. Erstellen Sie eine Regel, die dem Tool den Zugriff über Ihre Firewall ermöglicht.

So erstellen Sie eine Firewallregel:

  1. Rufen Sie in der GCP Console die Seite Firewallregeln auf.

    SEITE "FIREWALLREGELN" ÖFFNEN

  2. Klicken Sie oben auf der Seite auf Firewallregel erstellen.

    • Wählen Sie im Feld Netzwerk das Netzwerk aus, in dem sich Ihre VM befindet.
    • Geben Sie im Feld Ziele die Ressourcen in GCP an, für die diese Regel gilt. Geben Sie beispielsweise Alle Instanzen im Netzwerk an. Sie können auch Tags unter Angegebene Zieltags eingeben, um die Regel auf bestimmte Instanzen in GCP zu beschränken.
    • Wählen Sie im Feld Quellfilter eine der folgenden Optionen aus:
      • IP-Bereiche, um eingehenden Traffic von bestimmten IP-Adressen zuzulassen. Geben Sie den IP-Adressbereich im Feld Quell-IP-Bereiche an.
      • Subnetze, um eingehenden Traffic von einem bestimmten Subnetz zuzulassen. Geben Sie den Namen des Subnetzwerks im folgenden Feld Subnetze an. Mit dieser Option können Sie den Zugriff zwischen den VMs in einer dreistufigen oder einer horizontal skalierbaren Konfiguration zulassen.
    • Wählen Sie im Abschnitt Protokolle und Ports die Option Angegebene Protokolle und Ports aus und geben Sie tcp:[PORT_NUMBER] ein.
  3. Klicken Sie auf Erstellen, um die Firewallregel zu erstellen.

Linux-Hochverfügbarkeitscluster mit SAP HANA-Installation erstellen

In der folgenden Anleitung wird mit Cloud Deployment Manager ein SLES Linux-Cluster mit zwei SAP HANA-Systemen erstellt: ein primäres SAP HANA-System mit einem Host auf einer VM-Instanz und ein SAP HANA-Standby-System auf einer anderen VM-Instanz in derselben Compute Engine-Region. Die SAP HANA-Systeme verwenden die synchrone Systemreplikation. Die replizierten Daten werden vorab vom Standby-System geladen.

Die Konfigurationsoptionen für den SAP HANA-Hochverfügbarkeitscluster legen Sie in einer Konfigurationsdateivorlage in Deployment Manager fest.

In der folgenden Anleitung wird Cloud Shell verwendet, sie ist aber allgemein auf das Cloud SDK anwendbar.

  1. Prüfen Sie, ob Ihre aktuellen Kontingente für Ressourcen wie nichtflüchtige Speicher und CPUs für das zu installierende SAP HANA-System ausreichen. Bei unzureichenden Kontingenten schlägt die Bereitstellung fehl. Welche Kontingente Sie für SAP HANA benötigen, erfahren Sie unter Überlegungen zu Preisen und Kontingenten für SAP HANA.

    Seite "Kontingente" aufrufen

  2. Öffnen Sie Cloud Shell. Wenn Sie das Cloud SDK auf Ihrer lokalen Workstation installiert haben, öffnen Sie stattdessen ein Terminal.

    Cloud Shell aufrufen

  3. Laden Sie die Konfigurationsdateivorlage template.yaml für den SAP HANA-Hochverfügbarkeitscluster in Ihr Arbeitsverzeichnis herunter. Geben Sie dazu in Cloud Shell oder Cloud SDK den folgenden Befehl ein:

    wget https://storage.googleapis.com/sapdeploy/dm-templates/sap_hana_ha/template.yaml
    
  4. Sie können die Datei "template.yaml" so umbenennen, dass sich die von ihr definierte Konfiguration aus dem Namen erschließt.

  5. Öffnen Sie die Datei template.yaml im Cloud Shell-Codeeditor bzw. bei Verwendung des Cloud SDK Ihren bevorzugten Texteditor.

    Klicken Sie zum Öffnen des Cloud Shell-Codeeditors auf das Stiftsymbol in der rechten oberen Ecke des Cloud Shell-Terminalfensters.

  6. Aktualisieren Sie in der Datei template.yaml die Attributwerte. Ersetzen Sie die Klammern und deren Inhalt durch die Werte für Ihre Installation. Die Attribute sind in der folgenden Tabelle beschrieben.

    Wenn Sie die VM-Instanzen ohne SAP HANA installieren möchten, löschen Sie alle Zeilen, die mit sap_hana_ beginnen, oder kommentieren Sie sie aus.

    Attribut Datentyp Beschreibung
    primaryInstanceName String Name der VM-Instanz für das primäre SAP HANA-System. Der Name darf nur Kleinbuchstaben, Zahlen und Bindestriche enthalten.
    secondaryInstanceName String Name der VM-Instanz für das sekundäre SAP HANA-System. Der Name darf nur Kleinbuchstaben, Zahlen und Bindestriche enthalten.
    primaryZone String Zone, in der das primäre SAP HANA-System bereitgestellt wird. Die primäre und sekundäre Zone müssen sich in derselben Region befinden.
    secondaryZone String Zone, in der das sekundäre SAP HANA-System bereitgestellt wird. Die primäre und sekundäre Zone müssen sich in derselben Region befinden.
    instanceType String Der Typ der Compute Engine-VM, auf der SAP HANA ausgeführt werden soll.
    subnetwork String Name des Subnetzes, das Sie in einem vorherigen Schritt erstellt haben. Wenn die Bereitstellung auf einer freigegebenen VPC erfolgt, geben Sie den Wert im Format [SHAREDVPC_PROJECT]/[SUBNETWORK] an. Beispiel: myproject/network1.
    linuxImage String Name des Linux-Betriebssystemimages bzw. der Imagefamilie, die Sie mit SAP HANA verwenden. Wenn Sie eine Imagefamilie angeben möchten, stellen Sie dem Familiennamen das Präfix family/ voran. Beispiel: family/sles-12-sp3-sap. Wenn Sie ein bestimmtes Image verwenden möchten, geben Sie nur dessen Name an. Eine Liste der verfügbaren Imagefamilien finden Sie in der Cloud Console auf der Seite "Images".
    linuxImageProject String GCP-Projekt, das das zu verwendende Image enthält. Dabei kann es sich um Ihr eigenes Projekt oder um ein GCP-Imageprojekt handeln. Geben Sie für SLES suse-sap-cloud an. Eine Liste der GCP-Imageprojekte finden Sie in der Compute Engine-Dokumentation auf der Seite Images.
    sap_hana_deployment_bucket String Name des GCP-Speicher-Buckets in Ihrem Projekt, der die von Ihnen in einem vorherigen Schritt hochgeladenen SAP HANA-Installationsdateien enthält.
    sap_hana_sid String SAP HANA-System-ID. Die ID muss aus drei alphanumerischen Zeichen bestehen und mit einem Buchstaben beginnen. Alle Buchstaben müssen Großbuchstaben sein.
    sap_hana_instance_number Ganzzahl Instanznummer (0 bis 99) des SAP HANA-Systems. Der Standardwert ist 0.
    sap_hana_sidadm_password String Passwort für den Betriebssystemadministrator. Passwörter müssen aus mindestens acht Zeichen bestehen und mindestens einen Großbuchstaben, einen Kleinbuchstaben und eine Zahl enthalten.
    sap_hana_system_password String Passwort für den Datenbank-Superuser. Passwörter müssen mindestens acht Zeichen lang sein und mindestens einen Großbuchstaben, einen Kleinbuchstaben und eine Ziffer enthalten.
    sap_hana_scaleout_nodes Ganzzahl Anzahl der zusätzlich benötigten SAP HANA-Worker-Hosts. Geben Sie 0 an, da horizontal skalierbare Hosts in Hochverfügbarkeitskonfigurationen derzeit nicht unterstützt werden.
    sap_vip String Floating-IP-Adresse, die immer der aktiven SAP HANA-Instanz zugewiesen ist. Die IP-Adresse muss im Bereich der Ihrem Subnetz zugewiesenen IP-Adressen liegen.

    Das folgende Beispiel zeigt eine fertige Konfigurationsdatei. Darin wird Deployment Manager angewiesen, einen Hochverfügbarkeitscluster bereitzustellen, wobei das primäre SAP HANA-System in der Zone us-west1-a und das sekundäre SAP HANA-System in der Zone us-west1-b installiert ist. Beide Systeme werden auf VMs vom Typ n1-highmem-96 installiert, auf denen das Betriebssystem SLES 12 SP2 ausgeführt wird.

     imports:
     - path: https://storage.googleapis.com/sapdeploy/dm-templates/sap_hana_ha/sap_hana_ha.py
    
     resources:
     - name: sap_hana_ha
       type: https://storage.googleapis.com/sapdeploy/dm-templates/sap_hana_ha/sap_hana_ha.py
       properties:
         primaryInstanceName: example-ha-vm1
         secondaryInstanceName: example-ha-vm2
         primaryZone: us-central1-c
         secondaryZone: us-central1-f
         instanceType: n1-highmem-96
         subnetwork: example-ha-subnetwork
         linuxImage: family/sles-12-sp2-sap
         linuxImageProject: suse-sap-cloud
         sap_hana_deployment_bucket: hana2sp3rev30
         sap_hana_sid: HA1
         sap_hana_instance_number: 00
         sap_hana_sidadm_password: Google123
         sap_hana_system_password: Google123
         sap_hana_scaleout_nodes: 0
         sap_vip: 10.1.0.24
    
  7. Erstellen Sie die Instanzen:

    gcloud deployment-manager deployments create [DEPLOYMENT-NAME] --config [TEMPLATE-NAME].yaml
    

    Der obige Befehl ruft Deployment Manager auf, um gemäß den Angaben in der Datei "template.yaml" die VMs bereitzustellen, die SAP HANA-Software aus dem Speicher-Bucket herunterzuladen und SAP HANA zu installieren. Der Vorgang dauert ca. 10 bis 15 Minuten. Führen Sie die Schritte im nächsten Abschnitt aus, um den Fortschritt der Bereitstellung zu überprüfen.

Bereitstellung des HANA-HA-Systems überprüfen

Das Überprüfen eines SAP HANA-HA-Clusters umfasst mehrere Verfahren:

  • Stackdriver-Logs überprüfen
  • Konfiguration der VM und der SAP HANA-Installation überprüfen
  • SAP HANA-System mit SAP HANA Studio überprüfen
  • Failover-Test durchführen

Stackdriver-Logs überprüfen

  1. Öffnen Sie Stackdriver Logging, um nach Fehlern zu suchen und den Fortschritt der Installation zu überwachen.

    Stackdriver Logging aufrufen

  2. Wählen Sie auf dem Tab "Ressourcen" die Option Global als Logging-Ressource aus.

    • Wenn "INSTANCE DEPLOYMENT COMPLETE" angezeigt wird, ist die Verarbeitung in Deployment Manager beendet und Sie können mit dem nächsten Schritt fortfahren.
    • Wenn ein Kontingentfehler auftritt:

      1. Erhöhen Sie unter "IAM & Verwaltung" auf der Seite Kontingente alle Ihre Kontingente, die nicht die in der Planungsanleitung für SAP HANA aufgelisteten Anforderungen erfüllen.
      2. Löschen Sie in Deployment Manager auf der Seite Deployments die Bereitstellung, um die VMs und nichtflüchtige Speicher von der fehlgeschlagenen Installation zu bereinigen.
      3. Führen Sie Deployment Manager noch einmal aus.

      Stackdriver Logging-Anzeige.

Konfiguration der VM und der SAP HANA-Installation überprüfen

  1. Wenn das SAP HANA-System fehlerfrei bereitgestellt wurde, stellen Sie eine SSH-Verbindung zu jeder VM her. Sie können hierfür wahlweise in Compute Engine auf der Seite mit den VM-Instanzen neben jeder VM-Instanz auf die Schaltfläche "SSH" klicken oder Ihre bevorzugte SSH-Methode verwenden.

    Schaltfläche "SSH" auf der Seite "VM-Instanzen" von Compute Engine

  2. Wechseln Sie zum Root-Nutzer:

    sudo su -
  3. Führen Sie über die Eingabeaufforderung df -h aus. Prüfen Sie, ob die Ausgabe Verzeichnisse vom Typ /hana wie etwa /hana/data enthält.

    Vom Skript erstellte Daten-Volumes

  4. Überprüfen Sie den Status des neuen Clusters mit dem folgenden Befehl:

    crm status
    

    Die Ausgabe sollte dem folgenden Beispiel ähnlich sein. Darin ist example-ha-vm1 der Master und example-ha-vm2 der Slave:

    Beispiel für den Clusterstatus und die Ressourcen, die mit dem Befehl "crm status" zurückgegeben werden

  5. Wechseln Sie zum SAP-Administrator. Ersetzen Sie hierfür im folgenden Befehl [SID] durch den SID-Wert, den Sie in der Konfigurationsdateivorlage angegeben haben:

    su - [SID]adm
    
  6. Überprüfen Sie, ob die SAP HANA-Dienste wie etwa hdbnameserver und hdbindexserver auf der Instanz ausgeführt werden. Geben Sie hierfür den folgenden Befehl ein:

    HDB info
    

SAP HANA-System mit SAP HANA Studio überprüfen

  1. Stellen Sie mit SAP HANA Studio eine Verbindung zum HANA-System her. Geben Sie beim Definieren der Verbindung die folgenden Werte an:

    • Geben Sie im Bereich "Specify System" (System angeben) als Hostnamen die Floating-IP-Adresse an.
    • Geben Sie im Bereich "Connection Properties" (Verbindungsattribute) für die Authentifizierung des Datenbanknutzers den Namen des Datenbank-Supernutzers und das Passwort an, den bzw. das Sie in der Datei "template.yaml" für das Attribut sap_hana_system_password festgelegt haben.

      Informationen von SAP zur Installation von SAP HANA Studio finden Sie in der Installations- und Aktualisierungsanleitung von SAP HANA Studio.

  2. Nachdem SAP HANA Studio mit dem HANA-HA-System verbunden ist, rufen Sie die Systemübersicht auf. Doppelklicken Sie hierfür im linken Navigationsbereich auf den Systemnamen.

    Screenshot des Navigationsbereichs in SAP HANA Studio

  3. Überprüfen Sie unter "General Information" (Allgemeine Informationen) auf dem Tab "Overview" (Übersicht) Folgendes:

    • Für den "Operational Status" (Betriebsstatus) wird "All services startet" (Alle Dienste gestartet) angezeigt.
    • Für den "System Replication Status" (Systemreplikationsstatus) wird "All services are active and in sync" (Alle Dienste sind aktiv und synchronisiert) angezeigt.

      Screenshot des Tabs "Overview" (Übersicht) in SAP HANA Studio

  4. Klicken Sie zur Überprüfung des Replikationsmodus unter "General Information" (Allgemeine Informationen) auf den Link System Replication Status (Systemreplikationsstatus). Die synchrone Replikation wird von SYNCMEM in der Spalte REPLICATION_MODE auf dem Tab "System Replication" (Systemreplikation) angegeben.

    Screenshot des Tabs "System Replication Status" (Systemreplikationsstatus) in SAP HANA Studio

Wenn einer der Überprüfungsschritte auf eine fehlgeschlagene Installation hindeutet:

  1. Beheben Sie die Fehler.
  2. Löschen Sie die Bereitstellung auf der Seite Deployments.
  3. Erstellen Sie die Instanzen wie im letzten Schritt des vorherigen Abschnitts beschrieben neu.

Failover-Test durchführen

So führen Sie einen Failover-Test durch

  1. Stellen Sie eine SSH-Verbindung zur primären VM her. Sie können hierfür wahlweise in Compute Engine auf der Seite mit den VM-Instanzen neben jeder VM-Instanz auf die Schaltfläche "SSH" klicken oder Ihre bevorzugte SSH-Methode verwenden.

  2. Wechseln Sie zum Root-Nutzer.

    sudo su -
  3. Geben Sie bei der Eingabeaufforderung den folgenden Befehl ein:

    ifconfig eth0 down

    Der Befehl ifconfig eth0 down löst ein Failover aus, da die Kommunikation mit dem primären Host unterbrochen wird.

  4. Verfolgen Sie den Fortschritt des Failovers in Stackdriver:

    Stackdriver Logging aufrufen

    Das folgende Beispiel zeigt die Logeinträge für ein erfolgreiches Failover:

    Screenshot der Stackdriver-Logs für ein Failover

  5. Stellen Sie eine SSH-Verbindung zu einem der Hosts her und wechseln Sie zum Root-Nutzer.

  6. Geben Sie "crm status" ein, um zu bestätigen, dass der primäre Host jetzt auf der VM mit dem bisherigen sekundären Host aktiv ist. Da im Cluster die automatische Neustartfunktion aktiviert ist, wird der angehaltene Host neu gestartet und übernimmt wie im folgenden Screenshot gezeigt die Rolle des sekundären Hosts.

    Screenshot der Ausgabe des Befehls "crm status", die zeigt, dass der primäre und der sekundäre Host die VMs gewechselt haben

  7. Überprüfen Sie in SAP HANA Studio, ob die Systemverbindung noch immer besteht. Klicken Sie hierfür im Navigationsbereich doppelt auf den Systemeintrag, um die Systeminformationen zu aktualisieren.

  8. Klicken Sie auf den Link System Replication Status (Systemreplikationsstatus), um zu prüfen, ob der primäre und der sekundäre Host die VMs gewechselt haben und aktiv sind.

    Screenshot des Tabs "System Replication Status" (Systemreplikationsstatus) in SAP HANA Studio

NAT-Gateway-Installation beenden

Führen Sie nach der Erstellung eines NAT-Gateways die folgenden Schritte aus.

  1. Fügen Sie allen Instanzen, auch den Worker-Hosts, Tags hinzu:

    export NETWORK_NAME="[YOUR_NETWORK_NAME]"
    export TAG="[YOUR_TAG_TEXT]"
    gcloud compute instances add-tags "[PRIMARY_VM_NAME]" --tags="$TAG" --zone=[PRIMARY_VM_ZONE]
    gcloud compute instances add-tags "[SECONDARY_VM_NAME]" --tags="$TAG" --zone=[SECONDARY_VM_ZONE]
  2. Löschen Sie die externen IP-Adressen:

    gcloud compute instances delete-access-config "[PRIMARY_VM_NAME]" --access-config-name "external-nat" --zone=[PRIMARY_VM_ZONE]
    gcloud compute instances delete-access-config "[SECONDARY_VM_NAME]" --access-config-name "external-nat" --zone=[SECONDARY_VM_ZONE]

Monitoring-Agent von Google für SAP HANA einrichten

Optional können Sie den Monitoring-Agent von Google für SAP HANA einrichten, der Messwerte aus SAP HANA erfasst und an Stackdriver Monitoring sendet. Mit Stackdriver Monitoring können Sie Dashboards für Ihre Messwerte erstellen, benutzerdefinierte Benachrichtigungen auf der Grundlage von Grenzwerten einrichten und vieles mehr.

Zum Überwachen eines Hochverfügbarkeitsclusters können Sie den Monitoring-Agent wahlweise in einer VM-Instanz außerhalb des Clusters oder in jeder VM-Instanz im Cluster installieren.

Wenn Sie den Monitoring-Agent in einer VM-Instanz außerhalb des Hochverfügbarkeitsclusters installieren, geben Sie die Floating-IP-Adresse des Clusters als die IP-Adresse der zu überwachenden Hostinstanz an. Wenn Sie den Monitoring-Agent auf jeder VM im Cluster installieren, geben Sie bei der Konfiguration jedes Monitoring-Agents die lokale IP-Adresse der VM-Instanz an, in der der Monitoring-Agent gehostet wird.

Weitere Informationen zum Einrichten und Konfigurieren des Monitoring-Agents von Google für SAP HANA finden Sie im Nutzerhandbuch für den SAP HANA-Monitoring-Agent.

Verbindung zu SAP HANA herstellen

Da in dieser Anleitung keine externe IP-Adresse für SAP HANA verwendet wird, können Sie nur über die Bastion-Instanz mit SSH oder über den Windows-Server mit SAP HANA Studio eine Verbindung zu den SAP HANA-Instanzen herstellen.

  • Wenn Sie die Verbindung zu SAP HANA über die Bastion-Instanz herstellen möchten, stellen Sie zuerst über einen SSH-Client Ihrer Wahl eine Verbindung zum Bastion Host und anschließend zu den SAP HANA-Instanzen her.

  • Zum Herstellen einer Verbindung mit der SAP HANA-Datenbank über SAP HANA Studio verwenden Sie einen Remote-Desktop-Client, um eine Verbindung zur Windows Server-Instanz herzustellen. Nach dem Verbindungsaufbau installieren Sie SAP HANA Studio manuell und greifen auf Ihre SAP HANA-Datenbank zu.

Aufgaben nach der Bereitstellung ausführen

Bevor Sie Ihre SAP HANA-Instanz verwenden, sollten Sie nach der Bereitstellung diese Schritte ausführen: Weitere Informationen finden Sie in der Installations- und Aktualisierungsanleitung für SAP HANA.

  1. Aktualisieren Sie die SAP HANA-Software mit den neuesten Patches.

  2. Installieren Sie ggf. zusätzliche Komponenten wie AFLs (Application Function Libraries) oder SDA (Smart Data Access).

  3. Konfigurieren und sichern Sie Ihre neue SAP HANA-Datenbank. Weitere Informationen finden Sie in der Betriebsanleitung für SAP HANA.

Weitere Informationen

Hat Ihnen diese Seite weitergeholfen? Teilen Sie uns Ihr Feedback mit:

Feedback geben zu...