SAP BW Open Hub Batch Source

In diesem Leitfaden wird beschrieben, wie Sie Datenpipelines bereitstellen, konfigurieren und ausführen, die das SAP BW Open Hub Batch Source-Plug-in. Sie können SAP als Quelle für die Batch- und Deltabasierte Datenextraktion in Cloud Data Fusion über den BW Open Hub Service verwenden.

Dieses Plug-in ermöglicht die Bulk-Datenintegration aus SAP-Anwendungen mit Cloud Data Fusion. Sie können Bulk-Datenübertragungen von DataSources ganz ohne Programmieren.

Informationen zu unterstützten SAP-Anwendungen und -Objekten für die Extraktion finden Sie unter Supportdetails. Weitere Informationen zum Ausführen von SAP in Google Cloud finden Sie unter SAP in Google Cloud.

Lernziele

  • Konfigurieren Sie das SAP BW-System.
  • Stellen Sie das Plug-in in Ihrer Cloud Data Fusion-Umgebung bereit.
  • Laden Sie den SAP-Transport aus Cloud Data Fusion herunter und installieren Sie ihn in SAP.
  • Verwenden Sie Cloud Data Fusion und SAP BW Open Hub Batch Source, um Datenpipelines für die Integration von SAP-Daten zu erstellen.

Hinweis

Zur Verwendung dieses Plug-ins sind Domainkenntnisse in den folgenden Bereichen erforderlich:

  • Pipelines in Cloud Data Fusion erstellen
  • SAP BW- oder BW4HANA-Systeme konfigurieren

Nutzerrollen

Die Aufgaben auf dieser Seite werden von Personen mit den folgenden Rollen in Google Cloud oder in ihrem SAP-System ausgeführt:

Nutzertyp Beschreibung
Google Cloud-Administrator Nutzer mit dieser Rolle sind Administratoren von Google Cloud-Konten.
Cloud Data Fusion-Nutzer Nutzer, denen diese Rolle zugewiesen ist, sind berechtigt, Datenpipelines zu entwerfen und auszuführen. Sie haben mindestens die Rolle Data Fusion-Betrachter“ (roles/datafusion.viewer). Wenn Sie die rollenbasierte Zugriffssteuerung verwenden, benötigen Sie möglicherweise zusätzliche Rollen.
SAP-Administrator Nutzer mit dieser Rolle sind Administratoren des SAP-Systems. Sie können Software von der SAP-Dienstwebsite herunterladen. Es ist keine IAM-Rolle.
SAP-Nutzer Nutzer mit dieser Rolle sind berechtigt, eine Verbindung zu einem SAP-System herzustellen. Es ist keine IAM-Rolle.

Voraussetzungen für SAP BW

Sie benötigen SAP HANA Studio, um Datenübertragungsprozesse und Prozessabfolgen zu erstellen und zu bearbeiten.

Voraussetzungen für Cloud Data Fusion

  • Für das Erstellen einer Cloud Data Fusion-Instanz ist ein VPC-Netzwerk erforderlich.
  • Eine Cloud Data Fusion-Instanz ab Version 6.8.0, unabhängig von der Version, ist erforderlich.
  • Erforderliche Rollen müssen dem Dienstkonto gewährt werden, das der Cloud Data Fusion-Instanz. Weitere Informationen finden Sie unter Dienstkontonutzerberechtigungen gewähren
  • Sie müssen eine Peering-Verbindung zwischen Ihrer VPC und dem freigegebenen VPC-Netzwerk von Google verwenden.

SAP BW-System konfigurieren

Die SAP BW Open Hub Batch Source verwendet ein Remote Function Module (RFM), das auf jedem SAP-Server installiert werden muss, auf dem Daten extrahiert werden. Dieses RFM wird als SAP-Transport bereitgestellt.

So konfigurieren Sie Ihr SAP-System:

  1. Der Cloud Data Fusion-Nutzer muss die ZIP-Datei, die den SAP-Transport enthält, herunterladen und für den SAP-Administrator bereitstellen. Weitere Informationen finden Sie unter Cloud Data Fusion einrichten.
  2. Der SAP-Administrator muss den SAP-Transport in das SAP-System importieren und die erstellten Objekte prüfen. Weitere Informationen finden Sie unter SAP-Transport installieren.
  3. Optional: Der SAP-Nutzer kann die SAP-Standardautorisierungsobjekte der bereitgestellten Rolle /GOOG/BWOH_CDF_AUTH gemäß den Sicherheitsrichtlinien seiner Organisation ändern.

SAP-Transportdateien installieren

Zum Entwerfen und Ausführen von Datenpipelines in Cloud Data Fusion werden die SAP-Komponenten in SAP-Transportdateien bereitgestellt, die in einer ZIP-Datei archiviert werden. Der Download ist verfügbar, wenn Sie Plug-in im Cloud Data Fusion Hub bereitstellen

ZIP-Datei für SAP BW OH-Transport herunterladen

Die SAP-Transportanfrage-IDs und die zugehörigen Dateien finden Sie in der folgenden Tabelle:

SAP-Transport

Transport-ID Cofile Datendatei Inhalt
BW1K900054 K900054.BW1 R900054.BW1 BWOH Cloud Data Fusion Connector Version 1.0
Funktionsmodule:
/GOOG/BWOH_GET_PC_LOG
/GOOG/BWOH_GET_PRO_CHA_DETAILS
/GOOG/BWOH_API_OHS_ETL_READ
/GOOG/BWOH_GET_PC_RUNS
/GOOG/BWOH_SET_LAST_RUN
/GOOG/BWOH_GET_PC_OHD_LIST
BW1K900055 K900055.BW1 R900055.BW1 Autorisierungsrolle /GOOG/BWOH_CDF_AUTH

So installieren Sie den SAP-Transport:

Schritt 1: Transportanfragedateien hochladen

  1. Log into the operating system of the SAP Instance.
  2. Use the SAP transaction code AL11 to get the path for the DIR_TRANS folder. Typically, the path is /usr/sap/trans/.
  3. Copy the cofiles to the DIR_TRANS/cofiles folder.
  4. Copy the data files to the DIR_TRANS/data folder.
  5. Set the User and Group of data and cofile to <sid>adm and sapsys.

Schritt 2: Transportanfragedateien importieren

Der SAP-Administrator kann die Transportanfragedateien mit einer der folgenden Optionen importieren:

Option 1: Transportanfragedateien mit dem SAP-Transport-Management-System importieren
  1. Melden Sie sich im SAP-System als SAP-Administrator an.
  2. Geben Sie die Transaktions-STMS ein.
  3. Klicken Sie auf Übersicht > Importe.
  4. Doppelklicken Sie in der Spalte „Warteschlange” auf die aktuelle SID.
  5. Klicken Sie auf Extras > Sonstige Anfragen > Hinzufügen.
  6. Wählen Sie die Transportanfrage-ID aus und klicken Sie auf Weiter.
  7. Wählen Sie die Transportanfrage in der Importwarteschlange aus und klicken Sie dann auf Anfrage > Importieren.
  8. Geben Sie die Clientnummer ein.
  9. Wählen Sie auf dem Tab Optionen die Optionen Originals überschreiben und Ungültige Komponentenversion ignorieren aus.

    Optional: Wählen Sie Transportanfragen für späteren Import in die Warteschlange lassen. Dadurch werden die Anfragen beim nächsten Import aller Anfragen wieder in der richtigen Reihenfolge importiert. Diese Option ist nützlich, wenn Sie vorläufige Importe für einzelne Ersuchen.

  10. Klicken Sie auf Weiter.

  11. Prüfen Sie mit den entsprechenden Transaktionen wie SE80 und PFCG, ob das Funktionsmodul und die Autorisierungsrollen erfolgreich importiert wurden.

Option 2: Transportanfragedateien auf Betriebssystemebene importieren
  1. Melden Sie sich im SAP-System als SAP-Administrator an.
  2. Fügen Sie dem Importpuffer die entsprechenden Anfragen hinzu:

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    Beispiel: tp addtobuffer BW1K900054 DD1

  3. Importieren Sie die Transportanfragen:

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    Ersetzen Sie NNN durch die Clientnummer. Beispiel:

    tp import BW1K900054 DD1 client=100 U1238
    
  4. Prüfen Sie mit den entsprechenden Transaktionen wie SE80 und PFCG, ob das Funktionsmodul und die Autorisierungsrollen erfolgreich importiert wurden.

Erforderliche SAP-Autorisierungen

Zum Ausführen einer Datenpipeline in Cloud Data Fusion benötigen Sie einen SAP-Nutzer. Der SAP-Nutzer muss vom Typ Communications oder Dialog sein. Damit SAP-Dialogressourcen nicht verwendet werden, wird der Typ Communications empfohlen. Der SAP-Administrator kann Nutzer mit dem SAP-Transaktionscode SU01 erstellen.

SAP-Autorisierungen sind erforderlich, um den Connector für SAP zu konfigurieren. Connector-spezifische SAP-Autorisierungsobjekte werden als Teil der Transportanfrage. Importieren Sie den Autorisierungsrollen-Transport wie unter SAP-Transport installieren beschrieben, um die Rolle in Ihr System aufzunehmen und sie aus dem Transaktionscode PFCG zu generieren.

Berechtigungen für SAP-Standard-Autorisierungsobjekte mit einem eigenen Sicherheitsmechanismus. Sie können Autorisierungsobjekte auf Basis von die Sicherheitsrichtlinien Ihres Unternehmens.

Prozesskette (PC) und Datenübertragungsprozess (DTP) erstellen

Für die Erstellung einer Prozesskette und Datenübertragung sind zusätzliche Fähigkeiten und Hintergrundwissen.

Hintergrundkonzepte

Verwenden Sie SAP HANA Studio, um einen PC und ein DTP zu erstellen oder zu bearbeiten.

Vorausgesetzte Fähigkeiten

  • Sie haben Transformationen verwendet, um den Datenfluss zwischen dem Quell- und dem Zielobjekt zu definieren.
  • Sie sind mit den grundlegenden BW- und HANA-Konzepten wie DataStore-Objekten vertraut. (DSO), Datentransformationen, InfoCubes, Abfrageoptimierung, HANA-Modellierung und HANA DB-Features mit HANA Studio. Weitere Informationen zu diesen Konzepten finden Sie in den SAP-Tutorials zu BW und HANA.

Extraktionstyp

Für einen Datenübertragungsprozess gibt es zwei Datenextraktionsmodi: Vollständig und Delta.

  • Vollständig: Es werden alle in der Quelle verfügbaren Daten basierend auf den im DTP genannten Filterbedingungen ausgewählt. Wenn die Datenquelle einer der folgenden InfoProvider ist, ist nur der Modus „Vollständige Extraktion“ verfügbar:

    • InfoObjects
    • InfoSets
    • Datenspeicherobjekte für direkte Aktualisierung
  • Delta: Im Gegensatz zu InfoPackage erfordert die Deltaübertragung mit einem DTP keine explizite Initialisierung. Wenn ein DTP mit der Delta-Extraktion ausgeführt wird werden alle vorhandenen Anfragen bis zum Extraktionszeitpunkt aus der Quelle abgerufen und dann wird der Delta-Wert automatisch initialisiert.

    Die folgenden Optionen sind für einen DTP mit dem Extraktionsmodus "Delta" verfügbar:

    • Delta nur einmal gewinnen
    • Alle neuen Datenanfragen auf Anfrage abrufen
    • Bis keine neuen Daten mehr abgerufen werden

Paketgröße: Die Anzahl der Datensätze, die in einem einzelnen Element vorhanden sind. Datenpakets ein. Der Standardwert ist 50,000.

Prozesskette erstellen

Verwenden Sie zum Erstellen einer Prozesskette (PC) den Transaktions-RSPC in der SAP-GUI. Definieren Sie und fügen dann die Prozessschritte und den DTP hinzu. Weitere Informationen finden Sie in der SAP-Dokumentation unter Prozessketten erstellen.

In HANA Studio stehen verschiedene Optionen zum Überwachen und Verwalten von PCs zur Verfügung. Weitere Informationen finden Sie unter SAP BW/4HANA-Prozessabfolgevorgänge.

Datenübertragungsprozess mithilfe einer Prozesskette erstellen

Rufen Sie die Planungsansicht der Prozesskette auf, die Sie für den Datenübertragungsprozess. In der Ansicht Planung können Sie die DTP mit HANA Studio erstellen. Weitere Informationen finden Sie in der SAP-Dokumentation unter Datenübertragungsprozess erstellen.

Weitere Informationen zu den Konfigurationsoptionen finden Sie unter All about Data Transfer Process (DTP) – SAP BW 7.

RFC-Verbindung

Damit das Callback-System, z. B. das SAP BW Open Hub Batch Source-Plug-in, benachrichtigt wird, dass die Daten verfügbar sind, muss die Prozesskette so aktualisiert werden, dass ein RFC-Ziel verwendet wird:

  1. Erstellen Sie in SM59 eine RFC-Verbindung vom Typ TCP/IP-Verbindungen, um das Zielsystem von BW aus zu benachrichtigen, sobald die Datenübertragung in BI abgeschlossen ist.

  2. Prüfen Sie, ob die Programm-ID in der RFC-Verbindung konfiguriert ist. Klicken Sie dazu zweimal auf die RFC-Verbindung. Die Programm-ID muss für jedes RFC-Ziel eindeutig sein, um Konflikte bei der Laufzeiterkennung zu vermeiden.

  3. Verwenden Sie die neu erstellte TCP/IP-Verbindung in der Prozesskette, um eine Benachrichtigung zu senden, dass ein Cloud Data Fusion-Batchjob abgeschlossen wurde. Der Name zwischen Groß- und Kleinschreibung unterschieden. Sie muss im End-to-End-Integrationsprozess korrekt in Großbuchstaben angegeben werden.

Protokolle von Prozessketten und Datenübertragungsprozessen anzeigen

  1. Rufen Sie den T-Code RSPC auf und klicken Sie auf Prozessabfolgen.

  2. Klicken Sie mit der rechten Maustaste auf die Prozesskette, für die Sie Protokolle anzeigen möchten, und dann auf Protokolle anzeigen.

Dataproc-Cluster bei Verwendung der Prozesskette konfigurieren

Um die Kommunikation über den RFC-Server zu ermöglichen, müssen Sie den SAP-Gateway-Port hinzufügen Einträge in der Datei /etc/services in den Dataproc-Clusterknoten. Es wird empfohlen, ein init action zu verwenden, das Skript, das beim Initialisieren des Clusters ausgeführt werden soll. Weitere Informationen Siehe Initialisierungsaktionen.

Erstellen Sie eine Scriptdatei und speichern Sie sie in einem Cloud Storage-Bucket. Die folgenden Beispiel für den Inhalt der Skriptdatei:

gs://cdf-sap-dependent-files/addgw.sh
#!/bin/bash
echo 'sapgw00 3300/tcp' >> /etc/services
echo 'sapgw01 3301/tcp' >> /etc/services
echo 'sapgw02 3302/tcp' >> /etc/services
echo 'sapgw03 3303/tcp' >> /etc/services
echo 'sapgw04 3304/tcp' >> /etc/services

Beachten Sie im vorherigen Beispiel Folgendes:

  • Die Einträge haben das Format sapgwxx 33xx/tcp, wobei XX ist die SAP-Instanznummer.

  • Die Ports für die SAP-Instanzen 00 bis 04 werden hinzugefügt.

Führen Sie die folgenden Schritte aus, wenn Sie einen sitzungsspezifischen, einen neu erstellten nichtflüchtigen oder einen vorhandenen nichtflüchtigen Dataproc-Cluster verwenden.

Sitzungsspezifischer Dataproc-Cluster

Wenn Sie einen sitzungsspezifischen Dataproc-Cluster verwenden, fügen Sie den Pfad zum init-Script zu den Clustereigenschaften hinzu:

  1. Klicken Sie im Job-Monitor auf der Pipelineseite in Cloud Data Fusion auf Konfigurieren.
  2. Wählen Sie das Compute-Profil aus und klicken Sie auf Anpassen.
  3. Geben Sie unter Erweiterte Einstellungen im Feld Initialisierungsaktionen den Pfad zum init-Script ein.

Neuer persistenter Dataproc-Cluster

Wenn Sie einen neu erstellten nichtflüchtigen Dataproc-Cluster verwenden, verwenden Sie das init-Script im gcloud-Befehl, um den Cluster zu erstellen. Beispiel:

gcloud dataproc clusters create cluster-name \
  --region=${REGION} \
  --initialization-actions=gs://cdf-sap-dependent-files/addgw.sh \
  ... other flags ...

Vorhandener persistenter Dataproc-Cluster

Wenn Sie einen vorhandenen nichtflüchtigen Dataproc-Cluster verwenden, gehen Sie so vor:

Wenn der Cluster bereits ohne das init-Script erstellt wurde, fügen Sie die Einträge sowohl auf dem Master- als auch auf dem Worker-Knoten des Dataproc-Clusters manuell hinzu.

  1. Stellen Sie eine SSH-Verbindung zum Master- und Clusterknoten her.
  2. Melden Sie sich mit der Root-Nutzer-ID an.
  3. Gehen Sie zu /etc/ und öffnen Sie die Datei /etc/services in einem VI-Editor.
  4. Fügen Sie den Eintrag sapgwxx 33xx/tcp hinzu. Ersetzen Sie xx durch die Nummer Ihrer SAP-Instanz.
  5. Speichern Sie die Datei /etc/services.

Cloud Data Fusion einrichten

Achten Sie darauf, dass die Kommunikation zwischen Cloud Data Fusion aktiviert ist und den SAP-Server. Richten Sie für private Instanzen Netzwerk-Peering ein. Nachdem das Netzwerk-Peering mit dem Projekt eingerichtet wurde, in dem die SAP-Systeme gehostet werden, ist keine weitere Konfiguration erforderlich, um eine Verbindung zu Ihrer Cloud Data Fusion-Instanz herzustellen. Sowohl das SAP-System als auch die Cloud Data Fusion-Instanz müssen sich im selben Projekt befinden.

Schritte für Cloud Data Fusion-Nutzer

  1. Rufen Sie die Instanzdetails auf:
    1. Rufen Sie in der Google Cloud Console die Seite „Cloud Data Fusion“ auf.

    2. Klicken Sie auf Instanzen und dann auf den Namen der Instanz, um die Seite Instanzdetails aufzurufen.

      Zur Seite „VM-Instanzen“

  2. Prüfen Sie, ob die Instanz auf Version 6.8.0 oder höher aktualisiert wurde. Wenn Wenn sich die Instanz in einer früheren Version befindet, müssen Sie ein Upgrade dieser Version durchführen.
  3. Öffnen Sie die Instanz. Klicken Sie beim Öffnen der Cloud Data Fusion-UI auf Hub.
  4. Wählen Sie den Tab SAP &gt; SAP BW aus. Wenn der SAP-Tab nicht sichtbar ist, finden Sie weitere Informationen unter Fehlerbehebung bei SAP-Integrationen.
  5. Klicken Sie auf SAP BW-Plug-in bereitstellen. Das Plug-in wird auf der Studio-Seite im Menü Quelle angezeigt.

Schritte für SAP-Administratoren und Google Cloud-Administratoren

Der SAP-Administrator lädt die folgenden JCo-Artefakte von der SAP-Supportwebsite herunter und übergibt sie an den Google Cloud-Administrator.

  • Eine plattformunabhängige Lösung (sapjco3.jar)
  • One-Platform-abhängig (libsapjco3.so on Unix)

So laden Sie die Dateien herunter:

  1. Rufen Sie die Seite SAP-Connectors auf. Seite.
  2. Klicken Sie auf SAP Java Connector/Tools und Dienste. Sie können plattformspezifische Links für den Download auswählen.
  3. Wählen Sie die Plattform aus, auf der Ihre Cloud Data Fusion-Instanz ausgeführt wird:

    1. Wenn Sie für die VMs in Ihrem Cluster Standard-Google Cloud-Images verwenden (Standardeinstellung für Cloud Data Fusion), wählen Sie Linux für Intel-kompatible Prozessoren 64-Bit x86 aus.
    2. Wenn Sie ein benutzerdefiniertes Image verwenden, wählen Sie die entsprechende Plattform aus.
  4. Der Google Cloud-Administrator muss die JCo-Dateien in eine lesbare Cloud Storage-Bucket. Geben Sie den Bucket-Pfad zum Cloud Data Fusion-Nutzer, ihn in das entsprechende Plug-in-Attribut einzugeben in Cloud Data Fusion: GCS-Pfad der SAP JCo-Bibliothek. Weitere Informationen finden Sie unter Plug-in konfigurieren

  5. Der Google Cloud-Administrator muss dem Cloud Data Fusion-Dienstkonto für die Designumgebung und das Dataproc-Dienstkonto für die Ausführungsumgebung Lesezugriff auf die beiden Dateien erteilen. Weitere Informationen finden Sie unter Cloud Data Fusion-Dienstkonten.

Plug-in konfigurieren

Das SAP BW Open Hub Batch Source-Plug-in liest den Inhalt einer SAP DataSource

Zum Filtern der Datensätze können Sie die folgenden Eigenschaften für den SAP BW Open Hub Batch Source.

Die folgenden Indikatoren werden verwendet, um die Felder zu definieren:

  • (M): Gibt an, dass Makros für das jeweilige Feld unterstützt werden.
  • (O): Optionales Feld

Label: Plug-in-Label auf dem Canvas.

Einfach

In der folgenden Liste von Eigenschaften bedeutet (M), dass die Option Makros unterstützt, Außerdem lassen sich damit die SAP-Verbindungen zentral verwalten. Zum Beispiel haben Sie kann Makros für die Verbindungseigenschaften verwenden und die Werte zur Laufzeit festlegen mithilfe von Laufzeitparametern oder einem Argument Setter-Plug-in.

  • Reference Name: Name, der zur eindeutigen Identifizierung dieser Quelle für die Herkunft verwendet wird. und Anmerkungen zu Metadaten.
  • Verbindung verwenden (Ein/Aus-Schaltfläche): Gibt an, ob eine vorhandene Verbindung verwendet werden soll (siehe Verbindungen verwalten). Wenn Sie eine vorhandene Verbindung verwenden, müssen Sie keine SAP-Verbindungsdetails angeben.

  • Verbindung (Verbindungen suchen): Wählen Sie die gewünschte Verbindung aus. Sie können auch die Makrofunktion ${conn(connection-name)} verwenden.

  • SAP-Client (M): Der zu verwendende SAP-Client. Beispiel: 100.

  • SAP-Sprache (M): SAP-Anmeldesprache. Beispiel: EN.

  • Connection Type (Verbindungstyp): SAP-Verbindungstyp – direkt oder Load-Balancing Load Balanced-Verbindungen werden für die prozesskettenbasierte Extraktion nicht unterstützt. Weitere Informationen finden Sie unter Supportdetails.

    Wenn Sie einen Verbindungstyp auswählen, ändern sich die verfügbaren Felder.

    Für eine direkte Verbindung sind die folgenden Felder verfügbar:

    • Host des SAP-Anwendungsservers (M): Der Name oder die IP-Adresse des SAP-Servers.
    • SAP-Systemnummer (M): Die SAP-Systemnummer. Beispiel: 00.
    • SAP Router (M, O): Der Router-String.

    Für eine Verbindung mit Load-Balancing sind die folgenden Felder verfügbar:

    • SAP Message Server Host (M): Der Hostname oder die IP-Adresse des SAP-Nachrichtenservers.
    • SAP Message Server-Dienst oder Portnummer (M): Der SAP Message Server-Dienst oder die Portnummer. Beispiel: sapms02.
    • SAP-System-ID (SID) (M): Die SAP-System-ID. Beispiel: N75.
    • SAP-Anmeldegruppenname (M): Der Name der SAP-Anmeldegruppe. Beispiel: PUBLIC.
  • Prozesskette verwenden (M): Dieses Feld enthält zwei Optionen.

    Wenn Sie die Prozesskette mit der Option Ja aktivieren, geschieht Folgendes: aktiviert sind:

    • Automatisches Beheben von PC- und DTP-Fehlern: Steuert das Verhalten, wenn eine die zuvor fehlgeschlagene Ausführung identifiziert wurden. Wenn das Plug-in deaktiviert ist, schlägt das mit relevanten Fehlern. Wenn diese Option aktiviert ist (Standardeinstellung), prüft das Plug-in die Prozesskette und den Status des Datenübertragungsprozesses in SAP. Wenn einer der folgenden Fehler erkannt wird, versucht das Plug-in automatisch, ihn zu beheben:

    • Data Transfer Process in error state: Plug-in löscht die vorherige Anfrage

    • Prozesskette im Status „Rot“ mit Fehler previous request status has not been set: Das Plug-in löscht die blockierende Anfrage, nachdem die Anfrage-ID abgerufen wurde aus dem Prozesskettenprotokoll und versucht dann, den PC auszuführen.

    • Wartezeit für Benachrichtigungen zum Status der Prozesskette (in Minuten) (M, O): Wartet auf die angegebene Zeit in Minuten, bis die Prozesskette den Vorgang abgeschlossen hat. Daten-Staging ausführen und die Pipeline benachrichtigen, um mit der Extraktion zu beginnen. Wenn Sie 0 oder leer lassen, werden 10 Minuten als Standardwert verwendet.

    • Prozesskette (M): Der Name der SAP-Prozesskette. Beispiel: PC_RFC.

    Wenn Sie die Prozesskette mit der Option Nein deaktivieren, werden die folgenden Eigenschaften aktiviert:

    • Open Hub-Ziel (M): Name des Open Hub-Ziels, der gelesen werden soll.
    • Anfrage-ID (M,O): Anfrage-ID für den bereits ausgeführten Datenübertragungsprozess.

Anmeldedaten

  • SAP Logon username (M): SAP-Nutzername. Empfohlen: Wenn sich der Nutzername für die SAP-Anmeldung regelmäßig ändert, verwenden Sie einen Makro.
  • SAP Logon Password (M): SAP-Nutzerpasswort. Empfohlen: Verwenden Sie für sensible Werte wie Nutzerpasswort sichere Makros

SAP JCo-Details

  • GCP-Projekt-ID (M): Die Google Cloud-Projekt-ID, die ein Projekt eindeutig identifiziert. Sie finden sie in der Google Cloud Console auf dem Dashboard.
  • GCS-Pfad der SAP JCo-Bibliothek (M): Der Cloud Storage-Pfad, der der vom Nutzer hochgeladenen SAP JCo-Bibliotheksdateien.
  • Schema abrufen: Klicken Sie hier, wenn das Plug-in ein Schema auf Grundlage der Metadaten von SAP generieren soll, wobei SAP-Datentypen automatisch den entsprechenden Cloud Data Fusion-Datentypen zugeordnet werden. Die Funktionalität von Dies entspricht der Schaltfläche Validieren.

Weitere Informationen zu Clientzertifikaten finden Sie unter X.509-Clientzertifikate auf dem SAP NetWeaver Application Server für ABAP verwenden.

Erweitert

  • Anzahl der zu generierenden Splits (M, O): Mit dieser Option wird die Eingabedatenpartitionierung festgelegt. Mehr Partitionen erhöhen den Parallelitätsgrad, erfordern aber mehr Ressourcen und Overhead. Bei einem SAP-On-Premises- Wenn der Wert nicht in der Benutzeroberfläche angegeben wird, betragen die Aufteilungen 50% der verfügbaren Dialog-Arbeitsabläufen in SAP. Andernfalls werden die Aufteilungen optimiert. den vom Nutzer angegebenen und 50% der verfügbaren Arbeitsprozesse.

    Empfohlen: Lassen Sie das Attribut leer, es sei denn, Sie sind mit der SAP-Systemeinstellungen.

  • Zusätzliche SAP-Verbindungseigenschaften (M, O): Legen Sie zusätzliche SAP JCo-Eigenschaften fest, die die SAP JCo-Standardwerte überschreiben. Beispiel: Die Einstellung „jco.destination.pool_capacity = 10“ überschreibt die Standardverbindung Poolkapazität.

    In der folgenden Tabelle sind die unterstützten SAP JCo-Properties aufgeführt:

    Attribut Beschreibung
    jco.destination.peak_limit Maximale Anzahl aktiver Verbindungen, die für eine Ziel gleichzeitig ausführen.
    jco.destination.pool_capacity Maximale Anzahl inaktiver Verbindungen, die vom Ziel offen gehalten werden. Ein Wert von 0 führt dazu, dass kein Verbindungs-Pooling verwendet wird. Das bedeutet, dass Verbindungen nach jeder Anfrage geschlossen werden.
    jco.destination.expiration_time Zeit in ms, nachdem die Verbindungen vom internen Speicher gehalten werden Pool geschlossen werden kann.
    jco.destination.expiration_check_period Intervall in ms, in dem der Zeitlimit-Prüf-Thread die Verbindungen im Pool auf Ablauf prüft.
    jco.destination.max_get_client_time Maximale Zeit in ms, die auf eine Verbindung gewartet werden kann, wenn die maximal zulässige Anzahl von Verbindungen von der Anwendung zugewiesen wurde.

Verhalten der Datenextraktionsmodi

Der Datenextraktionsmodus wird über die Einstellungen für den Datenübertragungsprozess gesteuert. Das Verhalten unterscheidet sich, wenn Sie eine Prozesskette oder ein Open Hub-Ziel verwenden.

Bei Verwendung einer Prozesskette

Einstellungen auf der Ebene des Datenübertragungsprozesses steuern, ob eine vollständige oder Delta- ausgeführt wird. Die Anfrage-ID wird als Benachrichtigung von SAP an das Plug-in gesendet. Das Plug-in liest Paketdaten, die mit dieser einzelnen Anfrage-ID verknüpft sind.

Bei Verwendung eines Open Hub-Ziels ohne Anfrage-ID

Vollständiges Laden: Wenn die Pipeline zum ersten Mal ausgeführt wird, werden alle verfügbaren Anfrage-IDs in der Open Hub-Tabelle abgerufen. Das Plug-in liest Paketdaten, die mit diesen Anfrage-IDs verknüpft sind.

Delta-Lade: Wenn Sie dieselbe Pipeline das nächste Mal ausführen, werden alle verfügbaren Delta-Anfrage-IDs nach der zuletzt abgerufenen Anfrage-ID abgerufen. Das Plug-in liest Paketdaten, die mit diesen Anfrage-IDs verknüpft sind.

Bei Verwendung eines Open Hub-Ziels mit Anfrage-ID

Vollständige Auslastung: Wenn die Pipeline zum ersten Mal ausgeführt wird, werden alle nächsten verfügbaren Anfrage-IDs abgerufen, die größer als die angegebene Anfrage-ID sind. Das Plug-in liest Paketdaten, die mit diesen Anfrage-IDs verknüpft sind.

Delta-Lade: Wenn Sie dieselbe Pipeline noch einmal ausführen, werden nach der zuletzt abgerufenen Anfrage-ID alle verfügbaren Delta-Anfrage-IDs abgerufen. Das Plug-in liest Paketdaten, die diesen Anfrage-IDs zugeordnet sind.

Datentypzuordnung

Die folgende Tabelle zeigt die Zuordnung zwischen den in SAP BW und Cloud Data Fusion.

SW-Datentyp ABAP-Typ Beschreibung (SAP) Datentyp „Cloud Data Fusion“
Numerisch
INT1 b 1-Byte-Ganzzahl integer
INT2 s 2-Byte-Ganzzahl integer
INT4 i 4-Byte-Ganzzahl integer
INT8 8 8-Byte-Ganzzahl long
DEZ p Nummer des Pakets im BCD-Format (DEC) decimal
DF16_DEC
DF16_RAW
a Dezimales Gleitkomma, 8 Byte IEEE 754r decimal
DF34_DEC
DF34_RAW
e Dezimales Gleitkomma 16 Byte IEEE 754r decimal
FLTP f Binäre Gleitkommazahl double
Zeichen
LEGEN
LKHR
c Zeichenstring string
SSTRING
GEOM_EWKB
string Zeichenstring string
STRING string Zeichenstring CLOB bytes
NUMC
ACCP
n Numerischer Text string
Byte
RAW
LRAW
x Binärdaten bytes
Rohstring xstring Bytestring BLOB bytes
Datum/Uhrzeit
DATS d Datum date
TIMS t Zeit time
TIMESTAMP utcl Zeitstempel
Utclong
timestamp

Validierung

Klicken Sie auf Validieren oder Schema abrufen.

Das Plug-in validiert die Attribute und generiert ein Schema anhand der Metadaten von SAP. Die SAP-Datentypen werden den entsprechenden Cloud Data Fusion-Datentypen automatisch zugeordnet.

Datenpipeline ausführen

  1. Klicken Sie nach dem Bereitstellen der Pipeline auf Konfigurieren.
  2. Wählen Sie Ressourcen aus.
  3. Ändern Sie bei Bedarf die Executor-CPU und den Arbeitsspeicher entsprechend der Gesamtdatengröße und der Anzahl der in der Pipeline verwendeten Transformationen.
  4. Klicken Sie auf Speichern.
  5. Klicken Sie zum Starten der Datenpipeline auf Ausführen.

Leistung optimieren

Plug-in-Konfiguration optimieren

Verwenden Sie die folgenden Eigenschaften, um eine optimale Leistung zu erzielen, wenn Sie den Pipeline:

  • Anzahl der zu generierenden Splits im Cloud Data Fusion-Plug-in Eigenschaften: Damit wird die Parallelität des von Cloud Data Fusion. Die Laufzeit-Engine erstellt die angegebene Zahl. beim Extrahieren der Tabelleneinträge von Partitionen und SAP-Verbindungen. Werte zwischen 8 und 16 werden empfohlen, aber Sie können die Anzahl auf bis zu 32 oder 64 erhöhen mit der entsprechenden Konfiguration auf SAP-Seite durchführen, indem Sie geeignete für die Arbeitsprozesse in SAP.

    Wenn der Wert 0 ist oder leer gelassen wird (empfohlen), wird das System automatisch wählt basierend auf der Anzahl der verfügbaren SAP-Arbeiten einen geeigneten Wert aus. Prozesse, zu extrahierenden Datensätze und die Paketgröße.

  • Paketgröße in den Eigenschaften des BW-Datenübertragungsprozesses: die Anzahl der Datensätze, die in einem einzelnen Datenpaket vorhanden sind. Der Standardwert ist 50,000. Eine Erhöhung dieses Werts kann zu einer besseren Leistung, aber auch zu einer höheren Ressourcenauslastung führen. Wenn Sie bereits höhere Werte verwenden, verringern Sie sie, um eine bessere Parallelisierung der Extraktion zu ermöglichen.

Cloud Data Fusion-Ressourceneinstellungen

Empfohlen: Verwenden Sie 1 CPU und 4 GB Arbeitsspeicher pro Executor. Dieser Wert gilt für jeden Executor-Prozess. Legen Sie diese Werte in der Dialogfeld Konfigurieren &gt; Ressourcen:

Dataproc-Clustereinstellungen

Empfohlen: Weisen Sie den Workern mindestens insgesamt CPUs zu, größer als vorgesehene Anzahl von Aufteilungen. Weitere Informationen finden Sie unter Plugin-Konfiguration.

Wenn Sie z. B. 16 Splits haben, definieren Sie insgesamt 20 oder mehr CPUs. für alle Worker. Es wird ein Overhead von 4 CPUs verwendet, Koordination.

Empfohlen: Verwenden Sie einen nichtflüchtigen Dataproc-Cluster, um die Laufzeit der Datenpipeline zu reduzieren. Dadurch wird der Bereitstellungsschritt entfernt, der einige Minuten oder länger dauern kann. Legen Sie dies im Abschnitt zur Compute Engine-Konfiguration fest.

Supportdetails

Unterstützte SAP-Produkte und -Versionen

Unterstützte Quellen:

  • SAP NW BW 7.5 und höher
  • SAP BW4HANA 2.0 SP9 (für Open Hub Destination API; frühere Releases von BW4HANA unterstützen die Open Hub Destination API nicht)

Unterstützung für SAP-Verbindungen mit Load Balancing (Message Server)

Eine SAP-Load Balancing-Verbindung (Message Server) wird für die Open Hub-zielbasierte Extraktion unterstützt, bei der kein RFC-Server verwendet wird.

Die Verbindung mit SAP-Load-Balancing (Nachrichtenserver) wird für diesen Prozess nicht unterstützt kettenbasierte Extraktion. Der Grund dafür ist eine SAP-Einschränkung beim Senden einer data ready-Benachrichtigung an das Clientsystem. Dazu muss der RFC-Server (Plug-in-Listener) auf jedem SAP-Server in der BW-Umgebung registriert werden. Das erhöht den Footprint des Connectors und kann sich potenziell auf die SAP-Leistung und die Ressourcennutzung auswirken. Weitere Informationen finden Sie im SAP-Hinweis 2572564 (SAP-Supportanmeldung erforderlich).

Unterstützte SAP-Bereitstellungsmodelle

Das Plug-in wird mit SAP-Servern getestet, die in Google Cloud bereitgestellt werden.

Unterstützte SAP-Objekte

Datenquellen für Open Hub-Ziel: InfoProvider (InfoObject, InfoCube, Datenspeicherobjekt, erweitertes Datenspeicherobjekt, zusammengesetzter Anbieter)

Prozessketten, die den Datenübertragungsprozess automatisch in die offene Hub-Ziel.

Separate Lizenz für die Verwendung des Oracle HTTP-Servers zum Extrahieren von Daten aus SAP

Sie benötigen keine separate Lizenz, um den Oracle HTTP-Server (OHS) zum Extrahieren von Daten aus SAP zu verwenden. Erkundigen Sie sich jedoch bei Ihrem SAP-Ansprechpartner über Ihre spezifische Vereinbarung und Ihren Anwendungsfall.

Erwarteter Plug-in-Durchsatz

Für eine Umgebung, die gemäß den Richtlinien unter Leistung optimieren lässt, kann das Plug-in etwa 38 GB pro Stunde. Die tatsächliche Leistung kann je nach Cloud Data Fusion- und SAP-Systemlast oder Netzwerkverkehr variieren.

Nächste Schritte