SAP SLT Replikation-Plug-in – Übersicht

In diesem Leitfaden wird beschrieben, wie Sie die SAP-Querformat-Transformation (SLT) nutzen, um die Echtzeitreplikation von Daten von SAP-Anwendungen in Google Cloud zu ermöglichen. Sie enthält die Konfigurationsschritte für SAP Source System, SLT, Cloud Storage und Cloud Data Fusion.

Mit der SAP SLT-Replikation von Cloud Data Fusion können Sie Ihre Daten kontinuierlich und in Echtzeit aus SAP-Quellen in BigQuery replizieren. Sie können Datenübertragungen aus SAP-Systemen ohne Programmierung konfigurieren und ausführen.

Der Replikationsprozess für Cloud Data Fusion SLT sieht so aus:

  1. Die Daten stammen aus einem SAP-Quellsystem.
  2. SLT erfasst und liest die Daten und überträgt sie an Cloud Storage.
  3. Cloud Data Fusion ruft Daten aus dem Storage-Bucket ab und schreibt sie in BigQuery.

Sie können Daten von unterstützten SAP-Systemen übertragen, einschließlich SAP-Systemen, die in Google Cloud gehostet werden.

Weitere Informationen finden Sie in der Übersicht über SAP in Google Cloud und in den Supportdetails.

Hinweis

Für die Verwendung dieses Plug-ins benötigen Sie Domainkenntnisse in folgenden Bereichen:

  • Pipelines in Cloud Data Fusion erstellen
  • Zugriffsverwaltung mit IAM
  • SAP Cloud und lokale ERP-Systeme (Enterprise Resource Planning) konfigurieren

Administratoren und Nutzer, die die Konfigurationen ausführen

Die Aufgaben auf dieser Seite werden von Personen mit den folgenden Rollen in Google Cloud oder in ihrem SAP-System ausgeführt:

Nutzertyp Beschreibung
Google Cloud-Administrator Nutzer mit dieser Rolle sind Administratoren von Google Cloud-Konten.
Cloud Data Fusion-Nutzer Nutzer, denen diese Rolle zugewiesen ist, sind berechtigt, Datenpipelines zu entwerfen und auszuführen. Sie haben mindestens die Rolle Data Fusion-Betrachter“ (roles/datafusion.viewer). Wenn Sie die rollenbasierte Zugriffssteuerung verwenden, benötigen Sie möglicherweise zusätzliche Rollen.
SAP-Administrator Nutzer mit dieser Rolle sind Administratoren des SAP-Systems. Sie können Software von der SAP-Dienstwebsite herunterladen. Es ist keine IAM-Rolle.
SAP-Nutzer Nutzer mit dieser Rolle sind berechtigt, eine Verbindung zu einem SAP-System herzustellen. Es ist keine IAM-Rolle.

Unterstützte Replikationsvorgänge

Das SAP SLT-Replikation-Plug-in unterstützt die folgenden Vorgänge:

Datenmodellierung: Alle Datenmodellierungsvorgänge (Eintrag insert, delete und update) werden von diesem Plug-in unterstützt.

Datendefinition: Wie im SAP-Hinweis 2055599 beschrieben (für die Anzeige des SAP-Supports erforderlich), gibt es Einschränkungen bei der automatischen Anpassung von Quellsystemtabellenstrukturen durch SLT. Einige Datendefinitionsvorgänge werden im Plug-in nicht unterstützt. Sie müssen sie manuell übertragen.

  • Unterstützt:
    • Feld ohne Schlüssel hinzufügen
  • Nicht unterstützt:
    • Schlüsselfeld hinzufügen/löschen
    • Nicht-Schlüsselfeld löschen
    • Datentypen ändern

Voraussetzungen für SAP

Folgendes ist in Ihrem SAP-System erforderlich:

  • Sie haben SLT Server Version 2011 SP17 oder höher entweder auf dem SAP-Quellsystem (eingebettet) oder als dediziertes SLT-Hub-System installiert.
  • SAP-Quellsystem ist SAP ECC oder SAP S/4HANA, das DMIS 2011 SP17 oder höher unterstützt, z. B. DMIS 2018, DMIS 2020.
  • Das SAP-UI-Add-on muss mit Ihrer SAP Netweaver-Version kompatibel sein.
  • Ihr Supportpaket unterstützt die /UI2/CL_JSON-Klasse PL 12 oder höher. Implementieren Sie andernfalls die neueste SAP-Notiz für /UI2/CL_JSON-Klasse corrections gemäß Ihrer UI-Add-On-Version, z. B. SAP-Hinweis 2798102 für PL12.

  • Es gibt folgende Sicherheit:

Voraussetzungen für Cloud Data Fusion

  • Sie benötigen eine Cloud Data Fusion-Instanz ab Version 6.4.0.
  • Dem Dienstkonto, das der Cloud Data Fusion-Instanz zugewiesen ist, werden die erforderlichen Rollen gewährt (siehe Dienstkontonutzer erteilen).
  • Für private Cloud Data Fusion-Instanzen ist VPC-Peering erforderlich.

Voraussetzungen für Google Cloud

Storage-Bucket erstellen

Bevor Sie einen SLT-Replikationsjob erstellen, müssen Sie den Cloud Storage-Bucket erstellen. Der Job überträgt Daten in den Bucket und aktualisiert den Staging-Bucket alle fünf Minuten. Wenn Sie den Job ausführen, liest Cloud Data Fusion die Daten im Storage-Bucket und schreibt sie in BigQuery.

Wenn SLT in Google Cloud installiert ist

Der SLT-Server muss die Berechtigung zum Erstellen und Ändern von Cloud Storage-Objekten in dem erstellten Bucket haben.

Weisen Sie dem Dienstkonto mindestens die folgenden Rollen zu:

Wenn SLT nicht in Google Cloud installiert ist

Installieren Sie Cloud VPN oder Cloud Interconnect zwischen der SAP-VM und Google Cloud, um eine Verbindung zu einem internen Metadaten-Endpunkt herzustellen (siehe Privaten Google-Zugriff für lokale Hosts konfigurieren).

Wenn interne Metadaten nicht zugeordnet werden können, gehen Sie so vor:

  • Installieren Sie die Google Cloud-Befehlszeile basierend auf dem Betriebssystem der Infrastruktur, auf der SLT ausgeführt wird.

  • Erstellen Sie ein Dienstkonto in dem Google Cloud-Projekt, in dem Cloud Storage aktiviert ist.

  • Führen Sie auf dem SLT-Betriebssystem den Zugriff auf Google Cloud mit einem Dienstkonto aus.

  • Erstellen Sie einen API-Schlüssel für das Dienstkonto und autorisieren Sie den Cloud Storage-bezogenen Bereich.

  • Importieren Sie den API-Schlüssel mithilfe der Befehlszeile in die oben installierte gcloud-Befehlszeile.

  • Konfigurieren Sie den SAP-Betriebssystembefehl im SM69-Transaktionstool im SLT-System, um den gcloud-Befehlszeilenbefehl auszuführen, der das Zugriffstoken ausgibt.

Der SAP-Administrator konfiguriert den Betriebssystembefehl SM69, der ein Zugriffstoken aus Google Cloud abruft.

Erstellen Sie ein Skript, um ein Zugriffstoken zu drucken, und konfigurieren Sie einen Befehl für das SAP-Betriebssystem, um das Skript vom SAP LT Replikationsserver-Host als Nutzer <sid>adm aufzurufen.

Linux

So erstellen Sie einen OS-Befehl:

  1. Erstellen Sie auf dem SAP LT Replikationsserver-Host in einem Verzeichnis, das für <sid>adm zugänglich ist, ein Bash-Skript mit den folgenden Zeilen:

    PATH_TO_GCLOUD_CLI/bin/gcloud auth print-access-token SERVICE_ACCOUNT_NAME
    
  2. Erstellen Sie mit der SAP GUI einen externen Betriebssystembefehl:

    1. Geben Sie die Transaktion SM69 ein.
    2. Klicken Sie auf Erstellen.
    3. Geben Sie im Bereich Befehl des Steuerfelds Externer Befehl den Namen des Befehls ein, z. B. ZGOOGLE_CDF_TOKEN.
    4. Im Abschnitt Definition:

      1. Geben Sie im Feld Betriebssystembefehl sh als Erweiterung der Skriptdatei ein.
      2. Geben Sie im Feld Parameter für Betriebssystembefehl Folgendes ein:

        /PATH_TO_SCRIPT/FILE_NAME.sh
        
    5. Klicken Sie auf Speichern.

    6. Klicken Sie auf Ausführen, um das Skript zu testen.

    7. Klicken Sie noch einmal auf Ausführen.

    Ein Google Cloud-Token wird zurückgegeben und unten im SAP-GUI-Steuerfeld angezeigt.

Windows

Erstellen Sie mit der SAP-GUI einen externen Betriebssystembefehl:

  1. Geben Sie die Transaktion SM69 ein.
  2. Klicken Sie auf Erstellen.
  3. Geben Sie im Bereich Befehl des Steuerfelds Externer Befehl den Namen des Befehls ein, z. B. ZGOOGLE_CDF_TOKEN.
  4. Im Abschnitt Definition:

    1. Geben Sie im Feld Betriebssystembefehl den Wert cmd /c ein.
    2. Geben Sie im Feld Parameter für Betriebssystembefehl Folgendes ein:

      gcloud auth print-access-token SERVICE_ACCOUNT_NAME
      
  5. Klicken Sie auf Speichern.

  6. Klicken Sie auf Ausführen, um das Skript zu testen.

  7. Klicken Sie noch einmal auf Ausführen.

Ein Google Cloud-Token wird zurückgegeben und unten im SAP-GUI-Steuerfeld angezeigt.

Voraussetzungen für SLT

Für die Einrichtung des SLT-Connectors gelten folgende Voraussetzungen:

  • Der Connector unterstützt SAP ECC NW 7.02, DMIS 2011 SP17 und höher.
  • Konfigurieren Sie eine RFC- oder Datenbankverbindung zwischen SLT und dem Quellsystem.
  • Importieren Sie Google APIs-Zertifikate mit dem Transaktionscode STRUST aus googleapis.com, einschließlich des Stammverzeichnisses.
  • Der Internet Communication Manager (ICM) muss für HTTPS eingerichtet sein. Achten Sie darauf, dass die HTTP- und HTTPS-Ports im SAP SLT-System verwaltet und aktiviert werden. Dies können Sie über den Transaktionscode SMICM > Services prüfen.
  • Aktivieren Sie den Zugriff auf Google Cloud APIs auf der VM, auf der das SAP SLT-System gehostet wird. Dies ermöglicht die private Kommunikation zwischen den Google Cloud-Diensten ohne Routing über das öffentliche Internet.
  • Achten Sie darauf, dass das Netzwerk das erforderliche Volumen und die Geschwindigkeit der Datenübertragung zwischen der SAP-Infrastruktur und Cloud Storage unterstützt. Für eine erfolgreiche Installation werden Cloud VPN und/oder Cloud Interconnect empfohlen. Der Durchsatz der Google Cloud Storage Streaming API hängt von den Kontingenten der Clients ab, die Ihrem Cloud Storage-Projekt gewährt wurden.

SLT-Replikationsserver konfigurieren

Der SAP-Nutzer führt die folgenden Schritte aus.

In den folgenden Schritten verbinden Sie den SLT-Server mit dem Quellsystem und dem Bucket in Cloud Storage und geben das Quellsystem, die zu replizierenden Datentabellen und den Zielspeicher-Bucket an.

Google ABAP SDK konfigurieren

So konfigurieren Sie SLT für die Datenreplikation (einmal pro Cloud Data Fusion-Instanz):

  1. Zum Konfigurieren des SLT-Connectors gibt der SAP-Nutzer die folgenden Informationen zum Konfigurationsbildschirm (SAP-Transaktion /GOOG/CDF_SETTINGS) für den Google Cloud-Dienstkontoschlüssel ein, um Daten an Cloud Storage zu übertragen. Konfigurieren Sie die folgenden Attribute in der Tabelle „/GOOG/CDF_CLT_KY“ mit der Transaktion SE16. Notieren Sie sich diesen Schlüssel:
  • NAME: Der Name Ihres Dienstkontoschlüssels (z. B. CDFSLT)
  • SERVICE ACCOUNT NAME: Der IAM-Dienstkontoname
  • SCOPE: Umfang des Dienstkontos
  • PROJEKT-ID: Die ID Ihres Google Cloud-Projekts
  • Optional: EXT OS Command: Verwenden Sie dieses Feld nur, wenn SLT nicht in Google Cloud installiert ist.
  • AUTH-KLASSE: Der feste Wert: /GOOG/CDF_CL_GCP_AUTH_GOOGLE
  • TOKEN REFRESH SEC: Dauer für die Aktualisierung des Autorisierungstokens

Details zum Dienstkontoschlüssel eingeben

Replikationskonfiguration erstellen

Erstellen Sie eine Replikationskonfiguration im Transaktionscode: LTRC.

  • Bevor Sie mit der LTRC-Konfiguration fortfahren, müssen Sie die RFC-Verbindung zwischen dem SLT- und dem Quell-SAP-System herstellen.
  • Unter einer SLT-Konfiguration können mehrere SAP-Tabellen für die Replikation zugewiesen sein.
  1. Rufen Sie den Transaktionscode LTRC auf und klicken Sie auf Neue Konfiguration.

    Details zum Dienstkontoschlüssel eingeben

  2. Geben Sie den Konfigurationsnamen und die Beschreibung ein und klicken Sie auf Weiter.

  3. Geben Sie die RFC-Verbindung des SAP-Quellsystems an und klicken Sie auf Weiter.

    Details zur RFC-Verbindung des Quellsystems angeben

  4. Wählen Sie unter „Target System Connection Details“ (Details zur Zielsystemverbindung) die Option Other (Sonstige) aus.

  5. Maximieren Sie das Feld Szenario für RFC-Kommunikation, wählen Sie SLT SDK aus und klicken Sie auf Weiter.

  6. Öffnen Sie das Fenster Specify Transfer Settings (Übertragungseinstellungen angeben) und geben Sie den Namen der App ein: ZGOOGLE_CDF.

    Übertragungseinstellungen festlegen

  7. Geben Sie die Anzahl der Datenübertragungsjobs, die Anzahl der anfänglichen Ladejobs und die Anzahl der Berechnungsjobs ein. Weitere Informationen zur Leistung finden Sie im Leitfaden zur Leistungsoptimierung von SAP LT Replikationsserver.

    Tipp: Wenn Sie die Anzahl der Jobs nicht kennen, geben Sie 10,10,10 ein. Bearbeiten Sie die Werte später, wenn weitere Informationen verfügbar sind.

  8. Klicken Sie auf Echtzeit > Weiter.

  9. Nachdem Sie die Konfiguration geprüft haben, klicken Sie auf Speichern. Notieren Sie sich die Mass Transfer-ID für die folgenden Schritte.

    Speichern Sie die Konfiguration und notieren Sie sich die ID der Massenübertragung

  10. Führen Sie die SAP-Transaktion /GOOG/CDF_SETTINGS aus, um die Massenübertragungs-ID und SAP-Tabellendetails beizubehalten.

  11. Klicken Sie auf Ausführen oder drücken Sie F8.

  12. Erstellen Sie einen neuen Eintrag, indem Sie auf das Symbol zum Anhängen der Zeile klicken.

    1. Geben Sie die Mass Transfer ID (Mass Transfer Transfer-ID), Mass Transfer Key (Mass Transfer-Schlüssel), GCP Key Name und Target GCS Bucket ein. Klicken Sie das Kästchen Ist aktiv an und speichern Sie die Änderungen.

      Details zur Massenübertragung eingeben

  13. Wählen Sie die Konfiguration in der Spalte Konfigurationsname aus und klicken Sie auf Datenbereitstellung.

    Datenbereitstellung auswählen

  14. Optional: Passen Sie die Tabellen- und Feldnamen an.

    1. Klicken Sie auf Benutzerdefinierte Namen und speichern Sie sie.

    2. Klicken Sie auf Display.

    3. Erstellen Sie einen neuen Eintrag, indem Sie auf die Schaltfläche Zeile anfügen oder Erstellen klicken.

    4. Geben Sie den Namen der SAP-Tabelle und den externen Tabellennamen ein, der in BigQuery verwendet werden soll, und speichern Sie die Änderungen.

    5. Klicken Sie in der Spalte Anzeigefelder auf die Schaltfläche Anzeigen, um die Zuordnung von Tabellenfeldern beizubehalten.

    6. Eine Seite mit vorgeschlagenen Zuordnungen wird geöffnet. Optional: Bearbeiten Sie den temp-Feldnamen und die Feldbeschreibung und speichern Sie die Zuordnungen.

  15. Rufen Sie die LTRC-Transaktion auf.

  16. Wählen Sie den Wert in der Spalte Konfigurationsname aus und klicken Sie auf Datenbereitstellung.

  17. Geben Sie den Tabellennamen in das Feld Tabellenname in Datenbank ein und wählen Sie das Replikationsszenario aus.

    Replikationsszenario auswählen

  18. Klicken Sie auf Ausführen. Dadurch wird die Implementierung des SLT SDK ausgelöst und die Daten werden an den Ziel-Bucket in Cloud Storage übertragen.

SAP-Transportdateien installieren

Die SAP-Komponenten sind erforderlich, um Replikationsjobs in Cloud Data Fusion zu entwerfen und auszuführen. Sie werden als SAP-Transportdateien, die als ZIP-Datei archiviert sind, zugestellt.

Die Transportanfrage-IDs und die zugehörigen Dateien sind in der folgenden Tabelle aufgeführt:

SAP-Transport

Transport-ID Cofile Datendatei Inhalt
ED1K900346 K900346.ED1 K900346.ED1 SAP BADI-Implementierung ES_IUUC_REPL_RUNTIME_OLO_EXIT
ED1K900340 K900340.ED1 K900340.ED1 Autorisierungsrolle /GOOG/SLT_CDF_AUTH

Führen Sie die folgenden Schritte aus, um die SAP-Transporte zu installieren:

Schritt 1: Transportanfragedateien hochladen

  1. Melden Sie sich im Betriebssystem der SAP-Anwendungsinstanz an.
  2. Kopieren Sie die Cofiles in den Ordner /usr/sap/trans/cofiles.
  3. Kopieren Sie die Datendateien in den Ordner /usr/sap/trans/data.
  4. Legen Sie den Nutzer und die Gruppe von Daten/Datei auf <sid>adm und sapsys fest.

Schritt 2: Transportanfragedateien importieren

Der SAP-Administrator kann die Transportanfragedateien mit einer der folgenden Optionen importieren:

Option 1: Transportanfragedateien mit dem SAP-Transport-Management-System importieren

  1. Melden Sie sich im SAP-System als SAP-Administrator an.
  2. Geben Sie die Transaktions-STMS ein.
  3. Klicken Sie auf Übersicht > Importe.
  4. Doppelklicken Sie in der Spalte „Warteschlange” auf die aktuelle SID.
  5. Klicken Sie auf Extras > Sonstige Anfragen > Hinzufügen.
  6. Wählen Sie die Transportanfrage-ID aus und klicken Sie auf Weiter.
  7. Wählen Sie die Transportanfrage in der Importwarteschlange aus und klicken Sie dann auf Anfrage > Importieren.
  8. Geben Sie die Clientnummer ein.
  9. Wählen Sie auf dem Tab Optionen die Optionen Originale überschreiben und Ungültige Komponentenversion ignorieren aus (falls verfügbar).

    Optional: Wählen Sie Transportanfragen in der Warteschlange für einen späteren Import verlassen und Transportanfragen noch einmal importieren aus, um einen erneuten Import der Transporte zu planen. Dies ist nützlich für SAP-Systemupgrades und Sicherungswiederherstellungen.

  10. Klicken Sie auf Weiter.

  11. Prüfen Sie mithilfe von Transaktionen wie SE80 und PFCG, ob das Funktionsmodul und die Autorisierungsrollen importiert wurden.

Option 2: Transportanfragedateien auf Betriebssystemebene importieren

  1. Melden Sie sich im SAP-System als SAP-Administrator an.
  2. Fügen Sie dem Importzwischenspeicher die entsprechenden Anfragen hinzu:

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    Beispiel: tp addtobuffer IB1K903958 DD1

  3. Importieren Sie die Transportanfragen:

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    Ersetzen Sie NNN durch die Clientnummer. Beispiel: tp import IB1K903958 DD1 client=800 U1238

  4. Prüfen Sie mit den entsprechenden Transaktionen wie SE80 und PFCG, ob das Funktionsmodul und die Autorisierungsrollen erfolgreich importiert wurden.

Erforderliche SAP-Autorisierungen

Zum Ausführen einer Datenpipeline in Cloud Data Fusion benötigen Sie einen SAP-Nutzer. Der SAP-Nutzer muss vom Typ „Kommunikation“ oder „Dialogfeld“ sein. Zur Verwendung von SAP-Dialogressourcen wird der Kommunikationstyp empfohlen. Nutzer können vom SAP-Administrator mit dem SAP-Transaktionscode SU01 erstellt werden.

SAP-Autorisierungen sind erforderlich, um den Connector für SAP zu verwalten und zu konfigurieren – eine Kombination aus SAP-Standard- und neuen Connector-Autorisierungsobjekten. Sie verwalten Autorisierungsobjekte gemäß den Sicherheitsrichtlinien Ihrer Organisation. In der folgenden Liste werden einige wichtige Autorisierungen für den Connector beschrieben:

  • Autorisierungsobjekt: Das Autorisierungsobjekt ZGOOGCDFMT wird im Rahmen der Rolle „Transportanfrage“ gesendet.

  • Rollenerstellung: Erstellen Sie eine Rolle mit dem Transaktionscode PFCG.

    Eine Rolle mithilfe eines SAP-Transaktionscodes erstellen

  • Für Standard-SAP-Autorisierungsobjekte verwaltet Ihre Organisation Berechtigungen mit einem eigenen Sicherheitsmechanismus.

  • Geben Sie für benutzerdefinierte Autorisierungsobjekte in den Autorisierungsfeldern Werte für die Autorisierungsobjekte ZGOOGCDFMT an.

  • Für eine detaillierte Zugriffssteuerung bietet ZGOOGCDFMT die Autorisierungsgruppe. Nutzern mit vollständiger, teilweiser oder ohne Zugriff auf Autorisierungsgruppen wird der Zugriff entsprechend der in ihrer Rolle zugewiesenen Autorisierungsgruppe gewährt.

  • /GOOG/SLT_CDF_AUTH: Rolle mit Zugriff auf alle Autorisierungsgruppen. Wenn Sie den Zugriff auf eine bestimmte Autorisierungsgruppe einschränken möchten, behalten Sie die Autorisierungsgruppe FICDF in der Konfiguration bei.

RFC-Ziel für die Quelle erstellen

Bevor Sie mit der Konfiguration beginnen, muss die RFC-Verbindung zwischen Quelle und Ziel hergestellt werden.

  1. Rufen Sie den Transaktionscode SM59 auf.

  2. Klicken Sie auf Erstellen > Verbindungstyp 3 (ABAP-Verbindung).

    Transaktionscode erstellen

  3. Geben Sie im Fenster Technische Einstellungen die Details zum RFC-Ziel ein.

  4. Klicken Sie auf den Tab Logon and Security (Anmeldung und Sicherheit), um RFC-Anmeldedaten (RFC-Nutzer und -Passwort) beizubehalten.

  5. Klicken Sie auf Speichern.

  6. Klicken Sie auf Verbindungstest. Nach einem erfolgreichen Test können Sie fortfahren.

  7. Prüfen Sie, ob der RFC Authorization Test erfolgreich ist.

  8. Klicken Sie auf Dienstprogramme > Test >Autorisierungstest.

Plug-in in Cloud Data Fusion bereitstellen

Der Cloud Data Fusion-Nutzer führt die folgenden Schritte aus.

Bevor Sie den Cloud Data Fusion-Replikationsjob ausführen können, müssen Sie das SAP SLT-Replikation-Plug-in bereitstellen:

  1. Rufen Sie in der Google Cloud Console die Seite Cloud Data Fusion-Instanzen auf.

  2. Öffnen Sie die gewünschte Instanz.

    Die Benutzeroberfläche von Cloud Data Fusion wird geöffnet.

  3. Klicken Sie auf Hub > SAP > SAP SLT.

  4. Klicken Sie auf SAP SLT-Plug-in bereitstellen.

Replikationsjob erstellen und bereitstellen

Das SAP SLT-Replikation-Plug-in liest den Inhalt von SAP-Tabellen mithilfe eines Cloud Storage API-Staging-Buckets.

So erstellen Sie einen Replikationsjob für die Datenübertragung:

  1. Geben Sie einen eindeutigen Namen und eine Beschreibung für den Replikationsjob ein.

  2. Klicken Sie auf Next (Weiter).

Quelle konfigurieren

  1. Konfigurieren Sie die Quelle, indem Sie Werte in die folgenden Felder eingeben:

    • PROJECT ID: Die ID Ihres Google Cloud-Projekts. Dieses Feld ist bereits ausgefüllt.
    • Data Replikation-GCS-Pfad: Der Cloud Storage-Pfad, der Daten für die Replikation enthält. Dies muss der Pfad sein, der in den SAP SLT-Jobs konfiguriert ist. Intern ist der angegebene Pfad mit Mass Transfer ID und Source Table Name verkettet:

      Format: gs://<base-path>/<mass-transfer-id>/<source-table-name>

      Beispiel: gs://slt_bucket/012/MARA

    • GUID: die SLT-GUID – eine eindeutige Kennung, die der SAP SLT-Massenübertragungs-ID zugewiesen ist.

    • Mass Transfer ID: Die SLT-Massenübertragungs-ID ist eine eindeutige Kennung, die der Konfiguration in SAP SLT zugewiesen wird.

    • SAP JCo Library GCS-Pfad: Der Speicherpfad, der die vom Nutzer hochgeladenen SAP JCo-Bibliotheksdateien enthält. SAP-JCo-Bibliotheken können über das SAP-Supportportal heruntergeladen werden.

    • SLT Server Host (SLT Server-Host): SLT-Server-Hostname oder IP-Adresse

    • SAP-Systemnummer: Nummer des Installationssystems, die vom Systemadministrator angegeben wurde, z. B. 00.

    • SAP-Client: Der zu verwendende SAP-Client, z. B. 100.

    • SAP-Sprache: SAP-Anmeldesprache, z. B. EN

    • SAP Log-in-Nutzername: SAP-Nutzername.

      • Empfohlen: Wenn sich der SAP-Anmeldename regelmäßig ändert, verwenden Sie ein Makro.
    • SAP Login-Passwort (M): SAP-Nutzerpasswort für die Nutzerauthentifizierung

      • Empfohlen: Verwenden Sie sichere Makros für sensible Werte wie Passwörter.
    • SLT-Replikation sperren, wenn CDF-Job beendet wird: Versuche, den SLT-Replikationsjob (für die betroffenen Tabellen) zu beenden, wenn der Cloud Data Fusion-Replikationsjob gestoppt wird. Kann fehlschlagen, wenn der Job in Cloud Data Fusion unerwartet beendet wird.

    • Vorhandene Daten replizieren: Gibt an, ob vorhandene Daten aus den Quelltabellen repliziert werden. Standardmäßig replizieren die Jobs die vorhandenen Daten aus Quelltabellen. Wenn Sie false festlegen, werden alle vorhandenen Daten in der Quelltabelle ignoriert und nur die Änderungen, die nach Beginn des Jobs stattfinden, werden repliziert.

    • Dienstkontoschlüssel: Der Schlüssel, der bei der Interaktion mit Cloud Storage verwendet werden soll. Das Dienstkonto muss Leseberechtigung für Cloud Storage haben. Bei der Ausführung auf einer Google Cloud-VM kann dies auf 'auto-detect' gesetzt werden, welche den Dienstkontoschlüssel auf der VM verwendet.

  2. Im Schritt Tabellen auswählen wird eine Liste der für die Replikation im SLT-System ausgewählten Tabellen angezeigt.

  3. Wählen Sie die Tabellen aus, die Sie replizieren möchten, und klicken Sie auf Weiter.

Ziel konfigurieren

Zum Schreiben von Daten in BigQuery benötigt das Plug-in Schreibzugriff auf BigQuery und einen Staging-Bucket. Änderungsereignisse werden zuerst in Batches von SLT in Cloud Storage geschrieben. Anschließend werden sie in Staging-Tabellen in BigQuery geladen. Änderungen aus der Staging-Tabelle werden mithilfe einer BigQuery-Zusammenführensabfrage in der endgültigen Zieltabelle zusammengeführt.

Die finale Zieltabelle enthält alle ursprünglichen Spalten aus der Quelltabelle sowie eine zusätzliche _sequence_num-Spalte. Die Sequenznummer stellt sicher, dass Daten in Replikat-Fehlerszenarien nicht dupliziert oder verpasst werden.

Anmeldedaten

Wenn das Plug-in in einem Dataproc-Cluster ausgeführt wird, muss der Dienstkontoschlüssel nicht angegeben werden und kann automatisch festgelegt werden. Anmeldedaten werden automatisch aus der Clusterumgebung gelesen.

Wenn das Plug-in nicht in einem Dataproc-Cluster ausgeführt wird, muss der Pfad zu einem Dienstkontoschlüssel angegeben werden. Den Dienstkontoschlüssel finden Sie in der Google Cloud Console auf der IAM-Seite. Achten Sie darauf, dass der Kontoschlüssel die Berechtigung für den Zugriff auf BigQuery hat. Die Schlüsseldatei des Dienstkontos muss auf jedem Knoten im Cluster verfügbar sein und für alle Nutzer lesbar sein, die den Job ausführen.

Beschränkungen

  • Tabellen müssen einen Primärschlüssel für die Replikation haben.
  • Tabellenumbenennungen werden nicht unterstützt.
  • Änderungen an Tabellen werden teilweise unterstützt.
    • Eine bestehende Spalte, die nicht ungültig ist, kann in eine Spalte geändert werden, die nicht genehmigt werden kann.
    • Eine Null-Spalte kann einer vorhandenen Tabelle hinzugefügt werden.
    • Jede andere Art von Änderungen am Tabellenschema schlägt fehl.
    • Änderungen am Primärschlüssel schlagen nicht fehl, aber vorhandene Daten werden nicht umgeschrieben, um dem Eindeutigen des neuen Primärschlüssels zu entsprechen.

Attribute

  • Projekt-ID: Projekt des BigQuery-Datasets. Wenn Sie ihn in einem Dataproc-Cluster ausführen, kann dieser Bereich leer gelassen werden. Dadurch wird das Projekt des Clusters verwendet.
  • Anmeldedaten: siehe Anmeldedaten
  • Speicherort: Der Speicherort, an dem das BigQuery-Dataset und der Cloud Storage-Staging-Bucket erstellt werden. Beispiel: us-east1 für regionale Buckets und us für multiregionale Buckets (siehe Standorte). Dieser Wert wird ignoriert, wenn ein vorhandener Bucket angegeben ist, da der Staging-Bucket und das BigQuery-Dataset am selben Speicherort wie dieser Bucket erstellt werden.
  • Staging-Bucket: Bucket, in den Änderungsereignisse geschrieben werden, bevor sie in Staging-Tabellen geladen werden. Änderungen werden in ein Verzeichnis geschrieben, das den Replikator-Namen und den Namespace enthält. Es ist sicher, denselben Bucket für mehrere Replikatoren innerhalb derselben Instanz zu verwenden. Wenn sie von Replikatoren über mehrere Instanzen hinweg freigegeben werden, achten Sie darauf, dass der Namespace und der Name eindeutig sind. Andernfalls ist das Verhalten nicht definiert. Der Bucket muss sich am selben Standort wie das BigQuery-Dataset befinden. Wenn nicht angegeben, wird ein neuer Bucket für jeden Job mit dem Namen df-rbq-<namespace-name>-<job-name>-<deployment-timestamp> erstellt.

  • Dienstkontoschlüssel: Der Inhalt des Dienstkontoschlüssels, der bei der Interaktion mit Cloud Storage und BigQuery verwendet wird. Wenn Sie ihn in einem Dataproc-Cluster ausführen, kann dieser Bereich leer bleiben. In diesem Fall wird das Dienstkonto des Clusters verwendet.

  • Ladeintervall (Sekunden): Anzahl der Sekunden, die gewartet werden soll, bevor ein Batch von Daten in BigQuery geladen wird.

  • Staging-Tabellenpräfix: Änderungen werden zuerst in eine Staging-Tabelle geschrieben, bevor sie mit der endgültigen Tabelle zusammengeführt werden. Namen von Staging-Tabellen werden generiert, indem Sie diesem Präfix den Präfix voranstellen.

  • Manuelle Eingriffe auslösen: Legen Sie fest, ob beim manuellen Löschen von Tabellen und Datasets eine manuelle Verwaltungsaktion erforderlich ist, wenn ein Tabellenereignis oder Datenbankereignis auftritt. Wenn der Wert auf „true“ gesetzt ist, löscht der Replikator keine Tabelle oder kein Dataset. Stattdessen schlägt er fehl und versucht es noch einmal, bis die Tabelle oder das Dataset nicht vorhanden ist. Wenn das Dataset oder die Tabelle noch nicht vorhanden ist, sind keine manuellen Eingriffe erforderlich. Das Ereignis wird wie gewohnt übersprungen.

  • Dataset-Name: Der Name des Datasets, das in BigQuery erstellt werden soll. Der Name ist optional und standardmäßig ist der Dataset-Name mit dem Namen der Quelldatenbank identisch. Ein gültiger Name darf nur Buchstaben, Ziffern und Unterstriche enthalten. Die maximale Länge darf 1.024 Zeichen betragen. Alle ungültigen Zeichen werden durch den Unterstrich im finalen Dataset-Namen ersetzt. Alle Zeichen, die die Längenbeschränkung überschreiten, werden abgeschnitten.

  • Verschlüsselungsschlüsselname: Der vom Kunden verwaltete Verschlüsselungsschlüssel (CMEK) zum Schutz der von diesem Ziel erstellten Ressourcen. Der Name des Verschlüsselungsschlüssels muss das Format projects/<project-id>/locations/<key-location>/keyRings/<key-ring-name>/cryptoKeys/<key-name> haben.

Optional: Erweiterte Eigenschaften konfigurieren

Wenn Sie wissen, wie viele Daten Sie in einer Stunde replizieren, können Sie die entsprechende Option auswählen.

Prüfung ansehen

Sie können eine Bewertung der Schemaprobleme, fehlenden Features oder Verbindungsprobleme abrufen, die während der Replikation auftreten:

  1. Klicken Sie auf der Seite Bewertung prüfen auf Zuordnungen anzeigen.

    Wenn Probleme auftreten, müssen Sie diese beheben, bevor Sie fortfahren können.

  2. Klicken Sie auf Next (Weiter).

Zusammenfassung ansehen und Replikationsjob bereitstellen

Prüfen Sie auf der Seite Replikationsjobdetails prüfen die Einstellungen und klicken Sie auf Replikationsjob bereitstellen.

Compute Engine-Profil auswählen

  1. Nachdem Sie den Replikationsjob bereitgestellt haben, klicken Sie auf einer beliebigen Seite in der Cloud Data Fusion-UI auf Konfigurieren.

  2. Wählen Sie das Compute Engine-Profil aus, das Sie zum Ausführen dieses Replikationsjobs verwenden möchten.

  3. Klicken Sie auf Speichern.

    Compute-Profil in der Cloud Data Fusion-UI auswählen

Replikationsjob starten und beobachten

Klicken Sie auf Start, um den Replikationsjob auszuführen.

Replikationsjob in der Cloud Data Fusion-UI starten

Prüfen Sie die Logs des Replikationsjobs, um den Jobstatus zu überwachen. Der Replikationsjob ruft den Status der ausgewählten Quelltabelle aus SAP in einem Intervall von 5 Minuten ab.

Optional: Leistung optimieren

Das Plug-in ist standardmäßig so konfiguriert, dass eine optimale Leistung erzielt wird. Weitere Optimierungen finden Sie unter Laufzeitargumente.

Die Leistung der SLT- und Cloud Data Fusion-Kommunikation hängt von folgenden Faktoren ab:

  • SSL auf Quellsystem im Vergleich zu einem dedizierten zentralen SLT-System (bevorzugt)
  • Verarbeitung von Hintergrundjobs im SLT-System
  • Dialogfelder für Arbeitsabläufe im SAP-Quellsystem
  • Die Anzahl der Hintergrundjobprozesse, die jeder Massenübertragungs-ID auf dem Tab LTRC-Verwaltung zugewiesen sind
  • LTRS-Einstellungen
  • Hardware (CPU und Arbeitsspeicher) des SLT-Systems
  • Die verwendete Datenbank (z. B. HANA, Sybase oder DB2)
  • Die Internetbandbreite (Konnektivität zwischen dem SAP-System und Google Cloud über das Internet)
  • Vorhandene Auslastung (Load) auf dem System
  • Die Anzahl der Spalten in der Tabelle. Durch mehr Spalten wird die Replikation langsam und die Latenz kann steigen.

Für das erste Laden werden die folgenden Lesetypen in den LTRS-Einstellungen empfohlen:

SLT-System Quellsystem Tabellentyp Empfohlener Lesetyp
[Anfangslast]
Eigenständige SLT 3.0
[DMIS 2018_1_752 SP 2]
S/4 HANA 1909 Transparent (klein/mittel)
transparent (groß)
Clustertabelle
1 Bereichsberechnung
1 Bereichsberechnung
4 Absenderwarteschlange
SLT eingebettet
[S4CORE 104 HANA 1909]
Transparent (klein/mittel)
transparent (groß)
Clustertabelle
1 Bereichsberechnung
1 Bereichsberechnung
4 Absenderwarteschlange
Eigenständige SLT 2.0
[DMIS 2011_1_731 SP 17]
ECC NW 7.02 Transparent (klein/mittel)
transparent (groß)
Clustertabelle
5 Absenderwarteschlange
5 Absenderwarteschlange
4 Warteschlange des Absenders
SLT eingebettet
[DMIS 2011_1_700 SP 17]
Transparent (klein/mittel)
transparent (groß)
Clustertabelle
5 Absenderwarteschlange
5 Absenderwarteschlange
4 Warteschlange des Absenders
  • Die Replikation von „No Ranges“ ermöglicht eine bessere Leistung:
    • Bereiche müssen nur verwendet werden, wenn Rückstände in einer Logging-Tabelle mit hoher Latenz generiert werden.
    • 1-Bereichsberechnung verwenden: Lesetypen für das anfängliche Laden werden im Fall von SLT 2.0- und Nicht-HANA-Systemen nicht empfohlen.
    • 1-Bereichsberechnung verwenden: Lesetyp für das anfängliche Laden kann zu doppelten Einträgen in BigQuery führen.
  • Die Leistung verbessert sich immer, wenn ein eigenständiges SLT-System verwendet wird.
  • Ein eigenständiges SLT-System wird immer empfohlen, wenn die Ressourcenauslastung des Quellsystems bereits hoch ist.

Laufzeitargumente

  • snapshot.thread.count: Übergibt die Anzahl der Unterhaltungen, die zum parallelen SNAPSHOT/INITIAL-Datenladen ausgeführt werden sollen. Standardmäßig wird die Anzahl der vCPUs verwendet, die im Dataproc-Cluster verfügbar sind, in dem der Replikationsjob ausgeführt wird.

    Empfohlen: Legen Sie diesen Parameter nur fest, wenn Sie die Anzahl der parallelen Threads genau steuern müssen (z. B. um die Nutzung im Cluster zu verringern).

  • poll.file.count: Übergibt die Anzahl der Dateien, die aus dem Cloud Storage-Pfad abgefragt werden sollen, der im Feld Data Replikation-GCS-Pfad in der UI angezeigt wird. Standardmäßig ist der Wert pro Abfrage 500. Basierend auf der Clusterkonfiguration kann er jedoch erhöht oder verringert werden.

    Empfohlen: Legen Sie diesen Parameter nur fest, wenn Sie strenge Anforderungen an die Verzögerung bei der Replikation haben. Niedrigere Werte können die Verzögerung verringern. Damit können Sie den Durchsatz verbessern. Wenn sie nicht reagiert, verwenden Sie Werte, die höher als die Standardeinstellung sind.

  • bad.files.base.path: Übergibt den grundlegenden Cloud Storage-Pfad, in den alle Fehler- oder fehlerhaften Datendateien kopiert werden, die bei der Replikation gefunden wurden. Das ist nützlich, wenn strenge Anforderungen für die Datenprüfung gelten und ein bestimmter Standort verwendet werden muss, um fehlgeschlagene Übertragungen aufzuzeichnen.

    Standardmäßig werden alle fehlerhaften Dateien unter dem Cloud Storage-Pfad kopiert, der in der Benutzeroberfläche im Feld Cloud Storage-Pfad zur Datenreplikation angegeben ist.

    • Fehlerhaftes Datenpfad – endgültiges Muster:

      gs://BASE_FILE_PATH/MASS_TRANSFER_ID/SOURCE_TABLE_NAME/bad_files/REPLICATION_JOB_NAME/REPLICATION_JOB_ID/BAD_FILE_NAME
      

    • Beispiel:

      gs://slt_to_cdf_bucket/001/MARA/bad_files/MaraRepl/05f97349-7398-11ec-9443-8
      ac0640fc83c/20220205_1901205168830_DATA_INIT.xml
      

    Die Kriterien für eine fehlerhafte Datei sind eine beschädigte oder ungültige XML-Datei, fehlende PK-Werte oder Probleme mit dem Datentyp des Felddatentyps.

Supportdetails

Unterstützte SAP-Produkte und -Versionen

  • SAP scape Transformation (SLT) Server Version 2011 SP17 oder höher
  • SAP ECC oder SAP S/4HANA, die DMIS 2011 SP17 oder höher unterstützt, z. B. DMIS 2018 oder DMIS 2020

Unterstützte SLT-Versionen

Die SSL-Versionen 2 und 3 werden unterstützt.

Unterstützte SAP-Bereitstellungsmodelle

SSL ist ein eigenständiges System oder eingebettet in das Quellsystem.

SAP-Hinweise, die implementiert werden müssen, bevor Sie den SLT-Support nutzen

Wenn Ihr Supportpaket keine /UI2/CL_JSON-Klassenkorrekturen für PL12 oder höher enthält, implementieren Sie den neuesten SAP-Hinweis für /UI2/CL_JSON-Klassenkorrekturen, z. B. den SAP-Hinweis 2798102 für PL12.

Empfohlen: Implementieren Sie die vom Bericht empfohlenen SAP-Notizen CNV_NOTE_ANALYZER_SLT auf Grundlage der Bedingungen des Zentral- oder Quellsystems. Weitere Informationen finden Sie im SAP-Hinweis 3016862 (SAP-Anmeldung erforderlich).

Wenn SAP bereits eingerichtet ist, müssen keine weiteren Hinweise implementiert werden. Informationen zu spezifischen Fehlern oder Problemen finden Sie im Zentralen SAP-Hinweis für Ihren SLT-Release.

Limits für das Datenvolumen oder die Breite des Eintrags

Es gibt kein Limit für die Menge der extrahierten Daten und die Breite des Eintrags.

Erwarteter Durchsatz für das SAP SLT-Replikation-Plug-in

Bei einer Umgebung, die gemäß den Richtlinien unter Leistung optimieren konfiguriert ist, kann das Plug-in etwa 13 GB/Stunde für das anfängliche Laden und 3 GB/Stunde für die Replikation extrahieren (CDC). Die tatsächliche Leistung kann je nach Systemlast oder Cloud-Traffic von Cloud Data Fusion und SAP variieren.

Unterstützung der Extraktion von SAP Delta (Geänderte Daten)

Extrahierung von SAP Delta (Geänderte Daten) wird unterstützt.

Erforderlich: Mandanten-Peering für Cloud Data Fusion-Instanzen

Mandanten-Peering ist erforderlich, wenn die Cloud Data Fusion-Instanz mit einer privaten IP-Adresse erstellt wird. Weitere Informationen zum Mandanten-Peering finden Sie unter Private Instanz erstellen.

Problembehebung

Wenn der Replikationsjob weiterhin automatisch neu gestartet wird, erhöhen Sie den Arbeitsspeicher des Replikationsjobs und führen Sie den Replikationsjob noch einmal aus.

Fehlerszenarien

In der folgenden Tabelle sind einige häufige Fehlermeldungen aufgeführt. Text in Klammern wird durch Laufzeitwerte ersetzt:

Nachrichten-ID Meldung Empfohlene Maßnahmen
CDF_SAP_SLT_0140 Der angegebene Dienstkontoschlüssel ist aufgrund des folgenden Fehlers ungültig: 'root Ursache'. Geben Sie einen gültigen Dienstkontoschlüssel an. Prüfen Sie die Ursache in der Meldung und ergreifen Sie entsprechende Maßnahmen.
CDF_SAP_SLT_02403 Der Nutzer ist nicht berechtigt, auf die UI-Werte von Massenübertragungs-IDs & SAP-Übertragungs-IDs in SAP SLT zuzugreifen. Prüfen Sie, ob die entsprechende Autorisierung zugewiesen ist. Prüfen Sie die Ursache in der Meldung und ergreifen Sie entsprechende Maßnahmen.
CDF_SAP_SLT_01404 Die Massenübertragungs-ID oder GUID wurde nicht gefunden. Prüfen Sie, ob sie vorhanden ist und in SAP SLT aktiv ist. Achten Sie darauf, dass die Massenübertragungs-ID und die entsprechenden Anleitungen vorhanden sind.
CDF_SAP_SLT_01502 Der angegebene Cloud Storage-Pfad zur angegebenen Datenreplikation im Feld „Data Replikation-GCS-Pfad“ konnte nicht gefunden werden. Achten Sie darauf, dass es in Cloud Storage vorhanden ist. Achten Sie darauf, dass der angegebene Cloud Storage-Pfad korrekt ist.
CDF_SAP_SLT_01503 Ungültiger Vorgang für SLT-Replikation. Unterstützte Typen: 'RESUME' & 'SUSPEND' Prüfen Sie die Ursache in der Meldung und ergreifen Sie entsprechende Maßnahmen.
CDF_SAP_SLT_01400 Ungültige Konfiguration für angegebene SAP-Tabelle(n) 'ausgewählte Tabellennamen' gefunden. Bitte bestätige, dass die angegebene GUID und die Massenübertragungs-ID korrekt sind. Prüfen Sie die Ursache in der Meldung und ergreifen Sie entsprechende Maßnahmen.
CDF_SAP_SLT_01504 Fehler bei der Wiederholung der Tabelle & dem 39; Tabelle(n) 'gewählten Tabellennamen Weitere Einzelheiten finden Sie in den Protokollen. Prüfen Sie die Ursache in der Meldung und ergreifen Sie entsprechende Maßnahmen.
CDF_SAP_SLT_02400 Fehler beim Abrufen des Replikationsstatus für eine bestimmte Tabelle 'Tabellenname' Weitere Einzelheiten finden Sie in den Protokollen. Prüfen Sie die Ursache in der Meldung und ergreifen Sie entsprechende Maßnahmen.
CDF_SAP_SLT_02503 Fehler beim Abrufen des Replikationsstatus für eine bestimmte Tabelle 'Tabellenname' Weitere Einzelheiten finden Sie in den Protokollen. Prüfen Sie die Ursache in der Meldung und ergreifen Sie entsprechende Maßnahmen.
CDF_SAP_SLT_03403 Nicht berechtigt, einen Replikationsjob für eine bestimmte Tabelle zu starten 'ausgewählte Tabellennamen' zu verwenden. Prüfen Sie, ob dem SAP-Nutzer, der für die Replikation verwendet wird, die erforderliche Autorisierung zugewiesen ist. Prüfen Sie die Ursache in der Meldung und ergreifen Sie entsprechende Maßnahmen.
CDF_SAP_SLT_03408 Der Ereignisleser konnte nicht gestartet werden. Prüfen Sie die Ursache in der Meldung und ergreifen Sie entsprechende Maßnahmen.
CDF_SAP_SLT_03409 Fehler bei der Verarbeitung der Datei 'Speicherdatenreplikationsdatei' Datei für Quelltabelle 'Tabellenname'. Ursache: 'Ursache'. Prüfen Sie die Ursache in der Meldung und ergreifen Sie entsprechende Maßnahmen.
CDF_SAP_SLT_03410 Daten für Quelltabelle 'Tabellenname' aus Datei konnten nicht repliziert werden: 'Dateireplikation bei Dateipfad'. Ursache: 'Ursache'. Prüfen Sie die Ursache in der Meldung und ergreifen Sie entsprechende Maßnahmen.
CDF_SAP_SLT_03411 Fehler bei der Datenreplikation für Quelltabelle 'Tabellenname'. Ursache: 'Ursache'. Prüfen Sie die Ursache in der Meldung und ergreifen Sie entsprechende Maßnahmen.
CDF_SAP_SLT_03412 Zieltabelle für die Quelltabelle 'Tabellenname' konnte nicht erstellt werden. Ursache: 'Ursache' Prüfen Sie die Ursache in der Meldung und ergreifen Sie entsprechende Maßnahmen.
CDF_SAP_SLT_03413 Der SLT-Replikationsjob konnte für die Quelltabelle(n) 'den ausgewählten Tabellennamen' nicht ausgesetzt werden. Prüfen Sie die Ursache in der Meldung und ergreifen Sie entsprechende Maßnahmen.
CDF_SAP_SLT_03414 Status des SLT-Replikationsjobs für Quelltabelle 'Tabellenname' konnte nicht abgerufen werden. Prüfen Sie die Ursache in der Meldung und ergreifen Sie entsprechende Maßnahmen.

Datentypzuordnung

Die folgende Tabelle zeigt die Zuordnung von Datentypen, die in SAP-Anwendungen verwendet werden, und Cloud Data Fusion.

SAP-Datentyp ABAP-Typ Beschreibung (SAP) Cloud Data Fusion-Datentyp
Numerisch
INT1 b 1-Byte-Ganzzahl int
INT2 s 2-Byte-Ganzzahl int
INT4 i 4-Byte-Ganzzahl int
INT8 8 8-Byte-Ganzzahl long
DEZ p Nummer des Pakets im BCD-Format (DEC) decimal
DF16_DEC
DF16_RAW
a Gleitkommazahl mit 8 Byte IEEE 754r decimal
DF34_DEC
DF34_RAW
e Gleitkommazahl (16 Byte, IEEE 754r) decimal
FLTP f Binäre Gleitkommazahl double
Zeichen
CHAR
LC
c Zeichenstring string
SSTRING
GEOM_EWKB
string Zeichenstring string
STRING
GEOM_EWKB
string Zeichenstring CLOB bytes
NUMC
ACAC
n Numerischer Text string
Byte
RAW
RAW
x Binärdaten bytes
Rohstring XString Bytestring BLOB bytes
Datum/Uhrzeit
DATS d Datum date
Tims t Zeit time
TIMESTAMP UCT (Utclong)
TimeStamp
timestamp

Weitere Informationen