SAP SLT-Replikationsquelle

Auf dieser Seite wird beschrieben, wie Sie die Echtzeitreplikation von Daten aus SAP ermöglichen. mit SAP Landscape Transformation (SLT) in Google Cloud. Die Der Inhalt gilt für SAP SLT Replikation und SAP SLT No RFC Replikation Plug-ins, die im Cloud Data Fusion Hub verfügbar sind. Es zeigt die für SAP Source System, SLT, Cloud Storage und Cloud Data Fusion kann Folgendes tun:

  • Übertragen Sie SAP-Metadaten und -Tabellendaten mit SAP SLT an Google Cloud.
  • Erstellen Sie einen Cloud Data Fusion-Replikationsjob, der den Daten aus einem Cloud Storage-Bucket.

Mit der SAP SLT-Replikation können Sie Ihre Daten kontinuierlich und in Echtzeit aus SAP-Quellen in BigQuery Sie können Datenübertragungen von SAP aus konfigurieren und ausführen ganz ohne Programmierung.

Der Cloud Data Fusion SLT-Replikationsprozess sieht so aus:

  1. Die Daten stammen aus einem SAP-Quellsystem.
  2. SLT verfolgt und liest die Daten und überträgt sie per Push in Cloud Storage.
  3. Cloud Data Fusion ruft Daten aus dem Storage-Bucket ab und schreibt sie in BigQuery

Sie können Daten aus unterstützten SAP-Systemen übertragen, einschließlich der von SAP gehosteten Systemen in Google Cloud.

Weitere Informationen finden Sie in der Übersicht über SAP in Google Cloud. und Supportdetails.

Hinweise

Für die Verwendung dieses Plug-ins benötigen Sie Domainkenntnisse in folgenden Bereichen:

  • Pipelines in Cloud Data Fusion erstellen
  • Zugriffsverwaltung mit IAM
  • SAP Cloud und lokale ERP-Systeme (Enterprise Resource Planning) konfigurieren

Administratoren und Nutzer, die die Konfigurationen durchführen

Die Aufgaben auf dieser Seite werden von Personen mit den folgenden Rollen in Google Cloud oder in ihrem SAP-System ausgeführt:

Nutzertyp Beschreibung
Google Cloud-Administrator Nutzer mit dieser Rolle sind Administratoren von Google Cloud-Konten.
Cloud Data Fusion-Nutzer Nutzer, denen diese Rolle zugewiesen ist, sind berechtigt, Datenpipelines zu entwerfen und auszuführen. Sie haben mindestens die Rolle Data Fusion-Betrachter“ (roles/datafusion.viewer). Wenn Sie die rollenbasierte Zugriffssteuerung verwenden, benötigen Sie möglicherweise zusätzliche Rollen.
SAP-Administrator Nutzer mit dieser Rolle sind Administratoren des SAP-Systems. Sie können Software von der SAP-Dienstwebsite herunterladen. Es ist keine IAM-Rolle.
SAP-Nutzer Nutzer mit dieser Rolle sind berechtigt, eine Verbindung zu einem SAP-System herzustellen. Es ist keine IAM-Rolle.

Unterstützte Replikationsvorgänge

Das SAP SLT-Replikations-Plug-in unterstützt die folgenden Vorgänge:

Datenmodellierung: Alle Datenmodellierungsvorgänge (Datensatz insert, delete und update) werden von diesem Plug-in unterstützt.

Datendefinition: Wie in SAP-Hinweis 2055599 (Anmeldung für SAP-Support erforderlich). Es gibt Einschränkungen hinsichtlich der Quelle Änderungen an der Systemtabellenstruktur werden von SLT automatisch repliziert. Einige Daten Definitionsvorgänge werden im Plug-in nicht unterstützt (Sie müssen verbreiten).

  • Unterstützt:
    • Nicht-Schlüsselfeld hinzufügen (nach dem Vornehmen von Änderungen in SE11, aktivieren Sie die Tabelle mit SE14)
  • Nicht unterstützt:
    • Schlüsselfeld hinzufügen/löschen
    • Nicht-Schlüsselfeld löschen
    • Datentypen ändern

SAP-Anforderungen

In Ihrem SAP-System sind die folgenden Elemente erforderlich:

  • Sie haben SLT Server Version 2011 SP17 oder höher entweder auf der Quelle installiert SAP-System (eingebettet) oder als dediziertes SLT-Hub-System.
  • Ihr SAP-Quellsystem ist SAP ECC oder SAP S/4HANA, das DMIS 2011 unterstützt SP17 oder höher, z. B. DMIS 2018, DMIS 2020.
  • Add-on für die SAP-Benutzeroberfläche muss mit Ihrer SAP Netweaver-Version kompatibel sein.
  • Ihr Supportpaket unterstützt die /UI2/CL_JSON-Klasse PL 12 oder höher. Implementieren Sie andernfalls den aktuellen SAP-Hinweis für die Klasse /UI2/CL_JSON. corrections entsprechend der Version des Benutzeroberflächen-Add-ons, z. B. SAP Notiz 2798102 für PL12.

  • Es sind folgende Sicherheitsmaßnahmen vorhanden:

Anforderungen für Cloud Data Fusion

  • Sie benötigen eine Cloud Data Fusion-Instanz ab Version 6.4.0, .
  • Das der Cloud Data Fusion-Instanz zugewiesene Dienstkonto ist Die erforderlichen Rollen wurden gewährt (siehe Dienstkontonutzerberechtigungen gewähren).
  • Für private Cloud Data Fusion-Instanzen ist VPC-Peering erforderlich.

Google Cloud-Anforderungen

Storage-Bucket erstellen

Bevor Sie einen SLT-Replikationsjob erstellen, Erstellen Sie den Cloud Storage-Bucket. Der Job überträgt Daten an den Bucket und aktualisiert den Staging-Bucket alle fünf Minuten. Wenn Sie den Job ausführen, liest Cloud Data Fusion die Daten in der Storage-Bucket und schreibt ihn in BigQuery.

Wenn SLT in Google Cloud installiert ist

Der SLT-Server muss die Berechtigung zum Erstellen und Ändern von Cloud Storage haben Objekte in dem von Ihnen erstellten Bucket befinden.

Weisen Sie dem Dienstkonto mindestens die folgenden Rollen zu:

Wenn SLT nicht in Google Cloud installiert ist

Cloud VPN oder Cloud Interconnect zwischen der SAP-VM und Google Cloud die Verbindung zu einem internen Metadatenendpunkt zulassen (siehe Privaten Google-Zugriff für lokale Hosts konfigurieren

Wenn interne Metadaten nicht zugeordnet werden können:

  • Google Cloud CLI basierend auf dem Betriebssystem der Infrastruktur installieren auf denen SLT läuft.

  • Erstellen Sie ein Dienstkonto in dem Google Cloud-Projekt, in dem Cloud Storage ist aktiviert.

  • Auf dem SLT-Betriebssystem Zugriff auf Google Cloud mit einem Dienstkonto autorisieren

  • API-Schlüssel für das Dienstkonto erstellen und autorisieren Cloud Storage-bezogener Bereich.

  • Importieren Sie den API-Schlüssel in die zuvor installierte gcloud CLI mit über die Befehlszeile.

  • So aktivieren Sie den gcloud CLI-Befehl, der das Zugriffstoken ausgibt: den SAP-Betriebssystembefehl im Transaktionstool SM69 in das SLT-System.

Der SAP-Administrator konfiguriert den Betriebssystembefehl SM69, mit dem ruft ein Zugriffstoken von Google Cloud ab.

Script erstellen, um ein Zugriffstoken auszudrucken und ein SAP-Betriebssystem zu konfigurieren Befehl zum Aufrufen des Skripts als Nutzer <sid>adm aus SAP LT Replikation Server Host.

Linux

So erstellen Sie einen Betriebssystembefehl:

  1. Auf dem SAP LT Replication Server-Host in einem Verzeichnis, auf das zugegriffen werden kann auf <sid>adm setzen, erstellen Sie ein Bash-Skript, das die folgenden Zeilen enthält:

    PATH_TO_GCLOUD_CLI/bin/gcloud auth print-access-token SERVICE_ACCOUNT_NAME
    
  2. Erstellen Sie über die SAP-Benutzeroberfläche einen externen Betriebssystembefehl:

    1. Geben Sie die Transaktion SM69 ein.
    2. Klicken Sie auf Erstellen.
    3. Geben Sie im Bereich External Command (Externer Befehl) im Abschnitt Command (Befehl) Folgendes ein: den Namen des Befehls, z. B. ZGOOGLE_CDF_TOKEN.
    4. Im Abschnitt Definition:

      1. Geben Sie im Feld Betriebssystembefehl sh als Script-Dateiendung.
      2. Geben Sie im Feld Parameter für Betriebssystembefehl Folgendes ein:

        /PATH_TO_SCRIPT/FILE_NAME.sh
        
    5. Klicken Sie auf Speichern.

    6. Klicken Sie auf Ausführen, um das Skript zu testen.

    7. Klicken Sie noch einmal auf Ausführen.

    Ein Google Cloud-Token wird zurückgegeben und am unteren Rand des SAP-Benutzeroberfläche.

Windows

Erstellen Sie über die SAP-Benutzeroberfläche einen Befehl für ein externes Betriebssystem:

  1. Geben Sie die Transaktion SM69 ein.
  2. Klicken Sie auf Erstellen.
  3. Geben Sie im Bereich External Command (Externer Befehl) im Abschnitt Command (Befehl) den Wert für Name des Befehls, z. B. ZGOOGLE_CDF_TOKEN.
  4. Im Abschnitt Definition:

    1. Geben Sie im Feld Betriebssystembefehl den Wert cmd /c ein.
    2. Geben Sie im Feld Parameter für Betriebssystembefehl Folgendes ein:

      gcloud auth print-access-token SERVICE_ACCOUNT_NAME
      
  5. Klicken Sie auf Speichern.

  6. Klicken Sie auf Ausführen, um das Skript zu testen.

  7. Klicken Sie noch einmal auf Ausführen.

Ein Google Cloud-Token wird zurückgegeben und im unteren Teil des SAP-Systems angezeigt. auf der Benutzeroberfläche.

Anforderungen an die SLT-Technologie

Der SLT-Connector muss folgendermaßen konfiguriert sein:

  • Der Connector unterstützt SAP ECC NW 7.02, DMIS 2011 SP17 und höher.
  • Konfigurieren Sie eine RFC- oder Datenbankverbindung zwischen SLT und dem Cloud Storage-System.
  • Richten Sie die SSL-Zertifikate ein:
    • Laden Sie die folgenden CA-Zertifikate aus der Google Trust Services-Repository:
      • GTS Root R1
      • GTS CA 1C3
    • Verwenden Sie in der SAP-Benutzeroberfläche die STRUST-Transaktion, um beide die Stamm- und untergeordneten Zertifikate im Ordner SSL Client (Standard) PSE.
  • Internet Communication Manager (ICM) muss für HTTPS eingerichtet sein. Stellen Sie sicher, dass die HTTP- und HTTPS-Ports im SAP SLT-System beibehalten und aktiviert werden. Sie können dies über den Transaktionscode SMICM > Services überprüfen.
  • Aktivieren Sie den Zugriff auf Google Cloud APIs auf der VM, auf der sich die SAP SLT befindet. gehostet wird. Dies ermöglicht eine private Kommunikation zwischen den Google Cloud-Dienste ohne Routing über das öffentliche Internet.
  • Sicherstellen, dass das Netzwerk das erforderliche Volumen und die erforderliche Geschwindigkeit der Daten unterstützt zwischen der SAP-Infrastruktur und Cloud Storage. Für eine Cloud VPN und/oder Cloud Interconnect wird empfohlen. Der Durchsatz der Streaming API hängt vom Kundenkontingente, die gewährt wurden Ihr Cloud Storage-Projekt.

SLT-Replikationsserver konfigurieren

Der SAP-Nutzer führt die folgenden Schritte aus.

In den folgenden Schritten verbinden Sie den SLT-Server mit dem Quellsystem und Bucket in Cloud Storage und geben das Quellsystem, die Datentabellen an und den Ziel-Storage-Bucket.

Google ABAP SDK konfigurieren

So konfigurieren Sie SLT für die Datenreplikation (einmal pro Cloud Data Fusion) ) gehen Sie folgendermaßen vor:

  1. Zur Konfiguration des SLT-Connectors gibt der SAP-User Folgendes ein: Informationen im Konfigurationsbildschirm (SAP-Transaktion /GOOG/CDF_SETTINGS) zum Google Cloud-Dienstkontoschlüssel für Daten an Cloud Storage übertragen. Konfigurieren Sie Folgendes: in der Tabelle /GOOG/CDF_CLT_KY unter Verwendung von Transaktion SE16 und Hinweis diesen Schlüssel:

    • NAME: Der Name für Ihren Dienstkontoschlüssel, z. B. CDFSLT
    • SERVICE ACCOUNT NAME: Der Name des IAM-Dienstkontos
    • SCOPE: Der Umfang des Dienstkontos
    • PROJEKT-ID: Die ID Ihres Google Cloud-Projekts.
    • Optional: EXT OS-Befehl: Verwenden Sie dieses Feld nur, wenn SLT nicht installiert ist. in Google Cloud
    • AUTH-KLASSE: Wenn der Betriebssystembefehl in Tabelle /GOOG/CDF_CLT_KY eingerichtet ist, verwenden Sie den festen Wert: /GOOG/CDF_CL_GCP_AUTH.

    • TOKEN AKTUALISIEREN: Dauer für die Aktualisierung des Autorisierungstokens

Geben Sie Details zum Dienstkontoschlüssel ein

Replikationskonfiguration erstellen

Erstellen Sie eine Replikationskonfiguration im Transaktionscode: LTRC.

  • Stellen Sie vor der LTRC-Konfiguration sicher, dass die RFC-Verbindung zwischen dem SLT-System und dem SAP-Quellsystem.
  • Für eine SLT-Konfiguration können mehrere SAP-Tabellen Replikation.
  1. Rufen Sie den Transaktionscode LTRC auf und klicken Sie auf Neue Konfiguration.

    Geben Sie Details zum Dienstkontoschlüssel ein

  2. Geben Sie den Konfigurationsnamen und die Beschreibung ein und klicken Sie auf Weiter.

  3. Geben Sie die RFC-Verbindung für das SAP-Quellsystem an und klicken Sie auf Next (Weiter).

    Details zur RFC-Verbindung des Quellsystems angeben

  4. Wählen Sie in den Verbindungsdetails des Zielsystems die Option Sonstige aus.

  5. Erweitern Sie das Feld Szenario für die RFC-Kommunikation, wählen Sie SLT SDK aus und Klicken Sie auf Weiter.

  6. Öffnen Sie das Fenster Übertragungseinstellungen angeben und geben Sie die Anwendung ein. Name: ZGOOGLE_CDF.

    Übertragungseinstellungen angeben

  7. Geben Sie unter Anzahl der Datenübertragungsjobs die Anzahl der anfänglichen Ladevorgänge ein. Jobs und die Anzahl der Berechnungsjobs. Weitere Informationen zu finden Sie im Leitfaden zur Leistungsoptimierung für SAP LT Replikation Server.

  8. Klicken Sie auf Echtzeit &gt; Weiter.

  9. Überprüfen Sie die Konfiguration und klicken Sie auf Speichern. Beachten Sie den Massentransfer ID für die nächsten Schritte.

    Konfiguration speichern und ID der Massenübertragung notieren

  10. Führen Sie zum Verwalten der Massenübertragungs-ID und der SAP-Tabellendetails den SAP- Transaktion: /GOOG/CDF_SETTINGS.

  11. Klicken Sie auf Ausführen oder drücken Sie F8.

  12. Erstellen Sie einen neuen Eintrag, indem Sie auf das Symbol „Zeile anfügen“ klicken.

    1. Geben Sie die folgenden Werte ein: Mass Transfer ID (Mass Transfer ID), Mass Transfer Key (Massenübertragungsschlüssel), GCP Key Name (Name des GCP-Schlüssels) und Ziel-GCS-Bucket. Klicken Sie das Kästchen Is Active (Ist aktiv) an und speichern Sie die Angaben. die Änderungen vor.

      Details zum Transport von Massentransfers eingeben

  13. Wählen Sie die Konfiguration in der Spalte Configuration Name (Konfigurationsname) aus und klicken Sie auf Datenbereitstellung.

    Datenbereitstellung auswählen

  14. Optional: Passen Sie die Tabellen- und Feldnamen an.

    1. Klicken Sie auf Benutzerdefinierte Namen und speichern Sie sie.

    2. Klicken Sie auf Display.

    3. Erstellen Sie einen neuen Eintrag, indem Sie auf die Schaltfläche Zeile anfügen oder Erstellen klicken.

    4. Geben Sie den Namen der SAP-Tabelle und den Namen der externen Tabelle ein, die in folgendem Verzeichnis verwendet werden sollen: BigQuery und speichern Sie die Änderungen.

    5. Klicken Sie in der Spalte Anzeigefelder auf die Schaltfläche Anzeigen, um die Zuordnung für Tabellenfelder.

    6. Eine Seite mit Zuordnungen wird geöffnet. Optional: Bearbeiten Sie das Feld Temp. Name und Feldbeschreibung und speichern Sie die Zuordnungen.

  15. Rufen Sie die LTRC-Transaktion auf.

  16. Wählen Sie den Wert in der Spalte Configuration Name (Konfigurationsname) aus und klicken Sie auf Data (Daten). Bereitstellung.

  17. Geben Sie den Tabellennamen in das Feld Tabellenname in Datenbank ein und wählen Sie den Replikationsszenario.

    Replikationsszenario auswählen

  18. Klicken Sie auf Ausführen. Dies löst die SLT SDK-Implementierung aus und die Daten in den Cloud Storage-Ziel-Bucket übertragen.

SAP-Transportdateien installieren

Zum Entwerfen und Ausführen von Replikationsjobs in Cloud Data Fusion bietet die SAP Komponenten werden als SAP-Transportdateien bereitgestellt, die in einer ZIP-Datei archiviert sind. Der Download ist verfügbar, wenn Sie Plug-in im Cloud Data Fusion Hub bereitstellen

ZIP-Datei für SAP SLT-Transport herunterladen

Die SAP-Transport-Anfrage-IDs und die zugehörigen Dateien sind im Folgenden angegeben: Tabelle:

Transport-ID Cofile Datendatei Inhalt
ED1K900520 K900520.ED1 R900520.ED1 SAP BADI-Implementierung ES_IUUC_REPL_RUNTIME_OLO_EXIT
ED1K900337 K900337.ED1 R900337.ED1 Autorisierungsrolle /GOOG/SLT_CDF_AUTH

So installieren Sie die SAP-Transporte:

Schritt 1: Transportanfragedateien hochladen

  1. Melden Sie sich beim Betriebssystem der SAP-Instanz an.
  2. Verwenden Sie den SAP-Transaktionscode AL11, um den Pfad für den Ordner DIR_TRANS abzurufen. In der Regel lautet der Pfad /usr/sap/trans/.
  3. Kopieren Sie die Dateien in den Ordner DIR_TRANS/cofiles.
  4. Kopieren Sie die Datendateien in den Ordner DIR_TRANS/data.
  5. Legen Sie für Nutzer und Gruppe von Daten und Datei <sid>adm und sapsys fest.

Schritt 2: Transportanfragedateien importieren

Der SAP-Administrator kann die Transportanfragedateien mithilfe der Transport Management System oder Betriebssystem:

SAP-Transport-Managementsystem

  1. Melden Sie sich im SAP-System als SAP-Administrator an.
  2. Geben Sie die Transaktions-STMS ein.
  3. Klicken Sie auf Übersicht > Importe.
  4. Doppelklicken Sie in der Spalte „Warteschlange” auf die aktuelle SID.
  5. Klicken Sie auf Extras > Sonstige Anfragen > Hinzufügen.
  6. Wählen Sie die Transportanfrage-ID aus und klicken Sie auf Weiter.
  7. Wählen Sie die Transportanfrage in der Importwarteschlange aus und klicken Sie dann auf Anfrage > Importieren.
  8. Geben Sie die Clientnummer ein.
  9. Wählen Sie auf dem Tab Optionen die Optionen Originale überschreiben und Ungültige Komponentenversion ignorieren aus (falls verfügbar).

    Optional: So importieren Sie die Transporte später noch einmal: Klicken Sie auf Transportanfragen für späteren Import in die Warteschlange lassen und Transportanfragen noch einmal importieren Dies ist nützlich für SAP-Systeme und Wiederherstellungen von Sicherungen durchführen.

  10. Klicken Sie auf Weiter.

  11. Prüfen, ob das Funktionsmodul und die Autorisierungsrollen importiert wurden mit Transaktionen wie SE80 und PFCG.

Betriebssystem

  1. Melden Sie sich im SAP-System als SAP-Administrator an.
  2. Fügen Sie dem Importpuffer Anfragen hinzu:

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    Beispiel: tp addtobuffer IB1K903958 DD1

  3. Importieren Sie die Transportanfragen:

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    Ersetzen Sie NNN durch die Clientnummer. Beispiel: tp import IB1K903958 DD1 client=800 U1238

  4. Prüfen Sie mit den entsprechenden Transaktionen wie SE80 und PFCG, ob das Funktionsmodul und die Autorisierungsrollen erfolgreich importiert wurden.

Erforderliche SAP-Autorisierungen

Zum Ausführen einer Datenpipeline in Cloud Data Fusion benötigen Sie einen SAP-Nutzer. Das SAP-System Der Nutzer muss den Typ „Kommunikation“ oder „Dialogfeld“ haben. SAP-Dialogfeld verhindern Ressourcen, wird der Kommunikationstyp empfohlen. Nutzer können vom SAP-System erstellt werden Administrator mit SAP-Transaktionscode SU01.

SAP-Autorisierungen sind erforderlich, um den Connector für SAP zu verwalten und zu konfigurieren. eine Kombination aus SAP-Standardobjekten und neuen Connector-Autorisierungsobjekten. Ich Autorisierungsobjekte auf der Grundlage der Sicherheitsrichtlinien Ihres Unternehmens verwalten können. Die folgende Liste enthält einige wichtige Autorisierungen, die für den Anschluss:

  • Authorization Object: Das Autorisierungsobjekt ZGOOGCDFMT wird versandt als der Transportanfrage-Rolle gehört.

  • Rollenerstellung: Erstellen Sie eine Rolle mit dem Transaktionscode PFCG.

    Rolle mit einem SAP-Transaktionscode erstellen

  • Bei standardmäßigen SAP-Autorisierungsobjekten verwaltet Ihre Organisation Berechtigungen mit einem eigenen Sicherheitsmechanismus.

  • Geben Sie für benutzerdefinierte Autorisierungsobjekte Werte in den Autorisierungsfeldern an für Autorisierungsobjekte ZGOOGCDFMT.

  • Für eine differenzierte Zugriffssteuerung stellt ZGOOGCDFMT eine Autorisierungsgruppe bereit basierte Autorisierung. Nutzer mit vollständigem, teilweisem oder keinem Zugriff auf Der Zugriff auf Autorisierungsgruppen basiert auf der Autorisierungsgruppe in ihrer Rolle zugewiesen wird.

  • /GOOG/SLT_CDF_AUTH: Rolle mit Zugriff auf alle Autorisierungsgruppen. Bis den Zugriff auf eine bestimmte Autorisierungsgruppe beschränken, Autorisierungsgruppe FICDF in der Konfiguration angeben.

RFC-Ziel für die Quelle erstellen

Stellen Sie vor der Konfiguration sicher, dass die RFC-Verbindung zwischen Quelle und Ziel festgelegt.

  1. Rufen Sie den Transaktionscode SM59 auf.

  2. Klicken Sie auf Erstellen > Verbindungstyp 3 (ABAP-Verbindung).

    Transaktionscode erstellen

  3. Geben Sie im Fenster Technische Einstellungen die Details zum RFC ein. Ziel.

  4. Klicken Sie auf den Tab Anmeldung und Sicherheit, um RFC-Anmeldedaten (RFC) zu verwalten. Nutzer und Passwort).

  5. Klicken Sie auf Speichern.

  6. Klicken Sie auf Connection Test (Verbindungstest). Nach einem erfolgreichen Test können Sie fortfahren.

  7. Überprüfen Sie, ob der RFC-Autorisierungstest erfolgreich ist.

  8. Klicken Sie auf Dienstprogramme &gt; Test &gt; Autorisierungstest.

Plug-in konfigurieren

Um das Plug-in zu konfigurieren, stellen Sie es über den Hub bereit, erstellen Sie ein Replikationsjob erstellen und die Quelle und das Ziel mit der Methode folgenden Schritten.

Plug-in in Cloud Data Fusion bereitstellen

Der Cloud Data Fusion-Nutzer führt die folgenden Schritte aus.

Bevor Sie den Cloud Data Fusion-Replikationsjob ausführen können, müssen Sie das SAP SLT-Replikations-Plug-in:

  1. Rufen Sie die Instanz auf:

    1. Rufen Sie in der Google Cloud Console die Cloud Data Fusion-Instanzen auf. Seite.

      Zur Seite „VM-Instanzen“

    2. Aktivieren Sie Replikation in einer neuen oder vorhandenen Instanz:

      • Klicken Sie für eine neue Instanz auf Instanz erstellen und geben Sie eine Instanz ein. auf Beschleuniger hinzufügen und wählen Sie die Option Replikation aus. und klicken Sie auf Speichern.
      • Informationen zu einer vorhandenen Instanz finden Sie unter Replikation für eine vorhandene Instanz aktivieren
    3. Klicken Sie auf Instanz ansehen, um die Instanz im Weboberfläche von Cloud Data Fusion

  2. Klicken Sie auf Hub.

  3. Wechseln Sie zum Tab SAP, klicken Sie auf SAP SLT und klicken Sie auf SAP SLT-Replikation. Plugin oder SAP SLT No RFC Replikation Plugin.

  4. Klicken Sie auf Bereitstellen.

Replikationsjob erstellen

Das SAP SLT-Replikations-Plug-in liest den Inhalt von SAP-Tabellen mithilfe einer Cloud Storage API-Staging-Bucket.

So erstellen Sie einen Replikationsjob für Ihre Datenübertragung: Schritte:

  1. Klicken Sie in der geöffneten Cloud Data Fusion-Instanz auf Startseite > Replikation > Replikationsjob erstellen Wenn keine Replikation und aktivieren Sie die Replikation für die Instanz.

  2. Geben Sie einen eindeutigen Namen und eine Beschreibung für den Replikationsjob.

  3. Klicken Sie auf Weiter.

Quelle konfigurieren

  1. Konfigurieren Sie die Quelle, indem Sie Werte in die folgenden Felder eingeben:

    • Projekt-ID: Die ID Ihres Google Cloud-Projekts. Dieses Feld ist vorausgefüllt)
    • GCS-Pfad für Datenreplikation: Der Cloud Storage-Pfad, der enthält Daten für die Replikation. Es muss sich um denselben Pfad handeln, die in den SAP SLT-Jobs konfiguriert sind. Intern ist der angegebene Pfad verkettet mit Mass Transfer ID und Source Table Name:

      Format: gs://<base-path>/<mass-transfer-id>/<source-table-name>

      Beispiel: gs://slt_bucket/012/MARA

    • GUID: Die SLT-GUID – eine eindeutige Kennung, die SAP SLT Mass zugewiesen ist. Übertragungs-ID.

    • Mass Transfer ID (Massenübertragungs-ID): Die SLT-Massenübertragungs-ID ist eine eindeutige Kennung. die der Konfiguration in SAP SLT zugewiesen ist.

    • GCS-Pfad der SAP JCo-Bibliothek: Der Speicherpfad, der den vom Nutzer hochgeladene SAP JCo-Bibliotheksdateien aus. SAP JCo-Bibliotheken können heruntergeladen werden aus dem SAP-Supportportal. (In Plug-in-Version 0.10.0 entfernt.)

    • SLT-Serverhost: Hostname oder IP-Adresse des SLT-Servers (Entfernt in Plug-in-Version 0.10.0.)

    • SAP-Systemnummer: vom System bereitgestellte Nummer des Installationssystems. Administrator, z. B. 00. (In Plug-in-Version 0.10.0 entfernt.)

    • SAP-Client: Der zu verwendende SAP-Client (z. B. 100). (Entfernt in Plug-in-Version 0.10.0.)

    • SAP-Sprache: SAP-Anmeldesprache (z. B. EN). (Entfernt in Plug-in-Version 0.10.0.)

    • SAP Logon username (Nutzername für SAP-Anmeldung): SAP-Nutzername. (In Plug-in-Version 0.10.0 entfernt.)

      • Empfohlen: Wenn sich der SAP-Anmeldename regelmäßig ändert, verwenden Sie einen .
    • SAP Logon Password (M): SAP-Nutzerpasswort für die Nutzerauthentifizierung.

      • Empfohlen: Verwenden Sie sichere Makros für sensible Werte wie Passwörter. (In Plug-in-Version 0.10.0 entfernt.)
    • SLT-Replikation aussetzen, wenn der CDF-Job beendet wird: Es wird versucht, die SLT-Replikation zu stoppen. Replikationsjob (für die beteiligten Tabellen), wenn der Cloud Data Fusion-Replikationsjob wird beendet. Kann fehlschlagen, wenn wird der Job in Cloud Data Fusion unerwartet beendet.

    • Vorhandene Daten replizieren: Gibt an, ob vorhandene Daten repliziert werden sollen. aus den Quelltabellen. Standardmäßig replizieren die Jobs die vorhandenen Daten. aus Quelltabellen. Wenn false festgelegt ist, werden alle in der Quelle vorhandenen Daten Tabellen ignoriert und nur die Änderungen, die nach dem Start des Jobs vorgenommen wurden. repliziert werden.

    • Dienstkontoschlüssel: Der Schlüssel für die Interaktion mit Cloud Storage Das Dienstkonto muss über Schreibberechtigungen verfügen zu Cloud Storage hinzufügen. Bei Ausführung auf einer Google Cloud-VM sollte auf auto-detect festgelegt sein, um das Dienstkonto zu verwenden, das mit VM:

  2. Klicken Sie auf Weiter.

Ziel konfigurieren

Um Daten in BigQuery zu schreiben, benötigt das Plug-in Schreibzugriff auf BigQuery und ein Staging Bucket. Änderungsereignisse werden zuerst in Batches von SLT in Cloud Storage Sie werden dann in Staging-Tabellen BigQuery Änderungen aus der Staging-Tabelle werden in der mithilfe einer BigQuery-Zusammenführungsabfrage.

Die endgültige Zieltabelle enthält alle ursprünglichen Spalten aus der Quelltabelle. plus einer zusätzlichen _sequence_num-Spalte. Die Sequenznummer sorgt dafür, Daten werden in Replikator-Fehlerszenarien nicht dupliziert oder übersehen.

  1. Konfigurieren Sie die Quelle, indem Sie Werte in die folgenden Felder eingeben:

    • Projekt-ID: Projekt des BigQuery-Datasets. Beim Ausführen in einem Dataproc-Cluster können Sie dieses Feld leer lassen. das Projekt des Clusters.
    • Anmeldedaten: Siehe Anmeldedaten.
    • Dienstkontoschlüssel: Der Inhalt des Dienstkontoschlüssels, der verwendet wird, wenn mit Cloud Storage und BigQuery interagieren. Wann? in einem Dataproc-Cluster ausgeführt wird, lassen Sie das Feld leer. das das Dienstkonto des Clusters verwendet.
    • Dataset-Name: Name des Datasets, in dem erstellt werden soll. BigQuery Er ist optional und standardmäßig lautet der Dataset-Name ist identisch mit dem Namen der Quelldatenbank. Ein gültiger Name darf nur Buchstaben enthalten, Zahlen und Unterstriche. Die maximale Länge darf 1.024 Zeichen betragen. Beliebig Ungültige Zeichen werden durch Unterstrich im endgültigen Dataset-Namen ersetzt und Zeichen, die die Längenbeschränkung überschreiten, werden abgeschnitten.
    • Encryption Key Name (Name des Verschlüsselungsschlüssels): der vom Kunden verwaltete Verschlüsselungsschlüssel (CMEK), der für Folgendes verwendet wird: um die von diesem Ziel erstellten Ressourcen zu sichern. Der Name des Verschlüsselungsschlüssels muss des Formulars projects/<project-id>/locations/<key-location>/keyRings/<key-ring-name>/cryptoKeys/<key-name>
    • Speicherort: Der Ort, an dem das BigQuery-Dataset und Cloud Storage-Staging-Bucket erstellt. Beispiel: us-east1 für regionale Buckets, us für multiregionale Buckets (siehe Standorte). Dieser Wert wird ignoriert, wenn ein Bucket als Staging-Bucket und als BigQuery-Bucket Datasets am selben Standort wie der Bucket erstellt werden.
    • Staging-Bucket: Der Bucket, in den Änderungsereignisse geschrieben werden, bevor sie in Staging-Tabellen geladen werden. Änderungen werden in ein Verzeichnis geschrieben, enthält den Namen und Namespace des Replikators. Sie können bedenkenlos denselben Bucket für mehrere Replikatoren innerhalb derselben Instanz. Wenn es mit anderen Replikatoren über mehrere Instanzen hinweg, achten Sie darauf, dass der Namespace und der Name eindeutig, andernfalls ist das Verhalten nicht definiert. Der Bucket muss sich im selben Standort als BigQuery-Dataset. Wenn nicht angegeben, wird eine neue für jeden Job mit dem Namen df-rbq-<namespace-name>-<job-name>-<deployment-timestamp>

    • Ladeintervall (Sekunden): Anzahl der Sekunden, die gewartet wird, bevor ein Batch geladen wird von Daten in BigQuery importieren.

    • Präfix der Staging-Tabelle: Änderungen werden zuerst in eine Staging-Tabelle geschrieben, bevor mit der finalen Tabelle zusammengeführt. Namen von Staging-Tabellen werden durch Voranstellen generiert. dieses Präfix in den Namen der Zieltabelle ein.

    • Manuellen Drop-Eingriff erforderlich: Gibt an, ob eine manuelle Installation erforderlich ist. administrative Aktion, um Tabellen und Datasets zu löschen, wenn eine Tabelle gelöscht oder oder Datenbankereignis aufgetreten ist. Wenn die Richtlinie auf „true“ gesetzt ist, Tabelle oder Dataset löschen. Stattdessen schlägt er fehl und wird so lange wiederholt, bis die Tabelle oder Dataset ist nicht vorhanden. Wenn das Dataset oder die Tabelle nicht vorhanden ist, ist ein manueller Eingriff erforderlich. Der Termin wird wie gewohnt übersprungen.

    • Vorläufige Löschungen aktivieren: Wenn dies auf „true“ gesetzt ist, wird ein Delete-Ereignis vom wird die Spalte _is_deleted für den Datensatz auf true gesetzt. Andernfalls wird der Eintrag aus der BigQuery-Tabelle gelöscht. Diese Konfiguration ist keine Vorgänge für eine Quelle, die Ereignisse in falscher Reihenfolge generiert Datensätze werden immer vorläufig aus der BigQuery-Tabelle gelöscht.

  2. Klicken Sie auf Weiter.

Anmeldedaten

Wenn das Plug-in in einem Dataproc-Cluster ausgeführt wird, ist das Dienstkonto sollte auf „Automatisch erkennen“ eingestellt sein. Anmeldedaten werden automatisch aus dem Clusterumgebung.

Wenn das Plug-in nicht in einem Dataproc-Cluster ausgeführt wird, ist der Pfad zu einer Dienstkontoschlüssel muss angegeben werden. Den Dienstkontoschlüssel finden Sie hier: auf der Seite „IAM“ in der Google Cloud Console. Achten Sie darauf, dass der Kontoschlüssel hat die Berechtigung, auf BigQuery zuzugreifen. Die Dienstkonto-Schlüsseldatei muss auf jedem Knoten im Cluster verfügbar sein und für alle Nutzer, die den Job ausführen.

Beschränkungen

  • Tabellen müssen einen Primärschlüssel haben, um repliziert zu werden.
  • Vorgänge zum Umbenennen von Tabellen werden nicht unterstützt.
  • Tabellenänderungen werden teilweise unterstützt.
    • Eine vorhandene Spalte, die keine Nullwerte zulässt, kann in eine Spalte, für die Nullwerte zulässig sind, geändert werden.
    • Neue Spalten, für die Nullwerte zulässig sind, können einer vorhandenen Tabelle hinzugefügt werden.
    • Alle anderen Änderungen am Tabellenschema schlagen fehl.
    • Änderungen am Primärschlüssel schlagen nicht fehl, vorhandene Daten werden jedoch nicht so umgeschrieben, dass die Eindeutigkeit des neuen Primärschlüssels berücksichtigt wird.

Tabellen und Transformationen auswählen

Im Schritt Tabellen und Transformationen auswählen wird eine Liste von Tabellen eine Replikation im SLT-System.

  1. Wählen Sie die zu replizierenden Tabellen aus.
  2. Optional: Wählen Sie weitere Schemavorgänge aus, z. B. Einfügungen, Aktualisierungen oder Löschungen.
  3. Zum Anzeigen des Schemas klicken Sie für eine Tabelle auf Spalten zu replizieren.
  4. Optional: So benennen Sie Spalten im Schema um:

    1. Klicken Sie im geöffneten Schema auf Transformieren > Umbenennen:
    2. Geben Sie im Feld Umbenennen einen neuen Namen ein und klicken Sie auf Übernehmen.
    3. Klicken Sie auf Aktualisieren und auf Speichern, um den neuen Namen zu speichern.
  5. Klicken Sie auf Weiter.

Optional: Erweiterte Eigenschaften konfigurieren

Wenn Sie wissen, wie viele Daten Sie in einer Stunde replizieren, können Sie wählen Sie die entsprechende Option aus.

Bewertung ansehen

Im Schritt Bewertung überprüfen wird nach Schemaproblemen, fehlenden Features und Verbindungsprobleme während der Replikation auftreten.

  1. Klicken Sie auf der Seite Bewertung überprüfen auf Zuordnungen ansehen.

    Falls Probleme auftreten, müssen diese behoben werden, bevor Sie fortfahren können.

  2. Optional: Wenn Sie Spalten bei der Auswahl der Tabellen und Transformationen, überprüfen Sie in diesem Schritt, ob die neuen Namen korrekt sind.

  3. Klicken Sie auf Weiter.

Zusammenfassung ansehen und Replikationsjob bereitstellen

Prüfen Sie die Einstellungen auf der Seite Details zum Replikationsjob überprüfen. und klicken Sie auf Replikationsjob bereitstellen.

Compute Engine-Profil auswählen

  1. Klicken Sie nach der Bereitstellung des Replikationsjobs auf Konfigurieren. jeder Seite in der Weboberfläche von Cloud Data Fusion.

  2. Wählen Sie das Compute Engine-Profil aus, das Sie zum Ausführen verwenden möchten Replikationsjob.

  3. Klicken Sie auf Speichern.

    Wählen Sie in der Weboberfläche von Cloud Data Fusion ein Computing-Profil aus.

Replikationsjob starten

  • Klicken Sie zum Ausführen des Replikationsjobs auf Start.

Replikationsjob in der Cloud Data Fusion-Weboberfläche starten

Optional: Leistung optimieren

Das Plug-in ist standardmäßig für optimale Leistung konfiguriert. Weitere Optimierungen finden Sie unter Laufzeitargumente.

Die Leistung der SLT- und Cloud Data Fusion-Kommunikation hängt von diesen Faktoren:

  • SLT auf dem Quellsystem im Vergleich zu einem dedizierten zentralen SLT-System (bevorzugt) Option)
  • Verarbeitung von Hintergrundjobs im SLT-System
  • Arbeitsprozesse im SAP-Quellsystem im Dialog
  • Die Anzahl der Hintergrundjobprozesse, die jeder Massenübertragungs-ID in Tab LTRC Administration (LTRC-Verwaltung)
  • LTRS-Einstellungen
  • Hardware (CPU und Arbeitsspeicher) des SLT-Systems
  • Die verwendete Datenbank (z. B. HANA, Sybase oder DB2)
  • Die Internetbandbreite (Konnektivität zwischen dem SAP-System und Google Cloud über das Internet)
  • Bereits vorhandene Systemauslastung (Last)
  • Die Anzahl der Spalten in der Tabelle. Bei mehr Spalten ist die Replikation langsam wird und die Latenz zunehmen kann.

Die folgenden Lesetypen in den LTRS-Einstellungen werden für anfängliche Ladevorgänge empfohlen:

SLT-System Quellsystem Tabellentyp Empfohlener Lesetyp
[anfänglicher Ladevorgang]
SLT 3.0 – eigenständige Version
[DMIS 2018_1_752 SP 2]
S/4 HANA 1909 Transparent (klein/mittel)
Transparent (groß)
Clustertabelle
1-Bereichsberechnung
1-Bereichsberechnung
Wiedergabeliste für 4 Absender
SLT eingebettet
[S4CORE 104 HANA 1909]
Transparent (klein/mittel)
Transparent (groß)
Clustertabelle
1-Bereichsberechnung
1-Bereichsberechnung
Wiedergabeliste für 4 Absender
SLT 2.0 – eigenständig
[DMIS 2011_1_731 SP 17]
ECC NW 7.02 Transparent (klein/mittel)
Transparent (groß)
Clustertabelle
Warteschlange für 5 Absender
Warteschlange für 5 Absender
Warteschlange für 4 Absender
SLT eingebettet
[DMIS 2011_1_700 SP 17]
Transparent (klein/mittel)
Transparent (groß)
Clustertabelle
Warteschlange für 5 Absender
Warteschlange für 5 Absender
Warteschlange für 4 Absender
  • Verwenden Sie für die Replikation „Keine Bereiche“, um die Leistung zu verbessern:
    • Bereiche dürfen nur verwendet werden, wenn Rückstände in einer Logging-Tabelle generiert werden mit hoher Latenz.
    • Eine Bereichsberechnung verwenden: Der Lesetyp für den anfänglichen Ladevorgang wird nicht empfohlen in bei SLT 2.0- und Nicht-HANA-Systemen.
    • Eine Bereichsberechnung verwenden: Der Lesetyp für den anfänglichen Ladevorgang kann zu in BigQuery duplizierte Datensätze.
  • Die Leistung ist immer besser, wenn ein eigenständiges SLT-System verwendet wird.
  • Ein eigenständiges SLT-System wird immer empfohlen, wenn die Ressourcennutzung ist das Quellsystem bereits hoch.

Laufzeitargumente

  • snapshot.thread.count: Gibt die Anzahl der zu startenden Threads weiter Datenladevorgang SNAPSHOT/INITIAL parallel ausführen Standardmäßig wird die Methode Anzahl der vCPUs, die im Dataproc-Cluster verfügbar sind, in dem der Ausführung von Replikationsjobs.

    Empfohlen: Legen Sie diesen Parameter nur fest, wenn Sie eine präzise Steuerung benötigen parallelen Threads zu reduzieren (z. B. um die Nutzung Cluster).

  • poll.file.count: Gibt die Anzahl der Dateien weiter, die vom Der im GCS-Pfad der Datenreplikation angegebene Cloud Storage-Pfad auf der Weboberfläche. Der Standardwert ist jedoch 500 pro Umfrage. je nach Clusterkonfiguration erhöht oder verringert werden.

    Empfohlen: Verwenden Sie diesen Parameter nur, wenn Sie strenge Anforderungen an Replikationsverzögerung. Niedrigere Werte können die Verzögerung verringern. Sie können damit Verbessern Sie den Durchsatz. Wenn Sie nicht reagieren, verwenden Sie höhere Werte als der Standardwert.

  • bad.files.base.path: Übergibt den Cloud Storage-Basispfad, wobei werden alle fehlerhaften oder fehlerhaften Datendateien kopiert, die während Replikation. Dies ist nützlich, wenn strenge Anforderungen an Daten gelten. und ein bestimmter Standort verwendet werden, um fehlgeschlagene Übertragungen.

    Standardmäßig werden alle fehlerhaften Dateien aus dem Cloud Storage- Der im Feld Cloud Storage-Pfad der Datenreplikation angegebene Pfad in der Weboberfläche angezeigt.

    • Endgültiges Pfadmuster bei fehlerhaften Datendateien:

      gs://BASE_FILE_PATH/MASS_TRANSFER_ID/SOURCE_TABLE_NAME/bad_files/REPLICATION_JOB_NAME/REPLICATION_JOB_ID/BAD_FILE_NAME
      

    • Beispiel:

      gs://slt_to_cdf_bucket/001/MARA/bad_files/MaraRepl/05f97349-7398-11ec-9443-8
      ac0640fc83c/20220205_1901205168830_DATA_INIT.xml
      

    Das Kriterium für eine fehlerhafte Datei ist eine beschädigte oder ungültige XML-Datei, fehlende PK. oder ein Problem mit nicht übereinstimmendem Felddatentyp.

Supportdetails

Unterstützte SAP-Produkte und -Versionen

  • Release SAP_BASIS 702, SP-Level 0016 und höher.
  • Release SAP_ABA 702, SP-Level 0016 und höher.
  • DMIS 2011_1_700-Version, SP-Level 0017 und höher.

Unterstützte SLT-Versionen

Die SLT-Versionen 2 und 3 werden unterstützt.

Unterstützte SAP-Bereitstellungsmodelle

SLT kann als eigenständiges System oder in das Quellsystem eingebettet sein.

SAP-Hinweise, die implementiert werden müssen, bevor Sie die SLT verwenden

Wenn Ihr Supportpaket keine /UI2/CL_JSON-Klassenkorrekturen für PL enthält ab 12 implementieren Sie den aktuellen SAP-Hinweis für /UI2/CL_JSON-Klassenkorrekturen. z. B. SAP-Hinweis 2798102 für PL12.

Empfohlen: Vom Bericht empfohlene SAP-Hinweise implementieren CNV_NOTE_ANALYZER_SLT basiert auf der Bedingung des zentralen Systems oder des Quellsystems. Für finden Sie unter SAP-Hinweis 3016862 (SAP-Anmeldung erforderlich).

Wenn SAP bereits eingerichtet ist, muss kein zusätzlicher Hinweis angegeben werden. implementiert. Informationen zu spezifischen Fehlern oder Problemen finden Sie in der zentralen SAP-Hinweis für Ihr SLT-Release.

Limits für das Datenvolumen oder die Eintragsbreite

Es gibt keine definierte Beschränkung für das Volumen der extrahierten Daten und die Datensatzbreite.

Erwarteter Durchsatz für das SAP SLT-Replikations-Plug-in

Für eine Umgebung, die gemäß den Richtlinien unter Leistung optimieren lässt, kann das Plug-in etwa 13 GB pro Stunde für den anfänglichen Ladevorgang und 3 GB pro Stunde für die Replikation (CDC). Die tatsächliche Leistung kann je nach Cloud Data Fusion- und SAP-System variieren die Last oder den Netzwerkverkehr.

Unterstützung für die SAP-Delta-Extraktion (geänderte Daten)

Die SAP-Deltaextraktion wird unterstützt.

Erforderlich: Mandanten-Peering für Cloud Data Fusion-Instanzen

Mandanten-Peering ist erforderlich, wenn die Cloud Data Fusion-Instanz die mit einer internen IP-Adresse erstellt wurden. Weitere Informationen zum Mandanten-Peering Siehe Private Instanz erstellen.

Fehlerbehebung

Replikationsjob wird ständig neu gestartet

Wenn der Replikationsjob immer wieder automatisch neu gestartet wird, erhöhen Sie den Wert Clusterarbeitsspeicher des Replikationsjobs und führen Sie den Replikationsjob.

Duplikate in der BigQuery-Senke

Wenn Sie die Anzahl der parallelen Jobs in den erweiterten Einstellungen des SAP SLT-Replikations-Plug-in: Wenn Ihre Tabellen groß sind, tritt ein Fehler auf Dies führt zu doppelten Spalten in der BigQuery-Senke.

Entfernen Sie zum Laden von Daten die parallelen Jobs, um dieses Problem zu vermeiden.

Fehlerszenarien

In der folgenden Tabelle sind einige häufige Fehlermeldungen aufgeführt. Text in Anführungszeichen wird durch tatsächliche Werte zur Laufzeit ersetzt werden:

Nachrichten-ID Meldung Empfohlene Maßnahmen
CDF_SAP_SLT_01402 Service account type is not defined for SERVICE_ACCT_NAME_FROM_UI. Prüfen Sie, ob der angegebene Cloud Storage-Pfad korrekt ist.
CDF_SAP_SLT_01403 Service account key provided is not valid due to error: ROOT_CAUSE. Please provide a valid service account key for service account type : SERVICE_ACCT_NAME_FROM_UI. Sehen Sie sich die in der Mitteilung angegebene Ursache an und ergreifen Sie entsprechende Maßnahmen. Aktion ausführen.
CDF_SAP_SLT_01404 Mass Transfer ID could not be found. Please ensure that it exists in given GCS Bucket. Prüfen Sie, ob die angegebene Massentransfer-ID das richtige Format hat.
CDF_SAP_SLT_01502 The specified data replication GCS path 'slt_to_cdf_bucket_1' or Mass Transfer ID '05C' could not be found. Please ensure that it exists in GCS. Prüfen Sie, ob der angegebene Cloud Storage-Pfad korrekt ist.
CDF_SAP_SLT_01400 Metadata file not found. The META_INIT.json file is not present or file is present with invalid format. Sehen Sie sich die in der Mitteilung angegebene Ursache an und ergreifen Sie entsprechende Maßnahmen. Aktion ausführen.
CDF_SAP_SLT_03408 Failed to start the event reader. Sehen Sie sich die in der Mitteilung angegebene Ursache an und ergreifen Sie entsprechende Maßnahmen. Aktion ausführen.
CDF_SAP_SLT_03409 Error while processing TABLE_NAME file for source table gs://CLOUD_STORAGE_BUCKET_NAME/MT_ID/TABLE_NAME /FILE_NAME. Root cause: ROOT_CAUSE. Sehen Sie sich die in der Mitteilung angegebene Ursache an und ergreifen Sie entsprechende Maßnahmen. Aktion ausführen.
CDF_SAP_SLT_03410 Failed to replicate data for source table TABLE_NAME from file: gs://CLOUD_STORAGE_BUCKET_NAME/MT_ID/ TABLE_NAME/FILE_NAME. Root cause: ROOT_CAUSE. Sehen Sie sich die in der Mitteilung angegebene Ursache an und ergreifen Sie entsprechende Maßnahmen. Aktion ausführen.
CDF_SAP_SLT_03411 Failed data replication for source table TABLE_NAME. Root cause: ROOT_CAUSE. Sehen Sie sich die in der Mitteilung angegebene Ursache an und ergreifen Sie entsprechende Maßnahmen. Aktion ausführen.
CDF_SAP_SLT_03412 Failed to create target table for source table TABLE_NAME. Root cause: ROOT_CAUSE. Sehen Sie sich die in der Mitteilung angegebene Ursache an und ergreifen Sie entsprechende Maßnahmen.

Datentypzuordnung

Die folgende Tabelle zeigt die Zuordnung zwischen den in SAP verwendeten Datentypen und Cloud Data Fusion.

SAP-Datentyp ABAP-Typ Beschreibung (SAP) Datentyp „Cloud Data Fusion“
Numerisch
INT1 b 1-Byte-Ganzzahl int
INT2 s 2-Byte-Ganzzahl int
INT4 i 4-Byte-Ganzzahl int
INT8 8 8-Byte-Ganzzahl long
DEZ p Nummer des Pakets im BCD-Format (DEC) decimal
DF16_DEC
DF16_RAW
a Dezimales Gleitkomma, 8 Byte IEEE 754r decimal
DF34_DEC
DF34_RAW
e Dezimales Gleitkomma, 16 Byte IEEE 754r decimal
FLTP f Binäre Gleitkommazahl double
Zeichen
CHAR
LCHR
c Zeichenstring string
SSTRING
GEOM_EWKB
String Zeichenstring string
STRING
GEOM_EWKB
String Zeichenstring CLOB bytes
NUMC
ACCP
n Numerischer Text string
Byte
RAW
LRAW
x Binärdaten bytes
Rohstring Xstring Bytestring BLOB bytes
Datum/Uhrzeit
DATS d Datum date
Tim t Zeit time
TIMESTAMP utcl ( Utclong )
TimeStamp
timestamp

Nächste Schritte