Auf dieser Seite wird beschrieben, wie Sie die Echtzeitreplikation von Daten aus SAP ermöglichen. mit SAP Landscape Transformation (SLT) in Google Cloud. Die Der Inhalt gilt für SAP SLT Replikation und SAP SLT No RFC Replikation Plug-ins, die im Cloud Data Fusion Hub verfügbar sind. Es zeigt die für SAP Source System, SLT, Cloud Storage und Cloud Data Fusion kann Folgendes tun:
- Übertragen Sie SAP-Metadaten und -Tabellendaten mit SAP SLT an Google Cloud.
- Erstellen Sie einen Cloud Data Fusion-Replikationsjob, der den Daten aus einem Cloud Storage-Bucket.
Mit der SAP SLT-Replikation können Sie Ihre Daten kontinuierlich und in Echtzeit aus SAP-Quellen in BigQuery Sie können Datenübertragungen von SAP aus konfigurieren und ausführen ganz ohne Programmierung.
Der Cloud Data Fusion SLT-Replikationsprozess sieht so aus:
- Die Daten stammen aus einem SAP-Quellsystem.
- SLT verfolgt und liest die Daten und überträgt sie per Push in Cloud Storage.
- Cloud Data Fusion ruft Daten aus dem Storage-Bucket ab und schreibt sie in BigQuery
Sie können Daten aus unterstützten SAP-Systemen übertragen, einschließlich der von SAP gehosteten Systemen in Google Cloud.
Weitere Informationen finden Sie in der Übersicht über SAP in Google Cloud. und Supportdetails.
Hinweise
Für die Verwendung dieses Plug-ins benötigen Sie Domainkenntnisse in folgenden Bereichen:
- Pipelines in Cloud Data Fusion erstellen
- Zugriffsverwaltung mit IAM
- SAP Cloud und lokale ERP-Systeme (Enterprise Resource Planning) konfigurieren
Administratoren und Nutzer, die die Konfigurationen durchführen
Die Aufgaben auf dieser Seite werden von Personen mit den folgenden Rollen in Google Cloud oder in ihrem SAP-System ausgeführt:
Nutzertyp | Beschreibung |
---|---|
Google Cloud-Administrator | Nutzer mit dieser Rolle sind Administratoren von Google Cloud-Konten. |
Cloud Data Fusion-Nutzer | Nutzer, denen diese Rolle zugewiesen ist, sind berechtigt, Datenpipelines zu entwerfen und auszuführen. Sie haben mindestens die Rolle Data Fusion-Betrachter“ (roles/datafusion.viewer ). Wenn Sie die rollenbasierte Zugriffssteuerung verwenden, benötigen Sie möglicherweise zusätzliche Rollen.
|
SAP-Administrator | Nutzer mit dieser Rolle sind Administratoren des SAP-Systems. Sie können Software von der SAP-Dienstwebsite herunterladen. Es ist keine IAM-Rolle. |
SAP-Nutzer | Nutzer mit dieser Rolle sind berechtigt, eine Verbindung zu einem SAP-System herzustellen. Es ist keine IAM-Rolle. |
Unterstützte Replikationsvorgänge
Das SAP SLT-Replikations-Plug-in unterstützt die folgenden Vorgänge:
Datenmodellierung: Alle Datenmodellierungsvorgänge (Datensatz insert
, delete
und
update
) werden von diesem Plug-in unterstützt.
Datendefinition: Wie in SAP-Hinweis 2055599 (Anmeldung für SAP-Support erforderlich). Es gibt Einschränkungen hinsichtlich der Quelle Änderungen an der Systemtabellenstruktur werden von SLT automatisch repliziert. Einige Daten Definitionsvorgänge werden im Plug-in nicht unterstützt (Sie müssen verbreiten).
- Unterstützt:
- Nicht-Schlüsselfeld hinzufügen (nach dem Vornehmen von Änderungen in SE11, aktivieren Sie die Tabelle mit SE14)
- Nicht unterstützt:
- Schlüsselfeld hinzufügen/löschen
- Nicht-Schlüsselfeld löschen
- Datentypen ändern
SAP-Anforderungen
In Ihrem SAP-System sind die folgenden Elemente erforderlich:
- Sie haben SLT Server Version 2011 SP17 oder höher entweder auf der Quelle installiert SAP-System (eingebettet) oder als dediziertes SLT-Hub-System.
- Ihr SAP-Quellsystem ist SAP ECC oder SAP S/4HANA, das DMIS 2011 unterstützt SP17 oder höher, z. B. DMIS 2018, DMIS 2020.
- Add-on für die SAP-Benutzeroberfläche muss mit Ihrer SAP Netweaver-Version kompatibel sein.
Ihr Supportpaket unterstützt die
/UI2/CL_JSON
-KlassePL 12
oder höher. Implementieren Sie andernfalls den aktuellen SAP-Hinweis für die Klasse/UI2/CL_JSON
.corrections
entsprechend der Version des Benutzeroberflächen-Add-ons, z. B. SAP Notiz 2798102 fürPL12
.Es sind folgende Sicherheitsmaßnahmen vorhanden:
Anforderungen für Cloud Data Fusion
- Sie benötigen eine Cloud Data Fusion-Instanz ab Version 6.4.0, .
- Das der Cloud Data Fusion-Instanz zugewiesene Dienstkonto ist Die erforderlichen Rollen wurden gewährt (siehe Dienstkontonutzerberechtigungen gewähren).
- Für private Cloud Data Fusion-Instanzen ist VPC-Peering erforderlich.
Google Cloud-Anforderungen
- Aktivieren Sie die Cloud Storage API in Ihrem Google Cloud-Projekt.
- Dem Cloud Data Fusion-Nutzer muss die Berechtigung für Folgendes gewährt werden: Ordner im Cloud Storage-Bucket erstellen (siehe IAM-Rollen für Cloud Storage).
- Optional: Legen Sie bei Bedarf die Aufbewahrungsrichtlinie fest. von Ihrer Organisation.
Storage-Bucket erstellen
Bevor Sie einen SLT-Replikationsjob erstellen, Erstellen Sie den Cloud Storage-Bucket. Der Job überträgt Daten an den Bucket und aktualisiert den Staging-Bucket alle fünf Minuten. Wenn Sie den Job ausführen, liest Cloud Data Fusion die Daten in der Storage-Bucket und schreibt ihn in BigQuery.
Wenn SLT in Google Cloud installiert ist
Der SLT-Server muss die Berechtigung zum Erstellen und Ändern von Cloud Storage haben Objekte in dem von Ihnen erstellten Bucket befinden.
Weisen Sie dem Dienstkonto mindestens die folgenden Rollen zu:
- Ersteller von Dienstkonto-Token (
roles/iam.serviceAccountTokenCreator
) - Service Usage-Nutzer (
roles/serviceusage.serviceUsageConsumer
) - Storage-Objekt-Administrator (
roles/storage.objectAdmin
)
Wenn SLT nicht in Google Cloud installiert ist
Cloud VPN oder Cloud Interconnect zwischen der SAP-VM und Google Cloud die Verbindung zu einem internen Metadatenendpunkt zulassen (siehe Privaten Google-Zugriff für lokale Hosts konfigurieren
Wenn interne Metadaten nicht zugeordnet werden können:
Google Cloud CLI basierend auf dem Betriebssystem der Infrastruktur installieren auf denen SLT läuft.
Erstellen Sie ein Dienstkonto in dem Google Cloud-Projekt, in dem Cloud Storage ist aktiviert.
Auf dem SLT-Betriebssystem Zugriff auf Google Cloud mit einem Dienstkonto autorisieren
API-Schlüssel für das Dienstkonto erstellen und autorisieren Cloud Storage-bezogener Bereich.
Importieren Sie den API-Schlüssel in die zuvor installierte gcloud CLI mit über die Befehlszeile.
So aktivieren Sie den gcloud CLI-Befehl, der das Zugriffstoken ausgibt: den SAP-Betriebssystembefehl im Transaktionstool SM69 in das SLT-System.
Zugriffstoken drucken
Der SAP-Administrator konfiguriert den Betriebssystembefehl SM69
, mit dem
ruft ein Zugriffstoken von Google Cloud ab.
Script erstellen, um ein Zugriffstoken auszudrucken und ein SAP-Betriebssystem zu konfigurieren
Befehl zum Aufrufen des Skripts als Nutzer <sid>adm
aus SAP LT Replikation Server
Host.
Linux
So erstellen Sie einen Betriebssystembefehl:
Auf dem SAP LT Replication Server-Host in einem Verzeichnis, auf das zugegriffen werden kann auf
<sid>adm
setzen, erstellen Sie ein Bash-Skript, das die folgenden Zeilen enthält:PATH_TO_GCLOUD_CLI/bin/gcloud auth print-access-token SERVICE_ACCOUNT_NAME
Erstellen Sie über die SAP-Benutzeroberfläche einen externen Betriebssystembefehl:
- Geben Sie die Transaktion
SM69
ein. - Klicken Sie auf Erstellen.
- Geben Sie im Bereich External Command (Externer Befehl) im Abschnitt Command (Befehl) Folgendes ein:
den Namen des Befehls, z. B.
ZGOOGLE_CDF_TOKEN
. Im Abschnitt Definition:
- Geben Sie im Feld Betriebssystembefehl
sh
als Script-Dateiendung. Geben Sie im Feld Parameter für Betriebssystembefehl Folgendes ein:
/PATH_TO_SCRIPT/FILE_NAME.sh
- Geben Sie im Feld Betriebssystembefehl
Klicken Sie auf Speichern.
Klicken Sie auf Ausführen, um das Skript zu testen.
Klicken Sie noch einmal auf Ausführen.
Ein Google Cloud-Token wird zurückgegeben und am unteren Rand des SAP-Benutzeroberfläche.
- Geben Sie die Transaktion
Windows
Erstellen Sie über die SAP-Benutzeroberfläche einen Befehl für ein externes Betriebssystem:
- Geben Sie die Transaktion
SM69
ein. - Klicken Sie auf Erstellen.
- Geben Sie im Bereich External Command (Externer Befehl) im Abschnitt Command (Befehl) den Wert für
Name des Befehls, z. B.
ZGOOGLE_CDF_TOKEN
. Im Abschnitt Definition:
- Geben Sie im Feld Betriebssystembefehl den Wert
cmd /c
ein. Geben Sie im Feld Parameter für Betriebssystembefehl Folgendes ein:
gcloud auth print-access-token SERVICE_ACCOUNT_NAME
- Geben Sie im Feld Betriebssystembefehl den Wert
Klicken Sie auf Speichern.
Klicken Sie auf Ausführen, um das Skript zu testen.
Klicken Sie noch einmal auf Ausführen.
Ein Google Cloud-Token wird zurückgegeben und im unteren Teil des SAP-Systems angezeigt. auf der Benutzeroberfläche.
Anforderungen an die SLT-Technologie
Der SLT-Connector muss folgendermaßen konfiguriert sein:
- Der Connector unterstützt SAP ECC NW 7.02, DMIS 2011 SP17 und höher.
- Konfigurieren Sie eine RFC- oder Datenbankverbindung zwischen SLT und dem Cloud Storage-System.
- Richten Sie die SSL-Zertifikate ein:
- Laden Sie die folgenden CA-Zertifikate aus der
Google Trust Services-Repository:
- GTS Root R1
- GTS CA 1C3
- Verwenden Sie in der SAP-Benutzeroberfläche die
STRUST
-Transaktion, um beide die Stamm- und untergeordneten Zertifikate im OrdnerSSL Client (Standard) PSE
.
- Laden Sie die folgenden CA-Zertifikate aus der
Google Trust Services-Repository:
- Internet Communication Manager (ICM) muss für HTTPS eingerichtet sein. Stellen Sie sicher, dass
die HTTP- und HTTPS-Ports im SAP SLT-System beibehalten und aktiviert werden.
Sie können dies über den Transaktionscode
SMICM > Services
überprüfen. - Aktivieren Sie den Zugriff auf Google Cloud APIs auf der VM, auf der sich die SAP SLT befindet. gehostet wird. Dies ermöglicht eine private Kommunikation zwischen den Google Cloud-Dienste ohne Routing über das öffentliche Internet.
- Sicherstellen, dass das Netzwerk das erforderliche Volumen und die erforderliche Geschwindigkeit der Daten unterstützt zwischen der SAP-Infrastruktur und Cloud Storage. Für eine Cloud VPN und/oder Cloud Interconnect wird empfohlen. Der Durchsatz der Streaming API hängt vom Kundenkontingente, die gewährt wurden Ihr Cloud Storage-Projekt.
SLT-Replikationsserver konfigurieren
Der SAP-Nutzer führt die folgenden Schritte aus.
In den folgenden Schritten verbinden Sie den SLT-Server mit dem Quellsystem und Bucket in Cloud Storage und geben das Quellsystem, die Datentabellen an und den Ziel-Storage-Bucket.
Google ABAP SDK konfigurieren
So konfigurieren Sie SLT für die Datenreplikation (einmal pro Cloud Data Fusion) ) gehen Sie folgendermaßen vor:
Zur Konfiguration des SLT-Connectors gibt der SAP-User Folgendes ein: Informationen im Konfigurationsbildschirm (SAP-Transaktion
/GOOG/CDF_SETTINGS
) zum Google Cloud-Dienstkontoschlüssel für Daten an Cloud Storage übertragen. Konfigurieren Sie Folgendes: in der Tabelle /GOOG/CDF_CLT_KY unter Verwendung von Transaktion SE16 und Hinweis diesen Schlüssel:- NAME: Der Name für Ihren Dienstkontoschlüssel, z. B.
CDFSLT
- SERVICE ACCOUNT NAME: Der Name des IAM-Dienstkontos
- SCOPE: Der Umfang des Dienstkontos
- PROJEKT-ID: Die ID Ihres Google Cloud-Projekts.
- Optional: EXT OS-Befehl: Verwenden Sie dieses Feld nur, wenn SLT nicht installiert ist. in Google Cloud
AUTH-KLASSE: Wenn der Betriebssystembefehl in Tabelle
/GOOG/CDF_CLT_KY
eingerichtet ist, verwenden Sie den festen Wert:/GOOG/CDF_CL_GCP_AUTH
.TOKEN AKTUALISIEREN: Dauer für die Aktualisierung des Autorisierungstokens
- NAME: Der Name für Ihren Dienstkontoschlüssel, z. B.
Replikationskonfiguration erstellen
Erstellen Sie eine Replikationskonfiguration im Transaktionscode: LTRC
.
- Stellen Sie vor der LTRC-Konfiguration sicher, dass die RFC-Verbindung zwischen dem SLT-System und dem SAP-Quellsystem.
- Für eine SLT-Konfiguration können mehrere SAP-Tabellen Replikation.
Rufen Sie den Transaktionscode
LTRC
auf und klicken Sie auf Neue Konfiguration.Geben Sie den Konfigurationsnamen und die Beschreibung ein und klicken Sie auf Weiter.
Geben Sie die RFC-Verbindung für das SAP-Quellsystem an und klicken Sie auf Next (Weiter).
Wählen Sie in den Verbindungsdetails des Zielsystems die Option Sonstige aus.
Erweitern Sie das Feld Szenario für die RFC-Kommunikation, wählen Sie SLT SDK aus und Klicken Sie auf Weiter.
Öffnen Sie das Fenster Übertragungseinstellungen angeben und geben Sie die Anwendung ein. Name:
ZGOOGLE_CDF
.Geben Sie unter Anzahl der Datenübertragungsjobs die Anzahl der anfänglichen Ladevorgänge ein. Jobs und die Anzahl der Berechnungsjobs. Weitere Informationen zu finden Sie im Leitfaden zur Leistungsoptimierung für SAP LT Replikation Server.
Klicken Sie auf Echtzeit > Weiter.
Überprüfen Sie die Konfiguration und klicken Sie auf Speichern. Beachten Sie den Massentransfer ID für die nächsten Schritte.
Führen Sie zum Verwalten der Massenübertragungs-ID und der SAP-Tabellendetails den SAP- Transaktion:
/GOOG/CDF_SETTINGS
.Klicken Sie auf Ausführen oder drücken Sie
F8
.Erstellen Sie einen neuen Eintrag, indem Sie auf das Symbol „Zeile anfügen“ klicken.
Geben Sie die folgenden Werte ein: Mass Transfer ID (Mass Transfer ID), Mass Transfer Key (Massenübertragungsschlüssel), GCP Key Name (Name des GCP-Schlüssels) und Ziel-GCS-Bucket. Klicken Sie das Kästchen Is Active (Ist aktiv) an und speichern Sie die Angaben. die Änderungen vor.
Wählen Sie die Konfiguration in der Spalte Configuration Name (Konfigurationsname) aus und klicken Sie auf Datenbereitstellung.
Optional: Passen Sie die Tabellen- und Feldnamen an.
Klicken Sie auf Benutzerdefinierte Namen und speichern Sie sie.
Klicken Sie auf Display.
Erstellen Sie einen neuen Eintrag, indem Sie auf die Schaltfläche Zeile anfügen oder Erstellen klicken.
Geben Sie den Namen der SAP-Tabelle und den Namen der externen Tabelle ein, die in folgendem Verzeichnis verwendet werden sollen: BigQuery und speichern Sie die Änderungen.
Klicken Sie in der Spalte Anzeigefelder auf die Schaltfläche Anzeigen, um die Zuordnung für Tabellenfelder.
Eine Seite mit Zuordnungen wird geöffnet. Optional: Bearbeiten Sie das Feld Temp. Name und Feldbeschreibung und speichern Sie die Zuordnungen.
Rufen Sie die LTRC-Transaktion auf.
Wählen Sie den Wert in der Spalte Configuration Name (Konfigurationsname) aus und klicken Sie auf Data (Daten). Bereitstellung.
Geben Sie den Tabellennamen in das Feld Tabellenname in Datenbank ein und wählen Sie den Replikationsszenario.
Klicken Sie auf Ausführen. Dies löst die SLT SDK-Implementierung aus und die Daten in den Cloud Storage-Ziel-Bucket übertragen.
SAP-Transportdateien installieren
Zum Entwerfen und Ausführen von Replikationsjobs in Cloud Data Fusion bietet die SAP Komponenten werden als SAP-Transportdateien bereitgestellt, die in einer ZIP-Datei archiviert sind. Der Download ist verfügbar, wenn Sie Plug-in im Cloud Data Fusion Hub bereitstellen
ZIP-Datei für SAP SLT-Transport herunterladen
Die SAP-Transport-Anfrage-IDs und die zugehörigen Dateien sind im Folgenden angegeben: Tabelle:
Transport-ID | Cofile | Datendatei | Inhalt |
---|---|---|---|
ED1K900520 | K900520.ED1 | R900520.ED1 | SAP BADI-Implementierung ES_IUUC_REPL_RUNTIME_OLO_EXIT |
ED1K900337 | K900337.ED1 | R900337.ED1 | Autorisierungsrolle /GOOG/SLT_CDF_AUTH |
So installieren Sie die SAP-Transporte:
Schritt 1: Transportanfragedateien hochladen
- Melden Sie sich beim Betriebssystem der SAP-Instanz an.
- Verwenden Sie den SAP-Transaktionscode
AL11
, um den Pfad für den OrdnerDIR_TRANS
abzurufen. In der Regel lautet der Pfad/usr/sap/trans/
. - Kopieren Sie die Dateien in den Ordner
DIR_TRANS/cofiles
. - Kopieren Sie die Datendateien in den Ordner
DIR_TRANS/data
. - Legen Sie für Nutzer und Gruppe von Daten und Datei
<sid>adm
undsapsys
fest.
Schritt 2: Transportanfragedateien importieren
Der SAP-Administrator kann die Transportanfragedateien mithilfe der Transport Management System oder Betriebssystem:
SAP-Transport-Managementsystem
- Melden Sie sich im SAP-System als SAP-Administrator an.
- Geben Sie die Transaktions-STMS ein.
- Klicken Sie auf Übersicht > Importe.
- Doppelklicken Sie in der Spalte „Warteschlange” auf die aktuelle SID.
- Klicken Sie auf Extras > Sonstige Anfragen > Hinzufügen.
- Wählen Sie die Transportanfrage-ID aus und klicken Sie auf Weiter.
- Wählen Sie die Transportanfrage in der Importwarteschlange aus und klicken Sie dann auf Anfrage > Importieren.
- Geben Sie die Clientnummer ein.
Wählen Sie auf dem Tab Optionen die Optionen Originale überschreiben und Ungültige Komponentenversion ignorieren aus (falls verfügbar).
Optional: So importieren Sie die Transporte später noch einmal: Klicken Sie auf Transportanfragen für späteren Import in die Warteschlange lassen und Transportanfragen noch einmal importieren Dies ist nützlich für SAP-Systeme und Wiederherstellungen von Sicherungen durchführen.
Klicken Sie auf Weiter.
Prüfen, ob das Funktionsmodul und die Autorisierungsrollen importiert wurden mit Transaktionen wie
SE80
undPFCG
.
Betriebssystem
- Melden Sie sich im SAP-System als SAP-Administrator an.
Fügen Sie dem Importpuffer Anfragen hinzu:
tp addtobuffer TRANSPORT_REQUEST_ID SID
Beispiel:
tp addtobuffer IB1K903958 DD1
Importieren Sie die Transportanfragen:
tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
Ersetzen Sie
NNN
durch die Clientnummer. Beispiel:tp import IB1K903958 DD1 client=800 U1238
Prüfen Sie mit den entsprechenden Transaktionen wie
SE80
undPFCG
, ob das Funktionsmodul und die Autorisierungsrollen erfolgreich importiert wurden.
Erforderliche SAP-Autorisierungen
Zum Ausführen einer Datenpipeline in Cloud Data Fusion benötigen Sie einen SAP-Nutzer. Das SAP-System
Der Nutzer muss den Typ „Kommunikation“ oder „Dialogfeld“ haben. SAP-Dialogfeld verhindern
Ressourcen, wird der Kommunikationstyp empfohlen. Nutzer können vom SAP-System erstellt werden
Administrator mit SAP-Transaktionscode SU01
.
SAP-Autorisierungen sind erforderlich, um den Connector für SAP zu verwalten und zu konfigurieren. eine Kombination aus SAP-Standardobjekten und neuen Connector-Autorisierungsobjekten. Ich Autorisierungsobjekte auf der Grundlage der Sicherheitsrichtlinien Ihres Unternehmens verwalten können. Die folgende Liste enthält einige wichtige Autorisierungen, die für den Anschluss:
Authorization Object: Das Autorisierungsobjekt
ZGOOGCDFMT
wird versandt als der Transportanfrage-Rolle gehört.Rollenerstellung: Erstellen Sie eine Rolle mit dem Transaktionscode
PFCG
.Bei standardmäßigen SAP-Autorisierungsobjekten verwaltet Ihre Organisation Berechtigungen mit einem eigenen Sicherheitsmechanismus.
Geben Sie für benutzerdefinierte Autorisierungsobjekte Werte in den Autorisierungsfeldern an für Autorisierungsobjekte
ZGOOGCDFMT
.Für eine differenzierte Zugriffssteuerung stellt
ZGOOGCDFMT
eine Autorisierungsgruppe bereit basierte Autorisierung. Nutzer mit vollständigem, teilweisem oder keinem Zugriff auf Der Zugriff auf Autorisierungsgruppen basiert auf der Autorisierungsgruppe in ihrer Rolle zugewiesen wird./GOOG/SLT_CDF_AUTH: Rolle mit Zugriff auf alle Autorisierungsgruppen. Bis den Zugriff auf eine bestimmte Autorisierungsgruppe beschränken, Autorisierungsgruppe FICDF in der Konfiguration angeben.
RFC-Ziel für die Quelle erstellen
Stellen Sie vor der Konfiguration sicher, dass die RFC-Verbindung zwischen Quelle und Ziel festgelegt.
Rufen Sie den Transaktionscode
SM59
auf.Klicken Sie auf Erstellen > Verbindungstyp 3 (ABAP-Verbindung).
Geben Sie im Fenster Technische Einstellungen die Details zum RFC ein. Ziel.
Klicken Sie auf den Tab Anmeldung und Sicherheit, um RFC-Anmeldedaten (RFC) zu verwalten. Nutzer und Passwort).
Klicken Sie auf Speichern.
Klicken Sie auf Connection Test (Verbindungstest). Nach einem erfolgreichen Test können Sie fortfahren.
Überprüfen Sie, ob der RFC-Autorisierungstest erfolgreich ist.
Klicken Sie auf Dienstprogramme > Test > Autorisierungstest.
Plug-in konfigurieren
Um das Plug-in zu konfigurieren, stellen Sie es über den Hub bereit, erstellen Sie ein Replikationsjob erstellen und die Quelle und das Ziel mit der Methode folgenden Schritten.
Plug-in in Cloud Data Fusion bereitstellen
Der Cloud Data Fusion-Nutzer führt die folgenden Schritte aus.
Bevor Sie den Cloud Data Fusion-Replikationsjob ausführen können, müssen Sie das SAP SLT-Replikations-Plug-in:
Rufen Sie die Instanz auf:
Rufen Sie in der Google Cloud Console die Cloud Data Fusion-Instanzen auf. Seite.
Aktivieren Sie Replikation in einer neuen oder vorhandenen Instanz:
- Klicken Sie für eine neue Instanz auf Instanz erstellen und geben Sie eine Instanz ein. auf Beschleuniger hinzufügen und wählen Sie die Option Replikation aus. und klicken Sie auf Speichern.
- Informationen zu einer vorhandenen Instanz finden Sie unter Replikation für eine vorhandene Instanz aktivieren
Klicken Sie auf Instanz ansehen, um die Instanz im Weboberfläche von Cloud Data Fusion
Klicken Sie auf Hub.
Wechseln Sie zum Tab SAP, klicken Sie auf SAP SLT und klicken Sie auf SAP SLT-Replikation. Plugin oder SAP SLT No RFC Replikation Plugin.
Klicken Sie auf Bereitstellen.
Replikationsjob erstellen
Das SAP SLT-Replikations-Plug-in liest den Inhalt von SAP-Tabellen mithilfe einer Cloud Storage API-Staging-Bucket.
So erstellen Sie einen Replikationsjob für Ihre Datenübertragung: Schritte:
Klicken Sie in der geöffneten Cloud Data Fusion-Instanz auf Startseite > Replikation > Replikationsjob erstellen Wenn keine Replikation und aktivieren Sie die Replikation für die Instanz.
Geben Sie einen eindeutigen Namen und eine Beschreibung für den Replikationsjob.
Klicken Sie auf Weiter.
Quelle konfigurieren
Konfigurieren Sie die Quelle, indem Sie Werte in die folgenden Felder eingeben:
- Projekt-ID: Die ID Ihres Google Cloud-Projekts. Dieses Feld ist vorausgefüllt)
GCS-Pfad für Datenreplikation: Der Cloud Storage-Pfad, der enthält Daten für die Replikation. Es muss sich um denselben Pfad handeln, die in den SAP SLT-Jobs konfiguriert sind. Intern ist der angegebene Pfad verkettet mit
Mass Transfer ID
undSource Table Name
:Format:
gs://<base-path>/<mass-transfer-id>/<source-table-name>
Beispiel:
gs://slt_bucket/012/MARA
GUID: Die SLT-GUID – eine eindeutige Kennung, die SAP SLT Mass zugewiesen ist. Übertragungs-ID.
Mass Transfer ID (Massenübertragungs-ID): Die SLT-Massenübertragungs-ID ist eine eindeutige Kennung. die der Konfiguration in SAP SLT zugewiesen ist.
GCS-Pfad der SAP JCo-Bibliothek: Der Speicherpfad, der den vom Nutzer hochgeladene SAP JCo-Bibliotheksdateien aus. SAP JCo-Bibliotheken können heruntergeladen werden aus dem SAP-Supportportal. (In Plug-in-Version 0.10.0 entfernt.)
SLT-Serverhost: Hostname oder IP-Adresse des SLT-Servers (Entfernt in Plug-in-Version 0.10.0.)
SAP-Systemnummer: vom System bereitgestellte Nummer des Installationssystems. Administrator, z. B.
00
. (In Plug-in-Version 0.10.0 entfernt.)SAP-Client: Der zu verwendende SAP-Client (z. B.
100
). (Entfernt in Plug-in-Version 0.10.0.)SAP-Sprache: SAP-Anmeldesprache (z. B.
EN
). (Entfernt in Plug-in-Version 0.10.0.)SAP Logon username (Nutzername für SAP-Anmeldung): SAP-Nutzername. (In Plug-in-Version 0.10.0 entfernt.)
- Empfohlen: Wenn sich der SAP-Anmeldename regelmäßig ändert, verwenden Sie einen .
SAP Logon Password (M): SAP-Nutzerpasswort für die Nutzerauthentifizierung.
- Empfohlen: Verwenden Sie sichere Makros für sensible Werte wie Passwörter. (In Plug-in-Version 0.10.0 entfernt.)
SLT-Replikation aussetzen, wenn der CDF-Job beendet wird: Es wird versucht, die SLT-Replikation zu stoppen. Replikationsjob (für die beteiligten Tabellen), wenn der Cloud Data Fusion-Replikationsjob wird beendet. Kann fehlschlagen, wenn wird der Job in Cloud Data Fusion unerwartet beendet.
Vorhandene Daten replizieren: Gibt an, ob vorhandene Daten repliziert werden sollen. aus den Quelltabellen. Standardmäßig replizieren die Jobs die vorhandenen Daten. aus Quelltabellen. Wenn
false
festgelegt ist, werden alle in der Quelle vorhandenen Daten Tabellen ignoriert und nur die Änderungen, die nach dem Start des Jobs vorgenommen wurden. repliziert werden.Dienstkontoschlüssel: Der Schlüssel für die Interaktion mit Cloud Storage Das Dienstkonto muss über Schreibberechtigungen verfügen zu Cloud Storage hinzufügen. Bei Ausführung auf einer Google Cloud-VM sollte auf
auto-detect
festgelegt sein, um das Dienstkonto zu verwenden, das mit VM:
Klicken Sie auf Weiter.
Ziel konfigurieren
Um Daten in BigQuery zu schreiben, benötigt das Plug-in Schreibzugriff auf BigQuery und ein Staging Bucket. Änderungsereignisse werden zuerst in Batches von SLT in Cloud Storage Sie werden dann in Staging-Tabellen BigQuery Änderungen aus der Staging-Tabelle werden in der mithilfe einer BigQuery-Zusammenführungsabfrage.
Die endgültige Zieltabelle enthält alle ursprünglichen Spalten aus der Quelltabelle.
plus einer zusätzlichen _sequence_num
-Spalte. Die Sequenznummer sorgt dafür,
Daten werden in Replikator-Fehlerszenarien nicht dupliziert oder übersehen.
Konfigurieren Sie die Quelle, indem Sie Werte in die folgenden Felder eingeben:
- Projekt-ID: Projekt des BigQuery-Datasets. Beim Ausführen in einem Dataproc-Cluster können Sie dieses Feld leer lassen. das Projekt des Clusters.
- Anmeldedaten: Siehe Anmeldedaten.
- Dienstkontoschlüssel: Der Inhalt des Dienstkontoschlüssels, der verwendet wird, wenn mit Cloud Storage und BigQuery interagieren. Wann? in einem Dataproc-Cluster ausgeführt wird, lassen Sie das Feld leer. das das Dienstkonto des Clusters verwendet.
- Dataset-Name: Name des Datasets, in dem erstellt werden soll. BigQuery Er ist optional und standardmäßig lautet der Dataset-Name ist identisch mit dem Namen der Quelldatenbank. Ein gültiger Name darf nur Buchstaben enthalten, Zahlen und Unterstriche. Die maximale Länge darf 1.024 Zeichen betragen. Beliebig Ungültige Zeichen werden durch Unterstrich im endgültigen Dataset-Namen ersetzt und Zeichen, die die Längenbeschränkung überschreiten, werden abgeschnitten.
- Encryption Key Name (Name des Verschlüsselungsschlüssels): der vom Kunden verwaltete Verschlüsselungsschlüssel (CMEK), der für Folgendes verwendet wird:
um die von diesem Ziel erstellten Ressourcen zu sichern. Der Name des Verschlüsselungsschlüssels muss
des Formulars
projects/<project-id>/locations/<key-location>/keyRings/<key-ring-name>/cryptoKeys/<key-name>
- Speicherort: Der Ort, an dem das BigQuery-Dataset und
Cloud Storage-Staging-Bucket erstellt. Beispiel:
us-east1
für regionale Buckets,us
für multiregionale Buckets (siehe Standorte). Dieser Wert wird ignoriert, wenn ein Bucket als Staging-Bucket und als BigQuery-Bucket Datasets am selben Standort wie der Bucket erstellt werden. Staging-Bucket: Der Bucket, in den Änderungsereignisse geschrieben werden, bevor sie in Staging-Tabellen geladen werden. Änderungen werden in ein Verzeichnis geschrieben, enthält den Namen und Namespace des Replikators. Sie können bedenkenlos denselben Bucket für mehrere Replikatoren innerhalb derselben Instanz. Wenn es mit anderen Replikatoren über mehrere Instanzen hinweg, achten Sie darauf, dass der Namespace und der Name eindeutig, andernfalls ist das Verhalten nicht definiert. Der Bucket muss sich im selben Standort als BigQuery-Dataset. Wenn nicht angegeben, wird eine neue für jeden Job mit dem Namen
df-rbq-<namespace-name>-<job-name>-<deployment-timestamp>
Ladeintervall (Sekunden): Anzahl der Sekunden, die gewartet wird, bevor ein Batch geladen wird von Daten in BigQuery importieren.
Präfix der Staging-Tabelle: Änderungen werden zuerst in eine Staging-Tabelle geschrieben, bevor mit der finalen Tabelle zusammengeführt. Namen von Staging-Tabellen werden durch Voranstellen generiert. dieses Präfix in den Namen der Zieltabelle ein.
Manuellen Drop-Eingriff erforderlich: Gibt an, ob eine manuelle Installation erforderlich ist. administrative Aktion, um Tabellen und Datasets zu löschen, wenn eine Tabelle gelöscht oder oder Datenbankereignis aufgetreten ist. Wenn die Richtlinie auf „true“ gesetzt ist, Tabelle oder Dataset löschen. Stattdessen schlägt er fehl und wird so lange wiederholt, bis die Tabelle oder Dataset ist nicht vorhanden. Wenn das Dataset oder die Tabelle nicht vorhanden ist, ist ein manueller Eingriff erforderlich. Der Termin wird wie gewohnt übersprungen.
Vorläufige Löschungen aktivieren: Wenn dies auf „true“ gesetzt ist, wird ein Delete-Ereignis vom wird die Spalte
_is_deleted
für den Datensatz auftrue
gesetzt. Andernfalls wird der Eintrag aus der BigQuery-Tabelle gelöscht. Diese Konfiguration ist keine Vorgänge für eine Quelle, die Ereignisse in falscher Reihenfolge generiert Datensätze werden immer vorläufig aus der BigQuery-Tabelle gelöscht.
Klicken Sie auf Weiter.
Anmeldedaten
Wenn das Plug-in in einem Dataproc-Cluster ausgeführt wird, ist das Dienstkonto sollte auf „Automatisch erkennen“ eingestellt sein. Anmeldedaten werden automatisch aus dem Clusterumgebung.
Wenn das Plug-in nicht in einem Dataproc-Cluster ausgeführt wird, ist der Pfad zu einer Dienstkontoschlüssel muss angegeben werden. Den Dienstkontoschlüssel finden Sie hier: auf der Seite „IAM“ in der Google Cloud Console. Achten Sie darauf, dass der Kontoschlüssel hat die Berechtigung, auf BigQuery zuzugreifen. Die Dienstkonto-Schlüsseldatei muss auf jedem Knoten im Cluster verfügbar sein und für alle Nutzer, die den Job ausführen.
Beschränkungen
- Tabellen müssen einen Primärschlüssel haben, um repliziert zu werden.
- Vorgänge zum Umbenennen von Tabellen werden nicht unterstützt.
- Tabellenänderungen werden teilweise unterstützt.
- Eine vorhandene Spalte, die keine Nullwerte zulässt, kann in eine Spalte, für die Nullwerte zulässig sind, geändert werden.
- Neue Spalten, für die Nullwerte zulässig sind, können einer vorhandenen Tabelle hinzugefügt werden.
- Alle anderen Änderungen am Tabellenschema schlagen fehl.
- Änderungen am Primärschlüssel schlagen nicht fehl, vorhandene Daten werden jedoch nicht so umgeschrieben, dass die Eindeutigkeit des neuen Primärschlüssels berücksichtigt wird.
Tabellen und Transformationen auswählen
Im Schritt Tabellen und Transformationen auswählen wird eine Liste von Tabellen eine Replikation im SLT-System.
- Wählen Sie die zu replizierenden Tabellen aus.
- Optional: Wählen Sie weitere Schemavorgänge aus, z. B. Einfügungen, Aktualisierungen oder Löschungen.
- Zum Anzeigen des Schemas klicken Sie für eine Tabelle auf Spalten zu replizieren.
Optional: So benennen Sie Spalten im Schema um:
- Klicken Sie im geöffneten Schema auf Transformieren > Umbenennen:
- Geben Sie im Feld Umbenennen einen neuen Namen ein und klicken Sie auf Übernehmen.
- Klicken Sie auf Aktualisieren und auf Speichern, um den neuen Namen zu speichern.
Klicken Sie auf Weiter.
Optional: Erweiterte Eigenschaften konfigurieren
Wenn Sie wissen, wie viele Daten Sie in einer Stunde replizieren, können Sie wählen Sie die entsprechende Option aus.
Bewertung ansehen
Im Schritt Bewertung überprüfen wird nach Schemaproblemen, fehlenden Features und Verbindungsprobleme während der Replikation auftreten.
Klicken Sie auf der Seite Bewertung überprüfen auf Zuordnungen ansehen.
Falls Probleme auftreten, müssen diese behoben werden, bevor Sie fortfahren können.
Optional: Wenn Sie Spalten bei der Auswahl der Tabellen und Transformationen, überprüfen Sie in diesem Schritt, ob die neuen Namen korrekt sind.
Klicken Sie auf Weiter.
Zusammenfassung ansehen und Replikationsjob bereitstellen
Prüfen Sie die Einstellungen auf der Seite Details zum Replikationsjob überprüfen. und klicken Sie auf Replikationsjob bereitstellen.
Compute Engine-Profil auswählen
Klicken Sie nach der Bereitstellung des Replikationsjobs auf Konfigurieren. jeder Seite in der Weboberfläche von Cloud Data Fusion.
Wählen Sie das Compute Engine-Profil aus, das Sie zum Ausführen verwenden möchten Replikationsjob.
Klicken Sie auf Speichern.
Replikationsjob starten
- Klicken Sie zum Ausführen des Replikationsjobs auf Start.
Optional: Leistung optimieren
Das Plug-in ist standardmäßig für optimale Leistung konfiguriert. Weitere Optimierungen finden Sie unter Laufzeitargumente.
Die Leistung der SLT- und Cloud Data Fusion-Kommunikation hängt von diesen Faktoren:
- SLT auf dem Quellsystem im Vergleich zu einem dedizierten zentralen SLT-System (bevorzugt) Option)
- Verarbeitung von Hintergrundjobs im SLT-System
- Arbeitsprozesse im SAP-Quellsystem im Dialog
- Die Anzahl der Hintergrundjobprozesse, die jeder Massenübertragungs-ID in Tab LTRC Administration (LTRC-Verwaltung)
- LTRS-Einstellungen
- Hardware (CPU und Arbeitsspeicher) des SLT-Systems
- Die verwendete Datenbank (z. B. HANA, Sybase oder DB2)
- Die Internetbandbreite (Konnektivität zwischen dem SAP-System und Google Cloud über das Internet)
- Bereits vorhandene Systemauslastung (Last)
- Die Anzahl der Spalten in der Tabelle. Bei mehr Spalten ist die Replikation langsam wird und die Latenz zunehmen kann.
Die folgenden Lesetypen in den LTRS-Einstellungen werden für anfängliche Ladevorgänge empfohlen:
SLT-System | Quellsystem | Tabellentyp | Empfohlener Lesetyp [anfänglicher Ladevorgang] |
---|---|---|---|
SLT 3.0 – eigenständige Version [DMIS 2018_1_752 SP 2] |
S/4 HANA 1909 | Transparent (klein/mittel) Transparent (groß) Clustertabelle |
1-Bereichsberechnung 1-Bereichsberechnung Wiedergabeliste für 4 Absender |
SLT eingebettet [S4CORE 104 HANA 1909] |
– | Transparent (klein/mittel) Transparent (groß) Clustertabelle |
1-Bereichsberechnung 1-Bereichsberechnung Wiedergabeliste für 4 Absender |
SLT 2.0 – eigenständig [DMIS 2011_1_731 SP 17] |
ECC NW 7.02 | Transparent (klein/mittel) Transparent (groß) Clustertabelle |
Warteschlange für 5 Absender Warteschlange für 5 Absender Warteschlange für 4 Absender |
SLT eingebettet [DMIS 2011_1_700 SP 17] |
– | Transparent (klein/mittel) Transparent (groß) Clustertabelle |
Warteschlange für 5 Absender Warteschlange für 5 Absender Warteschlange für 4 Absender |
- Verwenden Sie für die Replikation „Keine Bereiche“, um die Leistung zu verbessern:
- Bereiche dürfen nur verwendet werden, wenn Rückstände in einer Logging-Tabelle generiert werden mit hoher Latenz.
- Eine Bereichsberechnung verwenden: Der Lesetyp für den anfänglichen Ladevorgang wird nicht empfohlen in bei SLT 2.0- und Nicht-HANA-Systemen.
- Eine Bereichsberechnung verwenden: Der Lesetyp für den anfänglichen Ladevorgang kann zu in BigQuery duplizierte Datensätze.
- Die Leistung ist immer besser, wenn ein eigenständiges SLT-System verwendet wird.
- Ein eigenständiges SLT-System wird immer empfohlen, wenn die Ressourcennutzung ist das Quellsystem bereits hoch.
Laufzeitargumente
snapshot.thread.count
: Gibt die Anzahl der zu startenden Threads weiter DatenladevorgangSNAPSHOT/INITIAL
parallel ausführen Standardmäßig wird die Methode Anzahl der vCPUs, die im Dataproc-Cluster verfügbar sind, in dem der Ausführung von Replikationsjobs.Empfohlen: Legen Sie diesen Parameter nur fest, wenn Sie eine präzise Steuerung benötigen parallelen Threads zu reduzieren (z. B. um die Nutzung Cluster).
poll.file.count
: Gibt die Anzahl der Dateien weiter, die vom Der im GCS-Pfad der Datenreplikation angegebene Cloud Storage-Pfad auf der Weboberfläche. Der Standardwert ist jedoch500
pro Umfrage. je nach Clusterkonfiguration erhöht oder verringert werden.Empfohlen: Verwenden Sie diesen Parameter nur, wenn Sie strenge Anforderungen an Replikationsverzögerung. Niedrigere Werte können die Verzögerung verringern. Sie können damit Verbessern Sie den Durchsatz. Wenn Sie nicht reagieren, verwenden Sie höhere Werte als der Standardwert.
bad.files.base.path
: Übergibt den Cloud Storage-Basispfad, wobei werden alle fehlerhaften oder fehlerhaften Datendateien kopiert, die während Replikation. Dies ist nützlich, wenn strenge Anforderungen an Daten gelten. und ein bestimmter Standort verwendet werden, um fehlgeschlagene Übertragungen.Standardmäßig werden alle fehlerhaften Dateien aus dem Cloud Storage- Der im Feld Cloud Storage-Pfad der Datenreplikation angegebene Pfad in der Weboberfläche angezeigt.
Endgültiges Pfadmuster bei fehlerhaften Datendateien:
gs://BASE_FILE_PATH/MASS_TRANSFER_ID/SOURCE_TABLE_NAME/bad_files/REPLICATION_JOB_NAME/REPLICATION_JOB_ID/BAD_FILE_NAME
Beispiel:
gs://slt_to_cdf_bucket/001/MARA/bad_files/MaraRepl/05f97349-7398-11ec-9443-8 ac0640fc83c/20220205_1901205168830_DATA_INIT.xml
Das Kriterium für eine fehlerhafte Datei ist eine beschädigte oder ungültige XML-Datei, fehlende PK. oder ein Problem mit nicht übereinstimmendem Felddatentyp.
Supportdetails
Unterstützte SAP-Produkte und -Versionen
- Release SAP_BASIS 702, SP-Level 0016 und höher.
- Release SAP_ABA 702, SP-Level 0016 und höher.
- DMIS 2011_1_700-Version, SP-Level 0017 und höher.
Unterstützte SLT-Versionen
Die SLT-Versionen 2 und 3 werden unterstützt.
Unterstützte SAP-Bereitstellungsmodelle
SLT kann als eigenständiges System oder in das Quellsystem eingebettet sein.
SAP-Hinweise, die implementiert werden müssen, bevor Sie die SLT verwenden
Wenn Ihr Supportpaket keine /UI2/CL_JSON
-Klassenkorrekturen für PL enthält
ab 12 implementieren Sie den aktuellen SAP-Hinweis für /UI2/CL_JSON
-Klassenkorrekturen.
z. B. SAP-Hinweis 2798102 für PL12.
Empfohlen: Vom Bericht empfohlene SAP-Hinweise implementieren
CNV_NOTE_ANALYZER_SLT
basiert auf der Bedingung des zentralen Systems oder des Quellsystems. Für
finden Sie unter
SAP-Hinweis 3016862
(SAP-Anmeldung erforderlich).
Wenn SAP bereits eingerichtet ist, muss kein zusätzlicher Hinweis angegeben werden. implementiert. Informationen zu spezifischen Fehlern oder Problemen finden Sie in der zentralen SAP-Hinweis für Ihr SLT-Release.
Limits für das Datenvolumen oder die Eintragsbreite
Es gibt keine definierte Beschränkung für das Volumen der extrahierten Daten und die Datensatzbreite.
Erwarteter Durchsatz für das SAP SLT-Replikations-Plug-in
Für eine Umgebung, die gemäß den Richtlinien unter Leistung optimieren lässt, kann das Plug-in etwa 13 GB pro Stunde für den anfänglichen Ladevorgang und 3 GB pro Stunde für die Replikation (CDC). Die tatsächliche Leistung kann je nach Cloud Data Fusion- und SAP-System variieren die Last oder den Netzwerkverkehr.
Unterstützung für die SAP-Delta-Extraktion (geänderte Daten)
Die SAP-Deltaextraktion wird unterstützt.
Erforderlich: Mandanten-Peering für Cloud Data Fusion-Instanzen
Mandanten-Peering ist erforderlich, wenn die Cloud Data Fusion-Instanz die mit einer internen IP-Adresse erstellt wurden. Weitere Informationen zum Mandanten-Peering Siehe Private Instanz erstellen.
Fehlerbehebung
Replikationsjob wird ständig neu gestartet
Wenn der Replikationsjob immer wieder automatisch neu gestartet wird, erhöhen Sie den Wert Clusterarbeitsspeicher des Replikationsjobs und führen Sie den Replikationsjob.
Duplikate in der BigQuery-Senke
Wenn Sie die Anzahl der parallelen Jobs in den erweiterten Einstellungen des SAP SLT-Replikations-Plug-in: Wenn Ihre Tabellen groß sind, tritt ein Fehler auf Dies führt zu doppelten Spalten in der BigQuery-Senke.
Entfernen Sie zum Laden von Daten die parallelen Jobs, um dieses Problem zu vermeiden.
Fehlerszenarien
In der folgenden Tabelle sind einige häufige Fehlermeldungen aufgeführt. Text in Anführungszeichen wird durch tatsächliche Werte zur Laufzeit ersetzt werden:
Nachrichten-ID | Meldung | Empfohlene Maßnahmen |
---|---|---|
CDF_SAP_SLT_01402 |
Service account type is not defined for
SERVICE_ACCT_NAME_FROM_UI. |
Prüfen Sie, ob der angegebene Cloud Storage-Pfad korrekt ist. |
CDF_SAP_SLT_01403 |
Service account key provided is not valid due to error:
ROOT_CAUSE. Please provide a valid service account key for
service account type : SERVICE_ACCT_NAME_FROM_UI. |
Sehen Sie sich die in der Mitteilung angegebene Ursache an und ergreifen Sie entsprechende Maßnahmen. Aktion ausführen. |
CDF_SAP_SLT_01404 |
Mass Transfer ID could not be found. Please ensure that it exists
in given GCS Bucket. |
Prüfen Sie, ob die angegebene Massentransfer-ID das richtige Format hat. |
CDF_SAP_SLT_01502 |
The specified data replication GCS path 'slt_to_cdf_bucket_1' or
Mass Transfer ID '05C' could not be found. Please ensure that it exists in
GCS. |
Prüfen Sie, ob der angegebene Cloud Storage-Pfad korrekt ist. |
CDF_SAP_SLT_01400 |
Metadata file not found. The META_INIT.json file is not present or
file is present with invalid format. |
Sehen Sie sich die in der Mitteilung angegebene Ursache an und ergreifen Sie entsprechende Maßnahmen. Aktion ausführen. |
CDF_SAP_SLT_03408 |
Failed to start the event reader. |
Sehen Sie sich die in der Mitteilung angegebene Ursache an und ergreifen Sie entsprechende Maßnahmen. Aktion ausführen. |
CDF_SAP_SLT_03409 |
Error while processing TABLE_NAME file for source table
gs://CLOUD_STORAGE_BUCKET_NAME/MT_ID/TABLE_NAME
/FILE_NAME. Root cause: ROOT_CAUSE. |
Sehen Sie sich die in der Mitteilung angegebene Ursache an und ergreifen Sie entsprechende Maßnahmen. Aktion ausführen. |
CDF_SAP_SLT_03410 |
Failed to replicate data for source table TABLE_NAME
from file: gs://CLOUD_STORAGE_BUCKET_NAME/MT_ID/
TABLE_NAME/FILE_NAME. Root cause:
ROOT_CAUSE. |
Sehen Sie sich die in der Mitteilung angegebene Ursache an und ergreifen Sie entsprechende Maßnahmen. Aktion ausführen. |
CDF_SAP_SLT_03411 |
Failed data replication for source table TABLE_NAME.
Root cause: ROOT_CAUSE. |
Sehen Sie sich die in der Mitteilung angegebene Ursache an und ergreifen Sie entsprechende Maßnahmen. Aktion ausführen. |
CDF_SAP_SLT_03412 |
Failed to create target table for source table
TABLE_NAME. Root cause: ROOT_CAUSE. |
Sehen Sie sich die in der Mitteilung angegebene Ursache an und ergreifen Sie entsprechende Maßnahmen. |
Datentypzuordnung
Die folgende Tabelle zeigt die Zuordnung zwischen den in SAP verwendeten Datentypen und Cloud Data Fusion.
SAP-Datentyp | ABAP-Typ | Beschreibung (SAP) | Datentyp „Cloud Data Fusion“ |
---|---|---|---|
Numerisch | |||
INT1 | b | 1-Byte-Ganzzahl | int |
INT2 | s | 2-Byte-Ganzzahl | int |
INT4 | i | 4-Byte-Ganzzahl | int |
INT8 | 8 | 8-Byte-Ganzzahl | long |
DEZ | p | Nummer des Pakets im BCD-Format (DEC) | decimal |
DF16_DEC DF16_RAW |
a | Dezimales Gleitkomma, 8 Byte IEEE 754r | decimal |
DF34_DEC DF34_RAW |
e | Dezimales Gleitkomma, 16 Byte IEEE 754r | decimal |
FLTP | f | Binäre Gleitkommazahl | double |
Zeichen | |||
CHAR LCHR |
c | Zeichenstring | string |
SSTRING GEOM_EWKB |
String | Zeichenstring | string |
STRING GEOM_EWKB |
String | Zeichenstring CLOB | bytes |
NUMC ACCP |
n | Numerischer Text | string |
Byte | |||
RAW LRAW |
x | Binärdaten | bytes |
Rohstring | Xstring | Bytestring BLOB | bytes |
Datum/Uhrzeit | |||
DATS | d | Datum | date |
Tim | t | Zeit | time |
TIMESTAMP | utcl | ( Utclong ) TimeStamp |
timestamp |
Nächste Schritte
- Weitere Informationen zu Cloud Data Fusion
- Weitere Informationen zu SAP in Google Cloud.