Auf dieser Seite wird beschrieben, wie Sie die Echtzeitreplikation von Daten aus SAP ermöglichen. mit SAP Landscape Transformation (SLT) in Google Cloud. Die Inhalte beziehen sich auf die Plug-ins SAP SLT Replication und SAP SLT No RFC Replication, die im Cloud Data Fusion Hub verfügbar sind. Es zeigt die Konfigurationen für das SAP-Quellsystem, SLT, Cloud Storage und Cloud Data Fusion für folgende Zwecke:
- Übertragen Sie SAP-Metadaten und -Tabellendaten mit SAP SLT an Google Cloud.
- Erstellen Sie einen Cloud Data Fusion-Replikationsjob, der den Daten aus einem Cloud Storage-Bucket.
Mit der SAP SLT-Replikation können Sie Ihre Daten kontinuierlich und in Echtzeit aus SAP-Quellen in BigQuery Sie können Datenübertragungen von SAP aus konfigurieren und ausführen ganz ohne Programmierung.
Der Cloud Data Fusion SLT-Replikationsprozess sieht so aus:
- Die Daten stammen aus einem SAP-Quellsystem.
- SLT verfolgt und liest die Daten und überträgt sie per Push in Cloud Storage.
- Cloud Data Fusion ruft Daten aus dem Storage-Bucket ab und schreibt sie in BigQuery
Sie können Daten aus unterstützten SAP-Systemen übertragen, einschließlich der von SAP gehosteten Systemen in Google Cloud.
Weitere Informationen finden Sie in der Übersicht über SAP in Google Cloud. und Supportdetails.
Hinweis
Für die Verwendung dieses Plug-ins benötigen Sie Domainkenntnisse in folgenden Bereichen:
- Pipelines in Cloud Data Fusion erstellen
- Zugriffsverwaltung mit IAM
- SAP Cloud und lokale ERP-Systeme (Enterprise Resource Planning) konfigurieren
Administratoren und Nutzer, die die Konfigurationen durchführen
Die Aufgaben auf dieser Seite werden von Personen mit den folgenden Rollen in Google Cloud oder in ihrem SAP-System ausgeführt:
Nutzertyp | Beschreibung |
---|---|
Google Cloud-Administrator | Nutzer mit dieser Rolle sind Administratoren von Google Cloud-Konten. |
Cloud Data Fusion-Nutzer | Nutzer, denen diese Rolle zugewiesen ist, sind berechtigt, Datenpipelines zu entwerfen und auszuführen. Sie haben mindestens die Rolle Data Fusion-Betrachter“ (roles/datafusion.viewer ). Wenn Sie die rollenbasierte Zugriffssteuerung verwenden, benötigen Sie möglicherweise zusätzliche Rollen.
|
SAP-Administrator | Nutzer mit dieser Rolle sind Administratoren des SAP-Systems. Sie können Software von der SAP-Dienstwebsite herunterladen. Es ist keine IAM-Rolle. |
SAP-Nutzer | Nutzer mit dieser Rolle sind berechtigt, eine Verbindung zu einem SAP-System herzustellen. Es ist keine IAM-Rolle. |
Unterstützte Replikationsvorgänge
Das SAP SLT-Replikations-Plug-in unterstützt die folgenden Vorgänge:
Datenmodellierung: Alle Datenmodellierungsvorgänge (Datensatz insert
, delete
und
update
) werden von diesem Plug-in unterstützt.
Datendefinition: Wie in SAP-Hinweis 2055599 (Anmeldung für SAP-Support erforderlich). Es gibt Einschränkungen hinsichtlich der Quelle Änderungen an der Systemtabellenstruktur werden von SLT automatisch repliziert. Einige Daten Definitionsvorgänge werden im Plug-in nicht unterstützt (Sie müssen verbreiten).
- Unterstützt:
- Nicht-Schlüsselfeld hinzufügen (nach dem Vornehmen von Änderungen in SE11, aktivieren Sie die Tabelle mit SE14)
- Nicht unterstützt:
- Schlüsselfeld hinzufügen/entfernen
- Nicht-Schlüsselfeld löschen
- Datentypen ändern
SAP-Anforderungen
In Ihrem SAP-System sind die folgenden Elemente erforderlich:
- Sie haben SLT Server Version 2011 SP17 oder höher entweder auf dem SAP-Quellsystem (eingebettet) oder als dediziertes SLT-Hubsystem installiert.
- Ihr SAP-Quellsystem ist SAP ECC oder SAP S/4HANA, das DMIS 2011 SP17 oder höher unterstützt, z. B. DMIS 2018 oder DMIS 2020.
- Das SAP-Add-on für die Benutzeroberfläche muss mit Ihrer SAP NetWeaver-Version kompatibel sein.
Ihr Supportpaket unterstützt die
/UI2/CL_JSON
-KlassePL 12
oder höher. Implementieren Sie andernfalls den aktuellen SAP-Hinweis für die Klasse/UI2/CL_JSON
.corrections
entsprechend der Version des Benutzeroberflächen-Add-ons, z. B. SAP Notiz 2798102 fürPL12
.Es gibt folgende Sicherheitsmaßnahmen:
Anforderungen für Cloud Data Fusion
- Sie benötigen eine Cloud Data Fusion-Instanz ab Version 6.4.0, .
- Das der Cloud Data Fusion-Instanz zugewiesene Dienstkonto ist Die erforderlichen Rollen wurden gewährt (siehe Dienstkontonutzerberechtigungen gewähren).
- Für private Cloud Data Fusion-Instanzen ist VPC-Peering erforderlich.
Google Cloud-Anforderungen
- Aktivieren Sie die Cloud Storage API in Ihrem Google Cloud-Projekt.
- Dem Cloud Data Fusion-Nutzer muss die Berechtigung für Folgendes gewährt werden: Ordner im Cloud Storage-Bucket erstellen (siehe IAM-Rollen für Cloud Storage).
- Optional: Legen Sie die Aufbewahrungsrichtlinie fest, falls dies von Ihrer Organisation gefordert wird.
Storage-Bucket erstellen
Bevor Sie einen SLT-Replikationsjob erstellen, Erstellen Sie den Cloud Storage-Bucket. Der Job überträgt Daten an den Bucket und aktualisiert den Staging-Bucket alle fünf Minuten. Wenn Sie den Job ausführen, liest Cloud Data Fusion die Daten im Speicher-Bucket und schreibt sie in BigQuery.
Wenn SLT in Google Cloud installiert ist
Der SLT-Server muss die Berechtigung zum Erstellen und Ändern von Cloud Storage-Objekten im von Ihnen erstellten Bucket haben.
Weisen Sie dem Dienstkonto mindestens die folgenden Rollen zu:
- Ersteller von Dienstkonto-Token (
roles/iam.serviceAccountTokenCreator
) - Service Usage-Nutzer (
roles/serviceusage.serviceUsageConsumer
) - Storage-Objekt-Administrator (
roles/storage.objectAdmin
)
Wenn SLT nicht in Google Cloud installiert ist
Cloud VPN oder Cloud Interconnect zwischen der SAP-VM und Google Cloud die Verbindung zu einem internen Metadatenendpunkt zulassen (siehe Privaten Google-Zugriff für lokale Hosts konfigurieren
Wenn interne Metadaten nicht zugeordnet werden können:
Installieren Sie die Google Cloud CLI entsprechend dem Betriebssystem der Infrastruktur, auf der SLT ausgeführt wird.
Erstellen Sie ein Dienstkonto in dem Google Cloud-Projekt, in dem Cloud Storage ist aktiviert.
Auf dem SLT-Betriebssystem Zugriff auf Google Cloud mit einem Dienstkonto autorisieren
API-Schlüssel für das Dienstkonto erstellen und autorisieren Cloud Storage-bezogener Bereich.
Importieren Sie den API-Schlüssel mithilfe der Befehlszeile in die zuvor installierte gcloud CLI.
Wenn Sie den gcloud-Befehl für die Befehlszeile aktivieren möchten, mit dem das Zugriffstoken ausgegeben wird, konfigurieren Sie den SAP-Betriebssystembefehl im SM69-Tool der Transaktion im SLT-System.
Zugriffstoken drucken
Der SAP-Administrator konfiguriert den Betriebssystembefehl SM69
, mit dem
ruft ein Zugriffstoken von Google Cloud ab.
Erstellen Sie ein Script, um ein Zugriffstoken auszugeben, und konfigurieren Sie einen SAP-Betriebssystembefehl, um das Script als Nutzer <sid>adm
vom SAP LT Replication Server-Host aufzurufen.
Linux
So erstellen Sie einen Betriebssystembefehl:
Erstellen Sie auf dem SAP LT Replication Server-Host in einem Verzeichnis, auf das
<sid>adm
zugreifen kann, ein Bash-Script, das die folgenden Zeilen enthält:PATH_TO_GCLOUD_CLI/bin/gcloud auth print-access-token SERVICE_ACCOUNT_NAME
Erstellen Sie über die SAP-Benutzeroberfläche einen externen Betriebssystembefehl:
- Geben Sie die Transaktion
SM69
ein. - Klicken Sie auf Erstellen.
- Geben Sie im Bereich External Command (Externer Befehl) im Abschnitt Command (Befehl) Folgendes ein:
den Namen des Befehls, z. B.
ZGOOGLE_CDF_TOKEN
. Im Abschnitt Definition:
- Geben Sie im Feld Betriebssystembefehl den Wert
sh
als Scriptdateiendung ein. Geben Sie im Feld Parameter für Betriebssystembefehl Folgendes ein:
/PATH_TO_SCRIPT/FILE_NAME.sh
- Geben Sie im Feld Betriebssystembefehl den Wert
Klicken Sie auf Speichern.
Klicken Sie auf Ausführen, um das Script zu testen.
Klicken Sie noch einmal auf Ausführen.
Ein Google Cloud-Token wird zurückgegeben und am unteren Rand des SAP-Benutzeroberfläche.
- Geben Sie die Transaktion
Windows
Erstellen Sie mit der SAP-Benutzeroberfläche einen externen Betriebssystembefehl:
- Geben Sie die Transaktion
SM69
ein. - Klicken Sie auf Erstellen.
- Geben Sie im Bereich External Command (Externer Befehl) im Abschnitt Command (Befehl) den Wert für
Name des Befehls, z. B.
ZGOOGLE_CDF_TOKEN
. Im Abschnitt Definition:
- Geben Sie im Feld Betriebssystembefehl den Wert
cmd /c
ein. Geben Sie im Feld Parameter für Betriebssystembefehl Folgendes ein:
gcloud auth print-access-token SERVICE_ACCOUNT_NAME
- Geben Sie im Feld Betriebssystembefehl den Wert
Klicken Sie auf Speichern.
Klicken Sie auf Ausführen, um das Script zu testen.
Klicken Sie noch einmal auf Ausführen.
Ein Google Cloud-Token wird zurückgegeben und im unteren Teil des SAP-Systems angezeigt. auf der Benutzeroberfläche.
Anforderungen an SLT
Der SLT-Connector muss folgendermaßen eingerichtet sein:
- Der Connector unterstützt SAP ECC NW 7.02, DMIS 2011 SP17 und höher.
- Konfigurieren Sie eine RFC- oder Datenbankverbindung zwischen SLT und dem Cloud Storage-System.
- Richten Sie die SSL-Zertifikate ein:
- Laden Sie die folgenden CA-Zertifikate aus der
Google Trust Services-Repository:
- GTS Root R1
- GTS CA 1C3
- Verwenden Sie in der SAP-Benutzeroberfläche die Transaktion
STRUST
, um sowohl das Root- als auch das untergeordnete Zertifikat in den OrdnerSSL Client (Standard) PSE
zu importieren.
- Laden Sie die folgenden CA-Zertifikate aus der
Google Trust Services-Repository:
- Der Internet Communication Manager (ICM) muss für HTTPS eingerichtet sein. Stellen Sie sicher, dass
die HTTP- und HTTPS-Ports im SAP SLT-System beibehalten und aktiviert werden.
Das lässt sich mit dem Transaktionscode
SMICM > Services
prüfen. - Aktivieren Sie den Zugriff auf Google Cloud APIs auf der VM, auf der das SAP SLT-System gehostet wird. Dies ermöglicht eine private Kommunikation zwischen den Google Cloud-Dienste ohne Routing über das öffentliche Internet.
- Achten Sie darauf, dass das Netzwerk das erforderliche Volumen und die erforderliche Geschwindigkeit der Datenübertragung zwischen der SAP-Infrastruktur und Cloud Storage unterstützt. Für eine Cloud VPN und/oder Cloud Interconnect wird empfohlen. Der Durchsatz der Streaming API hängt von den Kontingenten ab, die Ihrem Cloud Storage-Projekt gewährt wurden.
SLT-Replikationsserver konfigurieren
Der SAP-Nutzer führt die folgenden Schritte aus.
In den folgenden Schritten verbinden Sie den SLT-Server mit dem Quellsystem und Bucket in Cloud Storage, wobei das Quellsystem und die Datentabellen angegeben werden und den Ziel-Storage-Bucket.
Google ABAP SDK konfigurieren
So konfigurieren Sie SLT für die Datenreplizierung (einmal pro Cloud Data Fusion-Instanz):
Zur Konfiguration des SLT-Connectors gibt der SAP-User Folgendes ein: Informationen im Konfigurationsbildschirm (SAP-Transaktion
/GOOG/CDF_SETTINGS
) zum Google Cloud-Dienstkontoschlüssel für Daten an Cloud Storage übertragen. Konfigurieren Sie Folgendes: in der Tabelle /GOOG/CDF_CLT_KY unter Verwendung von Transaktion SE16 und Hinweis diesen Schlüssel:- NAME: Der Name für Ihren Dienstkontoschlüssel (z. B.
CDFSLT
) - SERVICE ACCOUNT NAME: Der Name des IAM-Dienstkontos
- SCOPE: Der Umfang des Dienstkontos
- PROJECT ID: Die ID Ihres Google Cloud-Projekts.
- Optional: EXT OS Command (EXT-Betriebssystembefehl): Verwenden Sie dieses Feld nur, wenn SLT nicht in Google Cloud installiert ist.
AUTH CLASS: Wenn der Befehl des Betriebssystems in Tabelle
/GOOG/CDF_CLT_KY
eingerichtet ist, verwenden Sie den festen Wert/GOOG/CDF_CL_GCP_AUTH
.TOKEN AKTUALISIEREN: Dauer für die Aktualisierung des Autorisierungstokens
- NAME: Der Name für Ihren Dienstkontoschlüssel (z. B.
Replikationskonfiguration erstellen
Erstellen Sie eine Replikationskonfiguration im Transaktionscode: LTRC
.
- Bevor Sie mit der LTRC-Konfiguration fortfahren, prüfen Sie, ob die RFC-Verbindung zwischen SLT und dem SAP-Quellsystem hergestellt ist.
- Einer SLT-Konfiguration können mehrere SAP-Tabellen für die Replikation zugewiesen sein.
Rufen Sie den Transaktionscode
LTRC
auf und klicken Sie auf Neue Konfiguration.Geben Sie den Konfigurationsnamen und die Beschreibung ein und klicken Sie auf Weiter.
Geben Sie die RFC-Verbindung des SAP-Quellsystems an und klicken Sie auf Weiter.
Wählen Sie unter „Zielsystem-Verbindungsdetails“ die Option Sonstiges aus.
Maximieren Sie das Feld Szenario für die RFC-Kommunikation, wählen Sie SLT SDK aus und klicken Sie auf Weiter.
Öffnen Sie das Fenster Übertragungseinstellungen angeben und geben Sie die Anwendung ein. Name:
ZGOOGLE_CDF
.Geben Sie die Anzahl der Datenübertragungsjobs, die Anzahl des anfänglichen Ladevorgangs ein Jobs und die Anzahl der Berechnungsjobs. Weitere Informationen zu finden Sie im Leitfaden zur Leistungsoptimierung für SAP LT Replikation Server.
Klicken Sie auf Echtzeit > Weiter.
Überprüfen Sie die Konfiguration und klicken Sie auf Speichern. Notieren Sie sich die ID der Bulk-Übertragung für die folgenden Schritte.
Führen Sie die SAP-Transaktion
/GOOG/CDF_SETTINGS
aus, um die ID der Massenübertragung und die Details der SAP-Tabelle beizubehalten.Klicken Sie auf Ausführen oder drücken Sie
F8
.Klicken Sie auf das Symbol „Zeile anhängen“, um einen neuen Eintrag zu erstellen.
Geben Sie die folgenden Werte ein: Mass Transfer ID (Mass Transfer ID), Mass Transfer Key (Massenübertragungsschlüssel), GCP Key Name (Name des GCP-Schlüssels) und Ziel-GCS-Bucket. Klicken Sie das Kästchen Is Active (Ist aktiv) an und speichern Sie die Angaben. die Änderungen vor.
Wählen Sie in der Spalte Konfigurationsname die Konfiguration aus und klicken Sie auf Datenbereitstellung.
Optional: Passen Sie die Tabellen- und Feldnamen an.
Klicken Sie auf Benutzerdefinierte Namen und speichern Sie die Änderungen.
Klicken Sie auf Display.
Klicken Sie auf die Schaltflächen Zeile anhängen oder Erstellen, um einen neuen Eintrag zu erstellen.
Geben Sie den Namen der SAP-Tabelle und den Namen der externen Tabelle ein, die in folgendem Verzeichnis verwendet werden sollen: BigQuery und speichern Sie die Änderungen.
Klicken Sie in der Spalte Anzeigefelder auf die Schaltfläche Anzeigen, um die Zuordnung für Tabellenfelder.
Eine Seite mit Zuordnungen wird geöffnet. Optional: Bearbeiten Sie das Feld Temp. Name und Feldbeschreibung und speichern Sie die Zuordnungen.
Rufe die LTRC-Transaktion auf.
Wählen Sie den Wert in der Spalte Konfigurationsname aus und klicken Sie auf Datenbereitstellung.
Geben Sie den Tabellennamen in das Feld Tabellenname in Datenbank ein und wählen Sie das Replikationsszenario aus.
Klicken Sie auf Ausführen. Dadurch wird die SLT SDK-Implementierung ausgelöst und die Übertragung der Daten in den Ziel-Bucket in Cloud Storage gestartet.
SAP-Transportdateien installieren
Zum Entwerfen und Ausführen von Replikationsjobs in Cloud Data Fusion werden die SAP-Komponenten als SAP-Transportdateien bereitgestellt, die in einer ZIP-Datei archiviert werden. Der Download ist verfügbar, wenn Sie Plug-in im Cloud Data Fusion Hub bereitstellen
ZIP-Datei für SAP SLT-Transport herunterladen
Die SAP-Transportanfrage-IDs und die zugehörigen Dateien finden Sie in der folgenden Tabelle:
Transport-ID | Cofile | Datendatei | Inhalt |
---|---|---|---|
ED1K900520 | K900520.ED1 | R900520.ED1 | SAP BADI-Implementierung ES_IUUC_REPL_RUNTIME_OLO_EXIT |
ED1K900337 | K900337.ED1 | R900337.ED1 | Autorisierungsrolle /GOOG/SLT_CDF_AUTH |
So installieren Sie die SAP-Transporte:
Schritt 1: Transportanfragedateien hochladen
- Melden Sie sich beim Betriebssystem der SAP-Instanz an.
- Verwenden Sie den SAP-Transaktionscode
AL11
, um den Pfad für den OrdnerDIR_TRANS
abzurufen. In der Regel lautet der Pfad/usr/sap/trans/
. - Kopieren Sie die Dateien in den Ordner
DIR_TRANS/cofiles
. - Kopieren Sie die Datendateien in den Ordner
DIR_TRANS/data
. - Legen Sie für Nutzer und Gruppe von Daten und Datei
<sid>adm
undsapsys
fest.
Schritt 2: Transportanfragedateien importieren
Der SAP-Administrator kann die Transportanfragedateien mit dem SAP-Transport-Management-System oder dem Betriebssystem importieren:
SAP-Transportverwaltungssystem
- Melden Sie sich im SAP-System als SAP-Administrator an.
- Geben Sie die Transaktions-STMS ein.
- Klicken Sie auf Übersicht > Importe.
- Doppelklicken Sie in der Spalte „Warteschlange” auf die aktuelle SID.
- Klicken Sie auf Extras > Sonstige Anfragen > Hinzufügen.
- Wählen Sie die Transportanfrage-ID aus und klicken Sie auf Weiter.
- Wählen Sie die Transportanfrage in der Importwarteschlange aus und klicken Sie dann auf Anfrage > Importieren.
- Geben Sie die Clientnummer ein.
Wählen Sie auf dem Tab Optionen die Optionen Originale überschreiben und Ungültige Komponentenversion ignorieren aus (falls verfügbar).
Optional: So importieren Sie die Transporte später noch einmal: Klicken Sie auf Transportanfragen für späteren Import in die Warteschlange lassen und Transportanfragen noch einmal importieren Dies ist nützlich für SAP-Systemupgrades und Sicherungswiederherstellungen.
Klicken Sie auf Weiter.
Prüfen Sie mit Transaktionen wie
SE80
undPFCG
, ob das Funktionsmodul und die Autorisierungsrollen erfolgreich importiert wurden.
Betriebssystem
- Melden Sie sich im SAP-System als SAP-Administrator an.
Fügen Sie dem Importpuffer Anfragen hinzu:
tp addtobuffer TRANSPORT_REQUEST_ID SID
Beispiel:
tp addtobuffer IB1K903958 DD1
Importieren Sie die Transportanfragen:
tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
Ersetzen Sie
NNN
durch die Clientnummer. Beispiel:tp import IB1K903958 DD1 client=800 U1238
Prüfen Sie mit den entsprechenden Transaktionen wie
SE80
undPFCG
, ob das Funktionsmodul und die Autorisierungsrollen erfolgreich importiert wurden.
Erforderliche SAP-Autorisierungen
Zum Ausführen einer Datenpipeline in Cloud Data Fusion benötigen Sie einen SAP-Nutzer. Das SAP
Der Nutzer muss den Typ „Kommunikation“ oder „Dialogfeld“ haben. SAP-Dialogfeld verhindern
Ressourcen, wird der Kommunikationstyp empfohlen. Nutzer können vom SAP-System erstellt werden
Administrator mit SAP-Transaktionscode SU01
.
SAP-Autorisierungen sind erforderlich, um den Connector für SAP zu verwalten und zu konfigurieren. Dabei handelt es sich um eine Kombination aus SAP-Standard- und neuen Connector-Autorisierungsobjekten. Ich Autorisierungsobjekte auf der Grundlage der Sicherheitsrichtlinien Ihres Unternehmens verwalten können. In der folgenden Liste werden einige wichtige Autorisierungen beschrieben, die für die Anschluss:
Autorisierungsobjekt: Das Autorisierungsobjekt
ZGOOGCDFMT
wird als Teil der Rolle „Transportanfrage“ gesendet.Rollenerstellung: Erstelle eine Rolle mit dem Transaktionscode
PFCG
.Bei standardmäßigen SAP-Autorisierungsobjekten verwaltet Ihre Organisation Berechtigungen mit einem eigenen Sicherheitsmechanismus.
Geben Sie für benutzerdefinierte Autorisierungsobjekte Werte in den Autorisierungsfeldern an für Autorisierungsobjekte
ZGOOGCDFMT
.Für eine differenzierte Zugriffssteuerung stellt
ZGOOGCDFMT
eine Autorisierungsgruppe bereit basierte Autorisierung. Nutzer mit vollständigem, teilweisem oder keinem Zugriff auf Der Zugriff auf Autorisierungsgruppen basiert auf der Autorisierungsgruppe in ihrer Rolle zugewiesen wird./GOOG/SLT_CDF_AUTH: Rolle mit Zugriff auf alle Autorisierungsgruppen. Wenn Sie den Zugriff auf eine bestimmte Autorisierungsgruppe beschränken möchten, müssen Sie die Autorisierungsgruppe FICDF in der Konfiguration beibehalten.
RFC-Ziel für die Quelle erstellen
Bevor Sie mit der Konfiguration beginnen, stellen Sie sicher, dass die RFC-Verbindung zwischen Quelle und Ziel festgelegt.
Rufen Sie den Transaktionscode
SM59
auf.Klicken Sie auf Erstellen > Verbindungstyp 3 (ABAP-Verbindung).
Geben Sie im Fenster Technische Einstellungen die Details zur RFC-Zielanwendung ein.
Klicken Sie auf den Tab Anmeldung und Sicherheit, um RFC-Anmeldedaten (RFC) zu verwalten. Nutzer und Passwort).
Klicken Sie auf Speichern.
Klicken Sie auf Connection Test (Verbindungstest). Nach einem erfolgreichen Test können Sie fortfahren.
Prüfen Sie, ob der RFC-Autorisierungstest erfolgreich war.
Klicken Sie auf Dienstprogramme > Test > Autorisierungstest.
Plug-in konfigurieren
Um das Plug-in zu konfigurieren, müssen Sie es über den Hub bereitstellen, einen Replikationsjob erstellen und die Quelle und das Ziel mit den folgenden Schritten konfigurieren.
Plug-in in Cloud Data Fusion bereitstellen
Der Cloud Data Fusion-Nutzer führt die folgenden Schritte aus.
Bevor Sie den Cloud Data Fusion-Replikationsjob ausführen können, müssen Sie das SAP SLT-Replikations-Plug-in:
Rufen Sie Ihre Instanz auf:
Rufen Sie in der Google Cloud Console die Cloud Data Fusion-Instanzen auf. Seite.
Aktivieren Sie Replikation in einer neuen oder vorhandenen Instanz:
- Klicken Sie für eine neue Instanz auf Instanz erstellen, geben Sie einen Instanznamen ein, klicken Sie auf Beschleuniger hinzufügen, setzen Sie ein Häkchen in das Kästchen Replikation und klicken Sie auf Speichern.
- Informationen zu einer vorhandenen Instanz finden Sie unter Replikation für eine vorhandene Instanz aktivieren.
Klicken Sie auf Instanz ansehen, um die Instanz im Weboberfläche von Cloud Data Fusion
Klicken Sie auf Hub.
Wechseln Sie zum Tab SAP, klicken Sie auf SAP SLT und klicken Sie auf SAP SLT-Replikation. Plugin oder SAP SLT No RFC Replikation Plugin.
Klicken Sie auf Bereitstellen.
Replikationsjob erstellen
Das SAP SLT-Replikations-Plug-in liest den Inhalt von SAP-Tabellen mithilfe eines Cloud Storage API-Staging-Buckets.
So erstellen Sie einen Replikationsjob für die Datenübertragung:
Klicken Sie in der geöffneten Cloud Data Fusion-Instanz auf Startseite > Replikation > Replikationsjob erstellen. Wenn keine Replikation und aktivieren Sie die Replikation für die Instanz.
Geben Sie einen eindeutigen Namen und eine Beschreibung für den Replikationsjob ein.
Klicken Sie auf Weiter.
Quelle konfigurieren
Konfigurieren Sie die Quelle, indem Sie Werte in die folgenden Felder eingeben:
- Projekt-ID: Die ID Ihres Google Cloud-Projekts. Dieses Feld ist vorausgefüllt.
GCS-Pfad für Datenreplikation: Der Cloud Storage-Pfad, der enthält Daten für die Replikation. Es muss sich um denselben Pfad handeln, die in den SAP SLT-Jobs konfiguriert sind. Intern wird der angegebene Pfad mit
Mass Transfer ID
undSource Table Name
zusammengefügt:Format:
gs://<base-path>/<mass-transfer-id>/<source-table-name>
Beispiel:
gs://slt_bucket/012/MARA
GUID: Die SLT-GUID – eine eindeutige Kennung, die SAP SLT Mass zugewiesen ist. Übertragungs-ID.
Massenübertragungs-ID: Die SLT-Massenübertragungs-ID ist eine eindeutige Kennung, die der Konfiguration in SAP SLT zugewiesen ist.
GCS-Pfad zur SAP JCo-Bibliothek: Der Speicherpfad, der die vom Nutzer hochgeladenen SAP JCo-Bibliotheksdateien enthält. SAP JCo-Bibliotheken können heruntergeladen werden im SAP-Supportportal. (In Plug-in-Version 0.10.0 entfernt.)
SLT-Serverhost: Hostname oder IP-Adresse des SLT-Servers. (Entfernt in Plug-in-Version 0.10.0.)
SAP-Systemnummer: vom System bereitgestellte Nummer des Installationssystems. Administrator, z. B.
00
. (In Plug-in-Version 0.10.0 entfernt.)SAP-Client: Der zu verwendende SAP-Client (z. B.
100
). (In Plug-in-Version 0.10.0 entfernt.)SAP-Sprache: SAP-Anmeldesprache (z. B.
EN
). (In Plug-in-Version 0.10.0 entfernt.)Nutzername für SAP-Anmeldung: SAP-Nutzername. (In Plug-in-Version 0.10.0 entfernt.)
- Empfohlen: Wenn sich der SAP-Anmeldename regelmäßig ändert, verwenden Sie ein Makro.
SAP Logon Password (M): SAP-Nutzerpasswort für die Nutzerauthentifizierung.
- Empfohlen: Verwenden Sie sichere Makros für sensible Werte wie Passwörter. (In Plug-in-Version 0.10.0 entfernt.)
SLT-Replikation aussetzen, wenn der CDF-Job beendet wird: Es wird versucht, die SLT-Replikation zu stoppen. Replikationsjob (für die beteiligten Tabellen), wenn der Cloud Data Fusion-Replikationsjob wird beendet. Kann fehlschlagen, wenn der Job in Cloud Data Fusion unerwartet angehalten wird.
Vorhandene Daten replizieren: Gibt an, ob vorhandene Daten aus den Quelltabellen repliziert werden sollen. Standardmäßig replizieren die Jobs die vorhandenen Daten aus den Quelltabellen. Wenn
false
festgelegt ist, werden alle in der Quelle vorhandenen Daten werden ignoriert und nur die Änderungen, die nach dem Start des Jobs vorgenommen wurden. repliziert werden.Dienstkontoschlüssel: Der Schlüssel, der bei der Interaktion mit Cloud Storage verwendet wird. Das Dienstkonto muss die Berechtigung zum Schreiben in Cloud Storage haben. Wenn die Ausführung auf einer Google Cloud-VM erfolgt, sollte dieser Wert auf
auto-detect
festgelegt sein, damit das mit der VM verknüpfte Dienstkonto verwendet wird.
Klicken Sie auf Weiter.
Ziel konfigurieren
Damit das Plug-in Daten in BigQuery schreiben kann, benötigt es Schreibzugriff sowohl auf BigQuery als auch auf einen Staging-Bucket. Änderungsereignisse werden zuerst in Batches von SLT in Cloud Storage Sie werden dann in Staging-Tabellen in BigQuery geladen. Änderungen aus der Staging-Tabelle werden in der mithilfe einer BigQuery-Zusammenführungsabfrage.
Die endgültige Zieltabelle enthält alle ursprünglichen Spalten aus der Quelltabelle sowie eine zusätzliche Spalte vom Typ _sequence_num
. Die Sequenznummer sorgt dafür,
Daten in Replikator-Fehlerszenarien nicht dupliziert oder übersehen werden.
Konfigurieren Sie die Quelle, indem Sie Werte in die folgenden Felder eingeben:
- Projekt-ID: Projekt des BigQuery-Datasets. Wenn die Ausführung in einem Dataproc-Cluster erfolgt, kann dieses Feld leer bleiben. In diesem Fall wird das Projekt des Clusters verwendet.
- Anmeldedaten: Siehe Anmeldedaten.
- Dienstkontoschlüssel: Der Inhalt des Dienstkontoschlüssels, der verwendet wird, wenn mit Cloud Storage und BigQuery interagieren. Wann? in einem Dataproc-Cluster ausgeführt wird, lassen Sie dieses Feld leer. das das Dienstkonto des Clusters verwendet.
- Dataset Name (Dataset-Name): Name des Datasets, das in BigQuery erstellt werden soll. Er ist optional und standardmäßig lautet der Dataset-Name ist identisch mit dem Namen der Quelldatenbank. Ein gültiger Name darf nur Buchstaben, Zahlen und Unterstriche enthalten und darf maximal 1.024 Zeichen lang sein. Beliebig Ungültige Zeichen werden durch Unterstrich im endgültigen Dataset-Namen ersetzt und Zeichen, die die Längenbeschränkung überschreiten, werden abgeschnitten.
- Name des Verschlüsselungsschlüssels: Der vom Kunden verwaltete Verschlüsselungsschlüssel (CMEK), mit dem die vom Ziel erstellten Ressourcen gesichert werden. Der Name des Verschlüsselungsschlüssels muss
des Formulars
projects/<project-id>/locations/<key-location>/keyRings/<key-ring-name>/cryptoKeys/<key-name>
- Speicherort: Der Speicherort, an dem das BigQuery-Dataset und der Cloud Storage-Staging-Bucket erstellt werden. Beispiel:
us-east1
für regionale Buckets,us
für multiregionale Buckets (siehe Standorte). Dieser Wert wird ignoriert, wenn ein Bucket als Staging-Bucket und als BigQuery-Bucket Datasets am selben Standort wie der Bucket erstellt werden. Staging-Bucket: Der Bucket, in den Änderungsereignisse geschrieben werden, bevor sie in Staging-Tabellen geladen werden. Änderungen werden in ein Verzeichnis geschrieben, das den Namen und den Namespace des Replikators enthält. Sie können bedenkenlos denselben Bucket für mehrere Replikatoren innerhalb derselben Instanz. Wenn er von mehreren Replikatoren für mehrere Instanzen freigegeben wird, müssen Namespace und Name eindeutig sein. Andernfalls ist das Verhalten nicht definiert. Der Bucket muss sich im selben Standort als BigQuery-Dataset. Wenn Sie keinen angeben, wird für jeden Job ein neuer Bucket mit dem Namen
df-rbq-<namespace-name>-<job-name>-<deployment-timestamp>
erstellt.Ladeintervall (Sekunden): Anzahl der Sekunden, die gewartet werden soll, bevor ein Datensatz in BigQuery geladen wird.
Präfix der Staging-Tabelle: Änderungen werden zuerst in eine Staging-Tabelle geschrieben, bevor mit der finalen Tabelle zusammengeführt. Staging-Tabellennamen werden generiert, indem dieses Präfix dem Namen der Zieltabelle vorangestellt wird.
Manuelles Löschen erforderlich: Gibt an, ob beim Auftreten eines Ereignisses vom Typ „Tabelle löschen“ oder „Datenbank löschen“ eine manuelle administrative Aktion zum Löschen von Tabellen und Datensätzen erforderlich ist. Wenn dieser Wert auf „true“ gesetzt ist, löscht der Replikator keine Tabelle oder kein Dataset. Stattdessen schlägt der Vorgang fehl und wird wiederholt, bis die Tabelle oder der Datensatz nicht mehr vorhanden ist. Wenn das Dataset oder die Tabelle nicht vorhanden ist, ist ein manueller Eingriff erforderlich. Das Ereignis wird wie gewohnt übersprungen.
Weichlöschungen aktivieren: Wenn diese Option aktiviert ist und das Ziel ein Löschereignis empfängt, wird die Spalte
_is_deleted
für den Datensatz auftrue
gesetzt. Andernfalls wird der Datensatz aus der BigQuery-Tabelle gelöscht. Diese Konfiguration ist für eine Quelle, die Ereignisse in ungeordneter Reihenfolge generiert, nicht sinnvoll. Datensätze werden immer aus der BigQuery-Tabelle semi-permanent gelöscht.
Klicken Sie auf Weiter.
Anmeldedaten
Wenn das Plug-in in einem Dataproc-Cluster ausgeführt wird, ist das Dienstkonto sollte auf „Automatisch erkennen“ eingestellt sein. Anmeldedaten werden automatisch aus der Clusterumgebung gelesen.
Wenn das Plug-in nicht auf einem Dataproc-Cluster ausgeführt wird, muss der Pfad zu einem Dienstkontoschlüssel angegeben werden. Den Dienstkontoschlüssel finden Sie in der Google Cloud Console auf der IAM-Seite. Der Kontoschlüssel muss die Berechtigung zum Zugriff auf BigQuery haben. Die Dienstkonto-Schlüsseldatei muss auf jedem Knoten im Cluster verfügbar sein und für alle Nutzer, die den Job ausführen.
Beschränkungen
- Tabellen müssen einen Primärschlüssel haben, um repliziert zu werden.
- Das Umbenennen von Tabellen wird nicht unterstützt.
- Tabellenänderungen werden teilweise unterstützt.
- Eine vorhandene Spalte ohne Nullwerte kann in eine Spalte mit Nullwerten umgewandelt werden.
- Einer vorhandenen Tabelle können neue Spalten mit dem Attribut „NULL zulässig“ hinzugefügt werden.
- Alle anderen Änderungen am Tabellenschema schlagen fehl.
- Änderungen am Primärschlüssel schlagen nicht fehl, vorhandene Daten werden jedoch nicht so umgeschrieben, dass die Eindeutigkeit des neuen Primärschlüssels berücksichtigt wird.
Tabellen und Transformationen auswählen
Im Schritt Tabellen und Transformationen auswählen wird eine Liste der Tabellen angezeigt, die für die Replikation im SLT-System ausgewählt wurden.
- Wählen Sie die zu replizierenden Tabellen aus.
- Optional: Wählen Sie weitere Schemavorgänge aus, z. B. Einfügungen, Aktualisierungen oder Löschungen.
- Wenn Sie das Schema aufrufen möchten, klicken Sie für eine Tabelle auf Spalten zum Replizieren.
Optional: So benennen Sie Spalten im Schema um:
- Klicken Sie im Schema auf Transformieren > Umbenennen.
- Geben Sie im Feld Umbenennen einen neuen Namen ein und klicken Sie auf Übernehmen.
- Klicken Sie auf Aktualisieren und dann auf Speichern, um den neuen Namen zu speichern.
Klicken Sie auf Weiter.
Optional: Erweiterte Properties konfigurieren
Wenn Sie wissen, wie viele Daten Sie in einer Stunde replizieren, können Sie wählen Sie die entsprechende Option aus.
Bewertung ansehen
Im Schritt Bewertung prüfen wird nach Schemaproblemen, fehlenden Funktionen oder Verbindungsproblemen gesucht, die während der Replikation auftreten.
Klicken Sie auf der Seite Bewertung prüfen auf Zuordnungen ansehen.
Wenn Probleme auftreten, müssen diese behoben werden, um fortfahren zu können.
Optional: Wenn Sie Spalten bei der Auswahl der Tabellen und Transformationen, überprüfen Sie in diesem Schritt, ob die neuen Namen korrekt sind.
Klicken Sie auf Weiter.
Zusammenfassung ansehen und Replikationsjob bereitstellen
Prüfen Sie die Einstellungen auf der Seite Details zum Replikationsjob überprüfen. und klicken Sie auf Replikationsjob bereitstellen.
Compute Engine-Profil auswählen
Nachdem Sie den Replikationsjob bereitgestellt haben, klicken Sie auf einer beliebigen Seite in der Cloud Data Fusion-Weboberfläche auf Konfigurieren.
Wählen Sie das Compute Engine-Profil aus, das Sie für die Ausführung dieses Replikationsjobs verwenden möchten.
Klicken Sie auf Speichern.
Replikationsjob starten
- Klicken Sie zum Ausführen des Replikationsjobs auf Start.
Optional: Leistung optimieren
Standardmäßig ist das Plug-in für eine optimale Leistung konfiguriert. Weitere Optimierungen finden Sie unter Laufzeitargumente.
Die Leistung der SLT- und Cloud Data Fusion-Kommunikation hängt von diesen Faktoren:
- SLT im Quellsystem im Vergleich zu einem zentralen SLT-System (bevorzugte Option)
- Hintergrundjobverarbeitung im SLT-System
- Arbeitsprozesse im SAP-Quellsystem im Dialog
- Die Anzahl der Hintergrundjobprozesse, die jeder ID der Massenübertragung auf dem Tab LTRC-Verwaltung zugewiesen sind.
- LTRS-Einstellungen
- Hardware (CPU und Arbeitsspeicher) des SLT-Systems
- Die verwendete Datenbank (z. B. HANA, Sybase oder DB2)
- Die Internetbandbreite (Konnektivität zwischen dem SAP-System und Google Cloud über das Internet)
- Bereits vorhandene Systemauslastung (Last)
- Die Anzahl der Spalten in der Tabelle. Bei mehr Spalten ist die Replikation langsam wird und die Latenz zunehmen kann.
Für anfängliche Ladevorgänge werden die folgenden Lesetypen in den LTRS-Einstellungen empfohlen:
SLT-System | Quellsystem | Tabellentyp | Empfohlener Lesetyp [anfänglicher Ladevorgang] |
---|---|---|---|
SLT 3.0 standalone [DMIS 2018_1_752 SP 2] |
S/4HANA 1909 | Transparent (klein/mittel) Transparent (groß) Clustertabelle |
1 Bereichsberechnung 1 Bereichsberechnung 4 Absenderwarteschlange |
SLT eingebettet [S4CORE 104 HANA 1909] |
– | Transparent (klein/mittel) Transparent (groß) Clustertabelle |
1-Bereichsberechnung 1-Bereichsberechnung Wiedergabeliste für 4 Absender |
SLT 2.0 – eigenständig [DMIS 2011_1_731 SP 17] |
ECC NW 7.02 | Transparent (klein/mittel) Transparent (groß) Clustertabelle |
Warteschlange mit 5 Absendern 5-Absender-Warteschlange 4-Absender-Warteschlange |
SLT eingebettet [DMIS 2011_1_700 SP 17] |
– | Transparent (klein/mittel) Transparent (groß) Clustertabelle |
Warteschlange für 5 Absender Warteschlange für 5 Absender Warteschlange für 4 Absender |
- Verwenden Sie für die Replikation „Kein Bereich“, um die Leistung zu verbessern:
- Bereiche dürfen nur verwendet werden, wenn Rückstände in einer Logging-Tabelle generiert werden mit hoher Latenz.
- Eine Bereichsberechnung verwenden: Der Lesetyp für den anfänglichen Ladevorgang wird nicht empfohlen in bei SLT 2.0- und Nicht-HANA-Systemen.
- Verwendung einer Bereichsberechnung: Der Lesetyp für das erste Laden kann zu doppelten Datensätzen in BigQuery führen.
- Die Leistung ist immer besser, wenn ein eigenständiges SLT-System verwendet wird.
- Ein eigenständiges SLT-System wird immer empfohlen, wenn die Ressourcennutzung ist das Quellsystem bereits hoch.
Laufzeitargumente
snapshot.thread.count
: Übergibt die Anzahl der Threads, die gestartet werden sollen, um dieSNAPSHOT/INITIAL
-Datenladevorgänge parallel auszuführen. Standardmäßig wird die Anzahl der vCPUs verwendet, die im Dataproc-Cluster verfügbar sind, in dem der Replikationsjob ausgeführt wird.Empfohlen: Legen Sie diesen Parameter nur fest, wenn Sie eine präzise Steuerung benötigen an parallelen Threads zu arbeiten (z. B. um die Nutzung Cluster).
poll.file.count
: Übergibt die Anzahl der Dateien, die vom Cloud Storage-Pfad abgefragt werden sollen, der im Webinterface im Feld GCS-Pfad für die Datenreplikierung angegeben ist. Der Standardwert ist jedoch500
pro Umfrage. je nach Clusterkonfiguration erhöht oder verringert werden.Empfohlen: Verwenden Sie diesen Parameter nur, wenn Sie strenge Anforderungen an Replikationsverzögerung. Niedrigere Werte können die Verzögerung reduzieren. Sie können damit den Durchsatz verbessern. Wenn das Gerät nicht reagiert, verwenden Sie Werte, die über dem Standardwert liegen.
bad.files.base.path
: Gibt den Cloud Storage-Basispfad an, in den alle fehlerhaften oder fehlerhaften Datendateien kopiert werden, die bei der Replikation gefunden wurden. Dies ist nützlich, wenn strenge Anforderungen an Daten gelten. Auditing und ein bestimmter Standort verwendet werden, um fehlgeschlagene Übertragungen.Standardmäßig werden alle fehlerhaften Dateien aus dem Cloud Storage-Pfad kopiert, der in der Weboberfläche im Feld Cloud Storage-Pfad für die Datenreplikierung angegeben ist.
Endgültiges Pfadmuster bei fehlerhaften Datendateien:
gs://BASE_FILE_PATH/MASS_TRANSFER_ID/SOURCE_TABLE_NAME/bad_files/REPLICATION_JOB_NAME/REPLICATION_JOB_ID/BAD_FILE_NAME
Beispiel:
gs://slt_to_cdf_bucket/001/MARA/bad_files/MaraRepl/05f97349-7398-11ec-9443-8 ac0640fc83c/20220205_1901205168830_DATA_INIT.xml
Das Kriterium für eine fehlerhafte Datei ist eine beschädigte oder ungültige XML-Datei, fehlende PK. oder ein Problem mit nicht übereinstimmendem Felddatentyp.
Supportdetails
Unterstützte SAP-Produkte und -Versionen
- SAP_BASIS 702-Release, SP-Level 0016 und höher.
- SAP_ABA 702-Release, SP-Level 0016 und höher.
- DMIS 2011_1_700-Release, SP-Level 0017 und höher
Unterstützte SLT-Versionen
SLT-Versionen 2 und 3 werden unterstützt.
Unterstützte SAP-Bereitstellungsmodelle
SLT kann als eigenständiges System oder in das Quellsystem eingebettet sein.
SAP-Hinweise, die vor der Verwendung des SLT implementiert werden müssen
Wenn Ihr Supportpaket keine /UI2/CL_JSON
-Klassenkorrekturen für PL 12 oder höher enthält, implementieren Sie den neuesten SAP-Hinweis für /UI2/CL_JSON
-Klassenkorrekturen, z. B. den SAP-Hinweis 2798102 für PL 12.
Empfohlen: Implementieren Sie die im Bericht CNV_NOTE_ANALYZER_SLT
empfohlenen SAP-Hinweise basierend auf der Bedingung „Zentrales System“ oder „Quellsystem“. Weitere Informationen finden Sie im SAP-Hinweis 3016862 (SAP-Anmeldung erforderlich).
Wenn SAP bereits eingerichtet ist, muss keine zusätzliche Anmerkung implementiert werden. Informationen zu bestimmten Fehlern oder Problemen finden Sie in der zentralen SAP-Hinweis für Ihr SLT-Release.
Limits für das Datenvolumen oder die Eintragsbreite
Es gibt keine definierte Beschränkung für das Volumen der extrahierten Daten und die Datensatzbreite.
Erwarteter Durchsatz für das SAP SLT Replication-Plug-in
Für eine Umgebung, die gemäß den Richtlinien unter Leistung optimieren lässt, kann das Plug-in etwa 13 GB pro Stunde für den anfänglichen Ladevorgang und 3 GB pro Stunde für die Replikation (CDC). Die tatsächliche Leistung kann je nach Cloud Data Fusion- und SAP-Systemlast oder Netzwerkverkehr variieren.
Unterstützung der SAP-Deltaextraktion (geänderte Daten)
Die SAP-Deltaextraktion wird unterstützt.
Erforderlich: Tenant-Peering für Cloud Data Fusion-Instanzen
Das Tenant-Peering ist erforderlich, wenn die Cloud Data Fusion-Instanz mit einer internen IP-Adresse erstellt wird. Weitere Informationen zum Mandanten-Peering Siehe Private Instanz erstellen.
Fehlerbehebung
Replikationsjob wird ständig neu gestartet
Wenn der Replikationsjob immer wieder automatisch neu gestartet wird, erhöhen Sie den Wert Clusterarbeitsspeicher des Replikationsjobs und führen Sie den Replikationsjob.
Duplikate in der BigQuery-Senke
Wenn Sie die Anzahl der parallelen Jobs in den erweiterten Einstellungen des SAP SLT-Replikations-Plug-in: Wenn Ihre Tabellen groß sind, tritt ein Fehler auf Dies führt zu doppelten Spalten in der BigQuery-Senke.
Entfernen Sie zum Laden von Daten die parallelen Jobs, um das Problem zu vermeiden.
Fehlerszenarien
In der folgenden Tabelle sind einige häufig auftretende Fehlermeldungen aufgeführt (Text in Anführungszeichen wird zur Laufzeit durch tatsächliche Werte ersetzt):
Nachrichten-ID | Meldung | Empfohlene Maßnahmen |
---|---|---|
CDF_SAP_SLT_01402 |
Service account type is not defined for
SERVICE_ACCT_NAME_FROM_UI. |
Prüfen Sie, ob der angegebene Cloud Storage-Pfad korrekt ist. |
CDF_SAP_SLT_01403 |
Service account key provided is not valid due to error:
ROOT_CAUSE. Please provide a valid service account key for
service account type : SERVICE_ACCT_NAME_FROM_UI. |
Sehen Sie sich die in der Mitteilung angegebene Ursache an und ergreifen Sie entsprechende Maßnahmen. Aktion ausführen. |
CDF_SAP_SLT_01404 |
Mass Transfer ID could not be found. Please ensure that it exists
in given GCS Bucket. |
Prüfen Sie, ob die angegebene Massentransfer-ID das richtige Format hat. |
CDF_SAP_SLT_01502 |
The specified data replication GCS path 'slt_to_cdf_bucket_1' or
Mass Transfer ID '05C' could not be found. Please ensure that it exists in
GCS. |
Prüfen Sie, ob der angegebene Cloud Storage-Pfad korrekt ist. |
CDF_SAP_SLT_01400 |
Metadata file not found. The META_INIT.json file is not present or
file is present with invalid format. |
Prüfen Sie die in der Nachricht angezeigte Ursache und ergreifen Sie entsprechende Maßnahmen. |
CDF_SAP_SLT_03408 |
Failed to start the event reader. |
Prüfen Sie die in der Nachricht angezeigte Ursache und ergreifen Sie entsprechende Maßnahmen. |
CDF_SAP_SLT_03409 |
Error while processing TABLE_NAME file for source table
gs://CLOUD_STORAGE_BUCKET_NAME/MT_ID/TABLE_NAME
/FILE_NAME. Root cause: ROOT_CAUSE. |
Prüfen Sie die in der Nachricht angezeigte Ursache und ergreifen Sie entsprechende Maßnahmen. |
CDF_SAP_SLT_03410 |
Failed to replicate data for source table TABLE_NAME
from file: gs://CLOUD_STORAGE_BUCKET_NAME/MT_ID/
TABLE_NAME/FILE_NAME. Root cause:
ROOT_CAUSE. |
Prüfen Sie die in der Nachricht angezeigte Ursache und ergreifen Sie entsprechende Maßnahmen. |
CDF_SAP_SLT_03411 |
Failed data replication for source table TABLE_NAME.
Root cause: ROOT_CAUSE. |
Sehen Sie sich die in der Mitteilung angegebene Ursache an und ergreifen Sie entsprechende Maßnahmen. Aktion ausführen. |
CDF_SAP_SLT_03412 |
Failed to create target table for source table
TABLE_NAME. Root cause: ROOT_CAUSE. |
Sehen Sie sich die in der Mitteilung angegebene Ursache an und ergreifen Sie entsprechende Maßnahmen. |
Datentypzuordnung
Die folgende Tabelle zeigt die Zuordnung zwischen den in SAP verwendeten Datentypen und Cloud Data Fusion.
SAP-Datentyp | ABAP-Typ | Beschreibung (SAP) | Datentyp „Cloud Data Fusion“ |
---|---|---|---|
Numerisch | |||
INT1 | b | 1-Byte-Ganzzahl | int |
INT2 | s | 2-Byte-Ganzzahl | int |
INT4 | i | 4-Byte-Ganzzahl | int |
INT8 | 8 | 8-Byte-Ganzzahl | long |
DEZ | p | Nummer des Pakets im BCD-Format (DEC) | decimal |
DF16_DEC DF16_RAW |
a | Dezimales Gleitkomma 8 Byte IEEE 754r | decimal |
DF34_DEC DF34_RAW |
e | Dezimales Gleitkomma 16 Byte IEEE 754r | decimal |
FLTP | f | Binäre Gleitkommazahl | double |
Zeichen | |||
LEGEN LKHR |
c | Zeichenstring | string |
SSTRING GEOM_EWKB |
String | Zeichenstring | string |
. STRING GEOM_EWKB |
String | Zeichenstring CLOB | bytes |
NUMC ACCP |
n | Numerischer Text | string |
Byte | |||
RAW LRAW |
x | Binärdaten | bytes |
Rohstring | Xstring | Bytestring BLOB | bytes |
Datum/Uhrzeit | |||
DATS | d | Datum | date |
Tim | t | Zeit | time |
TIMESTAMP | utcl | ( Utclong ) TimeStamp |
timestamp |
Nächste Schritte
- Weitere Informationen zu Cloud Data Fusion
- Weitere Informationen zu SAP in Google Cloud.