BigQuery-Connector für SAP – Leitfaden zur Fehlerbehebung

Sie können Probleme mit Version 2.7 (aktuell) von BigQuery-Connector für SAP beheben. Dazu verwenden Sie sowohl SAP LT Replication Server-Anwendungs-Logging als auch Google Cloud-Logs, um Fehlermeldungen und Logeinträge zu prüfen.

BigQuery-Connector für SAP sendet alle Fehler an die Standardanwendungslogs von SAP LT Replication Server.

Sie können auch das Debugging von SAP LT Replication Server verwenden, um Probleme zu isolieren.

Fehlerbehebung – Übersicht

Bei der Behebung von Problemen mit BigQuery-Connector für SAP müssen Sie sich je nach Bereich oder Umfang des untersuchten Problems auf verschiedene Bereiche konzentrieren:

  • Die Infrastruktur, z. B. das Netzwerk, die Hardware oder das Betriebssystem
  • Die SAP-Software, einschließlich des Quellservers und SAP LT Replication Server
  • BigQuery-Connector für SAP
  • BigQuery, einschließlich der BigQuery API und der Zieltabelle

Die richtigen Teams einbeziehen

Zum Beheben eines Problems müssen Sie zuerst bestimmen, in welchem der vorherigen Bereiche das Problem auftritt und in welchem Umfang das Problem vorliegt.

Zum Beheben eines Problems müssen Sie möglicherweise mit mehreren Teams zusammenarbeiten, z. B. Ihren Basisadministratoren, Ihren SAP LT Replication Server-Administratoren, Ihren Datenbankadministratoren oder Ihren Google Cloud-Sicherheitsadministratoren.

Wenn Sie frühzeitig die richtigen Teams und Fähigkeiten einbeziehen, können Sie Ihre Probleme schneller lösen.

Ursache bestimmen

Sie müssen die Ursache des Problems bestimmen und prüfen, ob die vermeintliche Ursache des Problems nicht nur ein Symptom einer anderen tiefer liegenden Ursache ist.

SAP-Systeme sind eng eingebunden, können jedoch Logs und Traces in Dateien an mehreren verschiedenen Speicherorten schreiben. Bei der Fehlerbehebung müssen Sie bestimmen, welche Logs und Trace-Dateien untersucht werden müssen.

Softwareanforderungen und Voraussetzungen prüfen

Die gesamte Systemsoftware muss mit den erforderlichen Mindestversionen ausgeführt werden und alle Voraussetzungen für BigQuery-Connector für SAP erfüllen.

Weitere Informationen zu den Voraussetzungen für die Installation von BigQuery-Connector für SAP finden Sie unter:

  • Wenn SAP LT Replication Server auf einer Compute Engine-VM ausgeführt wird, finden Sie weitere Informationen unter Voraussetzungen.

  • Wenn SAP LT Replication Server auf einem Host außerhalb von Google Cloud ausgeführt wird, finden Sie weitere Informationen unter Voraussetzungen.

Informationen zu den Softwareanforderungen für BigQuery-Connector für SAP finden Sie unter Softwareanforderungen.

Wenn Sie eine ältere ECC-Software verwenden, achten Sie darauf, dass die Version von SAP LT Replication Server mit Ihrer ECC-Version kompatibel ist. Weitere Informationen finden Sie im SAP-Hinweis 2577774 – Version compatibility for source and target systems - SLT.

Achten Sie darauf, dass Sie für das SAP-Quellsystem und SAP LT Replication Server alle Korrekturhinweise für die ABAP-basierte Migrations- und Replikationstechnologie implementieren. Weitere Informationen finden Sie im SAP-Hinweis 3016862 – DMIS-Hinweisanalysatoren mit separaten Szenarien für die ABAP-basierte Migration und Replikationstechnologie.

SAP-Supportdokumentation lesen

Wenn Sie ein SAP-Nutzerkonto haben, finden Sie die Lösung vieler SAP-Softwareprobleme in den SAP-Hinweisen und Artikeln aus der Wissensdatenbank für Adaptive Server Enterprise, die im SAP ONE-Support Launchpad verfügbar sind.

Logging

BigQuery-Connector für SAP sendet seine Lognachrichten an SAP LT Replication Server, wo Sie sie in den SAP LT Replication Server-Anwendungslogs ansehen können.

Diese Nachrichten umfassen die Nachrichten, die BigQuery-Connector für SAP von der BigQuery API empfängt.

Allgemeine BigQuery-Lognachrichten können in der Google Cloud Console angezeigt werden.

Anwendungslogs für SAP LT Replication Server

Alle Fehlermeldungen werden in den Standardanwendungslogs von SAP LT Replication Server gespeichert. Prüfen Sie die Anwendungslogs, um die Ursache von Problemen zu analysieren und zu beheben.

Sie können die für Ihre SAP LT Replication Server-Konfiguration spezifischen Anwendungslogs aufrufen. Dazu führen Sie die Transaktion LTRC aus, öffnen die Konfiguration und wählen Anwendungslogs aus.

Wählen Sie beim Aufrufen der Logs eine Tabellenzeile aus und klicken Sie auf eine Schaltfläche, um alle Fehlermeldungen aufzurufen. Wenn Sie für eine Replikation auf den Tab Anwendungslogs klicken, können Sie nach relevanten Laufzeitlognachrichten für die Replikation filtern.

Von BigQuery-Connector für SAP generierte Nachrichten

Allen Fehlern, die in BigQuery-Connector für SAP auftreten, bevor Datensätze an BigQuery gesendet werden, wird das Präfix /GOOG/SLT vorangestellt.

Von der BigQuery API zurückgegebenen Fehlern wird das Präfix /GOOG/MSG vorangestellt. Dazu gehören auch HTTP-Fehler.

Wenn einem Fehler keiner dieser Werte vorangestellt ist, wurde der Fehler von SAP LT Replication Server ausgegeben.

BigQuery-Logs

BigQuery schreibt verschiedene Logeinträge in Cloud Logging in der Google Cloud Console.

So rufen Sie BigQuery-Logeinträge auf:

  1. Öffnen Sie "Logging" in der Google Cloud Console.

    Zum Log-Explorer

  2. Geben Sie im Abfrageeditor eine BigQuery-Ressource an. Beispiel:

    resource.type="bigquery_dataset"

Weitere Informationen zu BigQuery-Logs finden Sie unter Logs.

HTTP-Trace

Sie können während der Fehlerbehebung den HTTP-Trace in der Transaktion SMICM oder ST05 aktivieren.

Deaktivieren Sie anschließend den HTTP-Trace, um die Auswirkungen auf die Leistung zu begrenzen.

Debugging

Wenn Sie die erforderliche Autorisierung haben, können Sie den BAdI-Code (Business Add-In) von BigQuery-Connector für SAP debuggen.

So beheben Sie Fehler im BAdI-Code:

  1. Falls Sie noch keine SAP-Autorisierungen haben, die zum Debuggen des BAdI-Codes erforderlich sind, fordern Sie diese von Ihrem SAP-Administrator an.

  2. Aktivieren Sie das Debugging. Geben Sie dazu im Feld der Transaktionseingabe in der SAP GUI /h ein und drücken Sie Enter.

  3. Wählen Sie im Menü Einstellungen die Option Debuggerprofil/-einstellungen ändern aus.

  4. Achten Sie darauf, dass unter Debugging-Modi die Option System-Debugging ausgewählt ist.

  5. Legen Sie nach Bedarf externe Haltepunkte im Code fest.

Monitoring

Sie können mehrere verschiedene Punkte entlang des Datenpfads von der SAP-Datenquelle zur BigQuery-Zieltabelle überwachen, darunter:

  • Infrastruktur – Netzwerk, Hardware und Betriebssystem
  • SAP-Datenbankebene
  • SAP-Anwendungsebene
  • BigQuery-Connector für SAP
  • BigQuery

Weitere Informationen zum Monitoring an den einzelnen Punkten finden Sie unter BigQuery-Connector für SAP – Betriebsleitfaden.

Datenabgleich

Es gibt drei Stellen, an denen Sie die Anzahl der Datensätze prüfen können:

  • Die Quelltabelle
  • Die SAP LT Replication Server-Lade- oder Replikationsstatistiken in der Transaktion LTRC
  • Die BigQuery-Zieltabelle

Mit dem Tool zur Replikationsvalidierung können Sie die Anzahl der Datensätze prüfen und vergleichen oder die Datensätze selbst durch Ausführen von SQL-Abfragen abrufen.

Weitere Informationen zum Datenabgleich finden Sie unter BigQuery-Connector für SAP – Betriebsleitfaden.

Häufige Konfigurationsprobleme

In diesem Abschnitt werden Lösungen für häufige Probleme beschrieben, die bei der Ersteinrichtung und -konfiguration von BigQuery-Connector für SAP auftreten können.

SAP LT Replication Server-Unterstützung für Datenbankdatentypen

Je nach SAP-Softwareversionen werden einige Datentypen in einer Quelldatenbank möglicherweise nicht von SAP LT Replication Server unterstützt. Weitere Informationen finden Sie im Abschnitt Wichtige Aspekte des SAP-Hinweises 1605140 – SAP Landscape Transformation Replication Server (SLT).

Problem: Betriebssystembefehl für Zugriffstoken funktioniert nicht in SAP LT Replication Server

Problem: Sie haben einen Betriebssystembefehl erstellt, um das Zugriffstoken auszugeben. Es funktioniert jedoch nicht in SAP LT Replication Server.

Ursache: Dieses Problem kann durch mehrere Probleme verursacht werden, wahrscheinlich jedoch dadurch, dass die für den Betriebssystembefehl erforderlichen Umgebungsvariablen nicht konfiguriert sind.

Lösung: Prüfen Sie, ob der Betriebssystembefehl richtig konfiguriert ist.

Versuchen Sie, den printenv-Befehl sowohl über das Betriebssystem als SID_LCadm als auch über die SAP-Transaktion SM69 auszuführen. Vergleichen Sie dann die Ausgabe. Wenn die in Transaktion SM69 zurückgegebenen Variablen unvollständig sind, starten Sie SAP LT Replication Server neu, um die Variablen zu registrieren.

Problem: /GOOG/MSG: 400 - Bad Request Request contains an invalid argument

Problem: Die Datenübertragung ist mit der Fehlermeldung /GOOG/MSG: 400 - Bad Request Request contains an invalid argument fehlgeschlagen.

Ursache: Für Ihre SAP-Arbeitslast, die in Google Cloud ausgeführt wird, ist der Zugriffsbereich, der in der Clientschlüsseltabelle /GOOG/CLIENT_KEY verwendet wird, nicht gültig.

Lösung: So beheben Sie das Problem:

  1. Geben Sie in der SAP-GUI die Transaktion /GOOG/SLT_SETTINGS ein, der /n vorangestellt ist:

    /n/GOOG/SLT_SETTINGS
  2. Notieren Sie sich für die Massenübertragungs-ID, die in der Transaktion LTRC fehlgeschlagen ist, den Wert des Felds Google Cloud-Schlüsselname.

  3. Geben Sie die Transaktion SM30 ein und öffnen Sie dann die Tabelle /GOOG/CLIENT_KEY.

  4. Für den Wert Google Cloud-Schlüsselname, den Sie in einem vorherigen Schritt notiert haben, muss der Wert des Felds Bereich mit dem im Abschnitt Zugriffseinstellungen in /GOOG/CLIENT_KEY angeben erwähnten Zugriffsbereich übereinstimmen. Achten Sie darauf, dass im Feld kein Leerzeichen steht.

  5. Führen Sie die Replikation noch einmal aus.

Problem: /GOOG/MSG : 401 - Unauthorized Request is missing required authentication credential. Expected OAuth 2 access to ken, login coo

Problem: Die Datenübertragung ist mit der Fehlermeldung /GOOG/MSG : 401 - Unauthorized Request is missing required authentication credential. Expected OAuth 2 access to ken, login coo fehlgeschlagen.

Ursache: Die HTTP-Portkonfiguration fehlt.

Lösung: Sowohl HTTP- als auch HTTPS-Ports müssen in Ihrem SAP-System erstellt und aktiv sein.

Die VM-Metadaten werden auf einem Metadatenserver gespeichert, der nur über einen HTTP-Port zugänglich ist. Daher müssen Sie dafür sorgen, dass ein HTTP-Port zusammen mit einem HTTPS-Port erstellt wird und aktiv ist, um auf die VM-Metadaten zugreifen zu können.

So beheben Sie das Problem:

  1. Geben Sie in der SAP-GUI den Transaktionscode SMICM ein.

  2. Klicken Sie in der Menüleiste auf Weiter zu > Dienste.

  3. Prüfen Sie, ob die HTTP- und HTTPS-Ports erstellt wurden und aktiv sind. Ein grünes Häkchen in der Spalte Actv gibt an, dass die HTTP- und HTTPS-Ports aktiv sind.

  4. Führen Sie die Replikation noch einmal aus.

Informationen zum Konfigurieren der HTTP- und HTTPS-Ports finden Sie unter HTTP(S)-Einstellungen in ICM.

Problem: /GOOG/MSG: 403 - SSL is required to perform this operation

Problem: Die Datenübertragung ist mit der Fehlermeldung /GOOG/MSG: 403 - SSL is required to perform this operation fehlgeschlagen.

Ursache: Für Ihre SAP-Arbeitslast, die in Google Cloud ausgeführt wird, ist in den RFC-Zielen, die BigQuery-Connector für SAP verwendet, um eine Verbindung zu Google Cloud APIs herzustellen, SSL nicht aktiviert.

Lösung: So beheben Sie das Problem:

  1. Geben Sie in der SAP-GUI die Transaktion /GOOG/SLT_SETTINGS ein, der /n vorangestellt ist:

    /n/GOOG/SLT_SETTINGS
  2. Notieren Sie sich für die Massenübertragungs-ID, die in der Transaktion LTRC fehlgeschlagen ist, den Wert des Felds Google Cloud-Schlüsselname.

  3. Geben Sie die Transaktion SM30 ein und öffnen Sie dann die Tabelle /GOOG/SERVIC_MAP.

  4. Notieren Sie sich für den Wert Google Cloud-Schlüsselname, den Sie in einem vorherigen Schritt notiert haben, die RFC-Zielnamen.

  5. Geben Sie die Transaktion SM59 ein und führen Sie dann für die RFC-Ziele, die Sie im vorherigen Schritt notiert haben, die folgenden Schritte aus:

    1. Klicken Sie auf den Tab Anmeldung und Sicherheit.

    2. Für das Feld SSL-Zertifikat muss die Option DFAULT-SSL-Client (Standard) ausgewählt sein.

    3. Achten Sie darauf, dass im Feld Dienstnummer der Wert 443 angegeben ist.

  6. Führen Sie die Replikation noch einmal aus.

Problem: /GOOG/MSG: 403 - Request had insufficient authentication scopes

Problem: Die Datenübertragung ist mit der Fehlermeldung /GOOG/MSG: 403 - Request had insufficient authentication scopes fehlgeschlagen.

Ursache: Für Ihre SAP-Arbeitslast, die in Google Cloud ausgeführt wird, hat das angegebene Dienstkonto in der Tabelle /GOOG/CLIENT_KEY nicht den erforderlichen Bereich für den Zugriff auf BigQuery.

Lösung: So beheben Sie das Problem:

  1. Geben Sie in der SAP-GUI die Transaktion /GOOG/SLT_SETTINGS ein, der /n vorangestellt ist:

    /n/GOOG/SLT_SETTINGS
  2. Notieren Sie sich für die Massenübertragungs-ID, die in der Transaktion LTRC fehlgeschlagen ist, den Wert des Felds Google Cloud-Schlüsselname.

  3. Geben Sie die Transaktion SM30 ein und öffnen Sie dann die Tabelle /GOOG/CLIENT_KEY.

  4. Für den Wert Google Cloud-Schlüsselname, den Sie in einem vorherigen Schritt notiert haben, muss der Wert im Feld Dienstkontoname default lauten.

  5. Öffnen Sie in der Google Cloud Console die Compute Engine-Seite VM-Instanzen.

    Zu Seite „VM-Instanzen“

  6. Klicken Sie auf die VM-Instanz, auf der der SAP LT Replication Server gehostet wird.

  7. Klicken Sie auf Beenden und folgen Sie dann der Anleitung zum Beenden der VM-Instanz.

  8. Klicken Sie auf Bearbeiten, bearbeiten Sie die Zugriffsbereiche des Dienstkontos, um den Zugriff auf BigQuery zu aktivieren, und klicken Sie dann auf Speichern.

  9. Klicken Sie auf Starten/Fortsetzen, um die VM-Instanz neu zu starten.

  10. Prüfen Sie, ob Ihr SAP LT Replication Server ausgeführt wird.

  11. Führen Sie die Replikation noch einmal aus.

Problem: /GOOG/MSG: 403 - Access Denied: Dataset PROJECT_ID:DATASET_NAME: Permission bigquery.tables.created denied on dataset

Problem: Die Datenübertragung ist mit der Fehlermeldung /GOOG/MSG: 403 - Access Denied: Dataset PROJECT_ID:DATASET_NAME: Permission bigquery.tables.created denied on dataset fehlgeschlagen.

Ursache: Für Ihre SAP-Arbeitslast, die in Google Cloud ausgeführt wird, hat das angegebene Dienstkonto in der Tabelle /GOOG/CLIENT_KEY nicht die erforderlichen Berechtigungen für den Zugriff auf die BigQuery API.

Lösung: So beheben Sie das Problem:

  1. Geben Sie in der SAP-GUI die Transaktion /GOOG/SLT_SETTINGS ein, der /n vorangestellt ist:

    /n/GOOG/SLT_SETTINGS
  2. Notieren Sie sich für die Massenübertragungs-ID, die in der Transaktion LTRC fehlgeschlagen ist, den Wert des Felds Google Cloud-Schlüsselname.

  3. Geben Sie die Transaktion SM30 ein und öffnen Sie dann die Tabelle /GOOG/CLIENT_KEY.

  4. Notieren Sie sich für den Wert Google Cloud-Schlüsselname, den Sie in einem vorherigen Schritt notiert haben, den für das Feld Dienstkontoname angegebenen Wert.

  5. Rufen Sie in der Google Cloud Console die Identity and Access Management-Seite Dienstkonten auf.

    Zur Seite „Dienstkonten“

  6. Wählen Sie das Dienstkonto aus, das Sie in einem vorherigen Schritt notiert haben.

  7. Prüfen Sie, ob das Dienstkonto die IAM-Rollen hat, die BigQuery-Connector für SAP, wie unter Google Cloud Identity and Access Management beschrieben, für den Zugriff auf BigQuery benötigt.

  8. Führen Sie die Replikation noch einmal aus.

Problem: /GOOG/MSG: 404 - Not Found

Problem: Die Datenübertragung ist mit der Fehlermeldung /GOOG/MSG: 404 - Not Found fehlgeschlagen.

Ursache: In den RFC-Zielen, die BigQuery-Connector für SAP verwendet, um eine Verbindung zu Google Cloud APIs herzustellen, ist das Pfadpräfix nicht korrekt.

Lösung: So beheben Sie das Problem:

  1. Geben Sie in der SAP-GUI die Transaktion /GOOG/SLT_SETTINGS ein, der /n vorangestellt ist:

    /n/GOOG/SLT_SETTINGS
  2. Notieren Sie sich für die Massenübertragungs-ID, die in der Transaktion LTRC fehlgeschlagen ist, den Wert des Felds Google Cloud-Schlüsselname.

  3. Geben Sie die Transaktion SM30 ein und öffnen Sie dann die Tabelle /GOOG/SERVIC_MAP.

  4. Notieren Sie sich für den Wert Google Cloud-Schlüsselname, den Sie in einem vorherigen Schritt notiert haben, die RFC-Zielnamen.

  5. Geben Sie die Transaktion SM59 ein und führen Sie die folgenden Schritte aus:

    • Achten Sie darauf, dass für das RFC-Ziel, das eine Verbindung zu BigQuery herstellt, der Feldwert Pfadpräfix /bigquery/v2/ ist.
    • Achten Sie darauf, dass für das RFC-Ziel, das eine Verbindung zu IAM herstellt, der Feldwert Pfadpräfix /v1/ ist.
  6. Führen Sie die Replikation noch einmal aus.

Problem: /GOOG/MSG: 404 - Table PROJECT_ID:DATASET_NAME.TABLE_NAME not found

Problem: Die Datenübertragung ist mit der Fehlermeldung /GOOG/MSG: 404 - Table PROJECT_ID:DATASET_NAME.TABLE_NAME not found fehlgeschlagen.

Ursache: In den RFC-Zielen, die BigQuery-Connector für SAP verwendet, um eine Verbindung zu Google Cloud APIs herzustellen, stimmt der Wert, den Sie für das Feld Zielhost angegeben haben, mit keinem DNS-Namen in Cloud DNS überein.

Lösung: So beheben Sie das Problem:

  1. Geben Sie in der SAP-GUI den Transaktionscode SE38 ein und öffnen Sie den Bericht /GOOG/R_SLT_SETTINGS.

  2. Öffnen Sie für die ausgeführte LTRC-Transaktion die Massenübertragungs-ID und notieren Sie sich den Wert in der Spalte Google Cloud-Schlüsselname.

  3. Geben Sie die Transaktion SM30 ein und öffnen Sie die Tabelle /GOOG/CLIENT_KEY im Anzeigemodus.

  4. Durchsuchen Sie die Tabelle /GOOG/SERVIC_MAP mit dem Google Cloud-Schlüsselnamen, den Sie in einem vorherigen Schritt notiert haben, und notieren Sie sich die angegebenen RFC-Zielnamen.

  5. Geben Sie den Transaktionscode SM59 ein.

  6. Notieren Sie sich für die RFC-Ziele, die Sie für die Verbindung zi BigQuery und IAM APIs verwenden, den für das Feld Zielhost angegebenen Wert.

  7. Rufen Sie in der Google Cloud Console die Seite Cloud DNS der Netzwerkdienste auf.

    Cloud DNS aufrufen

  8. Klicken Sie auf die private Zone mit den DNS-Einträgen für die Private Service Connect-Endpunkte, die Sie erstellt haben, damit BigQuery-Connector für SAP eine private Verbindung zu den BigQuery und IAM APIs herstellen kann.

  9. Prüfen Sie, ob für jeden der Zielhostwerte, die Sie in einem vorherigen Schritt notiert haben, ein DNS-Eintrag mit einem übereinstimmenden DNS-Namen vorhanden ist.

  10. Führen Sie die Replikation noch einmal aus.

Problem: /GOOG/MSG: 404 - Not Found Requested entity was not found

Problem: Die Datenübertragung ist mit der Fehlermeldung /GOOG/MSG: 404 - Not Found Requested entity was not found fehlgeschlagen.

Ursache: Für Ihre Arbeitslast, die in Google Cloud ausgeführt wird, ist das in der Clientschlüsseltabelle /GOOG/CLIENT_KEY verwendete Dienstkonto ungültig.

Lösung: So beheben Sie das Problem:

  1. Geben Sie in der SAP-GUI die Transaktion /GOOG/SLT_SETTINGS ein, der /n vorangestellt ist:

    /n/GOOG/SLT_SETTINGS
  2. Notieren Sie sich für die Massenübertragungs-ID, die in der Transaktion LTRC fehlgeschlagen ist, den Wert des Felds Google Cloud-Schlüsselname.

  3. Geben Sie die Transaktion SM30 ein und öffnen Sie dann die Tabelle /GOOG/CLIENT_KEY.

  4. Achten Sie für das Feld Dienstkontoname darauf, dass der angegebene Wert die E-Mail-Adresse des Dienstkontos ist, das im Schritt Dienstkonto erstellen für BigQuery-Connector für SAP erstellt wurde.

  5. Führen Sie die Replikation noch einmal aus.

Problem: /GOOG/MSG: 418 – Datenübertragung mit Fehlermeldung von SAP fehlgeschlagen

Problem: Die Datenübertragung ist mit einer Fehlermeldung von SAP fehlgeschlagen, z. B. No OS command defined for the key.

Ursache: Bei Ihrer SAP-Arbeitslast, die nicht in Google Cloud ausgeführt wird, kann dieses Problem durch die folgenden Umstände verursacht werden:

Der Betriebssystembefehl, der das Zugriffstoken ausgibt, ist nicht richtig konfiguriert

Ursachen: Dieses Problem kann durch folgende Umstände verursacht werden:

  • Sie haben einen Betriebssystembefehl erstellt, um das Zugriffstoken auszugeben, es aber nicht den Zugriffseinstellungen in der Clientschlüsseltabelle /GOOG/CLIENT_KEY hinzugefügt.

  • Der Betriebssystembefehl, den Sie in der Transaktion SM69 erstellt haben, konnte kein Zugriffstoken von Google Cloud abrufen.

Lösung: Achten Sie darauf, dass in der Clientschlüsseltabelle /GOOG/CLIENT_KEY für das Feld Befehlsname der eingegebene Wert mit dem Namen des Befehls übereinstimmt, den Sie zum Ausgeben des Zugriffstokens erstellt haben.

RFC ist nicht richtig konfiguriert

Ursache: Für Ihre in Google Cloud ausgeführte SAP-Arbeitslast ist in den RFC-Zielen, die BigQuery-Connector für SAP verwendet, um eine Verbindung zu Google Cloud APIs herzustellen, der Feldwert Zielhost falsch.

Lösung: So beheben Sie dieses Problem:

  1. Geben Sie in der SAP-GUI die Transaktion SE38 ein und öffnen Sie den Bericht /GOOG/R_SLT_SETTINGS.

  2. Öffnen Sie für die ausgeführte LTRC-Transaktion die Massenübertragungs-ID und notieren Sie sich den Wert von Google Cloud-Schlüsselname.

  3. Geben Sie die Transaktion SM30 ein und öffnen Sie die Tabelle /GOOG/CLIENT_KEY im Anzeigemodus.

  4. Durchsuchen Sie die Tabelle /GOOG/SERVIC_MAP mit dem Google Cloud-Schlüsselnamen, den Sie in einem vorherigen Schritt notiert haben, und notieren Sie sich die angegebenen RFC-Zielnamen.

  5. Geben Sie den Transaktionscode SM59 ein und öffnen Sie die RFC-Ziele, die Sie im vorherigen Schritt notiert haben.

  6. Korrigieren Sie die angegebene URL im Feld Zielhost.

  7. Führen Sie die Replikation noch einmal aus.

Problem: /GOOG/MSG: 413 - Request Entity Too Large

Problem: Die Datenübertragung ist mit der Fehlermeldung /GOOG/MSG: 413 - Request Entity Too Large fehlgeschlagen.

Ursache: Dieses Problem kann auftreten, wenn die Bytegröße des Blocks, der von BigQuery-Connector für SAP gesendet wird, die maximale Bytegröße für HTTP-Anfragen überschreitet, die BigQuery akzeptiert. Dies kann auftreten, wenn die Größe der Tabellendatensätze oder der Datenmenge, die in den Datensätzen enthalten ist, dazu führt, dass die Bytegröße eines Blocks das BigQuery-Limit überschreitet.

Lösung: Reduzieren Sie die Größe der Blöcke, die von BigQuery-Connector für SAP für diese Tabelle gesendet werden. Sie können die Blockgröße anpassen, indem Sie die Transaktion /GOOG/SLT_SETTINGS ausführen oder die dynamische Blockgröße aktivieren, um die Blockgröße automatisch anpassen zu lassen. Weitere Informationen finden Sie unter:

Problem: /GOOG/MSG: 503 - HTTP Communication Failure - SSL client SSL Client (Standard)

Problem: Die Datenübertragung ist mit der Fehlermeldung /GOOG/MSG: 503 - HTTP Communication Failure - SSL client SSL Client (Standard) fehlgeschlagen.

Ursache: Für Ihre in Google Cloud ausgeführte SAP-Arbeitslast ist in den RFC-Zielen, die BigQuery-Connector für SAP verwendet, um eine Verbindung zu Google Cloud APIs herzustellen, der Feldwert Zielhost falsch.

Lösung: Informationen zur Behebung dieses Problems finden Sie in den Lösungsschritten unter RFC ist nicht richtig konfiguriert.

Problem: /GOOG/MSG: 503 - HTTP Communication Failure exception occurred during the request sending

Problem: Die Datenübertragung ist mit der Fehlermeldung /GOOG/MSG: 503 - HTTP Communication Failure exception occurred during the request sending fehlgeschlagen.

Ursache: Dieses Problem kann durch Verbindungs- oder Netzwerkprobleme verursacht werden.

Lösung: Überprüfen Sie Ihre Verbindung und achten Sie darauf, dass Ihr Netzwerk ordnungsgemäß eingerichtet ist, fehlerfrei ausgeführt wird und nicht überlastet ist.

Problem: /GOOG/MSG: 503 - HTTP Communication Failure exception occurred during the response receiving

Problem: Die Datenübertragung ist mit der Fehlermeldung /GOOG/MSG: 503 - HTTP Communication Failure exception occurred during the response receiving fehlgeschlagen.

Dieses Problem kann durch folgende Umstände verursacht werden:

SSL ist in Ihren RFC-Zielen nicht aktiviert

Ursache: In den RFC-Zielen, die BigQuery-Connector für SAP verwendet, um eine Verbindung zu Google Cloud APIs herzustellen, ist die Sicherheitsoption für die Verwendung eines SSL-Zertifikats nicht aktiviert.

Lösung: Informationen zur Behebung dieses Problems finden Sie in den Lösungsschritten unter Problem: /GOOG/MSG: 403 – Für diesen Vorgang ist SSL erforderlich.

SSL-Handshake ist fehlgeschlagen

Ursache: Wenn der SSL-Handshake zwischen dem SAP LT Replication Server-Host und dem BigQuery API-Endpunkt fehlgeschlagen ist. Dies tritt auf, wenn das vom TLS-Server bereitgestellte Zertifikat für den Zielhostnamen des SAP LT Replication Servers nicht gültig ist, möglicherweise weil das clientseitige Senden der optionalen TLS-Erweiterungs-SNI nicht auf Ihrem NetWeaver-Kernel implementiert.

Lösung: Suchen Sie in Transaktion SMICM nach dem Rückgabecode SSLERR_SERVER_CERT_MISMATCH. Wenn Sie den Rückgabecode SSLERR_SERVER_CERT_MISMATCH finden, müssen Sie das Senden der TLS-Erweiterungs-SNI aktivieren. Sorgen Sie außerdem dafür, dass Ihr NetWeaver-Kernel das clientseitige Senden der optionalen TLS-Erweiterungs-SNI implementiert.

Wenn Sie das Senden der TLS-Erweiterungs-SNI aktivieren möchten, setzen Sie den Profilparameter icm/HTTPS/client_sni_enabled oder ssl/client_sni_enabled je nach NetWeaver-Kernel-Version auf TRUE. Weitere Informationen von SAP finden Sie unter:

Die Bytegröße der Blöcke hat die maximale Bytegröße für HTTP-Anfragen überschritten, die BigQuery akzeptiert

Ursache: Wenn die Bytegröße des Blocks, der von BigQuery-Connector für SAP gesendet wird, die maximale Bytegröße für HTTP-Anfragen überschreitet, die von BigQuery akzeptiert wird. Dies kann auftreten, wenn die Größe der Tabellendatensätze oder der Datenmenge, die in den Datensätzen enthalten ist, dazu führt, dass die Bytegröße eines Blocks das BigQuery-Limit überschreitet.

Lösung: Reduzieren Sie die Größe der Blöcke, die von BigQuery-Connector für SAP für diese Tabelle gesendet werden. Sie können die Blockgröße anpassen, indem Sie die Transaktion /GOOG/SLT_SETTINGS ausführen oder die dynamische Blockgröße aktivieren, um die Blockgröße automatisch anpassen zu lassen. Weitere Informationen finden Sie unter:

Problem: /GOOG/MSG: 404 - Not found: Dataset DATASET_NAME

Problem: Bei dem Versuch, die Google Cloud-Sicherheit zu validieren oder Daten in eine BigQuery-Tabelle zu laden, erhalten Sie die Meldung /GOOG/MSG: 404 - Not found: Dataset DATASET_NAME.

Ursache: Dieses Problem kann durch folgende Umstände verursacht werden:

  • Das BigQuery-Dataset wurde noch nicht erstellt.
  • Der Dataset-Name ist in der Massenübertragungskonfiguration nicht korrekt angegeben.
  • Die Replikationskonfiguration im SAP LT Replication Server muss aktiviert sein.

Lösung: Versuchen Sie Folgendes:

  • Prüfen Sie, ob das Dataset in BigQuery erstellt wurde.
  • Prüfen Sie, ob der Dataset-Name in der Massenübertragungskonfiguration mit dem Dataset-Namen in BigQuery übereinstimmt.
  • Führen Sie die Transaktion LTRC aus und deaktivieren Sie die Replikationskonfiguration. Anschließend aktivieren Sie sie wieder.

Problem: Mass Transfer Key can not be found for Mass Transfer ID XXX

Problem: Sie erhalten die Fehlermeldung /GOOG/SLT: Mass Transfer Key can not be found for Mass Transfer ID XXX.

Ursache: Dieses Problem kann durch folgende Umstände verursacht werden:

  • Für die angegebene Massenübertragungs-ID ist keine Massenübertragungskonfiguration vorhanden.
  • Die entsprechende Replikationskonfiguration ist nicht aktiv.

Lösung: Führen Sie eine der folgenden Aktionen aus, um das Problem zu beheben:

  • Führen Sie die Transaktion /GOOG/SLT_SETTINGS aus und prüfen Sie, ob die Massenübertragungs-ID korrekt angegeben ist.
  • Führen Sie die Transaktion LTRC aus und deaktivieren Sie die Replikationskonfiguration. Anschließend aktivieren Sie sie wieder.

Problem: /GOOG/SLT : Unable to interpret VALUE as a BOOLEAN

Problem: Das Laden oder Replizieren eines Eintrags schlägt mit der Meldung /GOOG/SLT : Unable to interpret VALUE as a BOOLEAN fehl.

Ursache: Dieses Problem wird durch die Zuordnung eines Felds in der Quelltabelle zum BigQuery-Datentyp BOOLEAN verursacht, aber die Daten im Quellfeld werden nicht in einen booleschen Wert aufgelöst.

Lösung: Um dieses Problem zu beheben, ändern Sie mit der Transaktion /GOOG/SLT_SETTINGS den Datentyp, dem das Quellfeld zugeordnet ist, oder entfernen Sie die Datentypzuordnung und akzeptieren Sie den Standarddatentyp.

Problem: /GOOG/SLT: Failed to convert field SAP_FIELD_NAME value to field BIGQUERY_FIELD_NAME: ERROR_DETAILS

Problem: Das Laden oder Replizieren eines Eintrags schlägt mit der Meldung /GOOG/SLT: Failed to convert field SAP_FIELD_NAME value to field BIGQUERY_FIELD_NAME: ERROR_DETAILS fehl.

Ursache: Entweder enthält das Quellfeld einen ungültigen Wert oder es wird einem BigQuery-Datentyp zugeordnet, der keine gültige Zuordnung für die im Quellfeld enthaltenen Daten ist.

Lösung: Zum Beheben des Problems verwenden Sie die Transaktion /GOOG/SLT_SETTINGS, um den Datentyp zu ändern, dem das Quellfeld zugeordnet ist, oder Sie entfernen die Datentypzuordnung und akzeptieren die Standardzuordnung für den Datentyp.

Problem: /GOOG/MSG : Client key is not found in /GOOG/CLIENT_KEY table

Problem: Ein Ladevorgang oder eine Replikation wird nicht gestartet. Folgende Meldung wird angezeigt: /GOOG/MSG: Client key is not found in /GOOG/CLIENT_KEY table.

Ursache: Entweder ist der Clientschlüssel nicht vorhanden oder er wurde in der Massenübertragungskonfiguration der Transaktion /GOOG/SLT_SETTINGS falsch angegeben.

Lösung: Zum Beheben dieses Problems verwenden Sie entweder die Transaktion SM30, um den Clientschlüssel zu erstellen, oder die Transaktion /GOOG/SLT_SETTINGS, um die Spezifikation des Clientschlüsselwerts in der Massenübertragungskonfiguration zu korrigieren.

Problem: /GOOG/MSG: DESCRIPTION_OF_ISSUE error occurred in chunk ranging START_INDEX_OF_FAILED_CHUNK - END_INDEX_OF_FAILED_CHUNK

Problem: Die Replikation eines Blocks ist mit der Fehlermeldung /GOOG/MSG: DESCRIPTION_OF_ISSUE error occurred in chunk ranging START_INDEX_OF_FAILED_CHUNK - END_INDEX_OF_FAILED_CHUNK fehlgeschlagen.

Ursache: Dies kann mehrere Ursachen haben, einschließlich Invalid JSON Payload, Quota Exceeded, Request Entity Too Large und HTTP Communication Failure. Die Fehlermeldung für den Block, der nicht nach BigQuery repliziert werden konnte, wird mit dem Start- und Endindex des Blocks angezeigt.

Diese Fehlermeldung wird angezeigt, wenn Sie das Flag BREAK in Transaktion /GOOG/SLT_SETTINGS nicht festgelegt haben. Wenn das Flag BREAK nicht festgelegt ist, sendet BigQuery-Connector für SAP weiterhin Datensätze an BigQuery. Dazu wird der nächste Block gesendet, selbst wenn ein Fehler auftritt.

Lösung: Versuchen Sie Folgendes:

Problem: DESCRIPTION_OF_ISSUE while signing JWT using profile KEY_FILE_NAME.pse. Check JWT config in STRUST

Problem: Sie erhalten die Fehlermeldung DESCRIPTION_OF_ISSUE while signing JWT using profile KEY_FILE_NAME .pse. Check JWT config in STRUST.

Ursache: Die Einstellungen für die JWT-Konfiguration und den Dienstkontoschlüssel sind in STRUST nicht richtig konfiguriert.

Lösung: Prüfen Sie, ob die JWT-Konfiguration und der Dienstkontoschlüssel konfiguriert sind, wie unter Authentifizierung mit JWT zum Abrufen von Zugriffstokens erläutert.

Problem: Bad Request invalid_grant. Invalid JWT Signature

Problem: Sie erhalten die Fehlermeldung Bad Request invalid_grant. Invalid JWT Signature.

Ursache: Die in STRUST importierte PSE- oder P12-Schlüsseldatei gehört nicht zum Dienstkonto, das Sie zum Signieren des JWT verwendet haben.

Lösung: Achten Sie darauf, die richtige Dienstkontoschlüsseldatei in STRUST zu importieren. Informationen zum Importieren des Dienstkontoschlüssels in STRUST finden Sie unter Dienstkontoschlüssel in STRUST importieren.

Problem: OAuth RFC HTTP Destination not maintained in /GOOG/SERVIC_MAP

Problem: Sie erhalten die Fehlermeldung OAuth RFC HTTP Destination not maintained in /GOOG/SERVIC_MAP.

Ursache: Das RFC-Ziel für OAuth 2.0 ist in der Dienstzuordnungstabelle /GOOG/SERVIC_MAP nicht verfügbar.

Lösung: Aktualisieren Sie das RFC-Ziel für OAuth 2.0 in der Dienstzuordnungstabelle /GOOG/SERVIC_MAP und führen Sie die Last noch einmal aus. Informationen zum Angeben von RFC-Zielen finden Sie unter RFC-Ziele in /GOOG/SERVIC_MAP angeben.

Problem: Bei nicht englischen Anmeldesprachen werden Feldbeschreibungen nicht angezeigt, wenn Sie Daten mithilfe einer CSV-Datei hochladen.

Problem: Bei nicht englischen Anmeldesprachen werden beim Hochladen von BigQuery-Zieltabellenfeldtypen und Feldbeschreibungen mit der Datei-Upload-Option die Feldbeschreibungen von der CSV-Datei nicht korrekt hochgeladen. Sie finden in den hochgeladenen Beschreibungen vertauschte Zeichen und Symbole.

Ursache: Bei nicht englischen Anmeldesprachen kann das Dateiupload-Dienstprogramm die Zeichen in der CSV-Datei nicht richtig interpretieren.

Lösung: Verwenden Sie das UTF-8-Codierungsformat mit Byte Order Mark (BOM) für Ihre CSV-Datei, um BigQuery-Zieltabellenfeldtypen und Feldbeschreibungen in einer nicht englischsprachigen Sprache hochzuladen. eine Speichern Sie die CSV-Datei im UTF-8-Format mit dem BOM-Format und laden Sie die Datei dann hoch.

Häufige operative Probleme

In diesem Abschnitt werden Lösungen für häufige Probleme beschrieben, die nach der Ersteinrichtung von BigQuery-Connector für SAP auftreten können.

Problem: Leere Quelltabellen in SAP werden im BigQuery-Dataset nicht erstellt

Problem: Im BigQuery-Dataset werden keine leeren Quelltabellen in SAP erstellt.

Ursache: Bei leeren Quelltabellen in SAP verhindert SAP SLT die Erstellung von Zieltabellen in BigQuery.

Lösung: Zum Erstellen von Zieltabellen im BigQuery-Dataset für leere Quelltabellen in SAP können Sie das Tool "Tabelle erstellen" verwenden. Informationen zum Ausführen des Tools "Tabelle erstellen" finden Sie unter Tool zum Erstellen von Tabellen.

Problem: Falsche Anzahl von Schreibvorgängen in BigQuery

Problem: Die Anzahl der in BigQuery geschriebenen Datensätze ist höher als die Anzahl der Datensätze, die in den SAP LT Replication Server-Logs angezeigt werden.

Ursache: Dies kann mehrere Ursachen haben, darunter vorübergehende Verbindungsprobleme, die dazu führen, dass SAP LT Replication Server Einträge mehrmals sendet, oder dass die BigQuery-Tabelle nur Einfügungen akzeptiert und jede Änderung an einem einzelnen Datensatz in der Quelle als separater Eintrag in die Zieltabelle eingefügt wird.

Lösung: Wenn der Unterschied in der Anzahl der Datensätze nicht sehr groß ist und nicht weniger Einträge in BigQuery als in der Quelltabelle vorhanden sind, ist dies das erwartete Verhalten und kein Problem.

Fragen Sie die BigQuery-Tabelle ab, wie in SQL-Abfragen für Datensatzanzahl beschrieben, um die Anzahl der Datensätze in BigQuery mit der Anzahl der Datensätze in der Quelltabelle genau abzugleichen.

Weitere Informationen zu möglichen Ursachen dieses Problems finden Sie unter Besondere Überlegungen zu ABAP-Quellen/-Zielen in HANA.

Problem: /GOOG/MSG : 400 - Schema mismatch for table TABLE_NAME

Problem: Sie erhalten die Fehlermeldung /GOOG/MSG : 400 - Schema mismatch for table TABLE_NAME. Please delete the table from BigQuery and try again..

Ursache: Eine der folgenden Änderungen wurde für eine vorhandene BigQuery-Tabelle eingegeben:

  • Löschen eines Felds
  • Umbenennen eines Felds
  • Ändern des Datentyps eines Felds
  • Ändern des Partitionstyps einer Tabelle

Die vorherigen Änderungen können nicht auf eine vorhandene BigQuery-Tabelle angewendet werden.

Lösung: Wenn Sie eines dieser Feldattribute in einer vorhandenen Tabelle ändern müssen, müssen Sie die vorhandene Tabelle löschen und die Datensätze in eine neue Tabelle laden.

Wenn die Änderung versehentlich vorgenommen wurde, machen Sie sie in SAP LT Replication Server rückgängig.

Weitere Informationen zum Konfigurieren von Feldern und Partitionen in einer BigQuery-Zieltabelle finden Sie unter Konfiguration der BigQuery-Replikation.

Problem: Fehlermeldungen im Zusammenhang mit ungültigen Daten

Problem: In den Anwendungslogs erhalten Sie die Fehlermeldung /GOOG/MSG/: DESCRIPTION_OF_INVALID_DATA error occurred in FIELD_NAME in record RECORD_KEYS.

Ursache: Diese Fehlermeldung wird von BigQuery ausgegeben, wenn die Datensätze mit ungültigen Daten in die Zieltabelle eingefügt werden. Die Daten können aus einem der folgenden Gründe ungültig sein:

  • Die Daten im Feld eines bestimmten Eintrags sind nicht mit dem Datentyp in BigQuery kompatibel. BigQuery generiert beispielsweise unter diesen Umständen Fehlermeldungen:
    • Ein String wird in einem Feld vom Typ DATE, INTEGER oder BOOLEAN verwaltet.
    • In einem Feld vom Typ DATE wird ein ungültiges Datum (00/00/0000) verwaltet.
  • Ein falscher Zieldatentyp wird in den Feldzuordnungen in Transaktion /GOOG/SLT_SETTINGS verwaltet.

Für jeden Datensatz, der ein Feld mit ungültigen Daten enthält, wird von BigQuery eine Fehlermeldung ausgegeben.

Lösung: Analysieren Sie die Fehlermeldung DESCRIPTION_OF_INVALID_DATA, um die mögliche Ursache für ungültige Daten zu verstehen. Verwenden Sie RECORD_KEYS zum Identifizieren des Datensatzes mit dem Feld, das die ungültigen Daten enthält. Dieses enthält den Inhalt der ersten fünf Felder des Datensatzes. Wenn die Tabelle maximal fünf Felder hat, ist der Inhalt aller Felder in RECORD_KEYS enthalten.

  • Wenn die Daten im Feld nicht mit dem Datentyp in BigQuery kompatibel sind, korrigieren Sie die Daten in der Quelltabelle.
  • Wenn der Fehler aufgrund einer Abweichung zwischen den Daten und dem Datentyp aufgetreten ist, verwenden Sie die Transaktion /GOOG/SLT_SETTINGS, um einen entsprechenden Datentyp anzugeben. Weitere Informationen zur Datentypzuordnung finden Sie unter Datentypzuordnung.

Problem: Der Wert eines Feldes, das in der Transaktion SE16 oder SE16N angezeigt wird, unterscheidet sich vom Wert, der in BigQuery angezeigt wird

Problem: In einigen Fällen unterscheidet sich der Wert eines in der Transaktion SE16 oder SE16N angezeigten Felds vom Wert, der in BigQuery angezeigt wird.

Ursache: Im SAP S/4HANA-Quellsystem haben Tabellen wie MARD, MARC, MBEW und MBEWH Ersatzobjekte, die Werte in Transaktion SE16 oder SE16N anzeigen. Für solche Tabellen werden die in Transaktion SE16 oder SE16N angezeigten Werte innerhalb der Ersatzobjekte mithilfe von Join-Bedingungen berechnet, die mehrere andere zugrunde liegende Tabellen enthalten.

Wenn eine Tabelle mit einem Ersatzobjekt für die Replikation in BigQuery in SLT konfiguriert ist, repliziert SLT die Daten nicht aus dem Ersatzobjekt. Stattdessen repliziert SLT die Daten aus jeder der zugrundeliegenden Tabellen separat, und daher kann es vorkommen, dass einige Felder in SE16 oder SE16N andere Werte haben als in BigQuery angezeigt werden. Dies ist das Standard-SLT-Verhalten.

Lösung: Replizieren Sie alle zugrunde liegenden Tabellen des Ersatzobjekts nach BigQuery. Führen Sie diese Tabellen in BigQuery mit denselben Join-Bedingungen wie das Ersatzobjekt aus.

Support kontaktieren

Wenn Sie Hilfe bei der Behebung von Problemen mit der Replikation und mit BigQuery-Connector für SAP benötigen, erfassen Sie alle verfügbaren Diagnoseinformationen und wenden Sie sich an Cloud Customer Care.

Weitere Informationen zur Kontaktaufnahme mit Cloud Customer Care finden Sie unter Support für SAP in Google Cloud.