Version 2.0: Anleitung zur Fehlerbehebung für BigQuery-Connector für SAP

Sie können Probleme mit den Versionen 2.0 und 2.1 von BigQuery-Connector für SAP beheben. Dazu verwenden Sie sowohl SAP LT Replication Server-Anwendungs-Logging als auch Google Cloud-Logs, um Fehlermeldungen und Logeinträge zu prüfen.

BigQuery-Connector für SAP sendet alle Fehler an die Standardanwendungslogs von SAP LT Replication Server.

Sie können auch das Debugging von SAP LT Replication Server verwenden, um Probleme zu isolieren.

Fehlerbehebung – Übersicht

Bei der Behebung von Problemen mit BigQuery-Connector für SAP müssen Sie sich je nach Bereich oder Umfang des untersuchten Problems auf verschiedene Bereiche konzentrieren:

  • Die Infrastruktur, z. B. das Netzwerk, die Hardware oder das Betriebssystem
  • Die SAP-Software, einschließlich des Quellservers und SAP LT Replication Server
  • BigQuery-Connector für SAP
  • BigQuery, einschließlich der BigQuery API und der Zieltabelle

Die richtigen Teams einbeziehen

Zum Beheben eines Problems müssen Sie zuerst bestimmen, in welchem der vorherigen Bereiche das Problem auftritt und in welchem Umfang das Problem vorliegt.

Zum Beheben eines Problems müssen Sie möglicherweise mit mehreren Teams zusammenarbeiten, z. B. Ihren Basisadministratoren, Ihren SAP LT Replication Server-Administratoren, Ihren Datenbankadministratoren oder Ihren Google Cloud-Sicherheitsadministratoren.

Wenn Sie frühzeitig die richtigen Teams und Fähigkeiten einbeziehen, können Sie Ihre Probleme schneller lösen.

Ursache bestimmen

Sie müssen die Ursache des Problems bestimmen und prüfen, ob die vermeintliche Ursache des Problems nicht nur ein Symptom einer anderen tiefer liegenden Ursache ist.

SAP-Systeme sind eng eingebunden, können jedoch Logs und Traces in Dateien an mehreren verschiedenen Speicherorten schreiben. Bei der Fehlerbehebung müssen Sie bestimmen, welche Logs und Trace-Dateien untersucht werden müssen.

Softwareanforderungen und Voraussetzungen prüfen

Die gesamte Systemsoftware muss mit den erforderlichen Mindestversionen ausgeführt werden und alle Voraussetzungen für BigQuery-Connector für SAP erfüllen.

Weitere Informationen zu den Voraussetzungen für die Installation von BigQuery-Connector für SAP finden Sie unter:

  • Wenn SAP LT Replication Server auf einer Compute Engine-VM ausgeführt wird, finden Sie weitere Informationen unter Voraussetzungen.

  • Wenn SAP LT Replication Server auf einem Host außerhalb von Google Cloud ausgeführt wird, finden Sie weitere Informationen unter Voraussetzungen.

Informationen zu den Softwareanforderungen für BigQuery-Connector für SAP finden Sie unter Softwareanforderungen.

Wenn Sie eine ältere ECC-Software verwenden, achten Sie darauf, dass die Version von SAP LT Replication Server mit Ihrer ECC-Version kompatibel ist. Weitere Informationen finden Sie im SAP-Hinweis 2577774 – Version compatibility for source and target systems - SLT.

SAP-Supportdokumentation lesen

Wenn Sie ein SAP-Nutzerkonto haben, finden Sie die Lösung vieler SAP-Softwareprobleme in den SAP-Hinweisen und Artikeln aus der Wissensdatenbank für Adaptive Server Enterprise, die im SAP ONE-Support Launchpad verfügbar sind.

Logging

BigQuery-Connector für SAP sendet seine Lognachrichten an SAP LT Replication Server, wo Sie sie in den SAP LT Replication Server-Anwendungslogs ansehen können.

Diese Nachrichten umfassen die Nachrichten, die BigQuery-Connector für SAP von der BigQuery API empfängt.

Allgemeine BigQuery-Lognachrichten können in der Google Cloud Console angezeigt werden.

Anwendungslogs für SAP LT Replication Server

Alle Fehlermeldungen werden in den Standardanwendungslogs von SAP LT Replication Server gespeichert. Prüfen Sie die Anwendungslogs, um die Ursache von Problemen zu analysieren und zu beheben.

Sie können die für Ihre SAP LT Replication Server-Konfiguration spezifischen Anwendungslogs aufrufen. Dazu führen Sie die Transaktion LTRC aus, öffnen die Konfiguration und wählen Anwendungslogs aus.

Wählen Sie beim Aufrufen der Logs eine Tabellenzeile aus und klicken Sie auf eine Schaltfläche, um alle Fehlermeldungen aufzurufen. Wenn Sie für eine Replikation auf den Tab Anwendungslogs klicken, können Sie nach relevanten Laufzeitlognachrichten für die Replikation filtern.

Von BigQuery-Connector für SAP generierte Nachrichten

Allen Fehlern, die in BigQuery-Connector für SAP auftreten, bevor Datensätze an BigQuery gesendet werden, wird das Präfix /GOOG/SLT vorangestellt.

Von der BigQuery API zurückgegebenen Fehlern wird das Präfix /GOOG/MSG vorangestellt. Dazu gehören auch HTTP-Fehler.

Wenn einem Fehler keiner dieser Werte vorangestellt ist, wurde der Fehler von SAP LT Replication Server ausgegeben.

BigQuery-Logs

BigQuery schreibt verschiedene Logeinträge in Cloud Logging in der Google Cloud Console.

So rufen Sie BigQuery-Logeinträge auf:

  1. Öffnen Sie "Logging" in der Google Cloud Console.

    Zum Log-Explorer

  2. Geben Sie im Abfrageeditor eine BigQuery-Ressource an. Beispiel:

    resource.type="bigquery_dataset"

Weitere Informationen zu BigQuery-Logs finden Sie unter Logs.

HTTP-Trace

Sie können während der Fehlerbehebung den HTTP-Trace in der Transaktion SMICM oder ST05 aktivieren.

Deaktivieren Sie anschließend den HTTP-Trace, um die Auswirkungen auf die Leistung zu begrenzen.

Debugging

Wenn Sie die erforderliche Autorisierung haben, können Sie den BAdI-Code (Business Add-In) von BigQuery-Connector für SAP debuggen.

So beheben Sie Fehler im BAdI-Code:

  1. Falls Sie noch keine SAP-Autorisierungen haben, die zum Debuggen des BAdI-Codes erforderlich sind, fordern Sie diese von Ihrem SAP-Administrator an.

  2. Aktivieren Sie das Debugging. Geben Sie dazu im Feld der Transaktionseingabe in der SAP GUI /h ein und drücken Sie Enter.

  3. Wählen Sie im Menü Einstellungen die Option Debuggerprofil/-einstellungen ändern aus.

  4. Achten Sie darauf, dass unter Debugging-Modi die Option System-Debugging ausgewählt ist.

  5. Legen Sie nach Bedarf externe Haltepunkte im Code fest.

Monitoring

Sie können mehrere verschiedene Punkte entlang des Datenpfads von der SAP-Datenquelle zur BigQuery-Zieltabelle überwachen, darunter:

  • Infrastruktur – Netzwerk, Hardware und Betriebssystem
  • SAP-Datenbankebene
  • SAP-Anwendungsebene
  • BigQuery-Connector für SAP
  • BigQuery

Weitere Informationen zum Monitoring an den einzelnen Punkten finden Sie unter BigQuery-Connector für SAP – Betriebsleitfaden.

Datenabgleich

Es gibt drei Stellen, an denen Sie die Anzahl der Datensätze prüfen können:

  • Die Quelltabelle
  • Die SAP LT Replication Server-Lade- oder Replikationsstatistiken in der Transaktion LTRC
  • Die BigQuery-Zieltabelle

Mit dem Tool zur Replikationsvalidierung können Sie die Anzahl der Datensätze prüfen und vergleichen oder die Datensätze selbst durch Ausführen von SQL-Abfragen abrufen.

Weitere Informationen zum Datenabgleich finden Sie unter BigQuery-Connector für SAP – Betriebsleitfaden.

Häufige Konfigurationsprobleme

In diesem Abschnitt werden Lösungen für häufige Probleme beschrieben, die bei der Ersteinrichtung und -konfiguration von BigQuery-Connector für SAP auftreten können.

SAP LT Replication Server-Unterstützung für Datenbankdatentypen

Je nach SAP-Softwareversionen werden einige Datentypen in einer Quelldatenbank möglicherweise nicht von SAP LT Replication Server unterstützt. Weitere Informationen finden Sie im Abschnitt Wichtige Aspekte des SAP-Hinweises 1605140 – SAP Landscape Transformation Replication Server (SLT).

Problem: Betriebssystembefehl für Zugriffstoken funktioniert nicht in SAP LT Replication Server

Problem: Sie haben einen Betriebssystembefehl erstellt, um das Zugriffstoken auszugeben. Es funktioniert jedoch nicht in SAP LT Replication Server.

Ursache: Dieses Problem kann durch mehrere Probleme verursacht werden, wahrscheinlich jedoch dadurch, dass die für den Betriebssystembefehl erforderlichen Umgebungsvariablen nicht konfiguriert sind.

Lösung: Prüfen Sie, ob der Betriebssystembefehl richtig konfiguriert ist. Die Konfigurationsschritte finden Sie unter Betriebssystembefehl zur Ausgabe des Zugriffstokens erstellen.

Versuchen Sie, den printenv-Befehl sowohl über das Betriebssystem als sidadm als auch über die SAP-Transaktion SM69 auszuführen. Vergleichen Sie dann die Ausgabe.

Wenn die in Transaktion SM69 zurückgegebenen Variablen unvollständig sind, starten Sie SAP LT Replication Server neu, um die Variablen zu registrieren.

Problem: /GOOG/MSG: 413 - Request Entity Too Large

Problem: Die Datenübertragung ist mit der Fehlermeldung /GOOG/MSG: 413 - Request Entity Too Large fehlgeschlagen.

Ursache: Dieses Problem kann auftreten, wenn die Bytegröße des Blocks, der von BigQuery-Connector für SAP gesendet wird, die maximale Bytegröße für HTTP-Anfragen überschreitet, die BigQuery akzeptiert. Dies kann auftreten, wenn die Größe der Tabellendatensätze oder der Datenmenge, die in den Datensätzen enthalten ist, dazu führt, dass die Bytegröße eines Blocks das BigQuery-Limit überschreitet.

Lösung: Reduzieren Sie die Größe der Blöcke, die von BigQuery-Connector für SAP für diese Tabelle gesendet werden. Sie können die Blockgröße anpassen. Führen Sie dazu die Transaktion /GOOG/SLT_SETTINGS aus.

Informationen zur Größenanpassung von Blöcken finden Sie unter Blockgröße in BigQuery-Connector für SAP.

Problem: /GOOG/MSG: 503 - HTTP Communication Failure exception occurred during the request sending

Problem: Die Datenübertragung ist mit der Fehlermeldung /GOOG/MSG: 503 - HTTP Communication Failure exception occurred during the request sending fehlgeschlagen.

Ursache: Dieses Problem kann durch Verbindungs- oder Netzwerkprobleme verursacht werden.

Lösung: Überprüfen Sie Ihre Verbindung und achten Sie darauf, dass Ihr Netzwerk ordnungsgemäß eingerichtet ist, fehlerfrei ausgeführt wird und nicht überlastet ist.

Problem: /GOOG/MSG: 503 - HTTP Communication Failure exception occurred during the response receiving

Problem: Die Datenübertragung ist mit der Fehlermeldung /GOOG/MSG: 503 - HTTP Communication Failure exception occurred during the response receiving fehlgeschlagen.

Dieses Problem kann durch folgende Umstände verursacht werden:

SSL-Handshake ist fehlgeschlagen

Ursache: Wenn der SSL-Handshake zwischen dem SAP LT Replication Server-Host und dem BigQuery API-Endpunkt fehlgeschlagen ist. Dies tritt auf, wenn das vom TLS-Server bereitgestellte Zertifikat für den Zielhostnamen des SAP LT Replication Servers nicht gültig ist, möglicherweise weil das clientseitige Senden der optionalen TLS-Erweiterungs-SNI nicht auf Ihrem NetWeaver-Kernel implementiert.

Lösung: Suchen Sie in Transaktion SMICM nach dem Rückgabecode SSLERR_SERVER_CERT_MISMATCH. Wenn Sie den Rückgabecode SSLERR_SERVER_CERT_MISMATCH finden, müssen Sie das Senden der TLS-Erweiterungs-SNI aktivieren. Sorgen Sie außerdem dafür, dass Ihr NetWeaver-Kernel das clientseitige Senden der optionalen TLS-Erweiterungs-SNI implementiert.

Wenn Sie das Senden der TLS-Erweiterungs-SNI aktivieren möchten, setzen Sie den Profilparameter icm/HTTPS/client_sni_enabled oder ssl/client_sni_enabled je nach NetWeaver-Kernel-Version auf TRUE. Weitere Informationen von SAP finden Sie unter:

Die Bytegröße der Blöcke hat die maximale Bytegröße für HTTP-Anfragen überschritten, die BigQuery akzeptiert

Ursache: Wenn die Bytegröße des Blocks, der von BigQuery-Connector für SAP gesendet wird, die maximale Bytegröße für HTTP-Anfragen überschreitet, die von BigQuery akzeptiert wird. Dies kann auftreten, wenn die Größe der Tabellendatensätze oder der Datenmenge, die in den Datensätzen enthalten ist, dazu führt, dass die Bytegröße eines Blocks das BigQuery-Limit überschreitet.

Lösung: Reduzieren Sie die Größe der Blöcke, die von BigQuery-Connector für SAP für diese Tabelle gesendet werden. Sie können die Blockgröße anpassen. Führen Sie dazu die Transaktion /GOOG/SLT_SETTINGS aus. Weitere Informationen finden Sie unter Blockgröße in BigQuery-Connector für SAP.

Problem: /GOOG/MSG: 404 - Not found: Dataset DATASET_NAME

Problem: Bei dem Versuch, die Google Cloud-Sicherheit zu validieren oder Daten in eine BigQuery-Tabelle zu laden, erhalten Sie die Meldung /GOOG/MSG: 404 - Not found: Dataset DATASET_NAME.

Ursache: Dieses Problem kann durch folgende Umstände verursacht werden:

  • Das BigQuery-Dataset wurde noch nicht erstellt.
  • Der Dataset-Name ist in der Massenübertragungskonfiguration nicht korrekt angegeben.
  • Die Replikationskonfiguration im SAP LT Replication Server muss aktiviert sein.

Lösung: Versuchen Sie Folgendes:

  • Prüfen Sie, ob das Dataset in BigQuery erstellt wurde.
  • Prüfen Sie, ob der Dataset-Name in der Massenübertragungskonfiguration mit dem Dataset-Namen in BigQuery übereinstimmt.
  • Führen Sie die Transaktion LTRC aus und deaktivieren Sie die Replikationskonfiguration. Anschließend aktivieren Sie sie wieder.

Problem: Mass Transfer Key can not be found for Mass Transfer ID XXX

Problem: Sie erhalten die Fehlermeldung /GOOG/SLT: Mass Transfer Key can not be found for Mass Transfer ID XXX.

Ursache: Dieses Problem kann durch folgende Umstände verursacht werden:

  • Für die angegebene Massenübertragungs-ID ist keine Massenübertragungskonfiguration vorhanden.
  • Die entsprechende Replikationskonfiguration ist nicht aktiv.

Lösung: Führen Sie eine der folgenden Aktionen aus, um das Problem zu beheben:

  • Führen Sie die Transaktion /GOOG/SLT_SETTINGS aus und prüfen Sie, ob die Massenübertragungs-ID korrekt angegeben ist.
  • Führen Sie die Transaktion LTRC aus und deaktivieren Sie die Replikationskonfiguration. Anschließend aktivieren Sie sie wieder.

Problem: /GOOG/SLT : Unable to interpret VALUE as a BOOLEAN

Problem: Das Laden oder Replizieren eines Eintrags schlägt mit der Meldung /GOOG/SLT : Unable to interpret VALUE as a BOOLEAN fehl.

Ursache: Dieses Problem wird durch die Zuordnung eines Felds in der Quelltabelle zum BigQuery-Datentyp BOOLEAN verursacht, aber die Daten im Quellfeld werden nicht in einen booleschen Wert aufgelöst.

Lösung: Um dieses Problem zu beheben, ändern Sie mit der Transaktion /GOOG/SLT_SETTINGS den Datentyp, dem das Quellfeld zugeordnet ist, oder entfernen Sie die Datentypzuordnung und akzeptieren Sie den Standarddatentyp.

Problem: /GOOG/SLT: Failed to convert field SAP_FIELD_NAME value to field BIGQUERY_FIELD_NAME: ERROR_DETAILS

Problem: Das Laden oder Replizieren eines Eintrags schlägt mit der Meldung /GOOG/SLT: Failed to convert field SAP_FIELD_NAME value to field BIGQUERY_FIELD_NAME: ERROR_DETAILS fehl.

Ursache: Entweder enthält das Quellfeld einen ungültigen Wert oder es wird einem BigQuery-Datentyp zugeordnet, der keine gültige Zuordnung für die im Quellfeld enthaltenen Daten ist.

Lösung: Zum Beheben des Problems verwenden Sie die Transaktion /GOOG/SLT_SETTINGS, um den Datentyp zu ändern, dem das Quellfeld zugeordnet ist, oder Sie entfernen die Datentypzuordnung und akzeptieren die Standardzuordnung für den Datentyp.

Problem: /GOOG/MSG : Client key is not found in /GOOG/CLIENT_KEY table

Problem: Ein Ladevorgang oder eine Replikation wird nicht gestartet. Folgende Meldung wird angezeigt: /GOOG/MSG: Client key is not found in /GOOG/CLIENT_KEY table.

Ursache: Entweder ist der Clientschlüssel nicht vorhanden oder er wurde in der Massenübertragungskonfiguration der Transaktion /GOOG/SLT_SETTINGS falsch angegeben.

Lösung: Zum Beheben dieses Problems verwenden Sie entweder die Transaktion SM30, um den Clientschlüssel zu erstellen, oder die Transaktion /GOOG/SLT_SETTINGS, um die Spezifikation des Clientschlüsselwerts in der Massenübertragungskonfiguration zu korrigieren.

Häufige operative Probleme

In diesem Abschnitt werden Lösungen für häufige Probleme beschrieben, die nach der Ersteinrichtung von BigQuery-Connector für SAP auftreten können.

Problem: Falsche Anzahl von Schreibvorgängen in BigQuery

Problem: Die Anzahl der in BigQuery geschriebenen Datensätze ist höher als die Anzahl der Datensätze, die in den SAP LT Replication Server-Logs angezeigt werden.

Ursache: Dies kann mehrere Ursachen haben, darunter vorübergehende Verbindungsprobleme, die dazu führen, dass SAP LT Replication Server Einträge mehrmals sendet, oder dass die BigQuery-Tabelle nur Einfügungen akzeptiert und jede Änderung an einem einzelnen Datensatz in der Quelle als separater Eintrag in die Zieltabelle eingefügt wird.

Lösung: Wenn der Unterschied in der Anzahl der Datensätze nicht sehr groß ist und nicht weniger Einträge in BigQuery als in der Quelltabelle vorhanden sind, ist dies das erwartete Verhalten und kein Problem.

Fragen Sie die BigQuery-Tabelle ab, wie in SQL-Abfragen für Datensatzanzahl beschrieben, um die Anzahl der Datensätze in BigQuery mit der Anzahl der Datensätze in der Quelltabelle genau abzugleichen.

Weitere Informationen zu möglichen Ursachen dieses Problems finden Sie unter Besondere Überlegungen zu ABAP-Quellen/-Zielen in HANA.

Problem: /GOOG/MSG : 400 - Schema mismatch for table TABLE_NAME

Problem: Sie erhalten die Fehlermeldung /GOOG/MSG : 400 - Schema mismatch for table TABLE_NAME. Please delete the table from BigQuery and try again..

Ursache: Eine der folgenden Änderungen wurde für eine vorhandene BigQuery-Tabelle eingegeben:

  • Löschen eines Felds
  • Umbenennen eines Felds
  • Ändern des Datentyps eines Felds
  • Ändern des Partitionstyps einer Tabelle

Die vorherigen Änderungen können nicht auf eine vorhandene BigQuery-Tabelle angewendet werden.

Lösung: Wenn Sie eines dieser Feldattribute in einer vorhandenen Tabelle ändern müssen, müssen Sie die vorhandene Tabelle löschen und die Datensätze in eine neue Tabelle laden.

Wenn die Änderung versehentlich vorgenommen wurde, machen Sie sie in SAP LT Replication Server rückgängig.

Weitere Informationen zum Konfigurieren von Feldern und Partitionen in einer BigQuery-Zieltabelle finden Sie unter Konfiguration der BigQuery-Replikation.

Problem: Fehlermeldungen im Zusammenhang mit ungültigen Daten

Problem: In den Anwendungslogs erhalten Sie die Fehlermeldung /GOOG/MSG/: DESCRIPTION_OF_INVALID_DATA error occurred in FIELD_NAME in record RECORD_KEYS.

Ursache: Diese Fehlermeldung wird von BigQuery ausgegeben, wenn die Datensätze mit ungültigen Daten in die Zieltabelle eingefügt werden. Die Daten können aus einem der folgenden Gründe ungültig sein:

  • Die Daten im Feld eines bestimmten Eintrags sind nicht mit dem Datentyp in BigQuery kompatibel. BigQuery generiert beispielsweise unter diesen Umständen Fehlermeldungen:
    • Ein String wird in einem Feld vom Typ DATE, INTEGER oder BOOLEAN verwaltet.
    • In einem Feld vom Typ DATE wird ein ungültiges Datum (00/00/0000) verwaltet.
  • Ein falscher Zieldatentyp wird in den Feldzuordnungen in Transaktion /GOOG/SLT_SETTINGS verwaltet.

Für jeden Datensatz, der ein Feld mit ungültigen Daten enthält, wird von BigQuery eine Fehlermeldung ausgegeben.

Lösung: Analysieren Sie die Fehlermeldung DESCRIPTION_OF_INVALID_DATA, um die mögliche Ursache für ungültige Daten zu verstehen. Verwenden Sie RECORD_KEYS zum Identifizieren des Datensatzes mit dem Feld, das die ungültigen Daten enthält. Dieses enthält den Inhalt der ersten fünf Felder des Datensatzes. Wenn die Tabelle maximal fünf Felder hat, ist der Inhalt aller Felder in RECORD_KEYS enthalten.

  • Wenn die Daten im Feld nicht mit dem Datentyp in BigQuery kompatibel sind, korrigieren Sie die Daten in der Quelltabelle.
  • Wenn der Fehler aufgrund einer Abweichung zwischen den Daten und dem Datentyp aufgetreten ist, verwenden Sie die Transaktion /GOOG/SLT_SETTINGS, um einen entsprechenden Datentyp anzugeben. Weitere Informationen zur Datentypzuordnung finden Sie unter Datentypzuordnung.

Support anfordern

Wenn Sie Hilfe bei der Behebung von Problemen mit der Replikation und mit BigQuery-Connector für SAP benötigen, erfassen Sie alle verfügbaren Diagnoseinformationen und wenden Sie sich an Cloud Customer Care.

Weitere Informationen zur Kontaktaufnahme mit Cloud Customer Care finden Sie unter Support für SAP in Google Cloud.