In diesem Dokument wird beschrieben, wie SAP-Administratoren, SAP-Entwickler oder andere Personen operative Aufgaben für das BigQuery Toolkit für SAP ausführen.
Dynamische Blockgröße
Wenn Fehler auftreten, weil die Bytegröße der Blöcke die maximale Bytegröße für HTTP-Anfragen überschreitet, die von BigQuery akzeptiert wird, müssen Sie die Bytegröße manuell reduzieren, indem Sie die Blockgröße verringern. Mit der dynamischen Blockgröße können Sie die Blockgröße automatisch reduzieren und einen Replikationsversuch in BigQuery wiederholen, wenn die Bytegröße eines Blocks die maximale Bytegröße für HTTP-Anfragen überschreitet, die von BigQuery akzeptiert wird. Mit der dynamischen Blockgröße können Sie die meisten Replikationsfehler verhindern, die auftreten, wenn die Bytegröße einer Anfrage überschritten wird. Sie können nur dann einen Fehler erhalten, wenn die Blockgröße 1 erreicht, die Bytegröße jedoch größer als das BigQuery-Limit für die Anzahl von Byte in jeder HTTP-Anfrage bleibt.
Sie aktivieren die dynamische Blockgröße in der Datenübertragungskonfiguration für eine Tabelle mit der Transaktion /GOOG/BQTR_SETTINGS
. Die dynamische Blockgröße ist eine optionale Einstellung. Informationen zum Aktivieren der dynamischen Blockgröße finden Sie unter Tabellenerstellung und andere allgemeine Attribute angeben.
Wenn das BigQuery Toolkit for SAP die Blockgröße reduziert, wird die folgende Informationsmeldung im Parameter et_return
an die aufrufende ABAP-Anwendung zurückgegeben:
Dynamic chunking triggered. Chunk size reduced from
INITIAL_CHUNK_SIZE_VALUE to FINAL_REDUCED_CHUNK_SIZE_VALUE
Einstellungen für die Massenübertragung in die Produktion transportieren
Wenn Sie das BigQuery-Toolkit für SAP-Übertragungs-Massenübertragungseinstellungen in die Produktion übertragen möchten, exportieren Sie zuerst die Einstellungen aus einem Entwicklungssystem und importieren sie diese dann in das Produktionssystem.
Sie können optional zwei separate Teile der Einstellungen einer Massenübertragung in die Produktion importieren:
- Die Clientschlüsseleinstellungen aus der Tabelle
/GOOG/CLIENT_KEY
, auf die über die TransaktionSM30
zugegriffen werden kann. - BigQuery Toolkit für SAP – die Einstellungen für die Massenübertragung, auf die mit der Transaktion
/GOOG/BQTR_SETTINGS
zugegriffen werden kann.
Massenübertragungseinstellungen aus einem Entwicklungssystem exportieren
Exportieren Sie in Ihrem SAP-Entwicklungssystem jeden Teil der Massenübertragungseinstellungen:
Exportieren Sie die BigQuery-Toolkit-Einstellungen für die Massenübertragung von SAP:
Führen Sie in der SAP-GUI den Transaktionscode
/GOOG/SDK_IMG
aus.Alternativ können Sie den Transaktionscode
SPRO
ausführen und dann auf SAP-Referenz-IMG klicken.Klicken Sie auf ABAP SDK for Google Cloud > Grundlegende Einstellungen > BigQuery Data Transfer: Einstellungen verwalten.
Wählen Sie im Feld Einstellungstabelle die Option Massenübertragung aus.
Wählen Sie die Massenübertragungsdatensätze aus, die Sie in die Produktion übertragen.
Klicken Sie auf Massentransfer übertragen.
Geben Sie in die Eingabeaufforderung für Workbench-Anfrage die Nummer der Übertragungsanfrage ein und klicken Sie auf Weiter. Für jeden ausgewählten Massenübertragungsdatensatz sind die Einstellungen aus den folgenden benutzerdefinierten Konfigurationstabellen in der Übertragung enthalten:
/GOOG/BQTR_MASTR
/GOOG/BQTR_TABLE
/GOOG/BQTR_FIELD
Die Einstellungen für die Massenübertragung werden in einer Übertragungsanfrage gespeichert.
Exportieren Sie die Einstellungen für den Clientschlüssel, indem Sie den Inhalt der Tabelle
/GOOG/CLIENT_KEY
manuell in die Übertragungsanfrage aufnehmen.Speichern Sie die Dateien auf Ihrer lokalen Workstation.
Massenübertragungseinstellungen in ein Produktionssystem importieren
Importieren Sie die Übertragungsanfrage, die die Massenübertragungseinstellungen enthält.
Importieren Sie in das SAP-Produktionssystem alle Teile der Massenübertragungseinstellungen:
Importieren Sie in der SAP-GUI die Übertragungsanfrage, die die Massenübertragungseinstellungen enthält.
Führen Sie in der SAP-GUI den Transaktionscode
/GOOG/SDK_IMG
aus.Alternativ können Sie den Transaktionscode
SPRO
ausführen und dann auf SAP-Referenz-IMG klicken.Klicken Sie auf ABAP SDK for Google Cloud > Grundlegende Einstellungen > Clientschlüssel konfigurieren.
Aktualisieren Sie die Clientschlüsseleinstellungen nach Bedarf für die Produktionsumgebung.
Klicken Sie auf ABAP SDK for Google Cloud > Grundlegende Einstellungen > BigQuery Data Transfer: Einstellungen verwalten.
Prüfen Sie, ob im Bildschirm Massenübertragungen die Massenübertragungen angezeigt werden.
Aktualisieren Sie in den nachfolgenden Einstellungsbildschirmen für Tabellen und Felder weitere Werte für die Zuordnung von Tabellen und Feldern, die für die Produktionsumgebung erforderlich sind.
Testen Sie die Konfiguration, indem Sie das Datenladeprogramm ausführen, das das BigQuery Toolkit für SAP aufruft.
Einstellungen für die BigQuery-Datenübertragung aufrufen
So rufen Sie die Einstellungen für die Massenübertragung des BigQuery Data Transfer-Moduls auf:
Führen Sie in der SAP-GUI den Transaktionscode
/GOOG/SDK_IMG
aus.Alternativ können Sie den Transaktionscode
SPRO
ausführen und dann auf SAP-Referenz-IMG klicken.Klicken Sie auf ABAP SDK for Google Cloud > Grundlegende Einstellungen > BigQuery Data Transfer: Einstellungen anzeigen.
Alternativ können Sie die Einstellungen mit der Transaktion /GOOG/BQTR_SETTINGS
aufrufen.
Replikationsvalidierung
Wenn Sie in der Konfiguration der Massenübertragung die Option Flag für zusätzliche Felder angeben, fügt das BigQuery Toolkit für SAP dem Tabellenschema in BigQuery zusätzliche Spalten hinzu. In diesen Spalten werden die folgenden Details erfasst:
- Informationen zur Art der Änderung, die die Replikation für jeden Datensatz ausgelöst hat.
- Ein Zeitstempel, der angibt, wann das BigQuery Toolkit for SAP den Teil mit diesem Datensatz erhalten hat.
Anhand der Informationen in diesen Spalten können Sie den Replikationsprozess validieren und so für Datenintegrität und ‑konsistenz zwischen Ihrem SAP-System und BigQuery sorgen. Sie können die Änderungstypen und den Zeitstempel verwenden, um die folgenden Arten von Datensatzzahlen abzufragen:
- Die Anzahl der Datensätze, die während eines anfänglichen Ladevorgangs in eine BigQuery-Tabelle geladen werden
- Die Anzahl der Datensätze, die an einem bestimmten Tag in eine BigQuery-Tabelle repliziert werden
- Die Gesamtzahl der eindeutigen Datensätze in einer BigQuery-Tabelle
Um diese Anzahlen zu erhalten, können Sie die BigQuery-Tabelle direkt abfragen. Dazu senden Sie SQL-Abfragen in der Google Cloud Console.
Eine Übersicht über das Flag der zusätzlichen Felder finden Sie unter Zusätzliche Felder für Datensatzänderungen und Anzahlabfragen.
SQL-Abfragen für Datensatzanzahl
Auf der Seite SQL-Editor in der Google Cloud Console können Sie SQL-Abfragen ausführen, um die Anzahl der Datensätze in Ihren BigQuery-Tabellen zu prüfen.
Anzahl der Datensätze abfragen, die im anfänglichen Lademodus eingefügt wurden
Wenn ein BigQuery-Tabellenschema die optionale Spalte operation_flag
enthält, enthalten Datensätze, die im anfänglichen Lademodus in die Tabelle eingefügt werden, das Vorgangs-Flag L
.
Führen Sie die folgende Abfrage aus, um die Anzahl der Datensätze zu erhalten, die während eines anfänglichen Ladevorgangs von BigQuery empfangen wurden:
SELECT COUNT(*) FROM `PROJECT.DATASET.TABLE` WHERE operation_flag = 'L'
Anzahl der im Replikationsmodus eingefügten Datensätze abfragen
Wenn ein BigQuery-Tabellenschema die optionale Spalte operation_flag
enthält, enthalten Datensätze, die im Replikationsmodus in die Tabelle eingefügt werden, eines der folgenden Vorgangs-Flags:
I
: Der Datensatz wurde in die Quelltabelle eingefügt.D
: Der Datensatz wurde aus der Quelltabelle gelöscht.U
: Der Datensatz wurde in der Quelltabelle aktualisiert.
Führen Sie die folgende Abfrage aus, um die Anzahl der Datensätze zu ermitteln, die BigQuery im Replikationsmodus empfangen hat:
SELECT COUNT(*) FROM `PROJECT.DATASET.TABLE` WHERE operation_flag = 'I' | 'D' | 'U'
Gesamtzahl der Datensätze in einer BigQuery-Tabelle abfragen
Wenn ein BigQuery-Tabellenschema die optionale Spalte recordstamp
enthält, enthält das entsprechende recordstamp
-Feld jedes Datensatzes, der in die Tabelle eingefügt wird, einen Zeitstempel, der angibt, wann der Datensatz von BigQuery Toolkit for SAP an BigQuery gesendet wurde.
Um die Gesamtzahl der Datensätze in einer BigQuery-Tabelle zu ermitteln, die Sie mit der Gesamtzahl der Datensätze in einer Quelltabelle vergleichen können, können Sie mit den Feldern recordstamp
und is_deleted
eindeutige Datensätze in der BigQuery-Tabelle zählen, die nicht aus der Quelltabelle gelöscht wurden.
Wenn die Quelltabelle aktiv aktualisiert wird oder die Replikation beim Abfragen der Datensätze aktiv ist, stimmt die Anzahl der Datensätze in den Quell- und Zieltabellen möglicherweise nicht genau überein.
Führen Sie die folgende Abfrage aus, um die aktuelle Anzahl der eindeutigen Datensätze in der BigQuery-Zieltabelle abzurufen:
SELECT COUNT(*) FROM ( SELECT *, ROW_NUMBER() OVER (PARTITION BY KEY_FIELD_1, ..., KEY_FIELD_N ORDER BY recordstamp DESC) row_num FROM `PROJECT.DATASET.TABLE` ) WHERE row_num = 1 AND is_deleted = false
BigQuery-Feldzuordnung in einer CSV-Datei bearbeiten
In den folgenden Abschnitten wird beschrieben, wie Sie die Standardfeldzuordnung exportieren, sodass Data Engineers oder BigQuery-Administratoren die Zielfeldwerte bearbeiten können, ohne Zugriff auf das SAP-System zu benötigen.
Beachten Sie beim Bearbeiten der Werte für das Zielfeld die folgenden Regeln:
- Ändern Sie die Werte in den Spalten Name der SAP-Datenquelle und SAP-Feldname nicht.
- Wenn Sie die Datensatzkomprimierung aktivieren möchten, geben Sie in der Spalte Flag „Unkomprimiert senden“ nur
X
ein. Andernfalls lassen Sie das Feld leer.
Tabelle oder Textdatei mit den Standardfeldzuordnungen erstellen
So erstellen Sie eine CSV-Datei zur Bearbeitung außerhalb Ihres SAP-Servers:
Führen Sie in der SAP-GUI den Transaktionscode
/GOOG/SDK_IMG
aus.Alternativ können Sie den Transaktionscode
SPRO
ausführen und dann auf SAP-Referenz-IMG klicken.Klicken Sie auf ABAP SDK for Google Cloud > Grundlegende Einstellungen > BigQuery Data Transfer: Einstellungen verwalten.
Geben Sie auf dem Bildschirm Wartung der BigQuery Data Transfer-Einstellungen die folgenden Werte ein:
- Geben Sie im Feld Einstellungstabelle die Option Felder an.
- Geben Sie im Feld Massenübertragungsschlüssel die ID der zu aktualisierenden Massenübertragung an.
- Im Feld Tabellenname lassen Sie das Feld entweder leer, um mit allen Feldern aus allen Tabellen zu arbeiten, oder Sie geben einen Tabellennamen an, um mit einer bestimmten Tabelle zu arbeiten.
- Lassen Sie alle anderen Felder leer.
Klicken Sie auf das Symbol Ausführen. Der Bildschirm Wartung der BigQuery Data Transfer-Einstellungen – Felder wird angezeigt.
Blenden Sie im Bildschirm BigQuery-Einstellungen für die Datenübertragung warten – Felder alle Spalten mit Ausnahme der in der folgenden Liste aufgeführten aus, indem Sie mit der rechten Maustaste auf die Spaltenüberschriften klicken und aus dem Drop-down-Menü Ausblenden wählen:
- Name der SAP-Datenquelle
- SAP-Feldname
- Externes Datenelement
- Externer Feldname
- Feldbeschreibung
- Flag „Unkomprimiert senden“
Klicken Sie, wenn alle sechs Spalten angezeigt werden, auf das Symbol Exportieren.
Wählen Sie im Menü Exportieren eine der folgenden Optionen aus:
- Tabelle
- Lokale Datei. Für eine einfache Konvertierung des Dateiinhalts in das CSV-Format empfehlen wir, die Datei im Format Text mit Tabs zu speichern.
Speichern Sie die Standardfeldzuordnungen, indem Sie auf das Häkchensymbol klicken.
Tabelle oder Textdatei ins CSV-Format konvertieren
Um bearbeitete Feldzuordnungen mithilfe der benutzerdefinierten Transaktion /GOOG/BQTR_SETTINGS
hochzuladen, müssen die Feldzuordnungen im CSV-Format vorliegen.
Wenn Sie eine Tabelle verwenden, speichern Sie die Tabelle als CSV-Datei, bevor Sie die Datei hochladen.
Wenn Sie eine lokale Datei in einem tabulatorgetrennten Format oder einem anderen Format verwenden, müssen Sie die Datei so ändern, dass sie dem CSV-Format entspricht.
Beispiel:
SAP Table,SAP Field Name,External Data Element,External Field Name,Field Description, Send Uncompressed Flag SAP_TABLE_NAME,SAP_FIELD_NAME1,BIGQUERY_DATA_TYPE,BIGQUERY_FIELD_NAME1,BIGQUERY_FIELD_DESCRIPTION1, SEND_UNCOMPRESSED_FLAG1 SAP_TABLE_NAME,SAP_FIELD_NAME2,BIGQUERY_DATA_TYPE,BIGQUERY_FIELD_NAME2,BIGQUERY_FIELD_DESCRIPTION2, SEND_UNCOMPRESSED_FLAG2 SAP_TABLE_NAME,SAP_FIELD_NAME3,BIGQUERY_DATA_TYPE,BIGQUERY_FIELD_NAME3,BIGQUERY_FIELD_DESCRIPTION3, SEND_UNCOMPRESSED_FLAG3
CSV-Datei hochladen
So laden Sie eine bearbeitete CSV-Datei hoch:
Führen Sie in der SAP-GUI den Transaktionscode
/GOOG/SDK_IMG
aus.Alternativ können Sie den Transaktionscode
SPRO
ausführen und dann auf SAP-Referenz-IMG klicken.Klicken Sie auf ABAP SDK for Google Cloud > Grundlegende Einstellungen > BigQuery Data Transfer: Einstellungen verwalten.
Geben Sie auf dem Bildschirm BigQuery Data Transfer: Einstellungen warten die folgenden Werte ein:
- Geben Sie im Feld Einstellungstabelle die Option Felder an.
- Geben Sie im Feld Massenübertragungsschlüssel die ID der zu aktualisierenden Massenübertragung an.
- Klicken Sie das Kästchen Aus Datei hochladen an.
Klicken Sie auf das Symbol Ausführen. Das Dialogfeld Datei zum Hochladen auswählen wird geöffnet.
Wählen Sie im Dialogfeld Datei zum Hochladen auswählen die CSV-Datei aus, die die bearbeiteten Feldwerte enthält.
Klicken Sie auf Öffnen.
Wenn Sie eine Sicherheitswarnung erhalten, klicken Sie auf Zulassen. Die Datei wird geladen und die geänderten Werte in der Datei werden in den entsprechenden Zeilen auf dem Bildschirm Wartung der BigQuery-Einstellungen – Felder angezeigt.
Klicken Sie auf das Symbol Speichern.
Vergleichen Sie die Werte in der CSV-Datei mit den Werten, die in Ihrem SAP-System angezeigt werden, um zu überprüfen, ob die Werte übernommen wurden.
Umgang mit Fehlern in den Quelldaten
Wenn die BigQuery Streaming API einen Datensatzblock von BigQuery Toolkit für SAP empfängt, prüft sie auf Datenfehler, bevor Datensätze in die BigQuery-Tabelle eingefügt werden.
Sie können steuern, wie die BigQuery API und das BigQuery Toolkit für SAP reagieren, wenn Datenfehler gefunden werden. Geben Sie dazu die folgenden Flags in den Einstellungen für die Massenübertragung an:
- The Flag
Skip Invalid Records
(SKIP
) - The Flag
Break at First Error Flag
(BREAK
)
Das Flag SKIP
Wenn Sie das Flag SKIP
angeben und die BigQuery API einen Datensatzblock empfängt und einen Datensatz mit einem Datenfehler findet, verwirft (oder überspringt) die BigQuery API den Datensatz mit dem Fehler und fügt die anderen Datensätze des Blocks in die BigQuery-Tabelle ein.
Wenn Sie das Flag SKIP
nicht angeben und BigQuery einen Datensatz mit einem Datenfehler findet, verwirft BigQuery den gesamten Datensatzblock, ohne Datensätze in die BigQuery-Tabelle einzufügen. Das ist das Standardverhalten.
Die Angabe des Flags SKIP
eignet sich am besten für Entwicklungs- und QA-Umgebungen und wird für Produktionsumgebungen nicht empfohlen.
Sie können das Flag SKIP
in der Transaktion /GOOG/BQTR_SETTINGS
angeben, wenn Sie die Replikation konfigurieren. Die Spezifikation wird in der Konfigurationstabelle /GOOG/BQTR_MASTR
gespeichert.
Informationen zur Interaktion von SKIP
-Spezifikationen mit BREAK
-Spezifikationen finden Sie unter Matrixtabelle für SKIP
- und BREAK
-Interaktionen.
Das Flag BREAK
Wenn Sie das Flag BREAK
angeben und BigQuery Toolkit für SAP von der BigQuery API benachrichtigt wird, dass in einem Datensatz ein Datenfehler gefunden wurde, sendet BigQuery Toolkit für SAP keine Datensätze mehr an BigQuery und beendet den Replikationsjob. Das ist das Standardverhalten.
Wenn Sie das Flag BREAK
nicht angeben und BigQuery Toolkit for SAP von BigQuery benachrichtigt wird, dass in einem Datensatz ein Datenfehler gefunden wurde, sendet BigQuery Toolkit for SAP den nächsten Datensatzblock an BigQuery und der Replikationsjob wird fortgesetzt.
In Produktionsumgebungen wird empfohlen, das Flag BREAK
anzugeben.
Sie können das Flag BREAK
in der Transaktion /GOOG/BQTR_SETTINGS
angeben, wenn Sie die Replikation konfigurieren.
Wenn Sie einen neuen Massenübertragungsschlüssel erstellen, ist das BREAK
-Flag standardmäßig aktiviert.
Die Spezifikation wird in der Konfigurationstabelle /GOOG/BQTR_MASTR
gespeichert.
Informationen zur Interaktion von BREAK
-Spezifikationen mit SKIP
-Spezifikationen finden Sie unter Matrixtabelle für SKIP
- und BREAK
-Interaktionen.
Matrixtabelle für SKIP
- und BREAK
-Interaktionen
Sie können das BigQuery Data Transfer-Modul so konfigurieren, dass Datenfehler folgendermaßen behandelt werden:
SKIP Flag |
BREAK Flag |
Verhalten |
---|---|---|
FALSE | TRUE |
BigQuery verwirft den aktuellen Datensatzblock, ohne Datensätze aus dem aktuellen Block in die BigQuery-Tabelle einzufügen. BigQuery Toolkit for SAP sendet keine weiteren Datensatzblöcke aus dem aktuellen Bereich und beendet den Replikationsjob. Dies ist die Standardeinstellung, die auch empfohlen wird. |
FALSE | FALSE |
BigQuery verwirft den aktuellen Datensatzblock, ohne Datensätze aus dem aktuellen Block in die BigQuery-Tabelle einzufügen. BigQuery Toolkit für SAP sendet alle verbleibenden Datensatzblöcke aus dem aktuellen Bereich und ruft den nächsten Bereich ab. BigQuery Toolkit for SAP beendet den Replikationsjob nicht. |
TRUE | TRUE |
BigQuery verwirft nur den Datensatz, der den Fehler enthält, und fügt den Rest der Datensätze im aktuellen Block in die BigQuery-Tabelle ein. BigQuery Toolkit for SAP sendet keine weiteren Datensatzblöcke aus dem aktuellen Bereich und beendet den Replikationsjob. |
TRUE | FALSE |
BigQuery verwirft nur den Datensatz, der den Fehler enthält, und fügt den Rest der Datensätze im aktuellen Block in die BigQuery-Tabelle ein. BigQuery Toolkit für SAP sendet alle verbleibenden Datensatzblöcke aus dem aktuellen Bereich und ruft den nächsten Bereich ab. BigQuery Toolkit for SAP beendet den Replikationsjob nicht. |
Änderungen an der Struktur von SAP-Wörterbuchobjekten
In diesem Abschnitt wird beschrieben, wie Sie Änderungen an der Definition Ihrer Wörterbuchobjekte in SAP handhaben.
Wörterbuchobjekt eine Spalte hinzufügen
So fügen Sie einem Dictionary-Objekt eine Spalte hinzu:
- Beenden Sie die benutzerdefinierte Datenreplizierungsanwendung, die die Datenladeklasse
/GOOG/CL_BQTR_DATA_LOAD
verwendet. - Fügen Sie dem Wörterbuchobjekt in SAP eine neue Spalte hinzu.
- Optional können Sie die Zuordnung auf Feldebene in der Transaktion
/GOOG/BQTR_SETTINGS
aktualisieren. - Starten Sie die Anwendung für die benutzerdefinierte Datenreplikation neu.
- Validieren Sie das Replikationsergebnis in BigQuery.
Spalte aus Wörterbuchobjekt löschen
So löschen Sie eine vorhandene Spalte aus einem Dictionary-Objekt:
- Beenden Sie die benutzerdefinierte Datenreplizierungsanwendung, die die Datenladeklasse
/GOOG/CL_BQTR_DATA_LOAD
verwendet. - Löschen Sie eine Spalte aus dem Dictionary-Objekt.
- Löschen Sie in BigQuery die Spalte aus der BigQuery-Zieltabelle. Weitere Informationen zum Löschen einer Spalte aus einer vorhandenen Tabelle finden Sie in der BigQuery-Dokumentation.
- Optional können Sie die Zuordnung auf Feldebene in der Transaktion
/GOOG/BQTR_SETTINGS
aktualisieren. - Starten Sie die Anwendung für die benutzerdefinierte Datenreplikation neu.
- Validieren Sie das Replikationsergebnis in BigQuery.
Datentyp einer vorhandenen Spalte ändern
Wenn Sie den Datentyp einer vorhandenen Spalte in einem SAP-Wörterbuchobjekt ändern, müssen Sie bestimmte Schritte ausführen, je nachdem, ob Sie den Datentyp in einen Datentyp ändern, der mit der BigQuery-Zieltabelle kompatibel oder nicht kompatibel ist.
Ein Datentyp ist mit dem Datentyp in der BigQuery-Zieltabelle kompatibel, wenn der vorhandene Datentyp und der neue Datentyp einer vorhandenen Spalte demselben Datentyp in der BigQuery-Zieltabelle zugeordnet sind. Wenn beispielsweise der Datentyp einer Spalte in einer Quelltabelle von INT1
in INT2
geändert wird, sind beide Datentypen mit dem Datentyp INTEGER
in der BigQuery-Zieltabelle kompatibel.
Weitere Informationen zur Datentypzuordnung im BigQuery Data Transfer-Modul finden Sie unter Datentypzuordnung.
Datentyp in einen kompatiblen Datentyp ändern
So ändern Sie den Datentyp einer vorhandenen Spalte in einen kompatiblen Datentyp:
- Optional können Sie die benutzerdefinierte Datenreplizierungsanwendung beenden, die die Datenladeklasse
/GOOG/CL_BQTR_DATA_LOAD
verwendet. - Ändern Sie den Datentyp im Quellsystem in einen kompatiblen Datentyp.
- Optional können Sie die Zuordnung auf Feldebene in der Transaktion
/GOOG/BQTR_SETTINGS
aktualisieren. - Starten Sie die Anwendung neu, wenn Sie sie angehalten haben.
- Validieren Sie das Replikationsergebnis in BigQuery.
Datentyp in einen nicht kompatiblen Datentyp ändern
So ändern Sie den Datentyp einer vorhandenen Spalte in einen nicht kompatiblen Datentyp:
- Beenden Sie die benutzerdefinierte Datenreplizierungsanwendung, die die Datenladeklasse
/GOOG/CL_BQTR_DATA_LOAD
verwendet. - Löschen Sie in BigQuery die Zieltabelle.
- Ändern Sie den Datentyp im Quellsystem.
- Optional können Sie die Zuordnung auf Feldebene in der Transaktion
/GOOG/BQTR_SETTINGS
aktualisieren. - Starten Sie Ihre benutzerdefinierte Datenreplizierungsanwendung. Gegebenenfalls müssen Sie vorhandene Daten zuerst laden.
Optimierungspunkte
Das BigQuery Toolkit for SAP bietet mehrere Optimierungspunkte in seinem Code, an denen ein ABAP-Entwickler Code einfügen kann, um benutzerdefinierte Funktionen hinzuzufügen.
Klassen
Die folgende Tabelle enthält die Funktionen, die von den Optimierungspunkten unterstützt werden, die Methoden sowie die Klasse, die den Optimierungspunkt enthält.
Funktion | Klasse | Methode | Spot | Option |
---|---|---|---|---|
Aktualisieren Sie die Zuordnung für ein Feld, z. B. den externen Feldnamen und den Datentyp. | /GOOG/CL_BQTR_DATA_LOAD_BASE |
CREATE_FLD_MAPPINGS |
/GOOG/ES_BQTR_DATA_LOAD_BASE |
/GOOG/UPDATE_FIELD_MAPPING |
Aktualisieren Sie die Zuordnung für die Feldtabelle, indem Sie Felder hinzufügen oder entfernen. | /GOOG/CL_BQTR_DATA_LOAD_BASE |
CREATE_FLD_MAPPINGS |
/GOOG/ES_BQTR_DATA_LOAD_BASE |
/GOOG/UPDATE_FIELD_MAPPINGS |
Ändern Sie den Wert eines Quellfelds, bevor das Feld in ein Zielfeld konvertiert wird. | /GOOG/CL_BQTR_DATA_LOAD |
FILL_TARGET_RECORDS |
/GOOG/ES_BQTR_DATA_LOAD |
/GOOG/CHANGE_SOURCE_FIELD |
Nachdem ein Quellfeld in ein Zielfeld in der Zieltabelle umgewandelt wurde, ändern Sie den Wert des Zielfelds. | /GOOG/CL_BQTR_DATA_LOAD |
FILL_TARGET_RECORDS |
/GOOG/ES_BQTR_DATA_LOAD |
/GOOG/FILL_TARGET_FIELD |
Fügen Sie der Zieltabelle während der Konvertierung von der Quell- zur Zieltabelle ein Feld hinzu, das nicht in der Quelltabelle vorhanden ist. | /GOOG/CL_BQTR_DATA_LOAD |
FILL_TARGET_RECORDS |
/GOOG/ES_BQTR_DATA_LOAD |
/GOOG/FILL_EXTRA_FIELD |
Bereiten Sie ein BigQuery-Schemafeld vor, bevor die BigQuery-Tabelle erstellt wird. | /GOOG/CL_BQTR_CLIENT_BQ_BASE |
PREP_BQ_TABLE_SCHEMA |
/GOOG/ES_BQTR_CLIENT_BQ |
/GOOG/PREPARE_SCHEMA_FIELD |
Bei HTTP-Fehlern, die auf der BigQuery-Serverseite auftreten, können Sie zur Fehlerbehebung Logging-Daten nach den HTTP-Aufrufen an die BigQuery API erfassen. | /GOOG/CL_BQTR_CLIENT_BQ_REPL |
INSERT_TABLEDATA |
/GOOG/ES_BQTR_CLIENT_BQ_REPL |
/GOOG/LOG_INSERT_ERROR |
Berichte
Die folgende Tabelle enthält die Funktionen, die von den Optimierungspunkten unterstützt werden, die Methoden sowie die Berichte, die den Optimierungspunkt enthalten.
Funktion | Bericht | Methode | Spot | Option |
---|---|---|---|---|
Dem BigQuery Data Transfer-Einstellungsprogramm Berechtigungsprüfungen hinzufügen | /GOOG/R_BQTR_SETTINGS |
AUTHORITY_CHECK |
/GOOG/ES_BQTR_SETTINGS |
/GOOG/AUTHORITY_CHECK |
Erweiterte Einstellungen
Optional können Sie die erweiterten Einstellungen für BigQuery Toolkit für SAP ändern. Wir empfehlen, die Parameter der erweiterten Einstellungen nur nach einer umfassenden Analyse der Auswirkungen neuer Werte auf die Leistung zu ändern. Sie sind dafür verantwortlich, dass die neuen erweiterten Einstellungen für BigQuery Toolkit for SAP keine Fehler und keine Leistungsprobleme verursachen.
Erweiterte Einstellungen für BigQuery Toolkit für SAP werden auf Systemebene angewendet und gelten für alle Massenübertragungsschlüssel. Wenn die Parameter für die erweiterten Einstellungen nicht geändert werden, arbeitet BigQuery Toolkit für SAP mit den Standardeinstellungen.
So ändern Sie die Parameter für die erweiterten Einstellungen:
Führen Sie in der SAP-GUI den Transaktionscode
/GOOG/SDK_IMG
aus.Alternativ können Sie den Transaktionscode
SPRO
ausführen und dann auf SAP-Referenz-IMG klicken.Klicken Sie auf ABAP SDK for Google Cloud > Grundlegende Einstellungen > BigQuery Data Transfer: Einstellungen verwalten.
Wählen Sie im Drop-down-Menü Einstellungentabelle die Option Parameter aus.
Klicken Sie auf das Symbol Ausführen. Der Bildschirm Wartung der BigQuery Data Transfer-Einstellungen – Parameter wird angezeigt.
Klicken Sie auf das Symbol Zeile einfügen.
Geben Sie in der angezeigten Zeile die folgenden Einstellungen an:
- Geben Sie im Feld Parametername den Namen des Parameters ein. Die Parameterbeschreibung wird automatisch ausgefüllt.
Geben Sie im Feld Parameterwert einen Wert ein.
Informationen zu den Parametern für die erweiterten Einstellungen
Klicken Sie auf Speichern.
Ihre erweiterten Einstellungen werden als Datensatz in der Konfigurationstabelle
/GOOG/BQ_PARAM
gespeichert und die Felder Geändert von, Geändert am und Geändert um werden automatisch ausgefüllt.
Parameter für die erweiterten Einstellungen
Die folgende Tabelle zeigt die Parameter der erweiterten Einstellungen für das BigQuery Toolkit for SAP.
Parametername | Beschreibung | Standardwert | Gültiger Wert |
---|---|---|---|
CHUNK_SIZE_DEF |
Dies ist die standardmäßige Blockgröße, die vom BigQuery Toolkit für SAP unterstützt wird. Wenn in den Einstellungen keine Blockgröße festgelegt wird, wird die Standardblockgröße verwendet. |
10.000 | Der Wert muss innerhalb der BigQuery-Kontingentlimits liegen. |
PERC_REDUC_DEF |
Die prozentuale Reduzierung der Blockgröße. Wenn die dynamische Blockgröße aktiviert ist, wird die Blockgröße um diesen Prozentsatz reduziert, bis eine ideale Blockgröße erreicht wurde und die Daten im Block erfolgreich an BigQuery übertragen wurden. |
50 | Der Wert muss zwischen 1 und 99 liegen. |
Support anfordern
Google Cloud bietet Support bei Problemen und Fragen im Zusammenhang mit der Installation, Konfiguration, Bedienung und Wartung des BigQuery-Toolkits für SAP. Der Support ist jedoch auf das Toolkit selbst beschränkt.
Google Cloud unterstützt keine anderen Umgebungskomponenten wie Netzwerkinfrastruktur, Datenbanken, Betriebssysteme oder Software von Drittanbietern. Bei Problemen mit anderen Umgebungskomponenten als dem BigQuery Toolkit für SAP wenden Sie sich an den entsprechenden Anbieter oder Supportanbieter.
Wenn Sie Hilfe bei von SAP bereitgestellten Funktionen wie Operational Data Provisioning (ODP) und SAP Landscape Transformation (SLT) benötigen, wenden Sie sich bitte an den SAP-Support.
Informationen zur Fehlerbehebung bei Problemen mit dem BigQuery Toolkit für SAP finden Sie unter Fehlerbehebung für das BigQuery Toolkit für SAP.
Wenn Sie Hilfe bei der Behebung von Problemen mit dem ABAP SDK für Google Cloud benötigen, gehen Sie so vor:
Weitere Informationen finden Sie im Leitfaden zur Fehlerbehebung für ABAP SDK für Google Cloud.
In den Cloud-Foren können Sie Ihre Fragen stellen und über die ABAP SDK für Google Cloud mit der Community sprechen.
Erfassen Sie alle verfügbaren Diagnoseinformationen und wenden Sie sich an Cloud Customer Care. Informationen zur Kontaktaufnahme mit Customer Care finden Sie unter Support für SAP in Google Cloud.