このドキュメントでは、SAP 管理者、SAP デベロッパーなどを対象に、BigQuery Toolkit for SAP の運用タスクを実行する方法について説明します。
動的チャンクサイズ
チャンクのバイトサイズが BigQuery で許容される HTTP リクエストの最大バイトサイズを超えたためにエラーが発生した場合は、チャンクサイズを手動で小さくしてバイトサイズを縮小する必要があります。動的チャンクサイズ機能を使用すると、チャンクのバイトサイズが BigQuery で許容される HTTP リクエストの最大バイトサイズを超えたときに、自動的にチャンクサイズを減らし、BigQuery へのレプリケーションを再試行できます。動的チャンクサイズを使用すると、リクエストのバイトサイズの超過が原因で発生するほとんどのレプリケーション エラーを防ぐことができます。チャンクサイズが 1 に達していて、バイトサイズが各 HTTP リクエストのバイト数に関する BigQuery の上限を超えている場合にのみ、エラーを受信できます。
テーブルのデータ転送構成で動的チャンクサイズを有効にするには、トランザクション /GOOG/BQTR_SETTINGS
を使用します。動的チャンクサイズの設定は任意です。動的チャンクサイズを有効にする方法については、テーブル作成とその他の一般的な属性を指定するをご覧ください。
BigQuery Toolkit for SAP がチャンクサイズを小さくすると、呼び出し元の ABAP アプリケーションにパラメータ et_return
で次の情報メッセージが返されます。
Dynamic chunking triggered. Chunk size reduced from
INITIAL_CHUNK_SIZE_VALUE to FINAL_REDUCED_CHUNK_SIZE_VALUE
本番環境への一括転送の設定
BigQuery Toolkit for SAP の一括転送設定を本番環境に転送するには、まず開発システムから設定をエクスポートし、本番環境システムにインポートする必要があります。
必要に応じて、一括転送の次の 2 つの設定を本番環境にインポートできます。
SM30
トランザクションを使用してアクセスできる/GOOG/CLIENT_KEY
テーブルのクライアント キー設定。/GOOG/BQTR_SETTINGS
トランザクションを使用してアクセスできる、BigQuery Toolkit for SAP の一括転送設定。
開発システムから一括転送設定をエクスポートする
SAP 開発システムで、一括転送設定の各部分をエクスポートします。
BigQuery Toolkit for SAP の一括転送設定をエクスポートします。
SAP GUI で、トランザクション コード
/GOOG/SDK_IMG
を実行します。または、トランザクション コード
SPRO
を実行して、[SAP Reference IMG] をクリックします。[ABAP SDK for Google Cloud] > [Basic Settings] > [BigQuery Data Transfer: Settings Maintenance] をクリックします。
[Settings Table] フィールドで、[Mass Transfer] を選択します。
本番環境に転送する一括転送レコードを選択します。
[Transport Mass Transfer] をクリックします。
[Prompt for Workbench request] に、トランスポート リクエスト番号を入力して続行アイコンをクリックします。選択した一括転送レコードごとに、トランスポートに次のカスタム構成テーブルの設定が含まれます。
/GOOG/BQTR_MASTR
/GOOG/BQTR_TABLE
/GOOG/BQTR_FIELD
一括転送の設定は、トランスポート リクエストに保存されます。
トランスポート リクエストに
/GOOG/CLIENT_KEY
テーブルの内容を手動で追加し、クライアント キーの設定をエクスポートします。ファイルをローカル ワークステーションに保存します。
一括転送設定を本番環境システムにインポートする
一括転送の設定を含むトランスポート リクエストをインポートします。
SAP 本番環境システムで、一括転送設定の各部分をインポートします。
SAP GUI で、一括転送の設定を含むトランスポート リクエストをインポートします。
SAP GUI で、トランザクション コード
/GOOG/SDK_IMG
を実行します。または、トランザクション コード
SPRO
を実行して、[SAP Reference IMG] をクリックします。[ABAP SDK for Google Cloud] > [Basic Settings] > [Configure Client Key] をクリックします。
本番環境に必要なクライアント キー設定を更新します。
[ABAP SDK for Google Cloud] > [Basic Settings] > [BigQuery Data Transfer: Settings Maintenance] をクリックします。
[Mass Transfers] 画面に正しい一括転送が表示されていることを確認します。
必要であれば、以降の [Tables] と [Fields] 設定画面で、本番環境に合わせてテーブルとフィールドのマッピングの他の値を更新します。
BigQuery Toolkit for SAP を呼び出すデータ読み込みプログラムを実行して、構成をテストします。
BigQuery Data Transfer の設定を表示する
BigQuery Data Transfer モジュールの大量転送設定を表示するには、次の操作を行います。
SAP GUI で、トランザクション コード
/GOOG/SDK_IMG
を実行します。または、トランザクション コード
SPRO
を実行して、[SAP Reference IMG] をクリックします。[ABAP SDK for Google Cloud] > [Basic Settings] > [BigQuery Data Transfer: Settings Display] をクリックします。
また、/GOOG/BQTR_SETTINGS
トランザクションを使用して設定を表示することもできます。
レプリケーションの検証
一括転送の構成で [Extra Fields Flag] オプションを指定すると、BigQuery Toolkit for SAP は BigQuery のテーブル スキーマに追加の列を追加します。これらの列には、次の詳細がキャプチャされます。
- 各レコードのレプリケーションをトリガーした変更の種類に関する情報。
- BigQuery Toolkit for SAP がそのレコードを含む部分を受信した時点を示すタイムスタンプ。
これらの列の情報を使用してレプリケーション プロセスを検証し、SAP システムと BigQuery の間でデータの完全性と整合性を確保できます。変更タイプとタイムスタンプを使用すると、次のようなレコード数をクエリできます。
- 初期読み込み時に BigQuery テーブルに読み込まれるレコード数。
- BigQuery テーブルに特定の日にレプリケートされたレコード数。
- BigQuery テーブル内の一意のレコードの合計数。
これらのカウントを取得するには、Google Cloud コンソールで SQL クエリを送信して BigQuery テーブルを直接クエリします。
追加フィールド フラグの概要については、レコード変更とカウントクエリ用の追加フィールドをご覧ください。
レコード数の SQL クエリ
Google Cloud コンソールの BigQuery の SQL エディタページで SQL クエリを実行して、BigQuery テーブルのレコード数を確認できます。
初期読み込みモードで挿入されたレコード数をクエリする
BigQuery テーブル スキーマにオプションの operation_flag
列が含まれている場合、初期読み込みモードでテーブルに挿入されるレコードに L
オペレーション フラグが設定されます。
初期読み込み時に BigQuery が受信したレコード数を取得するには、次のクエリを実行します。
SELECT COUNT(*) FROM `PROJECT.DATASET.TABLE` WHERE operation_flag = 'L'
レプリケーション モードで挿入されたレコード数をクエリする
BigQuery テーブル スキーマにオプションの operation_flag
列が含まれている場合、レプリケーション モードでテーブルに挿入されるレコードに、次のいずれかのオペレーション フラグが設定されます。
I
: レコードがソーステーブルに挿入された。D
: レコードがソーステーブルから削除された。U
: レコードがソーステーブルで更新された。
レプリケーション モードで BigQuery が受信したレコード数を取得するには、次のクエリを実行します。
SELECT COUNT(*) FROM `PROJECT.DATASET.TABLE` WHERE operation_flag = 'I' | 'D' | 'U'
BigQuery テーブル内のレコードの合計数をクエリする
BigQuery テーブル スキーマにオプションの recordstamp
列が含まれている場合、テーブルに挿入されるレコードに対応する recordstamp
フィールドに、BigQuery Toolkit for SAP から BigQuery にレコードが送信された時間を示すタイムスタンプが設定されます。
ソーステーブルのレコードの合計数と比較するために、BigQuery テーブルのレコードの合計数を取得するには、recordstamp
フィールドと is_deleted
フィールドを使用して、ソーステーブルから削除されていない BigQuery テーブル内の一意のレコード数をカウントします。
レコードのクエリ時にソーステーブルが更新されていたり、レプリケーションの実行中であった場合、ソーステーブルとターゲット テーブルでレコード数が一致しないことがあります。
BigQuery ターゲット テーブル内の現在の一意のレコード数を取得するには、次のクエリを実行します。
SELECT COUNT(*) FROM ( SELECT *, ROW_NUMBER() OVER (PARTITION BY KEY_FIELD_1, ..., KEY_FIELD_N ORDER BY recordstamp DESC) row_num FROM `PROJECT.DATASET.TABLE` ) WHERE row_num = 1 AND is_deleted = false
BigQuery フィールド マップを CSV ファイルで編集する
以降のセクションでは、データ エンジニアまたは BigQuery 管理者が SAP システムにアクセスせずにターゲット フィールド値を編集できるように、デフォルトのフィールド マッピングをエクスポートする方法について説明します。
ターゲット フィールドの値を編集するときには、次のルールに従ってください。
- [SAP Data Source Name] 列と [SAP Field Name] 列の値は変更しないでください。
- レコード圧縮を有効にするには、[Send Uncompressed Flag] 列で、フィールドを
X
のみでマークします。それ以外の場合は、フィールドを空白のままにしてください。
デフォルトのフィールド マッピングを含むスプレッドシートまたはテキスト ファイルを作成する
SAP サーバー外で編集するための CSV ファイルを作成するには、次の操作を行います。
SAP GUI で、トランザクション コード
/GOOG/SDK_IMG
を実行します。または、トランザクション コード
SPRO
を実行して、[SAP Reference IMG] をクリックします。[ABAP SDK for Google Cloud] > [Basic Settings] > [BigQuery Data Transfer: Settings Maintenance] をクリックします。
[BigQuery Data Transfer Settings Maintenance] 画面で、次の値を指定します。
- [Settings Table] フィールドで、フィールドを指定します。
- [Mass Transfer Key] フィールドに、更新する一括転送の ID を指定します。
- すべてのテーブルのすべてのフィールドで作業する場合は、[Table Name] フィールドを空白のままにします。特定のテーブルで作業する場合はテーブル名を指定します。
- その他のフィールドは空欄のままにします。
[Execute] アイコンをクリックします。[BigQuery Data Transfer Settings Maintenance - Fields] 画面が表示されます。
[BigQuery Data Transfer Settings Maintenance - Fields] 画面で、列見出しを右クリックしてプルダウン メニューから [Hide] を選択して、次のリストを除くすべての列を非表示にします。
- SAP データソース名
- SAP フィールド名
- 外部データ要素
- 外部フィールド名
- フィールドの説明
- Send Uncompressed Flag
残りの 6 つの列が表示されたら、エクスポート アイコンをクリックします。
[Export] メニューから、次のいずれかのオプションを選択します。
- スプレッドシート
- ローカル ファイルファイルのコンテンツを CSV 形式に変換しやすくするため、ファイルをタブ区切りテキストの形式で保存することをおすすめします。
チェックマーク アイコンをクリックして、デフォルトのフィールド マッピングを保存します。
スプレッドシートまたはテキスト ファイルを CSV 形式に変換する
カスタム トランザクション /GOOG/BQTR_SETTINGS
を使用して編集済みのフィールド マッピングをアップロードするには、フィールド マッピングが CSV 形式である必要があります。
スプレッドシートを使用している場合は、ファイルをアップロードする前にスプレッドシートを CSV ファイルとして保存してください。
タブ区切りや他の形式のローカル ファイルを使用している場合は、CSV 形式に準拠するようにファイルを変更する必要があります。
次に例を示します。
SAP Table,SAP Field Name,External Data Element,External Field Name,Field Description, Send Uncompressed Flag SAP_TABLE_NAME,SAP_FIELD_NAME1,BIGQUERY_DATA_TYPE,BIGQUERY_FIELD_NAME1,BIGQUERY_FIELD_DESCRIPTION1, SEND_UNCOMPRESSED_FLAG1 SAP_TABLE_NAME,SAP_FIELD_NAME2,BIGQUERY_DATA_TYPE,BIGQUERY_FIELD_NAME2,BIGQUERY_FIELD_DESCRIPTION2, SEND_UNCOMPRESSED_FLAG2 SAP_TABLE_NAME,SAP_FIELD_NAME3,BIGQUERY_DATA_TYPE,BIGQUERY_FIELD_NAME3,BIGQUERY_FIELD_DESCRIPTION3, SEND_UNCOMPRESSED_FLAG3
CSV ファイルをアップロードする
編集した CSV ファイルをアップロードするには:
SAP GUI で、トランザクション コード
/GOOG/SDK_IMG
を実行します。または、トランザクション コード
SPRO
を実行して、[SAP Reference IMG] をクリックします。[ABAP SDK for Google Cloud] > [Basic Settings] > [BigQuery Data Transfer: Settings Maintenance] をクリックします。
[BigQuery Data Transfer: Settings Maintenance] 画面で、次の値を指定します。
- [Settings Table] フィールドで、フィールドを指定します。
- [Mass Transfer Key] フィールドに、更新する一括転送の ID を指定します。
- [Upload from file] チェックボックスをオンにします。
[Execute] アイコンをクリックします。[Select File to Upload] ダイアログが開きます。
[Select File to Upload] ダイアログで、編集されたフィールド値を含む CSV ファイルを選択します。
[開く] をクリックします。
セキュリティ警告が表示されたら、[Allow] をクリックします。ファイルが読み込まれ、変更した値が [BigQuery Settings Retention - Fields] 画面の該当する行に表示されます。
保存アイコンをクリックします。
値が適用されていることを確認するには、CSV ファイル内の値と SAP システムに表示される値を比較します。
ソースデータのエラーの処理
BigQuery streaming API は、BigQuery Toolkit for SAP からレコードのチャンクを受信すると、BigQuery テーブルにレコードを挿入する前にデータエラーをチェックします。
一括転送設定で次のフラグを指定することで、BigQuery API と BigQuery Toolkit for SAP がデータエラーを検出したときのレスポンスを制御できます。
Skip Invalid Records
(SKIP
)フラグ。Break at First Error Flag
(BREAK
)フラグ。
SKIP
フラグ。
SKIP
フラグを指定した場合、BigQuery API がレコードのチャンクを受信して、データエラーのあるレコードを検出すると、BigQuery API は、エラーを含むレコードを破棄またはスキップし、チャンクの残りのレコードを BigQuery テーブルに挿入します。
SKIP
フラグを指定しなかった場合、BigQuery はデータエラーのあるレコードを検出すると、BigQuery テーブルにそのレコードを挿入せずチャンク全体を破棄します。これはデフォルトの動作です。
SKIP
フラグの指定は、開発環境と QA 環境には最適ですが、本番環境での使用はおすすめしません。
レプリケーションを構成するときに、/GOOG/BQTR_SETTINGS
トランザクションで SKIP
フラグを指定できます。仕様は /GOOG/BQTR_MASTR
構成テーブルに格納されます。
SKIP
仕様と BREAK
仕様の相互作用については、SKIP
と BREAK
の相互作用のマトリックス テーブルをご覧ください。
BREAK
フラグ。
BREAK
フラグを指定した場合、レコード内でデータエラーが見つかったことを BigQuery API から通知されると、BigQuery Toolkit for SAP は BigQuery へのレコードの送信を停止し、レプリケーション ジョブを終了します。これはデフォルトの動作です。
BREAK
フラグを指定しなかった場合、レコード内でデータエラーが検出されたことを BigQuery から通知されると、BigQuery Toolkit for SAP は、次のチャンクを BigQuery に送信してレコード送信を継続し、レプリケーション ジョブを続行します。
本番環境では BREAK
フラグを指定することをおすすめします。
レプリケーションを構成するときに、/GOOG/BQTR_SETTINGS
トランザクションで BREAK
フラグを指定できます。新しい一括転送鍵を作成すると、BREAK
フラグがデフォルトで有効になります。
仕様は /GOOG/BQTR_MASTR
構成テーブルに保存されます。
BREAK
仕様と SKIP
仕様の相互作用については、BREAK
と SKIP
の相互作用のマトリックス テーブルをご覧ください。
SKIP
と BREAK
の相互査証のマトリックス テーブル
BigQuery Data Transfer モジュールは、次の方法でデータエラーを処理するように構成できます。
SKIP フラグ |
BREAK フラグ |
動作 |
---|---|---|
FALSE | TRUE |
BigQuery は、現在のチャンクのレコードを BigQuery テーブルに挿入せずに、現在のレコード チャンクを破棄します。 BigQuery Toolkit for SAP は、現在の部分からレコードのチャンクを送信しなくなり、レプリケーション ジョブを終了します。 デフォルトの推奨設定です。 |
FALSE | FALSE |
BigQuery は、現在のチャンクのレコードを BigQuery テーブルに挿入せずに、現在のレコード チャンクを破棄します。 BigQuery Toolkit for SAP は、現在の部分から残りのレコード チャンクを送信し、次の部分を取得します。BigQuery Toolkit for SAP はレプリケーション ジョブを終了しません。 |
TRUE | TRUE |
BigQuery は、エラーを含むレコードのみを破棄し、現在のチャンクの残りのレコードを BigQuery テーブルに挿入します。 BigQuery Toolkit for SAP は、現在の部分からレコードのチャンクを送信しなくなり、レプリケーション ジョブを終了します。 |
TRUE | FALSE |
BigQuery は、エラーを含むレコードのみを破棄し、現在のチャンクの残りのレコードを BigQuery テーブルに挿入します。 BigQuery Toolkit for SAP は、現在の部分から残りのレコード チャンクを送信し、次の部分を取得します。BigQuery Toolkit for SAP はレプリケーション ジョブを終了しません。 |
SAP ディクショナリ オブジェクト構造の変更
このセクションでは、SAP でディクショナリ オブジェクトの定義の変更を処理する方法について説明します。
辞書オブジェクトに列を追加する
辞書オブジェクトに列を追加する場合は、次の操作を行います。
- データ読み込みクラス
/GOOG/CL_BQTR_DATA_LOAD
を使用するカスタム データ レプリケーション アプリケーションを停止します。 - SAP のディクショナリ オブジェクトに新しい列を追加します。
- 必要に応じて、トランザクション
/GOOG/BQTR_SETTINGS
でフィールドレベルのマッピングを更新します。 - カスタム データ レプリケーション アプリケーションを再起動します。
- BigQuery でレプリケーションの結果を検証します。
辞書オブジェクトから列を削除する
辞書オブジェクトから既存の列を削除する手順は次のとおりです。
- データ読み込みクラス
/GOOG/CL_BQTR_DATA_LOAD
を使用するカスタム データ レプリケーション アプリケーションを停止します。 - 辞書オブジェクトから列を削除します。
- BigQuery で、対象の BigQuery テーブルから列を削除します。既存のテーブルから列を削除する手順については、BigQuery のドキュメントをご覧ください。
- 必要に応じて、トランザクション
/GOOG/BQTR_SETTINGS
でフィールドレベルのマッピングを更新します。 - カスタム データ レプリケーション アプリケーションを再起動します。
- BigQuery でレプリケーションの結果を検証します。
既存の列のデータ型を変更する
SAP ディクショナリ オブジェクトで既存の列のデータ型を変更する場合は、データ型をターゲット BigQuery テーブルと互換性のあるデータ型に変更するのか、互換性のないデータ型に変更するのかによって、特定の手順を行う必要があります。
既存の列の既存のデータ型と新しいデータ型が、ターゲット BigQuery テーブルの同じデータ型にマッピングされる場合、データ型はターゲット BigQuery テーブルのデータ型と互換性があります。たとえば、列のデータ型が、ソーステーブルで INT1
から INT2
に変更される場合、両方のデータ型は、ターゲット BigQuery テーブルのデータ型 INTEGER
と互換性があります。
BigQuery Data Transfer モジュールでのデータ型マッピングの詳細については、データ型のマッピングをご覧ください。
データ型を互換性のあるデータ型に変更する
既存の列のデータ型を互換性のあるデータ型に変更するには、次の操作を行います。
- 必要に応じて、データ読み込みクラス
/GOOG/CL_BQTR_DATA_LOAD
を使用するカスタム データ レプリケーション アプリケーションを停止します。 - データ型をソースシステムの互換性のあるデータ型に変更します。
- 必要に応じて、トランザクション
/GOOG/BQTR_SETTINGS
でフィールドレベルのマッピングを更新します。 - カスタム データ レプリケーション アプリケーションを停止していた場合は、アプリケーションを再起動します。
- BigQuery でレプリケーションの結果を検証します。
データ型を互換性のないデータ型に変更する
既存の列のデータ型を互換性のないデータ型に変更するには、次の操作を行います。
- データ読み込みクラス
/GOOG/CL_BQTR_DATA_LOAD
を使用するカスタム データ レプリケーション アプリケーションを停止します。 - BigQuery でターゲット テーブルを削除します。
- ソースシステムのデータ型を変更します。
- 必要に応じて、トランザクション
/GOOG/BQTR_SETTINGS
でフィールドレベルのマッピングを更新します。 - カスタム データ レプリケーション アプリケーションを開始します。必要に応じて、既存データの初期読み込みを開始する必要があります。
拡張の終了
BigQuery Toolkit for SAP には、コード内に ABAP デベロッパーがコードを挿入してカスタム機能を追加できる拡張ポイントがいくつかあります。
クラス
次の表に、拡張ポイントがサポートする関数、メソッド、拡張ポイントを含むクラスを示します。
関数 | クラス | メソッド | スポット | オプション |
---|---|---|---|---|
外部フィールド名、データ型など、フィールドのマッピングを更新します。 | /GOOG/CL_BQTR_DATA_LOAD_BASE |
CREATE_FLD_MAPPINGS |
/GOOG/ES_BQTR_DATA_LOAD_BASE |
/GOOG/UPDATE_FIELD_MAPPING |
フィールドを追加または削除して、フィールド テーブルのマッピングを更新します。 | /GOOG/CL_BQTR_DATA_LOAD_BASE |
CREATE_FLD_MAPPINGS |
/GOOG/ES_BQTR_DATA_LOAD_BASE |
/GOOG/UPDATE_FIELD_MAPPINGS |
ターゲット フィールドに変換する前にソース フィールドの値を変更します。 | /GOOG/CL_BQTR_DATA_LOAD |
FILL_TARGET_RECORDS |
/GOOG/ES_BQTR_DATA_LOAD |
/GOOG/CHANGE_SOURCE_FIELD |
ソース フィールドをターゲット テーブルのターゲット フィールドに変換した後、ターゲット フィールドの値を変更します。 | /GOOG/CL_BQTR_DATA_LOAD |
FILL_TARGET_RECORDS |
/GOOG/ES_BQTR_DATA_LOAD |
/GOOG/FILL_TARGET_FIELD |
ソーステーブルからターゲット テーブルへの変換時に、ソーステーブルに存在しないフィールドをターゲット テーブルに追加します。 | /GOOG/CL_BQTR_DATA_LOAD |
FILL_TARGET_RECORDS |
/GOOG/ES_BQTR_DATA_LOAD |
/GOOG/FILL_EXTRA_FIELD |
BigQuery テーブルを作成する前に、BigQuery スキーマ フィールドを準備します。 | /GOOG/CL_BQTR_CLIENT_BQ_BASE |
PREP_BQ_TABLE_SCHEMA |
/GOOG/ES_BQTR_CLIENT_BQ |
/GOOG/PREPARE_SCHEMA_FIELD |
BigQuery サーバー側で発生した HTTP エラーの場合は、問題をトラブルシューティングするために、BigQuery API に対する HTTP 呼び出しの後にロギングデータを収集できます。 | /GOOG/CL_BQTR_CLIENT_BQ_REPL |
INSERT_TABLEDATA |
/GOOG/ES_BQTR_CLIENT_BQ_REPL |
/GOOG/LOG_INSERT_ERROR |
レポート
次の表に、拡張ポイントがサポートする関数、メソッド、拡張ポイントを含むレポートを示します。
関数 | レポート | メソッド | スポット | オプション |
---|---|---|---|---|
BigQuery Data Transfer 設定プログラムに権限チェックを追加する。 | /GOOG/R_BQTR_SETTINGS |
AUTHORITY_CHECK |
/GOOG/ES_BQTR_SETTINGS |
/GOOG/AUTHORITY_CHECK |
詳細設定
必要に応じて、BigQuery Toolkit for SAP の詳細設定を変更できます。詳細設定パラメータの変更は、包括的な分析を行ってから、新しい値がパフォーマンスに及ぼす影響を確認したうえでのみ行うことをおすすめします。BigQuery Toolkit for SAP の詳細設定の変更によって発生したエラーやパフォーマンス上の問題については、ユーザー側の責任で対処する必要があります。
BigQuery Toolkit for SAP の詳細設定はシステムレベルで適用され、すべての一括転送キーで共通です。詳細設定パラメータが変更されていない場合、BigQuery Toolkit for SAP はデフォルトの設定で動作します。
詳細設定パラメータを変更するには、次の操作を行います。
SAP GUI で、トランザクション コード
/GOOG/SDK_IMG
を実行します。または、トランザクション コード
SPRO
を実行して、[SAP Reference IMG] をクリックします。[ABAP SDK for Google Cloud] > [Basic Settings] > [BigQuery Data Transfer: Settings Maintenance] をクリックします。
[Settings Table] プルダウン メニューから [Parameters] を選択します。
[Execute] アイコンをクリックします。[BigQuery Data Transfer Settings Maintenance - Parameters] 画面が表示されます。
[Insert Row] アイコンをクリックします。
表示された行で、次の設定を指定します。
- [Parameter Name] フィールドに、パラメータの名前を入力します。パラメータの説明は自動的に入力されます。
[Parameter Value] フィールドに値を入力します。
詳細設定パラメータの詳細については、詳細設定パラメータをご覧ください。
[保存] をクリックします。
詳細設定がレコードとして
/GOOG/BQ_PARAM
構成テーブルに保存されます。[Changed By]、[Changed On]、[Changed At] の各フィールドには、値が自動的に挿入されます。
詳細設定パラメータ
次の表に、BigQuery Toolkit for SAP の詳細設定パラメータを示します。
パラメータ名 | 説明 | デフォルト値 | 有効な値 |
---|---|---|---|
CHUNK_SIZE_DEF |
この設定は、BigQuery Toolkit for SAP がサポートするデフォルトのチャンクサイズです。 設定でチャンクサイズが指定されていない場合、デフォルトのチャンクサイズが使用されます。 |
10,000 | 値は BigQuery の割り当て上限の範囲内でなければなりません。 |
PERC_REDUC_DEF |
チャンクサイズの縮小率。 動的チャンクサイズが有効になっている場合、理想的なチャンクサイズに達し、チャンク内のデータが BigQuery に正常に転送されるまで、この割合でチャックサイズが縮小されます。 |
50 | 値は 1~99 にする必要があります。 |
サポートを受ける
Google Cloud は、BigQuery Toolkit for SAP のインストール、構成、運用、メンテナンスに関連する問題や質問に対応します。ただし、サポートはツールキット自体に限定されます。
Google Cloud は、ネットワーク インフラストラクチャ、データベース、オペレーティング システム、サードパーティ ソフトウェアなどの他の環境コンポーネントはサポートしていません。BigQuery Toolkit for SAP 以外の環境コンポーネントに関する問題については、適切なベンダーまたはサポート プロバイダにお問い合わせください。
SAP が提供する機能(Operational Data Provisioning(ODP)や SAP Landscape Transformation(SLT)など)については、SAP サポートにお問い合わせください。
BigQuery Toolkit for SAP に関する問題のトラブルシューティングについては、BigQuery Toolkit for SAP のトラブルシューティングをご覧ください。
ABAP SDK for Google Cloud の問題を解決するには、次の操作を行います。
Cloud フォーラムのコミュニティで ABAP SDK for Google Cloud について質問し、ディスカッションに参加します。
入手可能なすべての診断情報を収集し、Cloud カスタマーケアにお問い合わせください。カスタマーケアへのお問い合わせについては、SAP に関するサポートを利用する Google Cloudをご覧ください。