SAP テーブル バッチソース プラグインの使用

このガイドでは、SAP テーブル バッチソース プラグインを使用するデータ パイプラインをデプロイ、構成、実行する方法について説明します。

SAP テーブル バッチソース プラグインを使用すると、SAP アプリケーションから Cloud Data Fusion への一括データ統合を実施できます。SAP のテーブルとビューからのバルクデータ転送を、コーディングを実施することなく構成して実行できます。

抽出用のサポートされている SAP アプリケーション、テーブル、ビューについては、よくある質問をご覧ください。Google Cloud での SAP の詳細については、Google Cloud での SAP の概要をご覧ください。

目標

  • SAP ERP システムを構成し、提供された SAP トランスポートをインストールします。
  • Cloud Data Fusion 環境にプラグインをデプロイします。
  • Cloud Data Fusion と SAP テーブル バッチソースを使用して、SAP データを統合するためのデータ パイプラインを作成します。

始める前に

このプラグインを使用するには、次の分野でのドメインに関する知識が必要です。

ユーザーロール

このページの構成タスクでは、SAP システムと Google Cloud を変更する必要があります。これらのシステムの管理者と協力して構成を行う必要があります。

表 1: ユーザーロール

ユーザーの種類 説明
SAP 管理者 このロールを割り当てられたユーザーは、SAP システムの管理者です。このユーザーは、SAP サービスサイトにアクセスしてソフトウェアをダウンロードできます。
GCP 管理者 このロールを割り当てられたユーザーは、Google Cloud アカウントの管理者です。
CDF ユーザー このロールを割り当てられているユーザーは、データ パイプラインを設計して実行することを承認されています。
SAP ユーザー このロールを割り当てられているユーザーは、SAP システムに接続することを承認されています。

SAP ERP システムを構成する

SAP Table Batch Source は、リモート関数モジュール(RFM)を使用します。これは、データが抽出される各 SAP Server にインストールする必要があります。この RFM は、SAP トランスポートとして配信されます。

SAP システムを構成する手順は次のとおりです。

  1. Cloud Data Fusion ユーザーは、SAP トランスポートを含む zip ファイルをダウンロードし、SAP 管理者に提供する必要があります。ダウンロードするには、Hub のプラグインに用意されているリンクを使用します。Cloud Data Fusion の設定をご覧ください。
  2. SAP 管理者は、SAP トランスポートを SAP システムにインポートし、作成されたオブジェクトを検証する必要があります。インストールの詳細については、SAP トランスポートのインストールをご覧ください。

SAP トランスポートのインストール

Cloud Data Fusionでデータ パイプラインを設計、実行するには SAP コンポーネントが必要です。これらは、zip ファイルとしてアーカイブされた SAP トランスポート ファイル(1 つのコファイルと 1 つのデータファイルで構成される 1 つのトランスポート リクエスト)として配信されます。

次の表に、トランスポート リクエスト ID と関連ファイルを示します。

表 2: SAP の転送

トランスポート ID Cofile データファイル
ABAK900043 K900043.ABA R900043.ABA

トランスポートが SAP システムにインポートされたら、RFC 対応の関数モジュール /GOOG/RFC_READ_TABLE が作成されていることを確認します。

SAP トランスポートをインストールするには、次の手順に沿って操作します。

ステップ 1: トランスポート リクエスト ファイルをアップロードする

  1. SAP システム管理者として SAP システムにログインします。
  2. cofile を /usr/sap/trans/cofiles フォルダにコピーします。
  3. データファイルを /usr/sap/trans/data フォルダにコピーします。

ステップ 2: トランスポート リクエスト ファイルをインポートする

SAP 管理者は、次のいずれかのオプションを使用してトランスポート リクエスト ファイルをインポートできます。

オプション 1: SAP トランスポート管理システムを使用してトランスポート リクエスト ファイルをインポートする
  1. SAP 管理者として SAP システムにログインします。
  2. トランザクション STMS を入力します。
  3. [概要] > [インポート] をクリックします。
  4. [キュー] 列の現在の SID をダブルクリックします。
  5. [追加] > [その他のリクエスト] > [追加] をクリックします。
  6. トランスポート リクエスト ID を選択し、[続行] をクリックします。
  7. インポート キューでトランスポート リクエストを選択し、[リクエスト] > [インポート] をクリックします。
  8. クライアント番号を入力します。
  9. [オプション] タブで、[オリジナルを上書きする] と [無効なコンポーネント バージョンを無視する] を選択します(選択可能な場合)。

    (省略可)トランスポートの再インポートを後でスケジュールするには、[後でインポートするためにトランスポート リクエストをキューに残す]と[トランスポート リクエストを再度インポートする] を選択します。これは、SAP システムのアップグレードとバックアップの復元を行う際に有用です。

  10. [続行] をクリックします。

  11. インポートを確認するには、SE80SU01 などの任意のトランザクションを使用します。

オプション 2: オペレーティング システムレベルでトランスポート リクエスト ファイルをインポートする
  1. SAP システム管理者として SAP システムにログインします。
  2. 次のコマンドを実行して、適切なリクエストをインポート バッファに追加します。

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    例: tp addtobuffer IB1K903958 DD1

  3. 次のコマンドを実行して、トランスポート リクエストをインポートします。

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    NNN は、クライアント番号に置き換えます。例: tp import IB1K903958 DD1 client=800 U1238

  4. SE80SU01 などの適切なトランザクションを使用して、関数モジュールと承認ロールが正常にインポートされていることを確認します。

必要な SAP 承認

Cloud Data Fusion でデータ パイプラインを実行するには、SAP ユーザーが必要です。SAP ユーザーは、Communications または Dialog 型であることが必要です。SAP ダイアログ リソースを使用しないように、Communications タイプを使用することをおすすめします。ユーザーは SAP トランザクション コード SU01 を使用して作成できます。

SAP で承認ロールを作成するには、次の手順を行います。

  1. SAP GUI で、トランザクション コード PFCG を入力して [ロール メンテナンス] ウィンドウを開きます。
  2. [ロール] フィールドにロールの名前を入力します。

    例: zcdf_role

  3. [Single Role] をクリックします。

    [Create Roles] ウィンドウが開きます。

  4. [説明] 欄に説明を入力し、[保存] をクリックします。

    例: Authorizations for Cloud Data Fusion SAP Table plugin

  5. [承認] タブをクリックします。ウィンドウのタイトルが [ロールを変更] に変わります。

  6. [認証データの編集とプロファイルの作成] で、 [認証データの変更] をクリックします。

    [テンプレートを選択] ウィンドウが開きます。

  7. [テンプレートを選択しない] をクリックします。

    [Change role: Authorizations] ウィンドウが開きます。

  8. [手動] をクリックします。

  9. 次の SAP 承認テーブルに示されている承認を指定してください。

  10. [保存] をクリックします。

  11. 承認のロールを有効にするには、生成アイコンをクリックします。

表 3: SAP の承認

オブジェクト クラス オブジェクト クラス テキスト 承認オブジェクト 承認オブジェクトのテキスト 承認 テキスト
AAAB アプリケーション間承認オブジェクト S_RFC アプリケーション間承認オブジェクト RFC_TYPE アクセスを許可する RFC オブジェクトのタイプ FUNC
AAAB アプリケーション間承認オブジェクト S_RFC アプリケーション間承認オブジェクト RFC_NAME アクセスを許可する RFC オブジェクトの名前 DDIF_FIELDINFO_GET,
RFCPING,
RFC_GET_FUNCTION_INTERFACE,
/GOOG/RFC_READ_TABLE,
SAPTUNE_GET_SUMMARY_STATISTIC,
TH_WPINFO
AAAB アプリケーション間承認オブジェクト S_RFC アプリケーション間承認オブジェクト ACTVT 作業内容 16
AAAB アプリケーション間承認オブジェクト S_TCODE トランザクション開始時のトランザクション コード チェック TCD トランザクション コード SM50
BC_A 基本: 管理 S_TABU_NAM 汎用の標準ツールによるテーブル アクセス ACTVT 作業内容 03
BC_A 基本: 管理 S_TABU_NAM 汎用の標準ツールによるテーブル アクセス テーブル 表名 *
BC_A 基本: 管理 S_ADMI_FCD システム承認 S_ADMI_FCD システム管理機能 ST0R

Cloud Data Fusion の設定

Cloud Data Fusion インスタンスと SAP サーバー間の通信が有効になっていることを確認してください。プライベート Cloud Data Fusion インスタンスのネットワーク ピアリング手順に沿って確実に操作してください。

Cloud Data Fusion 環境をプラグイン用に構成するには、次の手順に沿って操作します。

  1. Cloud Data Fusion ユーザーは、Hub から SAP Table Batch Source プラグインをダウンロードする必要があります。このプラグインは、バージョン 6.3.0 以降で使用できます。

    1. (省略可)2021 年 3 月 22 日より前に 6.3.0 インスタンスを作成した場合は、ハブにプラグインが表示されない可能性があります。有効にするには、次のコマンドを実行します。

      SAP Hub で HUB_URLS 変数を使用します。Healthcare アクセラレータを使用している場合は、HUB_URLS 変数を含めます(コマンド内のコメントをご覧ください)。

      # Enter values for these variables
      PROJECT=PROJECT_ID
      REGION=REGION_CODE
      INSTANCE=INSTANCE
      
      # Select one of the following HUB_URLS
      HUB_URLS="https://hub-cdap-io.storage.googleapis.com/sap-hub"
      # HUB_URLS="https://hub-cdap-io.storage.googleapis.com/sap-hub+https://storage.googleapis.com/b999ec76-9e36-457b-bf30-753cb13a8c98" # Uncomment this line if the Healthcare accelerator is enabled
      
      # Run these commands (NOTE: This restarts your instance after the update)
      curl -X PATCH -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" https://datafusion.googleapis.com/v1/projects/$PROJECT/locations/$REGION/instances/$INSTANCE -d "{ 'options':{'market.base.urls':\"$HUB_URLS\"}}"
      sleep 300 # Wait for update operation to succeed
      curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" https://datafusion.googleapis.com/v1/projects/$PROJECT/locations/$REGION/instances/$INSTANCE:restart
      
    2. [HUB] をクリックし、[SAP] タブを選択します。

    3. SAP テーブル バッチソース プラグインをデプロイします。

  2. [ソース] セクションの [パレット] にプラグインが表示されていることを確認します。

  3. SAP 管理者は、次の JCo アーティファクトを SAP サポートサイトからダウンロードし、GCP 管理者に提供する必要があります。

    JCo のバージョンは 3.1.2 以降でサポートされています。

    • 1 つのプラットフォームに依存しない(sapjco3.jar)
    • 1 つのプラットフォームに依存する(libsapjco3.so)

    ファイルをダウンロードするには、次の手順を行います。

    1. SAP コネクタに移動します。
    2. [SAP Java Connector] / [ツールと Services] をクリックします。ダウンロード用のプラットフォーム固有のリンクも確認できます。
    3. CDF インスタンスが実行されているプラットフォームを選択します。
      1. クラスタ内の VM に標準の Google Cloud イメージ(Cloud Data Fusion のデフォルト)を使用する場合は、[Linux for Intel 互換プロセッサ 64 ビット x86] を選択します。
      2. カスタム イメージを使用する場合は、対応するプラットフォームを選択します。
  4. GCP 管理者が JCo ファイルを読み取り可能な Cloud Storage バケットにコピーする必要があります。Cloud Data Fusion ユーザーへのバケットパスを指定します。

  5. GCP 管理者は、設計環境の Cloud Data Fusion サービス アカウントと実行環境の Dataproc サービス アカウントに、2 つのファイルに対する読み取り権限を付与する必要があります。詳細については、Cloud Data Fusion のサービス アカウントをご覧ください。

  6. バケットパスは、対応するプラグイン プロパティの SAP JCo Library GCS Path で指定する必要があります。

プラグインの構成

SAP Table Batch Source プラグインは、SAP のテーブルまたはビューの内容を読み取ります(サポートの詳細については、よくある質問をご覧ください)。 さまざまなレコードのフィルタリング オプションを利用できます。次のスクリーンショットでは、プラグインで使用可能なすべてのプロパティが示されています。

SAP テーブルのプロパティ

SAP テーブル バッチソースで次のプロパティを構成できます。

基本

参照名: リネージ、メタデータのアノテーションなどのためにこのソースを一意に識別するために使用される名前。
SAP クライアント: 使用する SAP クライアント(例: 100)。
SAP 言語: SAP ログオン言語(例: EN)。
接続タイプ: SAP 接続タイプ(直接または負荷分散)。1 つのタイプを選択すると、以下の使用可能なフィールドが変更されます。

直接接続の場合

SAP アプリケーション サーバー ホスト: SAP サーバー名または IP アドレス。
SAP システム番号: SAP システム番号(例: 00)。
SAP ルーター: ルーター文字列。

負荷分散された接続の場合

SAP メッセージ サーバー ホスト: SAP メッセージ ホスト名または IP アドレス。
SAP メッセージ サーバー サービスまたはポート番号: SAP メッセージ サーバー サービスまたはポート番号(例: sapms02)。
SAP システム ID (SID): SAP システム ID(例: N75)。
SAP ログオン グループ名: SAP ログオン グループ名(例: PUBLIC)。
SAP テーブル / ビューの名前: SAP のテーブル / ビューの名前(例: MARA)。

[スキーマの取得] ボタン: このプラグインは、SAP からのメタデータに基づいてスキーマを生成し、SAP のデータタイプを対応する Cloud Data Fusion のデータタイプに自動的にマッピングします([検証] ボタンと同一の機能)。

認証情報

SAP ログオン ユーザー名: SAP ユーザー名。推奨: SAP ログオン ユーザー名が定期的に変わる場合は、マクロを使用します。
SAP ログオン パスワード: SAP ユーザーのパスワード。推奨: ユーザー パスワードなどの機密値にはセキュアマクロを使用します。

SAP JCo の詳細

GCP プロジェクト ID: Google Cloud プロジェクト ID。プロジェクトを一意に識別します。これは、Google Cloud Console のダッシュボードにあります。
SAP JCo ライブラリ GCS パス: ユーザーがアップロードした SAP JCo ライブラリ ファイルを含む Cloud Storage パス。

詳細

フィルタ オプション: SQL WHERE 句でフィルタ条件として使用する、OpenSQL 構文で指定された条件(例: KEY6 LT '25')。レコードは、指定された一連の値または値の範囲を持つ特定の列などの条件に基づいて抽出できます。

フェッチする行の数: 抽出するレコードの数を制限するために使用します。正の整数を入力してください。0 または空白にした場合、指定したテーブルからすべてのレコードが抽出されます。正の値(フィルタ オプションに基づいて利用可能なレコード数を超える値)が指定されている場合、使用可能なレコードのみが抽出されます。

生成するスプリットの数: テーブルのレコードを並列で抽出するパーティションを作成する際に使用します。正の整数を入力してください。ランタイム エンジンは、指定された数のパーティション(および SAP 接続)を作成し、同時にテーブル レコードを抽出します。並列処理が高いほど SAP との同時接続が増加するため、このプロパティを 16 より大きい数に設定する場合は注意してください。816 の値をおすすめします。

値が 0 または空の場合、使用可能な SAP ワークプロセスの数、抽出するレコード、パッケージ サイズに基づいて適切な値が自動的に選択されます。

パッケージ サイズ: 1 回の SAP ネットワーク呼び出しで抽出されるレコードの数。これは、すべてのネットワーク抽出の呼び出し中に SAP がメモリに保存するレコードの数です。データを抽出している複数のデータ パイプラインがメモリ使用量がピークに達し、Out of Memory エラーが原因で失敗する場合があります。このプロパティを設定する際は注意が必要です。

正の整数を入力してください。0 または空白にした場合、抽出されるレコード数が 70,000 未満の場合は、プラグインでは標準値 70000 または適切に計算された値が使用されます。

Out of Memory エラーでデータ パイプラインが失敗した場合は、パッケージ サイズを縮小するか、SAP の処理プロセスで使用できるメモリを増分してください。

データ型マッピング

表 4: Cloud Data Fusion タイプへの SAP データ型のマッピング

ABAP のタイプ 説明(SAP) CDAP データ型
数値
b 1 バイトの整数(INT1) INT
s 2 バイトの整数(INT2) INT
i 4 バイトの整数(INT4) INT
(int8)
8
8 バイトの整数(INT8) LONG
p BCD 形式でパックされた番号(DEC) DECIMAL
(decfloat16)
a
10 進浮動小数点数 8 バイト IEEE 754r(DF16_DEC、DF16_RAW) DECIMAL
(decfloat34)
e
10 進浮動小数点数 16 バイト IEEE 754r(DF34_DEC、DF34_RAW) DECIMAL
f 2 進浮動小数点数(FLTP) DOUBLE
文字
c 文字列(CHAR/LCHR) STRING
string 文字列(SSTRING、GEOM_EWKB STRING
string 文字列 CLOB(STRING) BYTES
n 数値テキスト(NUMC/ACCP) STRING
Byte
x バイナリデータ(RAW/LRAW) BYTES
xstring バイト文字列 BLOB(RAWSTRING) BYTES
日時
d 日付(DATS) DATE
t 時刻(TIMS) TIME
utclong/utcl タイムスタンプ TIMESTAMP

検証

右上の [検証] または [スキーマを取得] をクリックします。

このプラグインは、SAP のメタデータに基づいてスキーマを生成します。SAP のデータ型は、対応する Cloud Data Fusion のデータ型に自動的にマッピングされます。

データ パイプラインの実行

  1. パイプラインをデプロイしたら、上部中央パネルで [構成] をクリックします。
  2. [リソース] を選択します。
  3. 必要に応じて、全体的なデータサイズとパイプラインで使用される変換の数に基づいて、エグゼキュータ CPUメモリを変更します。
  4. [保存] をクリックします。
  5. データ パイプラインを開始するには、[実行] をクリックします。

パフォーマンスを最適化する

このプラグインは、Cloud Data Fusion の並列化機能を使用します。次のガイドラインは、ランタイム環境を構成して、ランタイム エンジンに十分なリソースを提供し、意図したレベルの並列性とパフォーマンスを達成することに役立ちます。

SAP の構成

推奨: ダイアログ ユーザーではなく、SAP 通信ユーザーを使用します(これにより、SAP システム リソースの使用量が少なくなります)。また、メッセージ サーバーが横向きで使用できる場合は、直接接続ではなく、負荷分散された SAP 接続を使用します。

分割数とパッケージ サイズの値を指定すると、使用可能な SAP 作業プロセスとメモリが不足しないように、プラグインによってこれらの値が調整されます。使用している SAP リソースの上限は次のとおりです。

  • 利用可能なワークプロセスの 50%
  • ワークプロセスごとに利用可能なメモリの 70%

プラグイン構成

推奨: SAP システムのメモリ設定について十分に理解していない場合は、[生成するスプリットの数] と [パッケージ サイズ] は空白のままにします。デフォルトでは、パフォーマンスが向上するようにこれらの値が自動的に調整されます。

パイプラインの実行時に最適なパフォーマンスを確保するには、次のプロパティを使用します。

  • 生成する分割数: これは Cloud Data Fusion 側の並列処理を直接制御します。ランタイム エンジンは、指定された数のパーティション(および SAP 接続)を作成し、同時にテーブル レコードを抽出します。8~16 の値が推奨されますが、SAP 側の適切な構成(SAP ワークプロセスに適切なメモリリソースを割り当て)により最大 30 から 64 までの値を使用できます。

    値が 0 または空の場合、使用可能な SAP ワークプロセスの数、抽出するレコード、パッケージ サイズに基づいて適切な値が自動的に選択されます。

  • パッケージ サイズ: 1 回の SAP ネットワーク呼び出しで抽出されるレコードの数。これは、抽出の各呼び出し中に SAP がメモリに保存するレコードの数です。SAP システムが作業プロセスに十分なメモリを割り当てる場合は、この値を(デフォルトの 70000 から)増やします。ほとんどのデフォルトの構成では、100000 まで増やすことができますが、サイズが大きい場合は SAP システムを再構成する必要があります。

Cloud Data Fusion のリソース設定

推奨: 1 エグゼキュータごとに 1 CPU と 4 GB のメモリを使用します(この値は各エグゼキュータ プロセスに適用されます)。[構成] > [リソース] ダイアログで設定します。

Dataproc クラスタの設定

推奨: 少なくとも、意図した分割数よりも多い CPU 総数を(ワーカー間で)割り当ててください(プラグインの構成セクションを参照)。たとえば、16 の分割がある場合は、すべてのワーカーで合計 20 以上の CPU を定義します(調整に使用される 4 つの CPU のオーバーヘッドがあります)。

よくある質問

どの SAP プロダクトとバージョンがサポートされていますか?

サポートされているソースは SAP ERP6/NW7.5 と SAP S4HANA 1909 および 2020 です。

抽出ではどのタイプの SAP のテーブルとビューがサポートされていますか?

このプラグインは、SAP の透過テーブルとビュー、CDS ビュー、HANA ビューをサポートしています。オブジェクトは、データベース レイヤではなく、SAP アプリケーション レイヤから読み取られます。プールとクラスタ テーブルはサポートされていません。

データ量またはレコードの幅に上限はありますか?

サポートされる行幅は 30 KB に制限されています。抽出されるレコードの数やテーブルのサイズに制限はありません。

予想されるプラグインのスループットはどの程度ですか?

適切に構成された環境では、プラグインは EKKO のような中規模のテーブルから約 9,000 行/秒、ACDOCA などの大きなテーブルから 6,500 行/秒を抽出できます。

抽出のパフォーマンスを最適化するにはどうすればよいですか?

パフォーマンスの最適化をご覧ください。

デルタ抽出はサポートされていますか?

デルタ(最後の実行以降のデータ)抽出は、プラグインで直接サポートされていません。トランザクション テーブルのタイムスタンプ フィールドに基づいてレコードをフィルタリングするデータ パイプラインを定義できます(たとえば、テーブル ACDOCA のフィールド TIMESTAMP、テーブル EKKO のフィールド AEDAT)。プラグイン プロパティ フィルタ オプションを使用してフィルタリング条件を指定します。

例: TIMESTAMP >= '20210130100000' AND TIMESTAMP <= ' 20210226000000'(2021 年 1 月 30 日 10:00 UTC から 2021 年 2 月 26 日 00:00 UTC までの間の TIMESTAMP があるテーブル ACDOCA 内のレコードを選択)

エラーのシナリオ

ランタイム時に、プラグインは Cloud Data Fusion データ パイプライン ログにログエントリを書き込みます。簡単に識別できるように、これらのエントリには CDF_SAP という接頭辞が付いています。

設計時に、ユーザーがプラグインの設定を検証すると、[プロパティ] 領域に、赤色でハイライトされたメッセージが表示されます。特定のプロパティ検証メッセージは、プロパティのユーザー入力ボックスの直下に、赤でハイライト表示されます。これらのプロパティ検証エラー メッセージには特定のメッセージ ID がありません。

一般的なエラー メッセージの例:

エラー メッセージ

次の表に、一部の一般的なエラー メッセージの一覧を示します(プレースホルダのテキストは実行時に実際の値に置き換えられます)。

メッセージ ID メッセージ 推奨される対応
該当なし(UI) Required property UI_CONNECTION_PROPERTY_LABEL for connection type UI_CONNECTION_TYPE_RADIO_OPTION. 実際の値またはマクロ変数を入力します。
該当なし(UI) Invalid value for property UI_ADVANCED_OPTIONAL_PROPERTY_LABEL. 負でない整数(小数点のない 0 以上の整数)またはマクロ変数を入力します。
CDF_SAP_01412 One or more SAP JCo library files are missing or of incompatible version. 必要な JCo ライブラリ(sapjco3.jar)とそれに関連する OS 依存の共有ライブラリ(libsapjco3.so など)が同じバージョンに対応し、ユーザーガイドの説明に沿って Cloud Data Fusion にアップロードされていることを確認します。
CDF_SAP_01500 Unable to retrieve SAP destination from Destination Manager. Cannot initiate connectivity test with SAP.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
メッセージに表示された根本原因を確認し、適切な措置を講じます。
CDF_SAP_01404 SAP connection test failed. Please verify the connection parameters.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
メッセージに表示された根本原因を確認し、適切な措置を講じます。
CDF_SAP_01512 Unable to retrieve JCo Repository from SAP Destination.
Root Cause: SAP_ERROR_CODE - SAP root cause message
メッセージに表示された根本原因を確認し、適切な措置を講じます。
CDF_SAP_01513 Unable to retrieve JCo Function for SAP_RFM_NAME from SAP Repository.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
メッセージに表示された根本原因を確認し、適切な措置を講じます。
CDF_SAP_01501 RFM SAP_RFM_NAME が見つかりませんでした。 適切なトランスポート リクエストが SAP に正しくインポートされていることを確認します。
CDF_SAP_01406 Error while executing RFM SAP_RFM_NAME.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
SAP ユーザーに適切な承認が割り当てられていることを確認します。
CDF_SAP_01516 Table or View SAP_TABLE/VIEW_NAME could not be found. テーブルまたはビューが存在し、SAP で有効であることを確認します。
CDF_SAP_01517 SAP_TABLE/VIEW_NAME is not of type table or view. 有効なテーブルまたはビューであり、SAP の構造ではないことを確認します。
CDF_SAP_1532 Filter Options syntax is not valid. フィルタ条件を指定する際に、正しい OpenSQL 構文が使用されていることを確認します。
CDF_SAP_1534 Data buffer in SAP exceeded while extracting records from table/view SAP_TABLE/VIEW_NAME. パッケージのサイズやスプリットの数を減らしてください。あるいは、SAP 管理者に連絡して、SAP サーバーで使用可能なメモリリソースを増やします。
CDF_SAP_1403 User is not authorized to access SAP_TABLE/VIEW_NAME table/view data in SAP. SAP テーブルやビューの名前の適切な読み取り承認が SAP ユーザーに割り当てられていることを確認します。
CDF_SAP_1535 Query for the table/view AP_TABLE/VIEW_NAME failed to execute successfully. フィルタ条件に有効な列名が使用されていることを確認します。
CDF_SAP_01520 Failed to extract records #FROM_RECORD_INDEX to #TO_RECORD_INDEX, even after MAX_RETRY_COUNT retries. SAP サーバーとの通信エラー。Cloud Data Fusion から SAP サーバーのネットワーク接続とアクセス状況を確認します。

次のステップ