SAP との統合
このページでは、Cortex Framework Data Foundation での SAP 運用ワークロード(SAP ECC と SAP S/4 HANA)の統合手順について説明します。Cortex Framework は、Dataflow パイプラインと BigQuery の事前定義されたデータ処理テンプレートを使用して、SAP データと BigQuery の統合を高速化できます。一方、Cloud Composer は、これらの Dataflow パイプラインのスケジュール設定とモニタリングを行い、SAP 運用データから分析情報を取得します。
Cortex Framework Data Foundation リポジトリの config.json
ファイルには、SAP を含む任意のデータソースからデータを転送するために必要な設定が構成されています。このファイルには、運用中の SAP ワークロードの次のパラメータが含まれています。
"SAP": {
"deployCDC": true,
"datasets": {
"cdc": "",
"raw": "",
"reporting": "REPORTING"
},
"SQLFlavor": "ecc",
"mandt": "100"
}
次の表に、各 SAP 運用パラメータの値を示します。
パラメータ | 意味 | デフォルト値 | 説明 |
SAP.deployCDC
|
CDC をデプロイする | true
|
Cloud Composer で DAG として実行する CDC 処理スクリプトを生成します。 |
SAP.datasets.raw
|
未加工のランディング データセット | - | CDC プロセスで使用され、レプリケーション ツールが SAP からデータを配置する場所です。テストデータを使用する場合は、空のデータセットを作成します。 |
SAP.datasets.cdc
|
CDC 処理済みデータセット | - | レポートビューのソースとして機能し、DAG で処理されるレコードのターゲットとして機能するデータセット。テストデータを使用する場合は、空のデータセットを作成します。 |
SAP.datasets.reporting
|
レポート データセット SAP | "REPORTING"
|
エンドユーザーがレポート用にアクセスできるデータセットの名前。ビューとユーザー向けテーブルがデプロイされます。 |
SAP.SQLFlavor
|
移行元システムの SQL フレーバー | "ecc"
|
s4 または ecc 。テストデータの場合は、デフォルト値(ecc )のままにします。 |
SAP.mandt
|
マンダントまたはクライアント | "100"
|
SAP のデフォルトのマンダントまたはクライアント。テストデータの場合は、デフォルト値(100 )のままにします。 |
SAP.languages
|
言語フィルタ | ["E","S"]
|
関連するフィールド(名前など)に使用する SAP 言語コード(SPRAS)。 |
SAP.currencies
|
通貨フィルタ | ["USD"]
|
通貨換算用の SAP ターゲット通貨コード(TCURR)。 |
必要な SAP の最小バージョンはありませんが、ECC モデルは、現在サポートされている SAP ECC の最も古いバージョンで開発されています。バージョンに関係なく、YouTube のシステムと他のシステムのフィールドに違いがあります。
データモデル
このセクションでは、エンティティ関係図(ERD)を使用して SAP(ECC と S/4 HANA)のデータモデルについて説明します。
ベースビュー
これらは ERD の青色のオブジェクトであり、CDC テーブルのビューで、一部の列名エイリアス以外の変換はありません。スクリプトは src/SAP/SAP_REPORTING
にあります。
レポートビュー
これらは ERD の緑色のオブジェクトであり、レポート テーブルで使用される関連するディメンション属性が含まれています。スクリプトは src/SAP/SAP_REPORTING
にあります。
ユーティリティ ビューまたは BQML ビュー
これらは ERD の黄色のオブジェクトであり、データ分析とレポート作成に使用される結合されたファクトとディメンションの特定のタイプのビューが含まれています。src/SAP/SAP_REPORTING
のスクリプトをご覧ください。
追加タグ
この ERD の色分けされたタグは、レポート テーブルの次の機能を表します。
タグ | 色 | 説明 |
L
|
黄色 | このタグは、データが保存または表示される言語を指定するデータ要素または属性を参照します。 |
S/4
|
赤 | このタグは、特定の属性が SAP S/4HANA に固有であることを示します(このオブジェクトは SAP ECC にない場合があります)。 |
MANDT
|
紫 | このタグは、特定の属性に MANDT パラメータ(クライアントまたはクライアント ID を表します)が含まれており、特定のデータレコードがどのクライアントまたは会社インスタンスに属しているかを決定することを示します。 |
EXT
|
赤 | このタグは、特定のオブジェクトが DAG または外部データセットによって入力されることを示します。つまり、マークされたエンティティまたはテーブルは SAP システム自体に直接保存されませんが、DAG などのメカニズムを使用して抽出して SAP に読み込むことができます。 |
T
|
紫 | このタグは、構成された DAG を使用して特定の属性が自動的にマテリアライズされることを示します。 |
S
|
赤 | このタグは、エンティティまたはテーブル内のデータが複数の通貨の影響を受けていることを示します。 |
SAP レプリケーションの前提条件
- Cortex Framework Data Foundation では、SAP テーブルが SAP で作成されたときと同じフィールド名と型で複製されることを想定しています。
- テーブルがソースと同じ形式、フィールド名、粒度で複製されている限り、特定のレプリケーション ツールを使用する必要はありません。
- テーブル名は、BigQuery で小文字で作成する必要があります。
- SAP モデルで使用されるテーブルのリストは、CDC の
cdc_settings.yaml
で使用および構成できます。デプロイ中にテーブルがリストにない場合、そのテーブルに依存するモデルは失敗します。他のモデルは正常にデプロイされます。 - BigQuery Connector for SAP を使用している場合は、次の点を考慮してください。
- コンバージョン オプションについては、デフォルトのテーブル マッピングのドキュメントをご覧ください。
- 圧縮により、Cortex CDC レイヤと Cortex レポート データセットに影響する方法で元の SAP データが変更される可能性があるため、レコード圧縮を無効にすることをおすすめします。
- テストデータをデプロイする予定がなく、デプロイ中に CDC DAG スクリプトを生成する予定がある場合は、SAP メタデータのテーブル
DD03L
がソース プロジェクトの SAP から複製されていることを確認してください。このテーブルには、テーブルに関するメタデータ(キーのリストなど)が含まれており、CDC 生成ツールと依存関係解決ツールが機能するために必要です。このテーブルでは、モデルでカバーされていないテーブルを追加して、CDC スクリプトを生成することもできます(カスタム テーブルや Z テーブルなど)。 テーブル名にわずかな違いがある場合、一部のビューでフィールドが見つからなくなることがあります。これは、SAP システムがバージョンやアドオンによってわずかに異なる場合や、テーブルに構造を追加する場合、または一部のレプリケーション ツールで特殊文字の処理がわずかに異なる場合があるためです。1 回の試行でほとんどの障害を検出するには、
turboMode : false
を使用してデプロイを実行することをおすすめします。次に例を示します。_
で始まるフィールド(_DATAAGING
など)の_
が削除されます。- BigQuery では、フィールドの先頭に
/
を使用できません。
この状況では、選択したレプリケーション ツールによってフィールドがランディングされたときに、失敗したビューを変更してフィールドを選択できます。
SAP から元データを複製する
Data Foundation の目的は、レポートとアプリケーション用にデータと分析モデルを公開することです。モデルは、SAP 向けデータ統合ガイドに記載されているような、優先レプリケーション ツールを使用して、SAP システムから複製されたデータを使用します。
SAP システム(ECC または S/4 HANA)のデータは元の形式でレプリケートされます。データは、構造を変更せずに SAP から BigQuery に直接コピーされます。基本的に、SAP システム内のテーブルのミラー画像です。BigQuery は、データモデルに小文字のテーブル名を使用します。そのため、SAP テーブルの名前が MANDT
のように大文字であっても、BigQuery では小文字(mandt
など)に変換されます。
SAP レプリケーションの前提条件
Cortex Framework Data Foundation で SAP レプリケーション データを使用するための前提条件を検討する
- データの整合性: Cortex Framework Data Foundation では、SAP テーブルが SAP に存在するフィールド名、型、データ構造と同じで複製されることを想定しています。テーブルがソースと同じ形式、フィールド名、粒度で複製されている限り、特定のレプリケーション ツールを使用する必要はありません。
- テーブルの命名: BigQuery テーブル名は小文字で作成する必要があります。
- テーブルの構成: SAP モデルで使用されるテーブルのリストは、CDC(変更データ キャプチャ)
cdc_settings.yaml
ファイルで使用および構成できます。デプロイ中にテーブルがリストにない場合、そのテーブルに依存するモデルは失敗しますが、依存しない他のモデルは正常にデプロイされます。 - BigQuery Connector for SAP の具体的な考慮事項:
- テーブル マッピング: コンバージョン オプションについては、デフォルトのテーブル マッピングのドキュメントをご覧ください。
- レコード圧縮の無効化: レコード圧縮は Cortex CDC レイヤと Cortex レポート データセットの両方に影響する可能性があるため、無効にすることをおすすめします。
- メタデータのレプリケーション: テストデータをデプロイせず、デプロイ中に CDC DAG スクリプトを生成しない場合は、SAP メタデータのテーブル
DD03L
がソース プロジェクトの SAP から複製されていることを確認してください。このテーブルには、キーのリストなど、テーブルに関するメタデータが含まれています。これは、CDC 生成ツールと依存関係解決ツールが機能するために必要です。このテーブルでは、モデルでカバーされていないテーブル(カスタム テーブルや Z テーブルなど)を追加して、CDC スクリプトを生成することもできます。 テーブル名のわずかな違いの処理: テーブル名にわずかな違いがある場合、一部のビューで必要なフィールドが見つからずに失敗することがあります。これは、SAP システムのバージョンやアドオンによってテーブル名がわずかに異なる場合や、一部のレプリケーション ツールで特殊文字の処理がわずかに異なる場合があるためです。1 回の試行でほとんどの障害を検出できるように、
turboMode : false
を使用してデプロイを実行することをおすすめします。一般的な問題の例を次に示します。_
で始まるフィールド(_DATAAGING
など)の_
が削除されます。- BigQuery では、フィールドの先頭に
/
を使用できません。
この状況では、選択したレプリケーション ツールによってフィールドがランディングされたときに、失敗したビューを調整してフィールドを選択できます。
CDC 処理
Cortex Framework がレプリケーション ツールに提供する CDC 処理モードのいずれかを選択して、SAP からレコードを読み込みます。
- Append-always: タイムスタンプとオペレーション フラグ(挿入、更新、削除)を使用してレコードにすべての変更を挿入するため、最新バージョンを特定できます。
- ランディング時に更新(マージまたはアップサート): ランディング時に
change data capture processed
にレコードの更新版を作成します。BigQuery で CDC オペレーションを実行します。
Cortex Framework Data Foundation は両方のモードをサポートしていますが、append-always の場合は CDC 処理テンプレートを提供します。一部の機能は、ランディング ページの更新のためにコメントアウトする必要があります。たとえば、OneTouchOrder.sql とその依存するすべてのクエリ。この機能は、CDPOS などのテーブルに置き換えることができます。
追加モードでレプリケートするツールの CDC テンプレートを構成する
ニーズに応じて cdc_settings.yaml
を構成することを強くおすすめします。デフォルトの頻度によっては、ビジネスでそのようなレベルのデータの更新頻度が不要な場合、不要な費用が発生する可能性があります。追加のみモードで実行されるツールを使用している場合、Cortex Framework Data Foundation には、更新を自動化し、CDC で処理されたデータセットに真実またはデジタル ツインの最新バージョンを作成する CDC テンプレートが用意されています。
CDC 処理スクリプトを生成する必要がある場合は、ファイル cdc_settings.yaml
の構成を使用できます。オプションについては、CDC 処理を設定するをご覧ください。テストデータの場合は、このファイルをデフォルトのままにしておきます。
Airflow または Cloud Composer のインスタンスに応じて、DAG テンプレートに必要な変更をすべて加えます。詳細については、Cloud Composer の設定の収集をご覧ください。
省略可: デプロイ後にテーブルを個別に追加して処理する場合は、必要なテーブルのみを処理するように cdc_settings.yaml
ファイルを変更し、src/SAP_CDC/cloudbuild.cdc.yaml
を直接呼び出して指定したモジュールを再実行します。
CDC 処理を設定する
デプロイ中に、BigQuery のビューを使用して変更をリアルタイムで統合するか、Cloud Composer(または Apache Airflow の他のインスタンス)で統合オペレーションをスケジュールするかを選択できます。Cloud Composer では、マージ オペレーションを定期的に処理するようにスクリプトをスケジュールできます。データは、結合オペレーションの実行ごとに最新バージョンに更新されますが、結合オペレーションの頻度が高くなると費用が増加します。スケジュール設定の頻度は、ビジネスニーズに応じてカスタマイズできます。詳細については、Apache Airflow でサポートされているスケジューリングをご覧ください。
次のスクリプト例は、構成ファイルの抜粋を示しています。
data_to_replicate:
- base_table: adrc
load_frequency: "@hourly"
- base_table: adr6
target_table: adr6_cdc
load_frequency: "@daily"
この構成サンプル ファイルは、次の処理を行います。
TARGET_PROJECT_ID.DATASET_WITH_LATEST_RECORDS.adrc
が存在しない場合は、SOURCE_PROJECT_ID.REPLICATED_DATASET.adrc
からTARGET_PROJECT_ID.DATASET_WITH_LATEST_RECORDS.adrc
にコピーを作成します。- 指定されたバケットに CDC スクリプトを作成します。
TARGET_PROJECT_ID.DATASET_WITH_LATEST_RECORDS.adr6_cdc
が存在しない場合は、SOURCE_PROJECT_ID.REPLICATED_DATASET.adr6
からTARGET_PROJECT_ID.DATASET_WITH_LATEST_RECORDS.adr6_cdc
にコピーを作成します。- 指定されたバケットに CDC スクリプトを作成します。
SAP に存在し、ファイルにリストされていないテーブルの変更を処理する DAG またはランタイム ビューを作成する場合は、デプロイ前にこのファイルに追加します。これは、テーブル DD03L
がソース データセットに複製され、カスタム テーブルのスキーマがそのテーブルに存在する限り機能します。たとえば、次の構成では、カスタム テーブル zztable_customer
の CDC スクリプトと、別のカスタム テーブル zzspecial_table
の変更をリアルタイムでスキャンするランタイム ビューが作成されます。
- base_table: zztable_customer
load_frequency: "@daily"
- base_table: zzspecial_table
load_frequency: "RUNTIME"
生成されたテンプレートの例
次のテンプレートは、変更の処理を生成します。この時点で、タイムスタンプ フィールドの名前や追加のオペレーションなどの変更を行うことができます。
MERGE `${target_table}` T
USING (
SELECT *
FROM `${base_table}`
WHERE
recordstamp > (
SELECT IF(
MAX(recordstamp) IS NOT NULL,
MAX(recordstamp),
TIMESTAMP("1940-12-25 05:30:00+00"))
FROM `${target_table}` )
) S
ON ${p_key}
WHEN MATCHED AND S.operation_flag='D' AND S.is_deleted = true THEN
DELETE
WHEN NOT MATCHED AND S.operation_flag='I' THEN
INSERT (${fields})
VALUES
(${fields})
WHEN MATCHED AND S.operation_flag='U' THEN
UPDATE SET
${update_fields}
ビジネスでほぼリアルタイムの分析情報を必要とし、レプリケーション ツールがこれをサポートしている場合は、デプロイ ツールでオプション RUNTIME
を使用できます。つまり、CDC スクリプトは生成されません。代わりに、ビューは実行時に使用可能な最新のレコードをスキャンして取得し、即時整合性を実現します。
CDC DAG とスクリプトのディレクトリ構造
SAP CDC DAG の Cloud Storage バケット構造では、次の例のように、SQL ファイルが /data/bq_data_replication
に生成されることを想定しています。このパスはデプロイ前に変更できます。Cloud Composer の環境をまだ使用できない場合は、後で環境を作成してファイルを DAG バケットに移動できます。
with airflow.DAG("CDC_BigQuery_${base table}",
template_searchpath=['/home/airflow/gcs/data/bq_data_replication/'], ##example
default_args=default_dag_args,
schedule_interval="${load_frequency}") as dag:
start_task = DummyOperator(task_id="start")
copy_records = BigQueryOperator(
task_id='merge_query_records',
sql="${query_file}",
create_disposition='CREATE_IF_NEEDED',
bigquery_conn_id="sap_cdc_bq", ## example
use_legacy_sql=False)
stop_task = DummyOperator (task_id="stop")
start_task >> copy_records >> stop_task
Airflow または Cloud Composer でデータを処理するスクリプトは、Airflow 固有のスクリプトとは別に意図的に生成されます。これにより、これらのスクリプトを任意の別のツールに移植できます。
MERGE オペレーションに必要な CDC フィールド
CDC バッチ処理の自動生成に次のパラメータを指定します。
- ソース プロジェクトとデータセット: SAP データがストリーミングまたは複製されるデータセット。CDC スクリプトがデフォルトで機能するには、テーブルにタイムスタンプ フィールド(recordstamp という名前)と、次の値を持つオペレーション フィールドが必要です。これらはすべてレプリケーション中に設定されます。
- I: 挿入。
- U: 更新。
- D: 削除。
- CDC 処理のターゲット プロジェクトとデータセット: デフォルトで生成されるスクリプトは、ソースデータセットのコピーからテーブルを生成します(テーブルが存在しない場合)。
- 複製されたテーブル: スクリプトを生成する必要があるテーブル
- 処理頻度: Cron 表記に従って、DAG が実行される頻度。
- CDC 出力ファイルがコピーされるターゲット Cloud Storage バケット。
- 接続の名前: Cloud Composer で使用される接続の名前。
- (省略可)ターゲット テーブルの名前: CDC 処理の結果がターゲットと同じデータセットに残る場合に使用できます。
CDC テーブルのパフォーマンスの最適化
特定の CDC データセットでは、BigQuery のテーブル パーティショニング、テーブル クラスタリング、またはその両方のメリットを活用できます。この選択は、次の要因によって異なります。
- テーブルのサイズとデータ。
- テーブルで使用できる列。
- ビューを含むリアルタイム データが必要。
- テーブルとして実体化されたデータ。
デフォルトでは、CDC 設定ではテーブルのパーティショニングやテーブルのクラスタリングは適用されません。ご自身にとって最適な方法に基づいて構成できます。パーティションまたはクラスタを含むテーブルを作成するには、関連する構成で cdc_settings.yaml
ファイルを更新します。詳細については、テーブル パーティションとクラスタ設定をご覧ください。
- この機能は、
cdc_settings.yaml
のデータセットがテーブル(load_frequency = "@daily"
など)として複製するように構成されており、ビュー(load_frequency = "RUNTIME"
)として定義されていない場合にのみ適用されます。 - テーブルは、パーティション分割テーブルとクラスタ化テーブルの両方になります。
BigQuery Connector for SAP など、元のデータセットにパーティショニングを許可するレプリケーション ツールを使用している場合は、元のテーブルに時間ベースのパーティショニングを設定することをおすすめします。パーティションのタイプは、cdc_settings.yaml
構成の CDC DAG の頻度と一致している場合に適しています。詳細については、BigQuery における SAP データ モデリングの設計上の考慮事項をご覧ください。
省略可: SAP インベントリ モジュールの構成
Cortex Framework SAP 在庫モジュールには、在庫に関する重要な分析情報を提供する InventoryKeyMetrics
ビューと InventoryByPlant
ビューが含まれています。これらのビューは、専用の DAG を使用して月次および週次スナップショット テーブルによってサポートされています。どちらも同時に実行でき、相互に干渉することはありません。
スナップショット テーブルのいずれかまたは両方を更新する手順は次のとおりです。
SlowMovingThreshold.sql
とStockCharacteristicsConfig.sql
を更新して、要件に基づいてさまざまなマテリアル タイプに対して、低速移動のしきい値と在庫特性を定義します。初期読み込みまたは完全更新の場合は、
Stock_Monthly_Snapshots_Initial
DAG とStock_Weekly_Snapshots_Initial
DAG を実行します。以降の更新では、次の DAG をスケジュールするか実行します。
- 月次および週次の更新:
Stock_Monthly_Snapshots_Periodical_Update
Stock_Weekly_Snapshots_periodical_Update
- 毎日の更新:
Stock_Monthly_Snapshots_Daily_Update
Stock_Weekly_Snapshots_Update_Daily
- 月次および週次の更新:
中間
StockMonthlySnapshots
ビューとStockWeeklySnapshots
ビューを更新し、続いてInventoryKeyMetrics
ビューとInventoryByPlants
ビューを更新して、更新されたデータを公開します。
省略可: 商品階層テキスト ビューの設定
[プロダクト階層のテキスト] ビューでは、マテリアルとそのプロダクト階層が平坦化されます。作成したテーブルを使用して、Trends
アドオンにキーワードのリストをフィードし、関心の推移を取得できます。このビューを構成する手順は次のとおりです。
- ファイル
prod_hierarchy_texts.sql
の## CORTEX-CUSTOMER
のマーカーで、階層のレベルと言語を調整します。 商品階層に複数のレベルが含まれている場合は、共通テーブル式
h1_h2_h3
に似た SELECT ステートメントを追加する必要があります。移行元のシステムによっては、追加のカスタマイズが必要になる場合があります。これらの問題を特定できるように、プロセスの早い段階でビジネス ユーザーまたはアナリストを関与させることをおすすめします。
省略可: 階層フラット化ビューの構成
リリース v6.0 以降、Cortex Framework はレポートビューとして階層のフラット化をサポートしています。これは、従来の階層フラット化ツールよりも大幅に改善されています。階層全体がフラット化され、従来の ECC テーブルではなく S/4 固有のテーブルが使用されるため、S/4 向けに最適化され、パフォーマンスも大幅に向上します。
レポートビューの概要
階層のフラット化に関連する次のビューを確認します。
階層のタイプ | フラット化された階層のみを含むテーブル | フラット化された階層を可視化するビュー | この階層を使用した損益統合ロジック |
財務諸表のバージョン(FSV) | fsv_glaccounts
|
FSVHierarchyFlattened
|
ProfitAndLossOverview
|
プロフィット センター | profit_centers
|
ProfitCenterHierarchyFlattened
|
ProfitAndLossOverview_ProfitCenterHierarchy
|
コストセンター | cost_centers
|
CostCenterHierarchyFlattened
|
ProfitAndLossOverview_CostCenterHierarchy
|
階層フラット化ビューを使用する場合は、次の点を考慮してください。
- フラット化された階層のみのビューは、従来の階層フラット化ソリューションによって生成されたテーブルと同等の機能を備えています。
- 概要ビューは、BI ロジックのみを表示することを目的としているため、デフォルトではデプロイされません。ソースコードは
src/SAP/SAP_REPORTING
ディレクトリにあります。
階層フラット化の構成
使用する階層に基づいて、次の入力パラメータが必要です。
階層のタイプ | 必須パラメータ | ソース フィールド(ECC) | ソースフィールド(S4) |
財務諸表のバージョン(FSV) | 勘定科目 | ktopl
|
nodecls
|
階層名 | versn
|
hryid
|
|
プロフィット センター | セットのクラス | setclass
|
setclass
|
組織部門: セットの管理対象エリアまたは追加キー。 | subclass
|
subclass
|
|
コストセンター | セットのクラス | setclass
|
setclass
|
組織部門: セットの管理対象エリアまたは追加キー。 | subclass
|
subclass
|
正確なパラメータがわからない場合は、財務または管理の SAP コンサルタントにお問い合わせください。
パラメータが収集されたら、要件に応じて、対応する各ディレクトリ内の ## CORTEX-CUSTOMER
コメントを更新します。
階層の種類 | コードの場所 |
財務諸表のバージョン(FSV) | src/SAP/SAP_REPORTING/local_k9/fsv_hierarchy
|
プロフィット センター | src/SAP/SAP_REPORTING/local_k9/profitcenter_hierarchy
|
コストセンター | src/SAP/SAP_REPORTING/local_k9/costcenter_hierarchy
|
必要に応じて、src/SAP/SAP_REPORTING
ディレクトリの関連するレポートビュー内の ## CORTEX-CUSTOMER
コメントを適切に更新してください。
ソリューションの詳細
階層のフラット化には、次のソーステーブルが使用されます。
階層の種類 | ソーステーブル(ECC) | ソーステーブル(S4) |
財務諸表のバージョン(FSV) |
|
|
プロフィット センター |
|
|
コストセンター |
|
|
階層の可視化
Cortex の SAP 階層フラット化ソリューションは、階層全体をフラット化します。SAP の UI に表示される階層と同等の、読み込まれた階層の視覚的な表現を作成するには、IsLeafNode=True
条件を使用して、フラット化された階層を可視化するためのビューのいずれかをクエリします。
以前の階層フラット化ソリューションからの移行
Cortex v6.0 より前の以前の階層フラット化ソリューションから移行するには、次の表に示すようにテーブルを置き換えます。一部のフィールド名がわずかに変更されているため、フィールド名が正しいことを確認してください。たとえば、cepc_hier
の prctr
は profit_centers
テーブルの profitcenter
になりました。
階層のタイプ | このテーブルを置き換えます。 | with: |
財務諸表のバージョン(FSV) | ska1_hier
|
fsv_glaccounts
|
プロフィット センター | cepc_hier
|
profit_centers
|
コストセンター | csks_hier
|
cost_centers
|
省略可: SAP 財務モジュールの構成
Cortex Framework SAP Finance モジュールには、重要な財務分析情報を提供する FinancialStatement
、BalanceSheet
、ProfitAndLoss
ビューが含まれています。
これらの財務表を更新する手順は次のとおりです。
- デプロイ後、CDC データセットが正しく入力されていることを確認します(必要に応じて CDC DAG を実行します)。
- 使用している階層の種類(FSV、コストセンター、利益センター)に合わせて、階層フラット化ビューが適切に構成されていることを確認します。
financial_statement_initial_load
DAG を実行します。テーブルとしてデプロイされている場合(推奨)は、対応する DAG を実行して、次の順序で更新します。
Financial_Statements
BalanceSheets
ProfitAndLoss
- 使用している階層の種類(FSV、コストセンター、利益センター)に対して、階層フラット化ビューが適切に構成され、最新の状態に更新されていることを確認します。
financial_statement_periodical_load
DAG をスケジュール設定または実行します。テーブルとしてデプロイされている場合(推奨)は、対応する DAG を実行して、次の順序で更新します。
Financial_Statements
BalanceSheets
ProfitAndLoss
これらのテーブルのデータを可視化するには、次の概要ビューをご覧ください。
- FSV 階層を使用している場合は
ProfitAndLossOverview.sql
。 ProfitAndLossOverview_CostCenter.sql
(コストセンター階層を使用している場合)。ProfitAndLossOverview_ProfitCenter.sql
(利益センター階層を使用している場合)。
次のステップ
- その他のデータソースとワークロードの詳細については、データソースとワークロードをご覧ください。
- 本番環境にデプロイする手順の詳細については、Cortex Framework Data Foundation のデプロイの前提条件をご覧ください。