Integrazione con SAP
Questa pagina descrive i passaggi di integrazione per i carichi di lavoro operativi SAP (SAP ECC e SAP S/4 HANA) in Cortex Data Foundation. Cortex Framework può accelerare l'integrazione dei dati SAP con BigQuery utilizzando modelli di elaborazione dei dati predefiniti con le pipeline Dataflow fino a BigQuery, mentre Cloud Composer pianifica e monitora queste pipeline Dataflow per ottenere approfondimenti dai dati operativi di SAP.
Il file config.json
nel repository di Cortex Framework Data Foundation configura le impostazioni necessarie per trasferire i dati da qualsiasi origine dati, inclusa SAP. Questo file contiene i seguenti parametri per i workload SAP operativi:
"SAP": {
"deployCDC": true,
"datasets": {
"cdc": "",
"raw": "",
"reporting": "REPORTING"
},
"SQLFlavor": "ecc",
"mandt": "100"
}
La tabella seguente descrive il valore di ciascun parametro operativo SAP:
Parametro | Significato | Valore predefinito | Descrizione |
SAP.deployCDC
|
Esegui il deployment di CDC | true
|
Genera script di elaborazione CDC da eseguire come DAG in Cloud Composer. |
SAP.datasets.raw
|
Set di dati di destinazione non elaborati | - | Utilizzato dal processo CDC, è il punto in cui lo strumento di replica inserisce i dati di SAP. Se utilizzi dati di test, crea un set di dati vuoto. |
SAP.datasets.cdc
|
Set di dati elaborato tramite CDC | - | Set di dati che funge da origine per le visualizzazioni dei report e da destinazione per i DAG elaborati dei record. Se utilizzi dati di test, crea un set di dati vuoto. |
SAP.datasets.reporting
|
Set di dati report SAP | "REPORTING"
|
Nome del set di dati accessibile agli utenti finali per i report, dove vengono implementate le viste e le tabelle rivolte agli utenti. |
SAP.SQLFlavor
|
Versione SQL per il sistema di origine | "ecc"
|
s4 o ecc .
Per i dati di test, mantieni il valore predefinito (ecc ).
|
SAP.mandt
|
Mandante o cliente | "100"
|
Mandante o cliente predefinito per SAP.
Per i dati di test, mantieni il valore predefinito (100 ).
|
SAP.languages
|
Filtro per lingua | ["E","S"]
|
Codici lingua SAP (SPRAS) da utilizzare per i campi pertinenti (ad esempio i nomi). |
SAP.currencies
|
Filtro per valuta | ["USD"]
|
Codici valuta target SAP (TCURR) per la conversione di valute. |
Sebbene non sia richiesta una versione minima di SAP, i modelli ECC sono stati sviluppati sulla versione supportata più recente di SAP ECC. Le differenze nei campi tra il nostro sistema e altri sistemi sono previste, indipendentemente dalla versione.
Modello dati
Questa sezione descrive i modelli di dati SAP (ECC e S/4 HANA) che utilizzano i diagrammi di relazione tra entità (ERD).
SAP ECC
SAP S/4 HANA
Visualizzazioni di base
Questi sono gli oggetti blu nell'ERD e sono viste sulle tabelle CDC senza
trasformazioni diverse da alcuni alias dei nomi delle colonne. Visualizza gli script in
src/SAP/SAP_REPORTING
.
Viste report
Si tratta degli oggetti verdi nell'ERD e contengono gli attributi dimensionali pertinenti utilizzati dalle tabelle dei report. Visualizza gli script in
src/SAP/SAP_REPORTING
.
Visualizzazione di utilità o BQML
Si tratta degli oggetti gialli nell'ERD e contengono i fatti e le dimensioni uniti
tipo specifico di visualizzazione utilizzata per l'analisi dei dati e la generazione di report. Consulta gli script su
src/SAP/SAP_REPORTING
.
Tag aggiuntivi
I tag codificati per colore in questo diagramma ERD rappresentano le seguenti funzionalità delle tabelle di generazione di report:
Tag | Colore | Descrizione |
L
|
Giallo | Questo tag fa riferimento a un elemento o attributo di dati che specifica la lingua in cui i dati vengono archiviati o visualizzati. |
S/4
|
Rosso | Questo tag indica che attributi specifici sono specifici per SAP S/4 HANA (questo oggetto potrebbe non essere in SAP ECC). |
MANDT
|
Viola | Questo tag indica che attributi specifici contengono il parametro MANDT (rappresenta il cliente o l'ID cliente) per determinare a quale istanza di cliente o azienda appartiene un record di dati specifico. |
EXT
|
Rosso | Questo tag indica che oggetti specifici vengono compilati da DAG o set di dati esterni. Ciò significa che l'entità o la tabella contrassegnata non viene memorizzata direttamente nel sistema SAP stesso, ma può essere estratta e caricata in SAP utilizzando un DAG o un altro meccanismo. |
T
|
Viola | Questo tag indica che gli attributi specifici verranno materializzati automaticamente utilizzando il DAG configurato. |
S
|
Rosso | Questo tag indica che i dati all'interno di un'entità o di tabelle sono influenzati o interessati da più valute. |
Prerequisiti per la replica SAP
- Cortex Framework Data Foundation prevede che le tabelle SAP vengano replicate con gli stessi nomi e tipi di campi creati in SAP.
- A condizione che le tabelle vengano replicate con lo stesso formato, i nomi dei campi e la granularità come nell'origine, non è necessario utilizzare uno strumento di replica specifico.
- I nomi delle tabelle devono essere creati in BigQuery in minuscolo.
- L'elenco delle tabelle utilizzate dai modelli SAP è disponibile e configurabile nel CDC
cdc_settings.yaml
. Se una tabella non è elencata durante il deployment, i modelli che dipendono da essa non andranno a buon fine. Altri modelli verrebbero implementati correttamente. - Tieni presente quanto segue se utilizzi il connettore BigQuery per SAP:
- Per informazioni sull'opzione di conversione, consulta la documentazione sulla mappatura delle tabelle predefinite.
- Ti consigliamo di disattivare la compressione dei record, in quanto la compressione potrebbe modificare i dati SAP originali in modo da influire sul livello CDC di Cortex e sul set di dati dei report di Cortex.
- Se non prevedi di eseguire il deployment dei dati di test e se prevedi di generare script DAG CDC durante il deployment, assicurati che la tabella
DD03L
per i metadati SAP venga replicata da SAP nel progetto di origine. Questa tabella contiene i metadati delle tabelle, ad esempio l'elenco delle chiavi, ed è necessaria per il funzionamento del generatore CDC e del risolutore delle dipendenze. Questa tabella ti consente anche di aggiungere tabelle non coperte dal modello per generare script CDC, ad esempio tabelle personalizzate o Z. Se esistono differenze minime nel nome di una tabella, alcune visualizzazioni potrebbero non riuscire a trovare un campo, perché i sistemi SAP potrebbero avere piccole variazioni dovute a versioni o componenti aggiuntivi e aggiungere strutture alle tabelle oppure perché alcuni strumenti di replica potrebbero avere un trattamento leggermente diverso dei caratteri speciali. Per rilevare la maggior parte degli errori in un unico tentativo, ti consigliamo di eseguire il deployment con
turboMode : false
. Ad esempio:- Il
_
viene rimosso dai campi che iniziano con_
(ad esempio_DATAAGING
). - I campi non possono iniziare con
/
in BigQuery.
In questa situazione, puoi adattare la visualizzazione con errori in modo da selezionare il campo così come viene visualizzato dallo strumento di replica che preferisci.
- Il
Replica dei dati non elaborati da SAP
Lo scopo di Data Foundation è esporre modelli di dati e analisi per report e applicazioni. I modelli utilizzano i dati replicati da un sistema SAP utilizzando uno strumento di replica preferito, come quelli elencati nelle guide all'integrazione dei dati per SAP.
I dati del sistema SAP (ECC o S/4 HANA) vengono replicati in formato non elaborato.
I dati vengono copiati direttamente da SAP a BigQuery senza alcuna modifica alla struttura. Si tratta essenzialmente di un'immagine speculare delle tabelle nel sistema SAP. BigQuery utilizza nomi di tabella in minuscolo per il proprio modello di dati. Pertanto, anche se le tabelle SAP possono avere nomi in maiuscolo (ad es. MANDT
), in BigQuery vengono convertite in minuscolo (ad es. mandt
).
Prerequisiti per la replica SAP
Considera i seguenti prerequisiti per i dati di replica SAP con Cortex Framework Data Foundation
- Integrità dei dati: Cortex Framework Data Foundation si aspetta che le tabelle SAP vengano replicate con nomi, tipi e strutture di dati dei campi identici a quelli esistenti in SAP. Se le tabelle vengono replicate con lo stesso formato, i nomi dei campi e la granularità dell'origine, non è necessario utilizzare uno strumento di replica specifico.
- Nomi delle tabelle: i nomi delle tabelle BigQuery devono essere creati in minuscolo.
- Configurazione delle tabelle: l'elenco delle tabelle utilizzate dai modelli SAP è disponibile e configurabile nel file
cdc_settings.yaml
CDC (Change Data Capture). Se una tabella non è elencata durante il deployment, i modelli che dipendono da essa non andranno a buon fine, anche se il deployment di altri modelli non dipendenti andrà a buon fine. - Considerazioni specifiche sul connettore BigQuery per SAP:
- Mappatura delle tabelle: per informazioni sull'opzione di conversione, consulta la documentazione sulla mappatura delle tabelle predefinita.
- Disattivazione della compressione dei record: consigliamo di disattivare la compressione dei record che potrebbe influire sia sul livello CDC di Cortex sia sul set di dati dei report di Cortex.
- Replica dei metadati: se non esegui il deployment dei dati di test e non generi script DAG CDC durante il deployment, assicurati che la tabella
DD03L
per i metadati SAP venga replicata da SAP nel progetto di origine. Questa tabella contiene i metadati delle tabelle, ad esempio l'elenco delle chiavi, ed è necessaria per il funzionamento del generatore CDC e del risolutore delle dipendenze. Questa tabella ti consente anche di aggiungere tabelle non coperte dal modello, ad esempio tabelle personalizzate o Z, in modo da poter generare script CDC. Gestione di piccole variazioni del nome della tabella: se esistono piccole differenze nel nome di una tabella, alcune visualizzazioni potrebbero non riuscire a trovare i campi obbligatori perché i sistemi SAP potrebbero avere piccole variazioni a causa di versioni o componenti aggiuntivi oppure perché alcuni strumenti di replica potrebbero avere un gestione leggermente diversa dei caratteri speciali. Ti consigliamo di eseguire il deployment con
turboMode : false
per rilevare la maggior parte degli errori in un unico tentativo. Alcuni problemi comuni includono:- Il
_
viene rimosso dai campi che iniziano con_
(ad esempio_DATAAGING
). - I campi non possono iniziare con
/
in BigQuery.
In questa situazione, puoi modificare la visualizzazione con errori in modo da selezionare il campo così come viene visualizzato dallo strumento di replica che preferisci.
- Il
Elaborazione di Change Data Capture (CDC)
Scegli una delle seguenti modalità di elaborazione CDC offerte da Cortex Framework per gli strumenti di replica per caricare i record da SAP:
- Aggiunta sempre: inserisci ogni modifica in un record con un timestamp e un flag di operazione (Inserisci, Aggiorna, Elimina), in modo da poter identificare l'ultima versione.
- Aggiornamento al momento dell'atterraggio (unione o upsert): crea una versione aggiornata di un record al momento dell'atterraggio in
change data capture processed
. Esegue l'operazione di CDC in BigQuery.
Cortex Framework Data Foundation supporta entrambe le modalità, anche se per append-always fornisce modelli di elaborazione CDC. Alcune funzionalità devono essere commentate per l'aggiornamento nella pagina di destinazione. Ad esempio, OneTouchOrder.sql e tutte le query dipendenti. La funzionalità può essere sostituita con tabelle come CDPOS.
Configura i modelli CDC per gli strumenti che eseguono la replica in modalità di accodamento sempre
Ti consigliamo vivamente di configurare cdc_settings.yaml
in base alle tue esigenze.
Alcune frequenze predefinite potrebbero comportare costi non necessari se l'attività non richiede un simile livello di aggiornamento dei dati. Se utilizzi uno strumento che funziona in modalità di accodamento sempre, Cortex Framework Data Foundation fornisce modelli CDC per automatizzare gli aggiornamenti e creare una versione aggiornata della verità o del gemello digitale nel set di dati elaborato tramite CDC.
Puoi utilizzare la configurazione nel file cdc_settings.yaml
se devi generare script di elaborazione CDC. Per conoscere le opzioni, consulta Configurare l'elaborazione CDC. Per i dati di test, puoi lasciare questo file come predefinito.
Apporta tutte le modifiche necessarie ai modelli DAG in base alla tua istanza di Airflow o Cloud Composer. Per ulteriori informazioni, consulta Raccogliere le impostazioni di Cloud Composer.
Facoltativo: se vuoi aggiungere ed elaborare le tabelle singolarmente
dopo il deployment, puoi modificare il file cdc_settings.yaml
per elaborare solo
le tabelle di cui hai bisogno ed eseguire nuovamente il modulo specificato chiamando
direttamente src/SAP_CDC/cloudbuild.cdc.yaml
.
Configurare l'elaborazione CDC
Durante il deployment, puoi scegliere di unire le modifiche in tempo reale utilizzando una visualizzazione in BigQuery o pianificando un'operazione di unione in Cloud Composer (o in qualsiasi altra istanza di Apache Airflow). Cloud Composer può pianificare l'elaborazione periodica delle operazioni di unione tramite script. I dati vengono aggiornati alla versione più recente ogni volta che vengono eseguite le operazioni di unione, tuttavia, operazioni di unione più frequenti si traducono in costi più elevati. Personalizza la frequenza pianificata in base alle esigenze della tua attività. Per ulteriori informazioni, consulta la pianificazione supportata da Apache Airflow.
Lo script di esempio seguente mostra un estratto del file di configurazione:
data_to_replicate:
- base_table: adrc
load_frequency: "@hourly"
- base_table: adr6
target_table: adr6_cdc
load_frequency: "@daily"
Questo file di configurazione di esempio esegue le seguenti operazioni:
- Crea una copia da
SOURCE_PROJECT_ID.REPLICATED_DATASET.adrc
inTARGET_PROJECT_ID.DATASET_WITH_LATEST_RECORDS.adrc
, se quest'ultimo non esiste. - Crea uno script CDC nel bucket specificato.
- Crea una copia da
SOURCE_PROJECT_ID.REPLICATED_DATASET.adr6
inTARGET_PROJECT_ID.DATASET_WITH_LATEST_RECORDS.adr6_cdc
, se quest'ultimo non esiste. - Crea uno script CDC nel bucket specificato.
Se vuoi creare DAG o visualizzazioni di runtime per elaborare le modifiche per le tabelle
esistenti in SAP e non elencate nel file, aggiungile a questo file
prima del deployment. Questo funziona a condizione che la tabella DD03L
sia replicata nel set di dati di origine e che lo schema della tabella personalizzata sia presente in quella tabella.
Ad esempio, la seguente configurazione crea uno script CDC per la tabella personalizzata zztable_customer
e una vista di runtime per eseguire la scansione delle modifiche in tempo reale per un'altra tabella personalizzata denominata zzspecial_table
:
- base_table: zztable_customer
load_frequency: "@daily"
- base_table: zzspecial_table
load_frequency: "RUNTIME"
Modello generato di esempio
Il seguente modello genera l'elaborazione delle modifiche. A questo punto è possibile apportare modifiche, come il nome del campo timestamp o operazioni aggiuntive:
MERGE `${target_table}` T
USING (
SELECT *
FROM `${base_table}`
WHERE
recordstamp > (
SELECT IF(
MAX(recordstamp) IS NOT NULL,
MAX(recordstamp),
TIMESTAMP("1940-12-25 05:30:00+00"))
FROM `${target_table}` )
) S
ON ${p_key}
WHEN MATCHED AND S.operation_flag='D' AND S.is_deleted = true THEN
DELETE
WHEN NOT MATCHED AND S.operation_flag='I' THEN
INSERT (${fields})
VALUES
(${fields})
WHEN MATCHED AND S.operation_flag='U' THEN
UPDATE SET
${update_fields}
In alternativa, se la tua attività richiede informazioni in tempo quasi reale e lo strumento di replica lo supporta, lo strumento di deployment accetta l'opzione RUNTIME
.
Ciò significa che non verrà generato uno script CDC. Una visualizzazione, invece, eseguirà la scansione e recupererà il record più recente disponibile in fase di esecuzione per garantire coerenza immediata.
Struttura delle directory per i DAG e gli script CDC
La struttura del bucket Cloud Storage per i DAG CDC di SAP prevede che i file SQL vengano generati in /data/bq_data_replication
, come nell'esempio seguente.
Puoi modificare questo percorso prima del deployment. Se non hai ancora un ambiente Cloud Composer disponibile, puoi crearne uno in un secondo momento e spostare i file nel bucket DAG.
with airflow.DAG("CDC_BigQuery_${base table}",
template_searchpath=['/home/airflow/gcs/data/bq_data_replication/'], ##example
default_args=default_dag_args,
schedule_interval="${load_frequency}") as dag:
start_task = DummyOperator(task_id="start")
copy_records = BigQueryOperator(
task_id='merge_query_records',
sql="${query_file}",
create_disposition='CREATE_IF_NEEDED',
bigquery_conn_id="sap_cdc_bq", ## example
use_legacy_sql=False)
stop_task = DummyOperator (task_id="stop")
start_task >> copy_records >> stop_task
Gli script che elaborano i dati in Airflow o Cloud Composer vengono generati appositamente separatamente dagli script specifici di Airflow. In questo modo, puoi trasferire gli script a un altro strumento a tua scelta.
Campi CDC richiesti per le operazioni MERGE
Specifica i seguenti parametri per la generazione automatica delle procedure batch CDC:
- Progetto di origine + set di dati:il set di dati in cui i dati SAP vengono sottoposti a streaming o
riproduttivi. Affinché gli script CDC funzionino per impostazione predefinita, le tabelle devono avere un campo timestamp (chiamato recordstamp) e un campo di operazione con i seguenti valori, tutti impostati durante la replica:
- I: per Inserisci.
- U: per Aggiornamento.
- D: per eliminazione.
- Progetto di destinazione + set di dati per l'elaborazione CDC: lo script generato per impostazione predefinita genera le tabelle da una copia del set di dati di origine se non esistono.
- Tabelle replicate: le tabelle per le quali devono essere generati gli script
- Frequenza di elaborazione: in base alla notazione Cron, la frequenza con cui è prevista l'esecuzione dei DAG:
- Bucket Cloud Storage di destinazione in cui vengono copiati i file di output del CDC.
- Nome della connessione: il nome della connessione utilizzata da Cloud Composer.
- (Facoltativo) Nome della tabella di destinazione: disponibile se il risultato dell'elaborazione della CDC rimane nello stesso set di dati del target.
Ottimizzazione delle prestazioni per le tabelle CDC
Per alcuni set di dati CDC, ti consigliamo di sfruttare il partizionamento delle tabelle, il clustering delle tabelle o entrambi di BigQuery. Questa scelta dipende dai seguenti fattori:
- Dimensioni e dati della tabella.
- Colonne disponibili nella tabella.
- Necessità di dati in tempo reale con visualizzazioni.
- Dati materializzati come tabelle.
Per impostazione predefinita, le impostazioni CDC non applicano il partizionamento o il clustering delle tabelle.
La scelta è tua, puoi configurarlo in base alle tue esigenze. Per creare tabelle con partizioni o cluster, aggiorna il file cdc_settings.yaml
con le configurazioni pertinenti. Per ulteriori informazioni, consulta Partizione della tabella e Impostazioni cluster.
- Questa funzionalità si applica solo quando un set di dati in
cdc_settings.yaml
è configurato per la replica come tabella (ad es.load_frequency = "@daily"
) e non è definito come vista (load_frequency = "RUNTIME"
). - Una tabella può essere sia partizionata sia raggruppata in cluster.
Se utilizzi uno strumento di replica che consente le partizioni
nel set di dati non elaborato, come il connettore BigQuery per SAP,
è consigliabile impostare partizioni basate sul tempo
nelle tabelle non elaborate. Il tipo di partizione funziona meglio se corrisponde alla frequenza per i DAG CDC nella configurazione cdc_settings.yaml
. Per ulteriori informazioni, consulta Considerazioni sulla progettazione per la modellazione dei dati SAP in BigQuery.
(Facoltativo) Configurazione del modulo di inventario SAP
Il modulo Inventario SAP di Cortex Framework include le viste InventoryKeyMetrics
e InventoryByPlant
che forniscono informazioni chiave sul tuo inventario.
Queste visualizzazioni sono supportate da tabelle di snapshot mensili e settimanali che utilizzano DAG specializzati. Entrambi possono essere eseguiti contemporaneamente e non interferiranno tra loro.
Per aggiornare una o entrambe le tabelle istantanee:
Aggiorna
SlowMovingThreshold.sql
eStockCharacteristicsConfig.sql
per definire la soglia di lento movimento e le caratteristiche dello stock per diversi tipi di materiale in base alle tue esigenze.Per il caricamento iniziale o l'aggiornamento completo, esegui i DAG
Stock_Monthly_Snapshots_Initial
eStock_Weekly_Snapshots_Initial
.Per gli aggiornamenti successivi, pianifica o esegui i seguenti DAG:
- Aggiornamenti mensili e settimanali:
Stock_Monthly_Snapshots_Periodical_Update
Stock_Weekly_Snapshots_periodical_Update
- Aggiornamento giornaliero:
Stock_Monthly_Snapshots_Daily_Update
Stock_Weekly_Snapshots_Update_Daily
- Aggiornamenti mensili e settimanali:
Aggiorna le visualizzazioni intermedie
StockMonthlySnapshots
eStockWeeklySnapshots
, seguite rispettivamente dalle visualizzazioniInventoryKeyMetrics
eInventoryByPlants
, per visualizzare i dati aggiornati.
(Facoltativo) Configurazione della visualizzazione Testi della gerarchia dei prodotti
La visualizzazione Testi della gerarchia dei prodotti appiattisce i materiali e le relative gerarchie di prodotto. La tabella risultante può essere utilizzata per fornire al componente aggiuntivo Trends
un elenco di termini per recuperare l'interesse nel tempo. Configura
questa visualizzazione seguendo questi passaggi:
- Regola i livelli della gerarchia e la lingua nel file
prod_hierarchy_texts.sql
, sotto gli indicatori per## CORTEX-CUSTOMER
. Se la gerarchia dei prodotti contiene più livelli, potresti dover aggiungere un'altra istruzione SELECT simile all'espressione tabella comune
h1_h2_h3
.Potrebbero essere presenti personalizzazioni aggiuntive a seconda dei sistemi di origine. Ti consigliamo di coinvolgere gli utenti o gli analisti aziendali all'inizio della procedura per aiutarti a rilevarli.
(Facoltativo) Configurazione delle visualizzazioni di appiattimento della gerarchia
A partire dalla release v6.0, Cortex Framework supporta l'appiattimento della gerarchia come visualizzazioni report. Si tratta di un miglioramento significativo rispetto all'appiattimento della gerarchia precedente, in quanto ora appiattisce l'intera gerarchia, ottimizza meglio per S/4 utilizzando tabelle specifiche di S/4 anziché le tabelle ECC precedenti e migliora notevolmente anche le prestazioni.
Riepilogo delle viste report
Trova le seguenti visualizzazioni relative all'appiattimento della gerarchia:
Tipo di gerarchia | Tabella contenente solo una gerarchia appiattita | Visualizzazioni per visualizzare la gerarchia appiattita | Logica di integrazione del conto economico che utilizza questa gerarchia |
Versione del rendiconto finanziario (FSV) | fsv_glaccounts
|
FSVHierarchyFlattened
|
ProfitAndLossOverview
|
Centro di profitto | profit_centers
|
ProfitCenterHierarchyFlattened
|
ProfitAndLossOverview_ProfitCenterHierarchy
|
Centro di costo | cost_centers
|
CostCenterHierarchyFlattened
|
ProfitAndLossOverview_CostCenterHierarchy
|
Tieni presente quanto segue quando utilizzi le visualizzazioni di appiattimento della gerarchia:
- Le visualizzazioni solo gerarchia appiatta sono funzionalmente equivalenti alle tabelle generate dalla soluzione di appiattimento della gerarchia precedente.
- Le visualizzazioni di panoramica non vengono implementate per impostazione predefinita perché sono destinate a mostrare solo la logica BI. Trova il codice sorgente nella directory
src/SAP/SAP_REPORTING
.
Configurazione dell'appiattimento della gerarchia
In base alla gerarchia con cui stai lavorando, sono obbligatori i seguenti parametri di input:
Tipo di gerarchia | Parametro obbligatorio | Campo di origine (ECC) | Campo di origine (S4) |
Versione del rendiconto finanziario (FSV) | Piano dei conti | ktopl
|
nodecls
|
Nome della gerarchia | versn
|
hryid
|
|
Centro di profitto | Classe dell'insieme | setclass
|
setclass
|
Unità organizzativa: area di controllo o chiave aggiuntiva per l'insieme. | subclass
|
subclass
|
|
Centro di costo | Classe dell'insieme | setclass
|
setclass
|
Unità organizzativa: area di controllo o chiave aggiuntiva per l'insieme. | subclass
|
subclass
|
Se hai dubbi sui parametri esatti, rivolgiti a un consulente SAP di finanza o controllo.
Dopo aver raccolto i parametri, aggiorna i commenti ## CORTEX-CUSTOMER
all'interno di ciascuna delle directory corrispondenti, in base ai tuoi requisiti:
Tipo di gerarchia | Posizione del codice |
Versione del rendiconto finanziario (FSV) | src/SAP/SAP_REPORTING/local_k9/fsv_hierarchy
|
Centro di profitto | src/SAP/SAP_REPORTING/local_k9/profitcenter_hierarchy
|
Centro di costo | src/SAP/SAP_REPORTING/local_k9/costcenter_hierarchy
|
Se applicabile, assicurati di aggiornare anche i commenti ## CORTEX-CUSTOMER
nelle visualizzazioni dei report pertinenti nella directory src/SAP/SAP_REPORTING
.
Dettagli della soluzione
Le seguenti tabelle di origine vengono utilizzate per l'appiattimento della gerarchia:
Tipo di gerarchia | Tabelle di origine (ECC) | Tabelle di origine (S4) |
Versione del rendiconto finanziario (FSV) |
|
|
Centro di profitto |
|
|
Centro di costo |
|
|
Visualizzazione delle gerarchie
La soluzione di appiattimento della gerarchia SAP di Cortex appiattisce l'intera gerarchia. Se
vuoi creare una rappresentazione visiva della gerarchia caricata
simile a quella mostrata da SAP nell'interfaccia utente, esegui una query su una delle
viste per la visualizzazione delle gerarchie appiattite
con la condizione IsLeafNode=True
.
Migrazione dalla soluzione di appiattimento della gerarchia precedente
Per eseguire la migrazione dalla soluzione di appiattimento della gerarchia precedente alla versione 6.0 di Cortex, sostituisci le tabelle come mostrato nella tabella seguente. Assicurati di verificare l'accuratezza dei nomi dei campi, poiché alcuni sono stati leggermente modificati. Ad esempio, prctr
in cepc_hier
ora è profitcenter
nella tabella profit_centers
.
Tipo di gerarchia | Sostituisci questa tabella: | Con: |
Versione del rendiconto finanziario (FSV) | ska1_hier
|
fsv_glaccounts
|
Centro di profitto | cepc_hier
|
profit_centers
|
Centro di costo | csks_hier
|
cost_centers
|
(Facoltativo) Configurazione del modulo SAP Finance
Il modulo SAP Finance di Cortex Framework include le viste FinancialStatement
,
BalanceSheet
e ProfitAndLoss
che forniscono informazioni finanziarie chiave.
Per aggiornare queste tabelle di Finanza:
Per il caricamento iniziale
- Dopo il deployment, assicurati che il set di dati CDC sia compilato correttamente (esegui eventuali DAG CDC come richiesto).
- Assicurati che le visualizzazioni di appiattimento della gerarchia siano configurate correttamente per i tipi di gerarchie che utilizzi (centro di costo, centro di profitto e centro di servizi finanziari).
Esegui il DAG
financial_statement_initial_load
.Se implementato come tabelle (opzione consigliata), aggiorna quanto segue in ordine di esecuzione dei DAG corrispondenti:
Financial_Statements
BalanceSheets
ProfitAndLoss
Per l'aggiornamento periodico
- Assicurati che le visualizzazioni di appiattimento della gerarchia siano configurate correttamente e aggiornate per i tipi di gerarchie che utilizzi (centro di costo, centro di profitto e centro di distribuzione).
Pianifica o esegui il DAG
financial_statement_periodical_load
.Se implementato come tabelle (opzione consigliata), aggiorna quanto segue in ordine di esecuzione dei DAG corrispondenti:
Financial_Statements
BalanceSheets
ProfitAndLoss
Per visualizzare i dati di queste tabelle, consulta le seguenti visualizzazioni Panoramica:
ProfitAndLossOverview.sql
se utilizzi la gerarchia FSV.ProfitAndLossOverview_CostCenter.sql
se utilizzi la gerarchia dei centri di costo.ProfitAndLossOverview_ProfitCenter.sql
se utilizzi la gerarchia dei centri di profitto.
Passaggi successivi
- Per ulteriori informazioni su altre origini dati e carichi di lavoro, consulta Origini dati e carichi di lavoro.
- Per ulteriori informazioni sulla procedura di implementazione negli ambienti di produzione, consulta Prerequisiti per l'implementazione di Data Foundation di Cortex Framework.