Integrazione con SAP

Questa pagina descrive i passaggi di integrazione per i carichi di lavoro operativi SAP (SAP ECC e SAP S/4 HANA) in Cortex Data Foundation. Cortex Framework può accelerare l'integrazione dei dati SAP con BigQuery utilizzando modelli di elaborazione dei dati predefiniti con le pipeline Dataflow fino a BigQuery, mentre Cloud Composer pianifica e monitora queste pipeline Dataflow per ottenere approfondimenti dai dati operativi di SAP.

Il file config.json nel repository di Cortex Framework Data Foundation configura le impostazioni necessarie per trasferire i dati da qualsiasi origine dati, inclusa SAP. Questo file contiene i seguenti parametri per i workload SAP operativi:

  "SAP": {
        "deployCDC": true,
        "datasets": {
            "cdc": "",
            "raw": "",
            "reporting": "REPORTING"
        },
        "SQLFlavor": "ecc",
        "mandt": "100"
    }

La tabella seguente descrive il valore di ciascun parametro operativo SAP:

Parametro Significato Valore predefinito Descrizione
SAP.deployCDC Esegui il deployment di CDC true Genera script di elaborazione CDC da eseguire come DAG in Cloud Composer.
SAP.datasets.raw Set di dati di destinazione non elaborati - Utilizzato dal processo CDC, è il punto in cui lo strumento di replica inserisce i dati di SAP. Se utilizzi dati di test, crea un set di dati vuoto.
SAP.datasets.cdc Set di dati elaborato tramite CDC - Set di dati che funge da origine per le visualizzazioni dei report e da destinazione per i DAG elaborati dei record. Se utilizzi dati di test, crea un set di dati vuoto.
SAP.datasets.reporting Set di dati report SAP "REPORTING" Nome del set di dati accessibile agli utenti finali per i report, dove vengono implementate le viste e le tabelle rivolte agli utenti.
SAP.SQLFlavor Versione SQL per il sistema di origine "ecc" s4 o ecc. Per i dati di test, mantieni il valore predefinito (ecc).
SAP.mandt Mandante o cliente "100" Mandante o cliente predefinito per SAP. Per i dati di test, mantieni il valore predefinito (100).
SAP.languages Filtro per lingua ["E","S"] Codici lingua SAP (SPRAS) da utilizzare per i campi pertinenti (ad esempio i nomi).
SAP.currencies Filtro per valuta ["USD"] Codici valuta target SAP (TCURR) per la conversione di valute.

Sebbene non sia richiesta una versione minima di SAP, i modelli ECC sono stati sviluppati sulla versione supportata più recente di SAP ECC. Le differenze nei campi tra il nostro sistema e altri sistemi sono previste, indipendentemente dalla versione.

Modello dati

Questa sezione descrive i modelli di dati SAP (ECC e S/4 HANA) che utilizzano i diagrammi di relazione tra entità (ERD).

SAP ECC

Diagramma delle relazioni tra entità per SAP ECC

Figura 2. SAP ECC: diagramma delle relazioni tra entità.

SAP S/4 HANA

Diagramma delle relazioni tra entità per SAP S/4 HANA

Figura 2. SAP S/4 HANA: diagramma delle relazioni tra entità.

Visualizzazioni di base

Questi sono gli oggetti blu nell'ERD e sono viste sulle tabelle CDC senza trasformazioni diverse da alcuni alias dei nomi delle colonne. Visualizza gli script in src/SAP/SAP_REPORTING.

Viste report

Si tratta degli oggetti verdi nell'ERD e contengono gli attributi dimensionali pertinenti utilizzati dalle tabelle dei report. Visualizza gli script in src/SAP/SAP_REPORTING.

Visualizzazione di utilità o BQML

Si tratta degli oggetti gialli nell'ERD e contengono i fatti e le dimensioni uniti tipo specifico di visualizzazione utilizzata per l'analisi dei dati e la generazione di report. Consulta gli script su src/SAP/SAP_REPORTING.

Tag aggiuntivi

I tag codificati per colore in questo diagramma ERD rappresentano le seguenti funzionalità delle tabelle di generazione di report:

Tag Colore Descrizione
L Giallo Questo tag fa riferimento a un elemento o attributo di dati che specifica la lingua in cui i dati vengono archiviati o visualizzati.
S/4 Rosso Questo tag indica che attributi specifici sono specifici per SAP S/4 HANA (questo oggetto potrebbe non essere in SAP ECC).
MANDT Viola Questo tag indica che attributi specifici contengono il parametro MANDT (rappresenta il cliente o l'ID cliente) per determinare a quale istanza di cliente o azienda appartiene un record di dati specifico.
EXT Rosso Questo tag indica che oggetti specifici vengono compilati da DAG o set di dati esterni. Ciò significa che l'entità o la tabella contrassegnata non viene memorizzata direttamente nel sistema SAP stesso, ma può essere estratta e caricata in SAP utilizzando un DAG o un altro meccanismo.
T Viola Questo tag indica che gli attributi specifici verranno materializzati automaticamente utilizzando il DAG configurato.
S Rosso Questo tag indica che i dati all'interno di un'entità o di tabelle sono influenzati o interessati da più valute.

Prerequisiti per la replica SAP

  • Cortex Framework Data Foundation prevede che le tabelle SAP vengano replicate con gli stessi nomi e tipi di campi creati in SAP.
  • A condizione che le tabelle vengano replicate con lo stesso formato, i nomi dei campi e la granularità come nell'origine, non è necessario utilizzare uno strumento di replica specifico.
  • I nomi delle tabelle devono essere creati in BigQuery in minuscolo.
  • L'elenco delle tabelle utilizzate dai modelli SAP è disponibile e configurabile nel CDC cdc_settings.yaml. Se una tabella non è elencata durante il deployment, i modelli che dipendono da essa non andranno a buon fine. Altri modelli verrebbero implementati correttamente.
  • Tieni presente quanto segue se utilizzi il connettore BigQuery per SAP:
  • Se non prevedi di eseguire il deployment dei dati di test e se prevedi di generare script DAG CDC durante il deployment, assicurati che la tabella DD03L per i metadati SAP venga replicata da SAP nel progetto di origine. Questa tabella contiene i metadati delle tabelle, ad esempio l'elenco delle chiavi, ed è necessaria per il funzionamento del generatore CDC e del risolutore delle dipendenze. Questa tabella ti consente anche di aggiungere tabelle non coperte dal modello per generare script CDC, ad esempio tabelle personalizzate o Z.
  • Se esistono differenze minime nel nome di una tabella, alcune visualizzazioni potrebbero non riuscire a trovare un campo, perché i sistemi SAP potrebbero avere piccole variazioni dovute a versioni o componenti aggiuntivi e aggiungere strutture alle tabelle oppure perché alcuni strumenti di replica potrebbero avere un trattamento leggermente diverso dei caratteri speciali. Per rilevare la maggior parte degli errori in un unico tentativo, ti consigliamo di eseguire il deployment con turboMode : false. Ad esempio:

    • Il _ viene rimosso dai campi che iniziano con _ (ad esempio _DATAAGING).
    • I campi non possono iniziare con / in BigQuery.

    In questa situazione, puoi adattare la visualizzazione con errori in modo da selezionare il campo così come viene visualizzato dallo strumento di replica che preferisci.

Replica dei dati non elaborati da SAP

Lo scopo di Data Foundation è esporre modelli di dati e analisi per report e applicazioni. I modelli utilizzano i dati replicati da un sistema SAP utilizzando uno strumento di replica preferito, come quelli elencati nelle guide all'integrazione dei dati per SAP.

I dati del sistema SAP (ECC o S/4 HANA) vengono replicati in formato non elaborato. I dati vengono copiati direttamente da SAP a BigQuery senza alcuna modifica alla struttura. Si tratta essenzialmente di un'immagine speculare delle tabelle nel sistema SAP. BigQuery utilizza nomi di tabella in minuscolo per il proprio modello di dati. Pertanto, anche se le tabelle SAP possono avere nomi in maiuscolo (ad es. MANDT), in BigQuery vengono convertite in minuscolo (ad es. mandt).

Prerequisiti per la replica SAP

Considera i seguenti prerequisiti per i dati di replica SAP con Cortex Framework Data Foundation

  • Integrità dei dati: Cortex Framework Data Foundation si aspetta che le tabelle SAP vengano replicate con nomi, tipi e strutture di dati dei campi identici a quelli esistenti in SAP. Se le tabelle vengono replicate con lo stesso formato, i nomi dei campi e la granularità dell'origine, non è necessario utilizzare uno strumento di replica specifico.
  • Nomi delle tabelle: i nomi delle tabelle BigQuery devono essere creati in minuscolo.
  • Configurazione delle tabelle: l'elenco delle tabelle utilizzate dai modelli SAP è disponibile e configurabile nel file cdc_settings.yaml CDC (Change Data Capture). Se una tabella non è elencata durante il deployment, i modelli che dipendono da essa non andranno a buon fine, anche se il deployment di altri modelli non dipendenti andrà a buon fine.
  • Considerazioni specifiche sul connettore BigQuery per SAP:
  • Replica dei metadati: se non esegui il deployment dei dati di test e non generi script DAG CDC durante il deployment, assicurati che la tabella DD03L per i metadati SAP venga replicata da SAP nel progetto di origine. Questa tabella contiene i metadati delle tabelle, ad esempio l'elenco delle chiavi, ed è necessaria per il funzionamento del generatore CDC e del risolutore delle dipendenze. Questa tabella ti consente anche di aggiungere tabelle non coperte dal modello, ad esempio tabelle personalizzate o Z, in modo da poter generare script CDC.
  • Gestione di piccole variazioni del nome della tabella: se esistono piccole differenze nel nome di una tabella, alcune visualizzazioni potrebbero non riuscire a trovare i campi obbligatori perché i sistemi SAP potrebbero avere piccole variazioni a causa di versioni o componenti aggiuntivi oppure perché alcuni strumenti di replica potrebbero avere un gestione leggermente diversa dei caratteri speciali. Ti consigliamo di eseguire il deployment con turboMode : false per rilevare la maggior parte degli errori in un unico tentativo. Alcuni problemi comuni includono:

    • Il _ viene rimosso dai campi che iniziano con _ (ad esempio _DATAAGING).
    • I campi non possono iniziare con / in BigQuery.

    In questa situazione, puoi modificare la visualizzazione con errori in modo da selezionare il campo così come viene visualizzato dallo strumento di replica che preferisci.

Elaborazione di Change Data Capture (CDC)

Scegli una delle seguenti modalità di elaborazione CDC offerte da Cortex Framework per gli strumenti di replica per caricare i record da SAP:

  • Aggiunta sempre: inserisci ogni modifica in un record con un timestamp e un flag di operazione (Inserisci, Aggiorna, Elimina), in modo da poter identificare l'ultima versione.
  • Aggiornamento al momento dell'atterraggio (unione o upsert): crea una versione aggiornata di un record al momento dell'atterraggio in change data capture processed. Esegue l'operazione di CDC in BigQuery.

Cortex Framework Data Foundation supporta entrambe le modalità, anche se per append-always fornisce modelli di elaborazione CDC. Alcune funzionalità devono essere commentate per l'aggiornamento nella pagina di destinazione. Ad esempio, OneTouchOrder.sql e tutte le query dipendenti. La funzionalità può essere sostituita con tabelle come CDPOS.

Elaborazione CDC

Figura 1. Elaborazione del CDC.

Configura i modelli CDC per gli strumenti che eseguono la replica in modalità di accodamento sempre

Ti consigliamo vivamente di configurare cdc_settings.yaml in base alle tue esigenze. Alcune frequenze predefinite potrebbero comportare costi non necessari se l'attività non richiede un simile livello di aggiornamento dei dati. Se utilizzi uno strumento che funziona in modalità di accodamento sempre, Cortex Framework Data Foundation fornisce modelli CDC per automatizzare gli aggiornamenti e creare una versione aggiornata della verità o del gemello digitale nel set di dati elaborato tramite CDC.

Puoi utilizzare la configurazione nel file cdc_settings.yaml se devi generare script di elaborazione CDC. Per conoscere le opzioni, consulta Configurare l'elaborazione CDC. Per i dati di test, puoi lasciare questo file come predefinito.

Apporta tutte le modifiche necessarie ai modelli DAG in base alla tua istanza di Airflow o Cloud Composer. Per ulteriori informazioni, consulta Raccogliere le impostazioni di Cloud Composer.

Facoltativo: se vuoi aggiungere ed elaborare le tabelle singolarmente dopo il deployment, puoi modificare il file cdc_settings.yaml per elaborare solo le tabelle di cui hai bisogno ed eseguire nuovamente il modulo specificato chiamando direttamente src/SAP_CDC/cloudbuild.cdc.yaml.

Configurare l'elaborazione CDC

Durante il deployment, puoi scegliere di unire le modifiche in tempo reale utilizzando una visualizzazione in BigQuery o pianificando un'operazione di unione in Cloud Composer (o in qualsiasi altra istanza di Apache Airflow). Cloud Composer può pianificare l'elaborazione periodica delle operazioni di unione tramite script. I dati vengono aggiornati alla versione più recente ogni volta che vengono eseguite le operazioni di unione, tuttavia, operazioni di unione più frequenti si traducono in costi più elevati. Personalizza la frequenza pianificata in base alle esigenze della tua attività. Per ulteriori informazioni, consulta la pianificazione supportata da Apache Airflow.

Lo script di esempio seguente mostra un estratto del file di configurazione:

  data_to_replicate:
    - base_table: adrc
      load_frequency: "@hourly"
    - base_table: adr6
      target_table: adr6_cdc
      load_frequency: "@daily"

Questo file di configurazione di esempio esegue le seguenti operazioni:

  1. Crea una copia da SOURCE_PROJECT_ID.REPLICATED_DATASET.adrc in TARGET_PROJECT_ID.DATASET_WITH_LATEST_RECORDS.adrc, se quest'ultimo non esiste.
  2. Crea uno script CDC nel bucket specificato.
  3. Crea una copia da SOURCE_PROJECT_ID.REPLICATED_DATASET.adr6 in TARGET_PROJECT_ID.DATASET_WITH_LATEST_RECORDS.adr6_cdc, se quest'ultimo non esiste.
  4. Crea uno script CDC nel bucket specificato.

Se vuoi creare DAG o visualizzazioni di runtime per elaborare le modifiche per le tabelle esistenti in SAP e non elencate nel file, aggiungile a questo file prima del deployment. Questo funziona a condizione che la tabella DD03L sia replicata nel set di dati di origine e che lo schema della tabella personalizzata sia presente in quella tabella. Ad esempio, la seguente configurazione crea uno script CDC per la tabella personalizzata zztable_customer e una vista di runtime per eseguire la scansione delle modifiche in tempo reale per un'altra tabella personalizzata denominata zzspecial_table:

    - base_table: zztable_customer
      load_frequency: "@daily"
    - base_table: zzspecial_table
      load_frequency: "RUNTIME"

Modello generato di esempio

Il seguente modello genera l'elaborazione delle modifiche. A questo punto è possibile apportare modifiche, come il nome del campo timestamp o operazioni aggiuntive:

  MERGE `${target_table}` T
  USING (
     SELECT *
     FROM `${base_table}`
     WHERE
        recordstamp > (
            SELECT IF(
                MAX(recordstamp) IS NOT NULL,
                MAX(recordstamp),
                TIMESTAMP("1940-12-25 05:30:00+00"))
            FROM `${target_table}` )
  ) S
  ON ${p_key}
  WHEN MATCHED AND S.operation_flag='D' AND S.is_deleted = true THEN
    DELETE
  WHEN NOT MATCHED AND S.operation_flag='I' THEN
    INSERT (${fields})
    VALUES
    (${fields})
  WHEN MATCHED AND S.operation_flag='U' THEN
  UPDATE SET
      ${update_fields}

In alternativa, se la tua attività richiede informazioni in tempo quasi reale e lo strumento di replica lo supporta, lo strumento di deployment accetta l'opzione RUNTIME. Ciò significa che non verrà generato uno script CDC. Una visualizzazione, invece, eseguirà la scansione e recupererà il record più recente disponibile in fase di esecuzione per garantire coerenza immediata.

Struttura delle directory per i DAG e gli script CDC

La struttura del bucket Cloud Storage per i DAG CDC di SAP prevede che i file SQL vengano generati in /data/bq_data_replication, come nell'esempio seguente. Puoi modificare questo percorso prima del deployment. Se non hai ancora un ambiente Cloud Composer disponibile, puoi crearne uno in un secondo momento e spostare i file nel bucket DAG.

with airflow.DAG("CDC_BigQuery_${base table}",
                template_searchpath=['/home/airflow/gcs/data/bq_data_replication/'], ##example
                default_args=default_dag_args,
                schedule_interval="${load_frequency}") as dag:
    start_task = DummyOperator(task_id="start")
    copy_records = BigQueryOperator(
      task_id='merge_query_records',
        sql="${query_file}",
        create_disposition='CREATE_IF_NEEDED',
        bigquery_conn_id="sap_cdc_bq", ## example
        use_legacy_sql=False)
    stop_task = DummyOperator (task_id="stop")
    start_task >> copy_records >> stop_task

Gli script che elaborano i dati in Airflow o Cloud Composer vengono generati appositamente separatamente dagli script specifici di Airflow. In questo modo, puoi trasferire gli script a un altro strumento a tua scelta.

Campi CDC richiesti per le operazioni MERGE

Specifica i seguenti parametri per la generazione automatica delle procedure batch CDC:

  • Progetto di origine + set di dati:il set di dati in cui i dati SAP vengono sottoposti a streaming o riproduttivi. Affinché gli script CDC funzionino per impostazione predefinita, le tabelle devono avere un campo timestamp (chiamato recordstamp) e un campo di operazione con i seguenti valori, tutti impostati durante la replica:
    • I: per Inserisci.
    • U: per Aggiornamento.
    • D: per eliminazione.
  • Progetto di destinazione + set di dati per l'elaborazione CDC: lo script generato per impostazione predefinita genera le tabelle da una copia del set di dati di origine se non esistono.
  • Tabelle replicate: le tabelle per le quali devono essere generati gli script
  • Frequenza di elaborazione: in base alla notazione Cron, la frequenza con cui è prevista l'esecuzione dei DAG:
  • Bucket Cloud Storage di destinazione in cui vengono copiati i file di output del CDC.
  • Nome della connessione: il nome della connessione utilizzata da Cloud Composer.
  • (Facoltativo) Nome della tabella di destinazione: disponibile se il risultato dell'elaborazione della CDC rimane nello stesso set di dati del target.

Ottimizzazione delle prestazioni per le tabelle CDC

Per alcuni set di dati CDC, ti consigliamo di sfruttare il partizionamento delle tabelle, il clustering delle tabelle o entrambi di BigQuery. Questa scelta dipende dai seguenti fattori:

  • Dimensioni e dati della tabella.
  • Colonne disponibili nella tabella.
  • Necessità di dati in tempo reale con visualizzazioni.
  • Dati materializzati come tabelle.

Per impostazione predefinita, le impostazioni CDC non applicano il partizionamento o il clustering delle tabelle. La scelta è tua, puoi configurarlo in base alle tue esigenze. Per creare tabelle con partizioni o cluster, aggiorna il file cdc_settings.yaml con le configurazioni pertinenti. Per ulteriori informazioni, consulta Partizione della tabella e Impostazioni cluster.

  1. Questa funzionalità si applica solo quando un set di dati in cdc_settings.yaml è configurato per la replica come tabella (ad es. load_frequency = "@daily") e non è definito come vista (load_frequency = "RUNTIME").
  2. Una tabella può essere sia partizionata sia raggruppata in cluster.

Se utilizzi uno strumento di replica che consente le partizioni nel set di dati non elaborato, come il connettore BigQuery per SAP, è consigliabile impostare partizioni basate sul tempo nelle tabelle non elaborate. Il tipo di partizione funziona meglio se corrisponde alla frequenza per i DAG CDC nella configurazione cdc_settings.yaml. Per ulteriori informazioni, consulta Considerazioni sulla progettazione per la modellazione dei dati SAP in BigQuery.

(Facoltativo) Configurazione del modulo di inventario SAP

Il modulo Inventario SAP di Cortex Framework include le viste InventoryKeyMetrics e InventoryByPlant che forniscono informazioni chiave sul tuo inventario. Queste visualizzazioni sono supportate da tabelle di snapshot mensili e settimanali che utilizzano DAG specializzati. Entrambi possono essere eseguiti contemporaneamente e non interferiranno tra loro.

Per aggiornare una o entrambe le tabelle istantanee:

  1. Aggiorna SlowMovingThreshold.sql e StockCharacteristicsConfig.sql per definire la soglia di lento movimento e le caratteristiche dello stock per diversi tipi di materiale in base alle tue esigenze.

  2. Per il caricamento iniziale o l'aggiornamento completo, esegui i DAG Stock_Monthly_Snapshots_Initial e Stock_Weekly_Snapshots_Initial.

  3. Per gli aggiornamenti successivi, pianifica o esegui i seguenti DAG:

    • Aggiornamenti mensili e settimanali:
      • Stock_Monthly_Snapshots_Periodical_Update
      • Stock_Weekly_Snapshots_periodical_Update
    • Aggiornamento giornaliero:
      • Stock_Monthly_Snapshots_Daily_Update
      • Stock_Weekly_Snapshots_Update_Daily
  4. Aggiorna le visualizzazioni intermedie StockMonthlySnapshots e StockWeeklySnapshots, seguite rispettivamente dalle visualizzazioni InventoryKeyMetrics e InventoryByPlants, per visualizzare i dati aggiornati.

(Facoltativo) Configurazione della visualizzazione Testi della gerarchia dei prodotti

La visualizzazione Testi della gerarchia dei prodotti appiattisce i materiali e le relative gerarchie di prodotto. La tabella risultante può essere utilizzata per fornire al componente aggiuntivo Trends un elenco di termini per recuperare l'interesse nel tempo. Configura questa visualizzazione seguendo questi passaggi:

  1. Regola i livelli della gerarchia e la lingua nel file prod_hierarchy_texts.sql, sotto gli indicatori per ## CORTEX-CUSTOMER.
  2. Se la gerarchia dei prodotti contiene più livelli, potresti dover aggiungere un'altra istruzione SELECT simile all'espressione tabella comune h1_h2_h3.

    Potrebbero essere presenti personalizzazioni aggiuntive a seconda dei sistemi di origine. Ti consigliamo di coinvolgere gli utenti o gli analisti aziendali all'inizio della procedura per aiutarti a rilevarli.

(Facoltativo) Configurazione delle visualizzazioni di appiattimento della gerarchia

A partire dalla release v6.0, Cortex Framework supporta l'appiattimento della gerarchia come visualizzazioni report. Si tratta di un miglioramento significativo rispetto all'appiattimento della gerarchia precedente, in quanto ora appiattisce l'intera gerarchia, ottimizza meglio per S/4 utilizzando tabelle specifiche di S/4 anziché le tabelle ECC precedenti e migliora notevolmente anche le prestazioni.

Riepilogo delle viste report

Trova le seguenti visualizzazioni relative all'appiattimento della gerarchia:

Tipo di gerarchia Tabella contenente solo una gerarchia appiattita Visualizzazioni per visualizzare la gerarchia appiattita Logica di integrazione del conto economico che utilizza questa gerarchia
Versione del rendiconto finanziario (FSV) fsv_glaccounts FSVHierarchyFlattened ProfitAndLossOverview
Centro di profitto profit_centers ProfitCenterHierarchyFlattened ProfitAndLossOverview_ProfitCenterHierarchy
Centro di costo cost_centers CostCenterHierarchyFlattened ProfitAndLossOverview_CostCenterHierarchy

Tieni presente quanto segue quando utilizzi le visualizzazioni di appiattimento della gerarchia:

  • Le visualizzazioni solo gerarchia appiatta sono funzionalmente equivalenti alle tabelle generate dalla soluzione di appiattimento della gerarchia precedente.
  • Le visualizzazioni di panoramica non vengono implementate per impostazione predefinita perché sono destinate a mostrare solo la logica BI. Trova il codice sorgente nella directory src/SAP/SAP_REPORTING.

Configurazione dell'appiattimento della gerarchia

In base alla gerarchia con cui stai lavorando, sono obbligatori i seguenti parametri di input:

Tipo di gerarchia Parametro obbligatorio Campo di origine (ECC) Campo di origine (S4)
Versione del rendiconto finanziario (FSV) Piano dei conti ktopl nodecls
Nome della gerarchia versn hryid
Centro di profitto Classe dell'insieme setclass setclass
Unità organizzativa: area di controllo o chiave aggiuntiva per l'insieme. subclass subclass
Centro di costo Classe dell'insieme setclass setclass
Unità organizzativa: area di controllo o chiave aggiuntiva per l'insieme. subclass subclass

Se hai dubbi sui parametri esatti, rivolgiti a un consulente SAP di finanza o controllo.

Dopo aver raccolto i parametri, aggiorna i commenti ## CORTEX-CUSTOMER all'interno di ciascuna delle directory corrispondenti, in base ai tuoi requisiti:

Tipo di gerarchia Posizione del codice
Versione del rendiconto finanziario (FSV) src/SAP/SAP_REPORTING/local_k9/fsv_hierarchy
Centro di profitto src/SAP/SAP_REPORTING/local_k9/profitcenter_hierarchy
Centro di costo src/SAP/SAP_REPORTING/local_k9/costcenter_hierarchy

Se applicabile, assicurati di aggiornare anche i commenti ## CORTEX-CUSTOMER nelle visualizzazioni dei report pertinenti nella directory src/SAP/SAP_REPORTING.

Dettagli della soluzione

Le seguenti tabelle di origine vengono utilizzate per l'appiattimento della gerarchia:

Tipo di gerarchia Tabelle di origine (ECC) Tabelle di origine (S4)
Versione del rendiconto finanziario (FSV)
  • fagl_011pc
  • fagl_011zc
  • ska1
  • hrrp_node
  • hrrp_directory
  • ska1
Centro di profitto
  • setheader
  • setnode
  • setleaf
  • sethanahier0106
Centro di costo
  • setheader
  • setnode
  • setleaf
  • sethanahier0101

Visualizzazione delle gerarchie

La soluzione di appiattimento della gerarchia SAP di Cortex appiattisce l'intera gerarchia. Se vuoi creare una rappresentazione visiva della gerarchia caricata simile a quella mostrata da SAP nell'interfaccia utente, esegui una query su una delle viste per la visualizzazione delle gerarchie appiattite con la condizione IsLeafNode=True.

Migrazione dalla soluzione di appiattimento della gerarchia precedente

Per eseguire la migrazione dalla soluzione di appiattimento della gerarchia precedente alla versione 6.0 di Cortex, sostituisci le tabelle come mostrato nella tabella seguente. Assicurati di verificare l'accuratezza dei nomi dei campi, poiché alcuni sono stati leggermente modificati. Ad esempio, prctr in cepc_hier ora è profitcenter nella tabella profit_centers.

Tipo di gerarchia Sostituisci questa tabella: Con:
Versione del rendiconto finanziario (FSV) ska1_hier fsv_glaccounts
Centro di profitto cepc_hier profit_centers
Centro di costo csks_hier cost_centers

(Facoltativo) Configurazione del modulo SAP Finance

Il modulo SAP Finance di Cortex Framework include le viste FinancialStatement, BalanceSheet e ProfitAndLoss che forniscono informazioni finanziarie chiave.

Per aggiornare queste tabelle di Finanza:

Per il caricamento iniziale

  1. Dopo il deployment, assicurati che il set di dati CDC sia compilato correttamente (esegui eventuali DAG CDC come richiesto).
  2. Assicurati che le visualizzazioni di appiattimento della gerarchia siano configurate correttamente per i tipi di gerarchie che utilizzi (centro di costo, centro di profitto e centro di servizi finanziari).
  3. Esegui il DAG financial_statement_initial_load.

  4. Se implementato come tabelle (opzione consigliata), aggiorna quanto segue in ordine di esecuzione dei DAG corrispondenti:

    1. Financial_Statements
    2. BalanceSheets
    3. ProfitAndLoss

Per l'aggiornamento periodico

  1. Assicurati che le visualizzazioni di appiattimento della gerarchia siano configurate correttamente e aggiornate per i tipi di gerarchie che utilizzi (centro di costo, centro di profitto e centro di distribuzione).
  2. Pianifica o esegui il DAG financial_statement_periodical_load.

  3. Se implementato come tabelle (opzione consigliata), aggiorna quanto segue in ordine di esecuzione dei DAG corrispondenti:

    1. Financial_Statements
    2. BalanceSheets
    3. ProfitAndLoss

Per visualizzare i dati di queste tabelle, consulta le seguenti visualizzazioni Panoramica:

  • ProfitAndLossOverview.sql se utilizzi la gerarchia FSV.
  • ProfitAndLossOverview_CostCenter.sql se utilizzi la gerarchia dei centri di costo.
  • ProfitAndLossOverview_ProfitCenter.sql se utilizzi la gerarchia dei centri di profitto.

Passaggi successivi