Integración con SAP

En esta página, se describen los pasos de integración para las cargas de trabajo operativas de SAP (SAP ECC y SAP S/4 HANA) en la base de datos de Cortex Framework. Cortex Framework puede acelerar la integración de datos de SAP con BigQuery a través de plantillas de procesamiento de datos predefinidas con canalizaciones de Dataflow en BigQuery, mientras que Cloud Composer programa y supervisa estas canalizaciones de Dataflow para obtener estadísticas a partir de tus datos operativos de SAP.

El archivo config.json en el repositorio de Cortex Framework Data Foundation configura los parámetros necesarios para transferir datos desde cualquier fuente de datos, incluido SAP. Este archivo contiene los siguientes parámetros para las cargas de trabajo operativas de SAP:

  "SAP": {
        "deployCDC": true,
        "datasets": {
            "cdc": "",
            "raw": "",
            "reporting": "REPORTING"
        },
        "SQLFlavor": "ecc",
        "mandt": "100"
    }

En la siguiente tabla, se describe el valor de cada parámetro operativo de SAP:

Parámetro Significado Valor predeterminado Descripción
SAP.deployCDC Implementa la CDC true Genera secuencias de comandos de procesamiento de CDC para ejecutarlas como DAGs en Cloud Composer.
SAP.datasets.raw Conjunto de datos de la página de destino sin procesar - El proceso de CDC lo usa para determinar dónde la herramienta de replicación coloca los datos de SAP. Si usas datos de prueba, crea un conjunto de datos vacío.
SAP.datasets.cdc Conjunto de datos procesado de CDC - Es el conjunto de datos que funciona como fuente para las vistas de informes y como destino para los DAG de registros procesados. Si usas datos de prueba, crea un conjunto de datos vacío.
SAP.datasets.reporting Conjunto de datos de informes de SAP "REPORTING" Nombre del conjunto de datos al que pueden acceder los usuarios finales para generar informes, en el que se implementan las vistas y las tablas orientadas al usuario.
SAP.SQLFlavor Lenguaje SQL para el sistema fuente "ecc" s4 o ecc. Para los datos de prueba, conserva el valor predeterminado (ecc).
SAP.mandt Mandante o cliente "100" Mandante o cliente predeterminado para SAP. Para los datos de prueba, conserva el valor predeterminado (100).
SAP.languages Filtro de idioma ["E","S"] Son los códigos de idioma de SAP (SPRAS) que se usarán para los campos pertinentes (como los nombres).
SAP.currencies Filtro de moneda ["USD"] Son los códigos de moneda objetivo de SAP (TCURR) para la conversión de moneda.

Si bien no se requiere una versión mínima de SAP, los modelos de ECC se desarrollaron en la versión compatible más antigua actual de SAP ECC. Se esperan diferencias en los campos entre nuestro sistema y otros sistemas, independientemente de la versión.

Modelo de datos

En esta sección, se describen los modelos de datos de SAP (ECC y S/4 HANA) con los diagramas de relación entre entidades (ERD).

SAP ECC

Diagrama de relación entre entidades para SAP ECC

Figura 2: SAP ECC: Diagrama de relación entre entidades.

SAP S/4 HANA

Diagrama de relación entre entidades para SAP S/4HANA

Figura 2: SAP S/4 HANA: Diagrama de relación entre entidades.

Vistas base

Estos son los objetos azules en el DER y son vistas de las tablas de CDC sin transformaciones, excepto algunos alias de nombres de columnas. Consulta las secuencias de comandos en src/SAP/SAP_REPORTING.

Vistas de informes

Estos son los objetos verdes del DER y contienen los atributos dimensionales pertinentes que utilizan las tablas de informes. Consulta las secuencias de comandos en src/SAP/SAP_REPORTING.

Vista de utilidad o de BQML

Estos son los objetos amarillos en el DER y contienen los hechos y las dimensiones unidos, además del tipo específico de vista que se usa para el análisis y la generación de informes de datos. Consulta las secuencias de comandos en src/SAP/SAP_REPORTING.

Etiquetas adicionales

Las etiquetas codificadas por color en este DER representan las siguientes características de las tablas de informes:

Etiqueta Color Descripción
L Amarillo Esta etiqueta hace referencia a un atributo o elemento de datos que especifica el idioma en el que se almacenan o muestran los datos.
S/4 Rojo Esta etiqueta indica que los atributos específicos son específicos para SAP S/4HANA (es posible que este objeto no esté en SAP ECC).
MANDT Púrpura Esta etiqueta indica que atributos específicos contienen el parámetro MANDT (que representa el cliente o el ID de cliente) para determinar a qué instancia de cliente o empresa pertenece un registro de datos específico.
EXT Rojo Esta etiqueta indica que los DAGs o los conjuntos de datos externos completan objetos específicos. Esto significa que la entidad o tabla marcada no se almacena directamente en el sistema SAP, pero se puede extraer y cargar en SAP con un DAG o algún otro mecanismo.
T Púrpura Esta etiqueta indica que los atributos específicos se materializarán automáticamente con el DAG configurado.
S Rojo Esta etiqueta indica que los datos dentro de una entidad o tablas se ven influenciados o afectados por varias monedas.

Requisitos previos para la replicación de SAP

Ten en cuenta los siguientes requisitos previos para los datos de replicación de SAP con Cortex Framework Data Foundation:

  • Integridad de los datos: Cortex Framework Data Foundation espera que las tablas de SAP se repliquen con nombres de campo, tipos y estructuras de datos idénticos a los que existen en SAP. Siempre y cuando las tablas se repliquen con el mismo formato, los mismos nombres de campos y la misma granularidad que en la fuente, no es necesario usar una herramienta de replicación específica.
  • Nombres de tablas: Los nombres de las tablas de BigQuery deben crearse en minúsculas.
  • Configuración de la tabla: La lista de tablas que usan los modelos de SAP está disponible y se puede configurar en el archivo cdc_settings.yaml de CDC (captura de datos modificados). Si una tabla no aparece en la lista durante la implementación, los modelos que dependen de ella fallarán, aunque otros modelos no dependientes se implementarán correctamente.
  • Consideraciones específicas BigQuery Connector para SAP:
  • Replicación de metadatos: Si no implementas datos de prueba ni generas secuencias de comandos de DAG de CDC durante la implementación, asegúrate de que la tabla DD03L para los metadatos de SAP se replique desde SAP en el proyecto de origen. Esta tabla contiene metadatos sobre las tablas, como la lista de claves, y es necesaria para que funcionen el generador de CDC y el solucionador de dependencias. Esta tabla también te permite agregar tablas que no están incluidas en el modelo, por ejemplo, tablas personalizadas o Z, para que se puedan generar secuencias de comandos de CDC.
  • Cómo controlar variaciones menores en los nombres de las tablas: Si hay diferencias menores en el nombre de una tabla, es posible que algunas vistas no encuentren los campos obligatorios, ya que los sistemas SAP pueden tener variaciones menores debido a las versiones o los complementos, o porque algunas herramientas de replicación pueden tener un control ligeramente diferente de los caracteres especiales. Te recomendamos que ejecutes la implementación con turboMode : false para detectar la mayor cantidad de errores en un solo intento. Estos son algunos problemas comunes:

    • Los campos que comienzan con _ (por ejemplo, _DATAAGING) tienen su _ quitado.
    • Los campos no pueden comenzar con / en BigQuery.

    En esta situación, puedes ajustar la vista con errores para seleccionar el campo tal como lo muestra la herramienta de replicación que elijas.

Cómo replicar datos sin procesar de SAP

El propósito de la Data Foundation es exponer modelos de datos y análisis para informes y aplicaciones. Los modelos consumen los datos replicados desde un sistema SAP con una herramienta de replicación preferida, como las que se enumeran en las Guías de integración de datos para SAP.

Los datos del sistema SAP (ya sea ECC o S/4HANA) se replican en formato sin procesar. Los datos se copian directamente de SAP a BigQuery sin que se modifique su estructura. Es básicamente una imagen reflejada de las tablas de tu sistema SAP. BigQuery usa nombres de tabla en minúsculas para su modelo de datos. Por lo tanto, aunque tus tablas de SAP pueden tener nombres en mayúsculas (como MANDT), se convierten a minúsculas (como mandt) en BigQuery.

Procesamiento de la captura de datos modificados (CDC)

Elige uno de los siguientes modos de procesamiento de CDC que ofrece Cortex Framework para que las herramientas de replicación carguen registros desde SAP:

  • Append-always: Inserta cada cambio en un registro con una marca de tiempo y una marca de operación (Insertar, Actualizar, Borrar) para que se pueda identificar la última versión.
  • Actualizar al llegar (combinar o insertar/actualizar): Crea una versión actualizada de un registro al llegar a change data capture processed. Realiza la operación de CDC en BigQuery.

La base de datos de Cortex Framework admite ambos modos, aunque, para el modo de solo agregar, proporciona plantillas de procesamiento de CDC. Algunas capacidades deben comentarse para la actualización en la página de destino. Por ejemplo, OneTouchOrder.sql y todas sus consultas dependientes. La capacidad se puede reemplazar por tablas como CDPOS.

Procesamiento de CDC

Figura 1. Se está procesando el CDC.

Configura plantillas de CDC para las herramientas que se replican en el modo de agregar siempre

Te recomendamos que configures cdc_settings.yaml según tus necesidades. Algunas frecuencias predeterminadas pueden generar costos innecesarios si la empresa no requiere ese nivel de actualización de los datos. Si usas una herramienta que se ejecuta en modo de solo agregar, Cortex Framework Data Foundation proporciona plantillas de CDC para automatizar las actualizaciones y crear una versión más reciente de la verdad o el gemelo digital en el conjunto de datos procesado por CDC.

Puedes usar la configuración del archivo cdc_settings.yaml si necesitas generar secuencias de comandos de procesamiento de CDC. Consulta Cómo configurar el procesamiento de CDC para ver las opciones. En el caso de los datos de prueba, puedes dejar este archivo como predeterminado.

Realiza todos los cambios necesarios en las plantillas de DAG según tu instancia de Airflow o Cloud Composer. Para obtener más información, consulta Cómo recopilar la configuración de Cloud Composer.

Opcional: Si deseas agregar y procesar tablas de forma individual después de la implementación, puedes modificar el archivo cdc_settings.yaml para procesar solo las tablas que necesitas y volver a ejecutar el módulo especificado llamando a src/SAP_CDC/cloudbuild.cdc.yaml directamente.

Configura el procesamiento de CDC

Durante la implementación, puedes optar por combinar los cambios en tiempo real con una vista en BigQuery o programar una operación de combinación en Cloud Composer (o cualquier otra instancia de Apache Airflow). Cloud Composer puede programar las secuencias de comandos para procesar las operaciones de combinación de forma periódica. Los datos se actualizan a su versión más reciente cada vez que se ejecutan las operaciones de combinación. Sin embargo, las operaciones de combinación más frecuentes se traducen en costos más altos. Personaliza la frecuencia programada según las necesidades de tu empresa. Para obtener más información, consulta la programación compatible con Apache Airflow.

En el siguiente ejemplo de secuencia de comandos, se muestra un extracto del archivo de configuración:

  data_to_replicate:
    - base_table: adrc
      load_frequency: "@hourly"
    - base_table: adr6
      target_table: adr6_cdc
      load_frequency: "@daily"

Este archivo de muestra de configuración hace lo siguiente:

  1. Crea una copia de SOURCE_PROJECT_ID.REPLICATED_DATASET.adrc en TARGET_PROJECT_ID.DATASET_WITH_LATEST_RECORDS.adrc si este último no existe.
  2. Crea un script de CDC en el bucket especificado.
  3. Crea una copia de SOURCE_PROJECT_ID.REPLICATED_DATASET.adr6 en TARGET_PROJECT_ID.DATASET_WITH_LATEST_RECORDS.adr6_cdc si este último no existe.
  4. Crea un script de CDC en el bucket especificado.

Si deseas crear DAGs o vistas de tiempo de ejecución para procesar cambios en las tablas que existen en SAP y no se encuentran en el archivo, agrégalas a este archivo antes de la implementación. Esto funciona siempre y cuando la tabla DD03L se replique en el conjunto de datos de origen y el esquema de la tabla personalizada esté presente en esa tabla. Por ejemplo, la siguiente configuración crea una secuencia de comandos de CDC para la tabla personalizada zztable_customer y una vista de tiempo de ejecución para analizar los cambios en tiempo real de otra tabla personalizada llamada zzspecial_table:

    - base_table: zztable_customer
      load_frequency: "@daily"
    - base_table: zzspecial_table
      load_frequency: "RUNTIME"

Plantilla generada de muestra

La siguiente plantilla genera el procesamiento de los cambios. En este punto, se pueden modificar los cambios, como el nombre del campo de marca de tiempo, o las operaciones adicionales:

  MERGE `${target_table}` T
  USING (
     SELECT *
     FROM `${base_table}`
     WHERE
        recordstamp > (
            SELECT IF(
                MAX(recordstamp) IS NOT NULL,
                MAX(recordstamp),
                TIMESTAMP("1940-12-25 05:30:00+00"))
            FROM `${target_table}` )
  ) S
  ON ${p_key}
  WHEN MATCHED AND S.operation_flag='D' AND S.is_deleted = true THEN
    DELETE
  WHEN NOT MATCHED AND S.operation_flag='I' THEN
    INSERT (${fields})
    VALUES
    (${fields})
  WHEN MATCHED AND S.operation_flag='U' THEN
  UPDATE SET
      ${update_fields}

Como alternativa, si tu empresa requiere estadísticas casi en tiempo real y la herramienta de replicación lo admite, la herramienta de implementación acepta la opción RUNTIME. Esto significa que no se generará una secuencia de comandos de CDC. En cambio, una vista analizaría y recuperaría el registro disponible más reciente en el tiempo de ejecución para lograr una coherencia inmediata.

Estructura de directorios para DAGs y secuencias de comandos de CDC

La estructura del bucket de Cloud Storage para los DAG de CDC de SAP espera que los archivos SQL se generen en /data/bq_data_replication, como en el siguiente ejemplo. Puedes modificar esta ruta de acceso antes de la implementación. Si aún no tienes un entorno de Cloud Composer disponible, puedes crear uno más adelante y mover los archivos al bucket de DAG.

with airflow.DAG("CDC_BigQuery_${base table}",
                template_searchpath=['/home/airflow/gcs/data/bq_data_replication/'], ##example
                default_args=default_dag_args,
                schedule_interval="${load_frequency}") as dag:
    start_task = DummyOperator(task_id="start")
    copy_records = BigQueryOperator(
      task_id='merge_query_records',
        sql="${query_file}",
        create_disposition='CREATE_IF_NEEDED',
        bigquery_conn_id="sap_cdc_bq", ## example
        use_legacy_sql=False)
    stop_task = DummyOperator (task_id="stop")
    start_task >> copy_records >> stop_task

Las secuencias de comandos que procesan datos en Airflow o Cloud Composer se generan deliberadamente por separado de las secuencias de comandos específicas de Airflow. Esto te permite transferir esas secuencias de comandos a otra herramienta de tu elección.

Campos de CDC obligatorios para las operaciones de MERGE

Especifica los siguientes parámetros para la generación automatizada de procesos por lotes de CDC:

  • Proyecto y conjunto de datos de origen: Es el conjunto de datos en el que se transmiten o replican los datos de SAP. Para que las secuencias de comandos de CDC funcionen de forma predeterminada, las tablas deben tener un campo de marca de tiempo (llamado recordstamp) y un campo de operación con los siguientes valores, todos establecidos durante la replicación:
    • I: Para Insertar
    • U: Para Update.
    • D: Para eliminación.
  • Proyecto y conjunto de datos de destino para el procesamiento de CDC: De forma predeterminada, la secuencia de comandos generada crea las tablas a partir de una copia del conjunto de datos de origen si no existen.
  • Tablas replicadas: Tablas para las que se deben generar las secuencias de comandos
  • Frecuencia de procesamiento: Siguiendo la notación de Cron, indica con qué frecuencia se espera que se ejecuten los DAGs:
  • Bucket de Cloud Storage de destino en el que se copian los archivos de salida del CDC.
  • Nombre de la conexión: Es el nombre de la conexión que usa Cloud Composer.
  • (Opcional) Nombre de la tabla de destino: Disponible si el resultado del procesamiento de CDC permanece en el mismo conjunto de datos que el destino.

Optimización del rendimiento para las tablas de CDC

Para ciertos conjuntos de datos de CDC, es posible que desees aprovechar las particiones de tablas, el agrupamiento en clústeres de tablas o ambos de BigQuery. Esta elección depende de los siguientes factores:

  • Tamaño y datos de la tabla.
  • Son las columnas disponibles en la tabla.
  • Necesidad de datos en tiempo real con vistas
  • Datos materializados como tablas.

De forma predeterminada, la configuración de CDC no aplica la partición ni el agrupamiento en clústeres de tablas. Puedes configurarlo según lo que te resulte más conveniente. Para crear tablas con particiones o clústeres, actualiza el archivo cdc_settings.yaml con las configuraciones pertinentes. Para obtener más información, consulta Partición de tablas y Configuración de clústeres.

  1. Esta función solo se aplica cuando un conjunto de datos en cdc_settings.yaml se configura para la replicación como una tabla (por ejemplo, load_frequency = "@daily") y no se define como una vista (load_frequency = "RUNTIME").
  2. Una tabla puede ser tanto una tabla particionada como una tabla agrupada.

Si usas una herramienta de replicación que permite particiones en el conjunto de datos sin procesar, como BigQuery Connector para SAP, se recomienda configurar particiones basadas en el tiempo en las tablas sin procesar. El tipo de partición funciona mejor si coincide con la frecuencia de los DAG de CDC en la configuración de cdc_settings.yaml. Para obtener más información, consulta Consideraciones de diseño para el modelado de datos de SAP en BigQuery.

Opcional: Configura el módulo de inventario de SAP

El módulo de inventario de SAP de Cortex Framework incluye vistas de InventoryKeyMetrics y InventoryByPlant que proporcionan estadísticas clave sobre tu inventario. Estas vistas se respaldan con tablas de instantáneas mensuales y semanales que usan DAG especializados. Ambos se pueden ejecutar al mismo tiempo y no interferirán entre sí.

Para actualizar una o ambas tablas de instantáneas, sigue estos pasos:

  1. Actualiza SlowMovingThreshold.sql y StockCharacteristicsConfig.sql para definir el umbral de movimiento lento y las características de stock para diferentes tipos de materiales, según tus requisitos.

  2. Para la carga inicial o la actualización completa, ejecuta los DAG Stock_Monthly_Snapshots_Initial y Stock_Weekly_Snapshots_Initial.

  3. Para las actualizaciones posteriores, programa o ejecuta los siguientes DAG:

    • Actualizaciones mensuales y semanales:
      • Stock_Monthly_Snapshots_Periodical_Update
      • Stock_Weekly_Snapshots_periodical_Update
    • Actualización diaria:
      • Stock_Monthly_Snapshots_Daily_Update
      • Stock_Weekly_Snapshots_Update_Daily
  4. Actualiza las vistas intermedias StockMonthlySnapshots y StockWeeklySnapshots, seguidas de las vistas InventoryKeyMetrics y InventoryByPlants, respectivamente, para exponer los datos actualizados.

Opcional: Configura la vista de textos de la jerarquía de productos

La vista Product Hierarchy Texts aplana los materiales y sus jerarquías de productos. La tabla resultante se puede usar para proporcionar al complemento Trends una lista de términos para recuperar el Interés a lo largo del tiempo. Para configurar esta vista, sigue estos pasos:

  1. Ajusta los niveles de la jerarquía y el idioma en el archivo prod_hierarchy_texts.sql, en los marcadores de ## CORTEX-CUSTOMER.
  2. Si tu jerarquía de productos contiene más niveles, es posible que debas agregar una instrucción SELECT adicional similar a la expresión de tabla común h1_h2_h3.

    Es posible que haya personalizaciones adicionales según los sistemas de origen. Recomendamos que los usuarios o analistas comerciales participen en el proceso desde el principio para ayudar a detectar estos problemas.

Opcional: Configura vistas de acoplamiento de jerarquía

A partir de la versión v6.0, Cortex Framework admite el aplanamiento de la jerarquía como vistas de informes. Esta es una mejora importante con respecto al aplanador de jerarquía heredado, ya que ahora aplana toda la jerarquía, optimiza mejor para S/4 utilizando tablas específicas de S/4 en lugar de tablas heredadas de ECC y también mejora significativamente el rendimiento.

Resumen de las vistas de informes

Busca las siguientes vistas relacionadas con el acoplamiento de la jerarquía:

Tipo de jerarquía Tabla que solo contiene la jerarquía aplanada Vistas para visualizar la jerarquía acoplada Lógica de integración de P&L con esta jerarquía
Versión del estado financiero (FSV) fsv_glaccounts FSVHierarchyFlattened ProfitAndLossOverview
Centro de ganancias profit_centers ProfitCenterHierarchyFlattened ProfitAndLossOverview_ProfitCenterHierarchy
Centro de costos cost_centers CostCenterHierarchyFlattened ProfitAndLossOverview_CostCenterHierarchy

Ten en cuenta lo siguiente cuando uses vistas de aplanamiento de la jerarquía:

  • Las vistas de jerarquía aplanada son funcionalmente equivalentes a las tablas que genera la solución heredada de aplanamiento de jerarquía.
  • Las vistas generales no se implementan de forma predeterminada, ya que solo muestran la lógica de IE. Busca su código fuente en el directorio src/SAP/SAP_REPORTING.

Cómo configurar el acoplamiento de jerarquía

Según la jerarquía con la que trabajes, se requieren los siguientes parámetros de entrada:

Tipo de jerarquía Parámetro obligatorio Campo de origen (ECC) Campo de origen (S4)
Versión del estado financiero (FSV) Gráfico de cuentas ktopl nodecls
Nombre de la jerarquía versn hryid
Centro de ganancias Clase del conjunto setclass setclass
Unidad organizativa: Área de control o clave adicional para el conjunto. subclass subclass
Centro de costos Clase del conjunto setclass setclass
Unidad organizativa: Área de control o clave adicional para el conjunto. subclass subclass

Si no conoces los parámetros exactos, consulta a un asesor de SAP de Finanzas o Control.

Después de recopilar los parámetros, actualiza los comentarios ## CORTEX-CUSTOMER en cada uno de los directorios correspondientes según tus requisitos:

Tipo de jerarquía Ubicación del código
Versión del estado financiero (FSV) src/SAP/SAP_REPORTING/local_k9/fsv_hierarchy
Centro de ganancias src/SAP/SAP_REPORTING/local_k9/profitcenter_hierarchy
Centro de costos src/SAP/SAP_REPORTING/local_k9/costcenter_hierarchy

Si corresponde, asegúrate de actualizar los ## CORTEX-CUSTOMER comentarios en las vistas de informes pertinentes en el directorio src/SAP/SAP_REPORTING.

Detalles de la solución

Las siguientes tablas de origen se usan para aplanar la jerarquía:

Tipo de jerarquía Tablas de origen (ECC) Tablas de origen (S4)
Versión del estado financiero (FSV)
  • fagl_011pc
  • fagl_011zc
  • ska1
  • hrrp_node
  • hrrp_directory
  • ska1
Centro de ganancias
  • setheader
  • setnode
  • setleaf
  • sethanahier0106
Centro de costos
  • setheader
  • setnode
  • setleaf
  • sethanahier0101

Visualiza las jerarquías

La solución de aplanamiento de la jerarquía de SAP de Cortex aplana toda la jerarquía. Si deseas crear una representación visual de la jerarquía cargada que sea comparable con lo que SAP muestra en la IU, consulta una de las vistas para visualizar jerarquías aplanadas con la condición IsLeafNode=True.

Migración desde la solución heredada de aplanamiento de la jerarquía

Para migrar desde la solución heredada de aplanamiento de la jerarquía anterior a Cortex v6.0, reemplaza las tablas como se muestra en la siguiente tabla. Asegúrate de verificar la precisión de los nombres de los campos, ya que algunos se modificaron ligeramente. Por ejemplo, prctr en cepc_hier ahora es profitcenter en la tabla profit_centers.

Tipo de jerarquía Reemplaza esta tabla: Con:
Versión del estado financiero (FSV) ska1_hier fsv_glaccounts
Centro de ganancias cepc_hier profit_centers
Centro de costos csks_hier cost_centers

Opcional: Configura el módulo de finanzas de SAP

El módulo de finanzas de SAP de Cortex Framework incluye las vistas FinancialStatement, BalanceSheet y ProfitAndLoss, que proporcionan estadísticas financieras clave.

Para actualizar estas tablas de Finanzas, sigue estos pasos:

Para la carga inicial

  1. Después de la implementación, asegúrate de que tu conjunto de datos del CDC se complete correctamente (ejecuta los DAG del CDC que sean necesarios).
  2. Asegúrate de que las vistas de aplanamiento de la jerarquía estén configuradas correctamente para los tipos de jerarquías que usas (FSV, centro de costos y centro de ganancias).
  3. Ejecuta el DAG financial_statement_initial_load.

  4. Si se implementan como tablas (recomendado), actualiza los siguientes elementos en orden ejecutando sus DAGs correspondientes:

    1. Financial_Statements
    2. BalanceSheets
    3. ProfitAndLoss

Para la actualización periódica

  1. Asegúrate de que las vistas de aplanamiento de la jerarquía estén configuradas correctamente y actualizadas para los tipos de jerarquías que usas (FSV, centro de costos y centro de ganancias).
  2. Programa o ejecuta el DAG financial_statement_periodical_load.

  3. Si se implementan como tablas (recomendado), actualiza los siguientes elementos en orden ejecutando sus DAGs correspondientes:

    1. Financial_Statements
    2. BalanceSheets
    3. ProfitAndLoss

Para visualizar los datos de estas tablas, consulta las siguientes vistas de Resumen:

  • ProfitAndLossOverview.sql si usas la jerarquía de FSV
  • ProfitAndLossOverview_CostCenter.sql si usas la jerarquía del centro de costos
  • ProfitAndLossOverview_ProfitCenter.sql si usas la jerarquía del Centro de ganancias.

Opcional: Habilita los DAGs dependientes de tareas

De manera opcional, Cortex Framework proporciona parámetros de configuración de dependencia recomendados para la mayoría de las tablas SQL de SAP (ECC y S/4 HANA), en los que un solo DAG puede actualizar todas las tablas dependientes. Puedes personalizarlos aún más. Para obtener más información, consulta DAGs dependientes de tareas.

Próximos pasos