Integración con SAP
En esta página, se describen los pasos de integración para las cargas de trabajo operativas de SAP (SAP ECC y SAP S/4 HANA) en la base de datos de Cortex Framework. Cortex Framework puede acelerar la integración de datos de SAP con BigQuery a través de plantillas de procesamiento de datos predefinidas con canalizaciones de Dataflow en BigQuery, mientras que Cloud Composer programa y supervisa estas canalizaciones de Dataflow para obtener estadísticas a partir de tus datos operativos de SAP.
El archivo config.json
en el repositorio de Cortex Framework Data Foundation configura los parámetros necesarios para transferir datos desde cualquier fuente de datos, incluido SAP. Este archivo contiene los siguientes parámetros para las cargas de trabajo operativas de SAP:
"SAP": {
"deployCDC": true,
"datasets": {
"cdc": "",
"raw": "",
"reporting": "REPORTING"
},
"SQLFlavor": "ecc",
"mandt": "100"
}
En la siguiente tabla, se describe el valor de cada parámetro operativo de SAP:
Parámetro | Significado | Valor predeterminado | Descripción |
SAP.deployCDC
|
Implementa la CDC | true
|
Genera secuencias de comandos de procesamiento de CDC para ejecutarlas como DAGs en Cloud Composer. |
SAP.datasets.raw
|
Conjunto de datos de la página de destino sin procesar | - | El proceso de CDC lo usa para determinar dónde la herramienta de replicación coloca los datos de SAP. Si usas datos de prueba, crea un conjunto de datos vacío. |
SAP.datasets.cdc
|
Conjunto de datos procesado de CDC | - | Es el conjunto de datos que funciona como fuente para las vistas de informes y como destino para los DAG de registros procesados. Si usas datos de prueba, crea un conjunto de datos vacío. |
SAP.datasets.reporting
|
Conjunto de datos de informes de SAP | "REPORTING"
|
Nombre del conjunto de datos al que pueden acceder los usuarios finales para generar informes, en el que se implementan las vistas y las tablas orientadas al usuario. |
SAP.SQLFlavor
|
Lenguaje SQL para el sistema fuente | "ecc"
|
s4 o ecc .
Para los datos de prueba, conserva el valor predeterminado (ecc ).
|
SAP.mandt
|
Mandante o cliente | "100"
|
Mandante o cliente predeterminado para SAP.
Para los datos de prueba, conserva el valor predeterminado (100 ).
|
SAP.languages
|
Filtro de idioma | ["E","S"]
|
Son los códigos de idioma de SAP (SPRAS) que se usarán para los campos pertinentes (como los nombres). |
SAP.currencies
|
Filtro de moneda | ["USD"]
|
Son los códigos de moneda objetivo de SAP (TCURR) para la conversión de moneda. |
Si bien no se requiere una versión mínima de SAP, los modelos de ECC se desarrollaron en la versión compatible más antigua actual de SAP ECC. Se esperan diferencias en los campos entre nuestro sistema y otros sistemas, independientemente de la versión.
Modelo de datos
En esta sección, se describen los modelos de datos de SAP (ECC y S/4 HANA) con los diagramas de relación entre entidades (ERD).
SAP ECC
SAP S/4 HANA
Vistas base
Estos son los objetos azules en el DER y son vistas de las tablas de CDC sin transformaciones, excepto algunos alias de nombres de columnas. Consulta las secuencias de comandos en src/SAP/SAP_REPORTING
.
Vistas de informes
Estos son los objetos verdes del DER y contienen los atributos dimensionales pertinentes que utilizan las tablas de informes. Consulta las secuencias de comandos en src/SAP/SAP_REPORTING
.
Vista de utilidad o de BQML
Estos son los objetos amarillos en el DER y contienen los hechos y las dimensiones unidos, además del tipo específico de vista que se usa para el análisis y la generación de informes de datos. Consulta las secuencias de comandos en src/SAP/SAP_REPORTING
.
Etiquetas adicionales
Las etiquetas codificadas por color en este DER representan las siguientes características de las tablas de informes:
Etiqueta | Color | Descripción |
L
|
Amarillo | Esta etiqueta hace referencia a un atributo o elemento de datos que especifica el idioma en el que se almacenan o muestran los datos. |
S/4
|
Rojo | Esta etiqueta indica que los atributos específicos son específicos para SAP S/4HANA (es posible que este objeto no esté en SAP ECC). |
MANDT
|
Púrpura | Esta etiqueta indica que atributos específicos contienen el parámetro MANDT (que representa el cliente o el ID de cliente) para determinar a qué instancia de cliente o empresa pertenece un registro de datos específico. |
EXT
|
Rojo | Esta etiqueta indica que los DAGs o los conjuntos de datos externos completan objetos específicos. Esto significa que la entidad o tabla marcada no se almacena directamente en el sistema SAP, pero se puede extraer y cargar en SAP con un DAG o algún otro mecanismo. |
T
|
Púrpura | Esta etiqueta indica que los atributos específicos se materializarán automáticamente con el DAG configurado. |
S
|
Rojo | Esta etiqueta indica que los datos dentro de una entidad o tablas se ven influenciados o afectados por varias monedas. |
Requisitos previos para la replicación de SAP
Ten en cuenta los siguientes requisitos previos para los datos de replicación de SAP con Cortex Framework Data Foundation:
- Integridad de los datos: Cortex Framework Data Foundation espera que las tablas de SAP se repliquen con nombres de campo, tipos y estructuras de datos idénticos a los que existen en SAP. Siempre y cuando las tablas se repliquen con el mismo formato, los mismos nombres de campos y la misma granularidad que en la fuente, no es necesario usar una herramienta de replicación específica.
- Nombres de tablas: Los nombres de las tablas de BigQuery deben crearse en minúsculas.
- Configuración de la tabla: La lista de tablas que usan los modelos de SAP está disponible y se puede configurar en el archivo
cdc_settings.yaml
de CDC (captura de datos modificados). Si una tabla no aparece en la lista durante la implementación, los modelos que dependen de ella fallarán, aunque otros modelos no dependientes se implementarán correctamente. - Consideraciones específicas BigQuery Connector para SAP:
- Asignación de tablas: Para obtener información sobre la opción de conversión, consulta la documentación de asignación de tablas predeterminada.
- Inhabilita la compresión de registros: Recomendamos inhabilitar la compresión de registros, ya que podría afectar tanto la capa de CDC de Cortex como el conjunto de datos de informes de Cortex.
- Replicación de metadatos: Si no implementas datos de prueba ni generas secuencias de comandos de DAG de CDC durante la implementación, asegúrate de que la tabla
DD03L
para los metadatos de SAP se replique desde SAP en el proyecto de origen. Esta tabla contiene metadatos sobre las tablas, como la lista de claves, y es necesaria para que funcionen el generador de CDC y el solucionador de dependencias. Esta tabla también te permite agregar tablas que no están incluidas en el modelo, por ejemplo, tablas personalizadas o Z, para que se puedan generar secuencias de comandos de CDC. Cómo controlar variaciones menores en los nombres de las tablas: Si hay diferencias menores en el nombre de una tabla, es posible que algunas vistas no encuentren los campos obligatorios, ya que los sistemas SAP pueden tener variaciones menores debido a las versiones o los complementos, o porque algunas herramientas de replicación pueden tener un control ligeramente diferente de los caracteres especiales. Te recomendamos que ejecutes la implementación con
turboMode : false
para detectar la mayor cantidad de errores en un solo intento. Estos son algunos problemas comunes:- Los campos que comienzan con
_
(por ejemplo,_DATAAGING
) tienen su_
quitado. - Los campos no pueden comenzar con
/
en BigQuery.
En esta situación, puedes ajustar la vista con errores para seleccionar el campo tal como lo muestra la herramienta de replicación que elijas.
- Los campos que comienzan con
Cómo replicar datos sin procesar de SAP
El propósito de la Data Foundation es exponer modelos de datos y análisis para informes y aplicaciones. Los modelos consumen los datos replicados desde un sistema SAP con una herramienta de replicación preferida, como las que se enumeran en las Guías de integración de datos para SAP.
Los datos del sistema SAP (ya sea ECC o S/4HANA) se replican en formato sin procesar.
Los datos se copian directamente de SAP a BigQuery sin que se modifique su estructura. Es básicamente una imagen reflejada de las tablas de tu sistema SAP. BigQuery usa nombres de tabla en minúsculas para su modelo de datos. Por lo tanto, aunque tus tablas de SAP pueden tener nombres en mayúsculas (como MANDT
), se convierten a minúsculas (como mandt
) en BigQuery.
Procesamiento de la captura de datos modificados (CDC)
Elige uno de los siguientes modos de procesamiento de CDC que ofrece Cortex Framework para que las herramientas de replicación carguen registros desde SAP:
- Append-always: Inserta cada cambio en un registro con una marca de tiempo y una marca de operación (Insertar, Actualizar, Borrar) para que se pueda identificar la última versión.
- Actualizar al llegar (combinar o insertar/actualizar): Crea una versión actualizada de un registro al llegar a
change data capture processed
. Realiza la operación de CDC en BigQuery.
La base de datos de Cortex Framework admite ambos modos, aunque, para el modo de solo agregar, proporciona plantillas de procesamiento de CDC. Algunas capacidades deben comentarse para la actualización en la página de destino. Por ejemplo, OneTouchOrder.sql y todas sus consultas dependientes. La capacidad se puede reemplazar por tablas como CDPOS.
Configura plantillas de CDC para las herramientas que se replican en el modo de agregar siempre
Te recomendamos que configures cdc_settings.yaml
según tus necesidades.
Algunas frecuencias predeterminadas pueden generar costos innecesarios si la empresa no requiere ese nivel de actualización de los datos. Si usas una herramienta que se ejecuta en modo de solo agregar, Cortex Framework Data Foundation proporciona plantillas de CDC para automatizar las actualizaciones y crear una versión más reciente de la verdad o el gemelo digital en el conjunto de datos procesado por CDC.
Puedes usar la configuración del archivo cdc_settings.yaml
si necesitas generar secuencias de comandos de procesamiento de CDC. Consulta Cómo configurar el procesamiento de CDC para ver las opciones. En el caso de los datos de prueba, puedes dejar este archivo como predeterminado.
Realiza todos los cambios necesarios en las plantillas de DAG según tu instancia de Airflow o Cloud Composer. Para obtener más información, consulta Cómo recopilar la configuración de Cloud Composer.
Opcional: Si deseas agregar y procesar tablas de forma individual después de la implementación, puedes modificar el archivo cdc_settings.yaml
para procesar solo las tablas que necesitas y volver a ejecutar el módulo especificado llamando a src/SAP_CDC/cloudbuild.cdc.yaml
directamente.
Configura el procesamiento de CDC
Durante la implementación, puedes optar por combinar los cambios en tiempo real con una vista en BigQuery o programar una operación de combinación en Cloud Composer (o cualquier otra instancia de Apache Airflow). Cloud Composer puede programar las secuencias de comandos para procesar las operaciones de combinación de forma periódica. Los datos se actualizan a su versión más reciente cada vez que se ejecutan las operaciones de combinación. Sin embargo, las operaciones de combinación más frecuentes se traducen en costos más altos. Personaliza la frecuencia programada según las necesidades de tu empresa. Para obtener más información, consulta la programación compatible con Apache Airflow.
En el siguiente ejemplo de secuencia de comandos, se muestra un extracto del archivo de configuración:
data_to_replicate:
- base_table: adrc
load_frequency: "@hourly"
- base_table: adr6
target_table: adr6_cdc
load_frequency: "@daily"
Este archivo de muestra de configuración hace lo siguiente:
- Crea una copia de
SOURCE_PROJECT_ID.REPLICATED_DATASET.adrc
enTARGET_PROJECT_ID.DATASET_WITH_LATEST_RECORDS.adrc
si este último no existe. - Crea un script de CDC en el bucket especificado.
- Crea una copia de
SOURCE_PROJECT_ID.REPLICATED_DATASET.adr6
enTARGET_PROJECT_ID.DATASET_WITH_LATEST_RECORDS.adr6_cdc
si este último no existe. - Crea un script de CDC en el bucket especificado.
Si deseas crear DAGs o vistas de tiempo de ejecución para procesar cambios en las tablas que existen en SAP y no se encuentran en el archivo, agrégalas a este archivo antes de la implementación. Esto funciona siempre y cuando la tabla DD03L
se replique en el conjunto de datos de origen y el esquema de la tabla personalizada esté presente en esa tabla.
Por ejemplo, la siguiente configuración crea una secuencia de comandos de CDC para la tabla personalizada zztable_customer
y una vista de tiempo de ejecución para analizar los cambios en tiempo real de otra tabla personalizada llamada zzspecial_table
:
- base_table: zztable_customer
load_frequency: "@daily"
- base_table: zzspecial_table
load_frequency: "RUNTIME"
Plantilla generada de muestra
La siguiente plantilla genera el procesamiento de los cambios. En este punto, se pueden modificar los cambios, como el nombre del campo de marca de tiempo, o las operaciones adicionales:
MERGE `${target_table}` T
USING (
SELECT *
FROM `${base_table}`
WHERE
recordstamp > (
SELECT IF(
MAX(recordstamp) IS NOT NULL,
MAX(recordstamp),
TIMESTAMP("1940-12-25 05:30:00+00"))
FROM `${target_table}` )
) S
ON ${p_key}
WHEN MATCHED AND S.operation_flag='D' AND S.is_deleted = true THEN
DELETE
WHEN NOT MATCHED AND S.operation_flag='I' THEN
INSERT (${fields})
VALUES
(${fields})
WHEN MATCHED AND S.operation_flag='U' THEN
UPDATE SET
${update_fields}
Como alternativa, si tu empresa requiere estadísticas casi en tiempo real y la herramienta de replicación lo admite, la herramienta de implementación acepta la opción RUNTIME
.
Esto significa que no se generará una secuencia de comandos de CDC. En cambio, una vista analizaría y recuperaría el registro disponible más reciente en el tiempo de ejecución para lograr una coherencia inmediata.
Estructura de directorios para DAGs y secuencias de comandos de CDC
La estructura del bucket de Cloud Storage para los DAG de CDC de SAP espera que los archivos SQL se generen en /data/bq_data_replication
, como en el siguiente ejemplo.
Puedes modificar esta ruta de acceso antes de la implementación. Si aún no tienes un entorno de Cloud Composer disponible, puedes crear uno más adelante y mover los archivos al bucket de DAG.
with airflow.DAG("CDC_BigQuery_${base table}",
template_searchpath=['/home/airflow/gcs/data/bq_data_replication/'], ##example
default_args=default_dag_args,
schedule_interval="${load_frequency}") as dag:
start_task = DummyOperator(task_id="start")
copy_records = BigQueryOperator(
task_id='merge_query_records',
sql="${query_file}",
create_disposition='CREATE_IF_NEEDED',
bigquery_conn_id="sap_cdc_bq", ## example
use_legacy_sql=False)
stop_task = DummyOperator (task_id="stop")
start_task >> copy_records >> stop_task
Las secuencias de comandos que procesan datos en Airflow o Cloud Composer se generan deliberadamente por separado de las secuencias de comandos específicas de Airflow. Esto te permite transferir esas secuencias de comandos a otra herramienta de tu elección.
Campos de CDC obligatorios para las operaciones de MERGE
Especifica los siguientes parámetros para la generación automatizada de procesos por lotes de CDC:
- Proyecto y conjunto de datos de origen: Es el conjunto de datos en el que se transmiten o replican los datos de SAP. Para que las secuencias de comandos de CDC funcionen de forma predeterminada, las tablas deben tener un campo de marca de tiempo (llamado recordstamp) y un campo de operación con los siguientes valores, todos establecidos durante la replicación:
- I: Para Insertar
- U: Para Update.
- D: Para eliminación.
- Proyecto y conjunto de datos de destino para el procesamiento de CDC: De forma predeterminada, la secuencia de comandos generada crea las tablas a partir de una copia del conjunto de datos de origen si no existen.
- Tablas replicadas: Tablas para las que se deben generar las secuencias de comandos
- Frecuencia de procesamiento: Siguiendo la notación de Cron, indica con qué frecuencia se espera que se ejecuten los DAGs:
- Bucket de Cloud Storage de destino en el que se copian los archivos de salida del CDC.
- Nombre de la conexión: Es el nombre de la conexión que usa Cloud Composer.
- (Opcional) Nombre de la tabla de destino: Disponible si el resultado del procesamiento de CDC permanece en el mismo conjunto de datos que el destino.
Optimización del rendimiento para las tablas de CDC
Para ciertos conjuntos de datos de CDC, es posible que desees aprovechar las particiones de tablas, el agrupamiento en clústeres de tablas o ambos de BigQuery. Esta elección depende de los siguientes factores:
- Tamaño y datos de la tabla.
- Son las columnas disponibles en la tabla.
- Necesidad de datos en tiempo real con vistas
- Datos materializados como tablas.
De forma predeterminada, la configuración de CDC no aplica la partición ni el agrupamiento en clústeres de tablas.
Puedes configurarlo según lo que te resulte más conveniente. Para crear tablas con particiones o clústeres, actualiza el archivo cdc_settings.yaml
con las configuraciones pertinentes. Para obtener más información, consulta Partición de tablas y Configuración de clústeres.
- Esta función solo se aplica cuando un conjunto de datos en
cdc_settings.yaml
se configura para la replicación como una tabla (por ejemplo,load_frequency = "@daily"
) y no se define como una vista (load_frequency = "RUNTIME"
). - Una tabla puede ser tanto una tabla particionada como una tabla agrupada.
Si usas una herramienta de replicación que permite particiones en el conjunto de datos sin procesar, como BigQuery Connector para SAP, se recomienda configurar particiones basadas en el tiempo en las tablas sin procesar. El tipo de partición funciona mejor si coincide con la frecuencia de los DAG de CDC en la configuración de cdc_settings.yaml
. Para obtener más información, consulta Consideraciones de diseño para el modelado de datos de SAP en BigQuery.
Opcional: Configura el módulo de inventario de SAP
El módulo de inventario de SAP de Cortex Framework incluye vistas de InventoryKeyMetrics
y InventoryByPlant
que proporcionan estadísticas clave sobre tu inventario.
Estas vistas se respaldan con tablas de instantáneas mensuales y semanales que usan DAG especializados. Ambos se pueden ejecutar al mismo tiempo y no interferirán entre sí.
Para actualizar una o ambas tablas de instantáneas, sigue estos pasos:
Actualiza
SlowMovingThreshold.sql
yStockCharacteristicsConfig.sql
para definir el umbral de movimiento lento y las características de stock para diferentes tipos de materiales, según tus requisitos.Para la carga inicial o la actualización completa, ejecuta los DAG
Stock_Monthly_Snapshots_Initial
yStock_Weekly_Snapshots_Initial
.Para las actualizaciones posteriores, programa o ejecuta los siguientes DAG:
- Actualizaciones mensuales y semanales:
Stock_Monthly_Snapshots_Periodical_Update
Stock_Weekly_Snapshots_periodical_Update
- Actualización diaria:
Stock_Monthly_Snapshots_Daily_Update
Stock_Weekly_Snapshots_Update_Daily
- Actualizaciones mensuales y semanales:
Actualiza las vistas intermedias
StockMonthlySnapshots
yStockWeeklySnapshots
, seguidas de las vistasInventoryKeyMetrics
yInventoryByPlants
, respectivamente, para exponer los datos actualizados.
Opcional: Configura la vista de textos de la jerarquía de productos
La vista Product Hierarchy Texts aplana los materiales y sus jerarquías de productos. La tabla resultante se puede usar para proporcionar al complemento Trends
una lista de términos para recuperar el Interés a lo largo del tiempo. Para configurar esta vista, sigue estos pasos:
- Ajusta los niveles de la jerarquía y el idioma en el archivo
prod_hierarchy_texts.sql
, en los marcadores de## CORTEX-CUSTOMER
. Si tu jerarquía de productos contiene más niveles, es posible que debas agregar una instrucción SELECT adicional similar a la expresión de tabla común
h1_h2_h3
.Es posible que haya personalizaciones adicionales según los sistemas de origen. Recomendamos que los usuarios o analistas comerciales participen en el proceso desde el principio para ayudar a detectar estos problemas.
Opcional: Configura vistas de acoplamiento de jerarquía
A partir de la versión v6.0, Cortex Framework admite el aplanamiento de la jerarquía como vistas de informes. Esta es una mejora importante con respecto al aplanador de jerarquía heredado, ya que ahora aplana toda la jerarquía, optimiza mejor para S/4 utilizando tablas específicas de S/4 en lugar de tablas heredadas de ECC y también mejora significativamente el rendimiento.
Resumen de las vistas de informes
Busca las siguientes vistas relacionadas con el acoplamiento de la jerarquía:
Tipo de jerarquía | Tabla que solo contiene la jerarquía aplanada | Vistas para visualizar la jerarquía acoplada | Lógica de integración de P&L con esta jerarquía |
Versión del estado financiero (FSV) | fsv_glaccounts
|
FSVHierarchyFlattened
|
ProfitAndLossOverview
|
Centro de ganancias | profit_centers
|
ProfitCenterHierarchyFlattened
|
ProfitAndLossOverview_ProfitCenterHierarchy
|
Centro de costos | cost_centers
|
CostCenterHierarchyFlattened
|
ProfitAndLossOverview_CostCenterHierarchy
|
Ten en cuenta lo siguiente cuando uses vistas de aplanamiento de la jerarquía:
- Las vistas de jerarquía aplanada son funcionalmente equivalentes a las tablas que genera la solución heredada de aplanamiento de jerarquía.
- Las vistas generales no se implementan de forma predeterminada, ya que solo muestran la lógica de IE. Busca su código fuente en el directorio
src/SAP/SAP_REPORTING
.
Cómo configurar el acoplamiento de jerarquía
Según la jerarquía con la que trabajes, se requieren los siguientes parámetros de entrada:
Tipo de jerarquía | Parámetro obligatorio | Campo de origen (ECC) | Campo de origen (S4) |
Versión del estado financiero (FSV) | Gráfico de cuentas | ktopl
|
nodecls
|
Nombre de la jerarquía | versn
|
hryid
|
|
Centro de ganancias | Clase del conjunto | setclass
|
setclass
|
Unidad organizativa: Área de control o clave adicional para el conjunto. | subclass
|
subclass
|
|
Centro de costos | Clase del conjunto | setclass
|
setclass
|
Unidad organizativa: Área de control o clave adicional para el conjunto. | subclass
|
subclass
|
Si no conoces los parámetros exactos, consulta a un asesor de SAP de Finanzas o Control.
Después de recopilar los parámetros, actualiza los comentarios ## CORTEX-CUSTOMER
en cada uno de los directorios correspondientes según tus requisitos:
Tipo de jerarquía | Ubicación del código |
Versión del estado financiero (FSV) | src/SAP/SAP_REPORTING/local_k9/fsv_hierarchy
|
Centro de ganancias | src/SAP/SAP_REPORTING/local_k9/profitcenter_hierarchy
|
Centro de costos | src/SAP/SAP_REPORTING/local_k9/costcenter_hierarchy
|
Si corresponde, asegúrate de actualizar los ## CORTEX-CUSTOMER
comentarios en las vistas de informes pertinentes en el directorio src/SAP/SAP_REPORTING
.
Detalles de la solución
Las siguientes tablas de origen se usan para aplanar la jerarquía:
Tipo de jerarquía | Tablas de origen (ECC) | Tablas de origen (S4) |
Versión del estado financiero (FSV) |
|
|
Centro de ganancias |
|
|
Centro de costos |
|
|
Visualiza las jerarquías
La solución de aplanamiento de la jerarquía de SAP de Cortex aplana toda la jerarquía. Si deseas crear una representación visual de la jerarquía cargada que sea comparable con lo que SAP muestra en la IU, consulta una de las vistas para visualizar jerarquías aplanadas con la condición IsLeafNode=True
.
Migración desde la solución heredada de aplanamiento de la jerarquía
Para migrar desde la solución heredada de aplanamiento de la jerarquía anterior a Cortex v6.0, reemplaza las tablas como se muestra en la siguiente tabla. Asegúrate de verificar la precisión de los nombres de los campos, ya que algunos se modificaron ligeramente. Por ejemplo, prctr
en cepc_hier
ahora es profitcenter
en la tabla profit_centers
.
Tipo de jerarquía | Reemplaza esta tabla: | Con: |
Versión del estado financiero (FSV) | ska1_hier
|
fsv_glaccounts
|
Centro de ganancias | cepc_hier
|
profit_centers
|
Centro de costos | csks_hier
|
cost_centers
|
Opcional: Configura el módulo de finanzas de SAP
El módulo de finanzas de SAP de Cortex Framework incluye las vistas FinancialStatement
, BalanceSheet
y ProfitAndLoss
, que proporcionan estadísticas financieras clave.
Para actualizar estas tablas de Finanzas, sigue estos pasos:
Para la carga inicial
- Después de la implementación, asegúrate de que tu conjunto de datos del CDC se complete correctamente (ejecuta los DAG del CDC que sean necesarios).
- Asegúrate de que las vistas de aplanamiento de la jerarquía estén configuradas correctamente para los tipos de jerarquías que usas (FSV, centro de costos y centro de ganancias).
Ejecuta el DAG
financial_statement_initial_load
.Si se implementan como tablas (recomendado), actualiza los siguientes elementos en orden ejecutando sus DAGs correspondientes:
Financial_Statements
BalanceSheets
ProfitAndLoss
Para la actualización periódica
- Asegúrate de que las vistas de aplanamiento de la jerarquía estén configuradas correctamente y actualizadas para los tipos de jerarquías que usas (FSV, centro de costos y centro de ganancias).
Programa o ejecuta el DAG
financial_statement_periodical_load
.Si se implementan como tablas (recomendado), actualiza los siguientes elementos en orden ejecutando sus DAGs correspondientes:
Financial_Statements
BalanceSheets
ProfitAndLoss
Para visualizar los datos de estas tablas, consulta las siguientes vistas de Resumen:
ProfitAndLossOverview.sql
si usas la jerarquía de FSVProfitAndLossOverview_CostCenter.sql
si usas la jerarquía del centro de costosProfitAndLossOverview_ProfitCenter.sql
si usas la jerarquía del Centro de ganancias.
Opcional: Habilita los DAGs dependientes de tareas
De manera opcional, Cortex Framework proporciona parámetros de configuración de dependencia recomendados para la mayoría de las tablas SQL de SAP (ECC y S/4 HANA), en los que un solo DAG puede actualizar todas las tablas dependientes. Puedes personalizarlos aún más. Para obtener más información, consulta DAGs dependientes de tareas.
Próximos pasos
- Para obtener más información sobre otras fuentes de datos y cargas de trabajo, consulta Fuentes de datos y cargas de trabajo.
- Para obtener más información sobre los pasos para la implementación en entornos de producción, consulta Requisitos previos para la implementación de la base de datos de Cortex Framework.