Integración con SAP
En esta página, se describen los pasos de integración para las cargas de trabajo operativas de SAP (SAP ECC y SAP S/4 HANA) en Cortex Framework Data Foundation. Cortex Framework puede acelerar la integración de datos de SAP con BigQuery mediante plantillas de procesamiento de datos predefinidas con canalizaciones de Dataflow hasta BigQuery, mientras que Cloud Composer programa y supervisa estas canalizaciones de Dataflow para obtener estadísticas de tus datos operativos de SAP.
El archivo config.json
del repositorio de Cortex Framework Data Foundation configura la configuración necesaria para transferir datos desde cualquier fuente de datos, incluido SAP. Este archivo contiene los siguientes parámetros para las cargas de trabajo operativas de SAP:
"SAP": {
"deployCDC": true,
"datasets": {
"cdc": "",
"raw": "",
"reporting": "REPORTING"
},
"SQLFlavor": "ecc",
"mandt": "100"
}
En la siguiente tabla, se describe el valor de cada parámetro operativo de SAP:
Parámetro | Significado | Valor predeterminado | Descripción |
SAP.deployCDC
|
Implementa la CDC | true
|
Genera secuencias de comandos de procesamiento de CDC para ejecutarlas como DAG en Cloud Composer. |
SAP.datasets.raw
|
Conjunto de datos de página de destino sin procesar | - | Es el lugar donde la herramienta de replicación entrega los datos de SAP, y es usado por el proceso de CDC. Si usas datos de prueba, crea un conjunto de datos vacío. |
SAP.datasets.cdc
|
Conjunto de datos procesado por CDC | - | Es un conjunto de datos que funciona como fuente para las vistas de informes y como destino para los DAG de registros procesados. Si usas datos de prueba, crea un conjunto de datos vacío. |
SAP.datasets.reporting
|
Conjunto de datos de informes de SAP | "REPORTING"
|
Es el nombre del conjunto de datos al que los usuarios finales pueden acceder para generar informes, en el que se implementan las vistas y las tablas para los usuarios. |
SAP.SQLFlavor
|
Versión de SQL para el sistema de origen | "ecc"
|
s4 o ecc .
Para probar los datos, mantén el valor predeterminado (ecc ).
|
SAP.mandt
|
Mandante o cliente | "100"
|
Mandatario o cliente predeterminado para SAP.
Para probar los datos, mantén el valor predeterminado (100 ).
|
SAP.languages
|
Filtro de idioma | ["E","S"]
|
Códigos de idioma de SAP (SPRAS) que se usarán para los campos relevantes (como los nombres). |
SAP.currencies
|
Filtro de moneda | ["USD"]
|
Códigos de moneda objetivo de SAP (TCURR) para la conversión de monedas |
Si bien no se requiere una versión mínima de SAP, los modelos de ECC se desarrollaron en la versión más antigua compatible de SAP ECC. Se esperan diferencias en los campos entre nuestro sistema y otros, independientemente de la versión.
Modelo de datos
En esta sección, se describen los modelos de datos de SAP (ECC y S/4 HANA) con los diagramas de relaciones de entidades (ERD).
SAP ECC
SAP S/4 HANA
Vistas básicas
Estos son los objetos azules del ERE y son vistas en tablas de CDC sin transformaciones, excepto algunos alias de nombres de columnas. Consulta las secuencias de comandos en src/SAP/SAP_REPORTING
.
Vistas de informes
Estos son los objetos verdes del ERE y contienen los atributos dimensionales relevantes que usan las tablas de informes. Consulta las secuencias de comandos en src/SAP/SAP_REPORTING
.
Vista de utilidad o de BQML
Estos son los objetos amarillos del modelo ERD y contienen los hechos y dimensiones unidos, así como el tipo específico de vista que se usa para el análisis de datos y la generación de informes. Consulta las secuencias de comandos en src/SAP/SAP_REPORTING
.
Etiquetas adicionales
Las etiquetas codificadas por colores en este ERE representan las siguientes características de las tablas de informes:
Etiqueta | Color | Descripción |
L
|
Amarillo | Esta etiqueta hace referencia a un elemento o atributo de datos que especifica el lenguaje en el que se almacenan o muestran los datos. |
S/4
|
Rojo | Esta etiqueta indica que los atributos específicos son específicos de SAP S/4HANA (es posible que este objeto no esté en SAP ECC). |
MANDT
|
Púrpura | Esta etiqueta indica que atributos específicos contienen el parámetro MANDT (representa al cliente o al ID de cliente) para determinar a qué instancia de cliente o empresa pertenece un registro de datos específico. |
EXT
|
Rojo | Esta etiqueta indica que los DAG o los conjuntos de datos externos propagan objetos específicos. Esto significa que la entidad o tabla marcada no se almacena directamente en el sistema SAP, pero se puede extraer y cargar en SAP con un DAG o algún otro mecanismo. |
T
|
Púrpura | Esta etiqueta indica que los atributos específicos se materializarán automáticamente con el DAG configurado. |
S
|
Rojo | Esta etiqueta indica que los datos de una entidad o tablas están afectados o influenciados por varias monedas. |
Requisitos previos para la replicación de SAP
- Cortex Framework Data Foundation espera que las tablas de SAP se repliquen con los mismos nombres y tipos de campo que se crean en SAP.
- Siempre que las tablas se repliquen con el mismo formato, nombres de campos y nivel de detalle que en la fuente, no es necesario usar una herramienta de replicación específica.
- Los nombres de las tablas deben crearse en BigQuery en minúsculas.
- La lista de tablas que usan los modelos de SAP está disponible y se puede configurar en
cdc_settings.yaml
de CDC. Si no se incluye una tabla durante la implementación, fallarán los modelos que dependen de ella. Otros modelos se implementarían correctamente. - Ten en cuenta lo siguiente si usas BigQuery Connector para SAP:
- En cuanto a la opción de conversión, sigue la documentación de asignación de tablas predeterminada.
- Se recomienda inhabilitar la compresión de registros, ya que esta podría cambiar los datos originales de SAP de una manera que afecte la capa de CDC de Cortex y el conjunto de datos de informes de Cortex.
- Si no planeas implementar datos de prueba y si planeas generar secuencias de comandos de DAG de CDC durante la implementación, asegúrate de que la tabla
DD03L
para los metadatos de SAP se replique desde SAP en el proyecto de origen. Esta tabla contiene metadatos sobre las tablas, como la lista de claves, y es necesaria para que funcionen el generador de CDC y el solucionador de dependencias. Esta tabla también te permite agregar tablas que no están cubiertas por el modelo para generar secuencias de comandos de CDC, como tablas personalizadas o Z. Si hay diferencias menores en el nombre de una tabla, es posible que algunas vistas no encuentren un campo, ya que los sistemas de SAP pueden tener variaciones menores debido a las versiones o los complementos, y agregar estructuras a las tablas, o porque algunas herramientas de replicación pueden tener un manejo ligeramente diferente de los caracteres especiales. Se recomienda ejecutar la implementación con
turboMode : false
para detectar la mayoría de las fallas en un intento. Por ejemplo:- Se quitó el
_
de los campos que comienzan con_
(por ejemplo,_DATAAGING
). - Los campos no pueden comenzar con
/
en BigQuery.
En esta situación, puedes adaptar la vista con errores para seleccionar el campo tal como lo muestra la herramienta de replicación que elijas.
- Se quitó el
Cómo replicar datos sin procesar de SAP
El propósito de la base de datos es exponer datos y modelos de estadísticas para informes y aplicaciones. Los modelos consumen los datos replicados desde un sistema SAP con una herramienta de replicación preferida, como las que se enumeran en las Guías de integración de datos para SAP.
Los datos del sistema SAP (ECC o S/4HANA) se replican en formato sin procesar.
Los datos se copian directamente de SAP a BigQuery sin ningún cambio en su estructura. Es, en esencia, una imagen espejo de las tablas de tu sistema SAP. BigQuery usa nombres de tabla en minúsculas para su modelo de datos. Por lo tanto, aunque tus tablas de SAP puedan tener nombres en mayúsculas (como MANDT
), se convierten a minúsculas (como mandt
) en BigQuery.
Requisitos previos para la replicación de SAP
Ten en cuenta los siguientes requisitos previos para los datos de replicación de SAP con la Base de datos de Cortex Framework
- Integridad de los datos: Cortex Framework Data Foundation espera que las tablas de SAP se repliquen con nombres de campo, tipos y estructuras de datos idénticos a los que existen en SAP. Siempre que las tablas se repliquen con el mismo formato, los nombres de los campos y el nivel de detalle que se usan en la fuente, no es necesario usar una herramienta de replicación específica.
- Nombres de tablas: Los nombres de las tablas de BigQuery deben crearse en minúsculas.
- Configuración de tablas: La lista de tablas que usan los modelos de SAP está disponible y se puede configurar en el archivo
cdc_settings.yaml
de CDC (captura de datos modificados). Si no se incluye una tabla durante la implementación, fallarán los modelos que dependen de ella, aunque otros modelos no dependientes se implementarán correctamente. - Consideraciones específicas de BigQuery Connector para SAP:
- Asignación de tablas: En cuanto a la opción de conversión, sigue la documentación de asignación de tablas predeterminada.
- Inhabilita la compresión de registros: Te recomendamos que inhabilites la compresión de registros, que podría afectar tanto a la capa de CDC de Cortex como al conjunto de datos de informes de Cortex.
- Replicación de metadatos: Si no implementas datos de prueba ni generas secuencias de comandos de DAG de CDC durante la implementación, asegúrate de que la tabla
DD03L
para los metadatos de SAP se replique desde SAP en el proyecto de origen. Esta tabla contiene metadatos sobre las tablas, como la lista de claves, y es necesaria para que funcionen el generador de CDC y el solucionador de dependencias. Esta tabla también te permite agregar tablas que no están cubiertas por el modelo, por ejemplo, tablas personalizadas o Z, para que se puedan generar secuencias de comandos de CDC. Controla las variaciones menores en el nombre de las tablas: Si hay diferencias menores en el nombre de una tabla, es posible que algunas vistas no encuentren los campos obligatorios, ya que los sistemas de SAP pueden tener variaciones menores debido a las versiones o los complementos, o porque algunas herramientas de replicación pueden tener un control ligeramente diferente de los caracteres especiales. Te recomendamos que ejecutes la implementación con
turboMode : false
para detectar la mayor cantidad de fallas en un intento. Estos son algunos problemas comunes:- Se quitó el
_
de los campos que comienzan con_
(por ejemplo,_DATAAGING
). - Los campos no pueden comenzar con
/
en BigQuery.
En esta situación, puedes ajustar la vista con errores para seleccionar el campo tal como lo muestra la herramienta de replicación que elijas.
- Se quitó el
Procesamiento de la captura de datos modificados (CDC)
Elige uno de los siguientes modos de procesamiento de CDC que ofrece Cortex Framework para que las herramientas de replicación carguen registros de SAP:
- Append-always: Inserta cada cambio en un registro con una marca de tiempo y una marca de operación (Insert, Update, Delete) para que se pueda identificar la última versión.
- Actualizar cuando se llega a la página de destino (combinación o inserción y actualización): Crea una versión actualizada de un registro cuando se llega a la página de destino en
change data capture processed
. Realiza la operación de CDC en BigQuery.
Cortex Framework Data Foundation admite ambos modos, aunque para la opción de agregar siempre, proporciona plantillas de procesamiento de CDC. Algunas funciones deben comentarse para actualizarlas en la página de destino. Por ejemplo, OneTouchOrder.sql y todas sus consultas dependientes. La capability se puede reemplazar con tablas como CDPOS.
Configura plantillas de CDC para herramientas que se replican en el modo de agregar siempre
Te recomendamos que configures cdc_settings.yaml
según tus necesidades.
Algunas frecuencias predeterminadas pueden generar costos innecesarios si la empresa no requiere ese nivel de actualización de los datos. Si usas una herramienta que se ejecuta en el modo de adición siempre, Cortex Framework Data Foundation proporciona plantillas de CDC para automatizar las actualizaciones y crear una versión más reciente de la fuente de la verdad o el gemelo digital en el conjunto de datos procesado por CDC.
Puedes usar la configuración del archivo cdc_settings.yaml
si necesitas generar secuencias de comandos de procesamiento de CDC. Consulta Cómo configurar el procesamiento de CDC para conocer las opciones. En el caso de los datos de prueba, puedes dejar
este archivo como predeterminado.
Realiza todos los cambios necesarios en las plantillas de DAG según tu instancia de Airflow o Cloud Composer. Para obtener más información, consulta Cómo recopilar la configuración de Cloud Composer.
Opcional: Si deseas agregar y procesar tablas de forma individual después de la implementación, puedes modificar el archivo cdc_settings.yaml
para procesar solo las tablas que necesitas y volver a ejecutar el módulo especificado llamando a src/SAP_CDC/cloudbuild.cdc.yaml
directamente.
Configura el procesamiento de CDC
Durante la implementación, puedes elegir combinar los cambios en tiempo real con una vista en BigQuery o programar una operación de combinación en Cloud Composer (o cualquier otra instancia de Apache Airflow). Cloud Composer puede programar las secuencias de comandos para que procesen las operaciones de combinación de forma periódica. Los datos se actualizan a su versión más reciente cada vez que se ejecutan las operaciones de combinación. Sin embargo, las operaciones de combinación más frecuentes se traducen en costos más altos. Personaliza la frecuencia programada según las necesidades de tu empresa. Para obtener más información, consulta la programación compatible con Apache Airflow.
En la siguiente secuencia de comandos de ejemplo, se muestra un extracto del archivo de configuración:
data_to_replicate:
- base_table: adrc
load_frequency: "@hourly"
- base_table: adr6
target_table: adr6_cdc
load_frequency: "@daily"
Este archivo de muestra de configuración hace lo siguiente:
- Crea una copia de
SOURCE_PROJECT_ID.REPLICATED_DATASET.adrc
enTARGET_PROJECT_ID.DATASET_WITH_LATEST_RECORDS.adrc
si este último no existe. - Crea una secuencia de comandos de CDC en el bucket especificado.
- Crea una copia de
SOURCE_PROJECT_ID.REPLICATED_DATASET.adr6
enTARGET_PROJECT_ID.DATASET_WITH_LATEST_RECORDS.adr6_cdc
si este último no existe. - Crea una secuencia de comandos de CDC en el bucket especificado.
Si deseas crear DAG o vistas de tiempo de ejecución para procesar cambios en las tablas que existen en SAP y no aparecen en el archivo, agrégalas a este archivo antes de la implementación. Esto funciona siempre que la tabla DD03L
se replique en el conjunto de datos de origen y el esquema de la tabla personalizada esté presente en esa tabla.
Por ejemplo, la siguiente configuración crea una secuencia de comandos de CDC para la tabla personalizada zztable_customer
y una vista de entorno de ejecución para analizar los cambios en tiempo real de otra tabla personalizada llamada zzspecial_table
:
- base_table: zztable_customer
load_frequency: "@daily"
- base_table: zzspecial_table
load_frequency: "RUNTIME"
Plantilla generada de muestra
La siguiente plantilla genera el procesamiento de los cambios. En este punto, se pueden modificar las modificaciones, como el nombre del campo de marca de tiempo o las operaciones adicionales:
MERGE `${target_table}` T
USING (
SELECT *
FROM `${base_table}`
WHERE
recordstamp > (
SELECT IF(
MAX(recordstamp) IS NOT NULL,
MAX(recordstamp),
TIMESTAMP("1940-12-25 05:30:00+00"))
FROM `${target_table}` )
) S
ON ${p_key}
WHEN MATCHED AND S.operation_flag='D' AND S.is_deleted = true THEN
DELETE
WHEN NOT MATCHED AND S.operation_flag='I' THEN
INSERT (${fields})
VALUES
(${fields})
WHEN MATCHED AND S.operation_flag='U' THEN
UPDATE SET
${update_fields}
Como alternativa, si tu empresa requiere estadísticas casi en tiempo real y la herramienta de replicación las admite, la herramienta de implementación acepta la opción RUNTIME
.
Esto significa que no se generará una secuencia de comandos de CDC. En cambio, una vista analizaría y recuperaría el registro más reciente disponible durante el tiempo de ejecución para lograr la coherencia inmediata.
Estructura de directorios para DAG y secuencias de comandos de CDC
La estructura del bucket de Cloud Storage para los DAG de CDC de SAP espera que los archivos SQL se generen en /data/bq_data_replication
, como se muestra en el siguiente ejemplo.
Puedes modificar esta ruta de acceso antes de la implementación. Si aún no tienes un
ambiente de Cloud Composer disponible, puedes crear uno
después y mover los archivos al bucket de DAG.
with airflow.DAG("CDC_BigQuery_${base table}",
template_searchpath=['/home/airflow/gcs/data/bq_data_replication/'], ##example
default_args=default_dag_args,
schedule_interval="${load_frequency}") as dag:
start_task = DummyOperator(task_id="start")
copy_records = BigQueryOperator(
task_id='merge_query_records',
sql="${query_file}",
create_disposition='CREATE_IF_NEEDED',
bigquery_conn_id="sap_cdc_bq", ## example
use_legacy_sql=False)
stop_task = DummyOperator (task_id="stop")
start_task >> copy_records >> stop_task
Las secuencias de comandos que procesan datos en Airflow o Cloud Composer se generan de forma independiente de las secuencias de comandos específicas de Airflow. Esto te permite transferir esas secuencias de comandos a otra herramienta de tu elección.
Campos de CDC obligatorios para las operaciones MERGE
Especifica los siguientes parámetros para la generación automática de procesos por lotes de CDC:
- Proyecto de origen y conjunto de datos: Es el conjunto de datos en el que se transmiten o replican los datos de SAP. Para que las secuencias de comandos de CDC funcionen de forma predeterminada, las tablas deben tener un campo de marca de tiempo (llamado recordstamp) y un campo de operación con los siguientes valores, todos establecidos durante la replicación:
- I: Para insertar.
- U: Para actualizar.
- D: Para la eliminación.
- Proyecto y conjunto de datos de destino para el procesamiento de CDC: La secuencia de comandos generada de forma predeterminada genera las tablas a partir de una copia del conjunto de datos de origen si no existen.
- Tablas replicadas: Son las tablas para las que se deben generar las secuencias de comandos.
- Frecuencia de procesamiento: Según la notación de Cron, la frecuencia con la que se espera que se ejecuten los DAG:
- Es el bucket de Cloud Storage de destino al que se copian los archivos de salida de CDC.
- Nombre de la conexión: Es el nombre de la conexión que usa Cloud Composer.
- Nombre de la tabla de destino(opcional): Disponible si el resultado del procesamiento de la CDC permanece en el mismo conjunto de datos que el objetivo.
Optimización del rendimiento de las tablas de CDC
Para ciertos conjuntos de datos de CDC, te recomendamos que aproveches la partición de tablas, el agrupamiento en clústeres de tablas o ambos de BigQuery. Esta elección depende de los siguientes factores:
- Tamaño y datos de la tabla.
- Columnas disponibles en la tabla.
- Necesidad de datos en tiempo real con vistas
- Datos materializados como tablas
De forma predeterminada, la configuración de la CDC no aplica la partición ni el agrupamiento en clústeres de tablas.
Tú decides si configurarlo según lo que te resulte más conveniente. Para crear tablas con particiones o clústeres, actualiza el archivo cdc_settings.yaml
con la configuración relevante. Para obtener más información, consulta Partición de tablas y Configuración de clústeres.
- Esta función solo se aplica cuando un conjunto de datos en
cdc_settings.yaml
está configurado para la replicación como una tabla (por ejemplo,load_frequency = "@daily"
) y no se define como una vista (load_frequency = "RUNTIME"
). - Una tabla puede ser particionada y agrupada.
Si usas una herramienta de replicación que permite particiones en el conjunto de datos sin procesar, como BigQuery Connector para SAP, se recomienda configurar particiones basadas en el tiempo en las tablas sin procesar. El tipo de partición funciona mejor si coincide con la frecuencia de los DAG de CDC en la configuración de cdc_settings.yaml
. Para obtener más información, consulta Consideraciones de diseño para el modelado de datos de SAP en BigQuery.
Opcional: Configura el módulo de inventario de SAP
El módulo de inventario de SAP de Cortex Framework incluye vistas InventoryKeyMetrics
y InventoryByPlant
que proporcionan estadísticas clave sobre tu inventario.
Estas vistas están respaldadas por tablas de instantáneas mensuales y semanales con DAGs
especializados. Ambos se pueden ejecutar al mismo tiempo y no interferirán entre sí.
Para actualizar una o ambas tablas de instantáneas, sigue estos pasos:
Actualiza
SlowMovingThreshold.sql
yStockCharacteristicsConfig.sql
para definir el umbral de lento movimiento y las características del inventario para diferentes tipos de materiales según tus requisitos.Para la carga inicial o la actualización completa, ejecuta los DAG de
Stock_Monthly_Snapshots_Initial
yStock_Weekly_Snapshots_Initial
.Para las actualizaciones posteriores, programa o ejecuta los siguientes DAG:
- Actualizaciones mensuales y semanales:
Stock_Monthly_Snapshots_Periodical_Update
Stock_Weekly_Snapshots_periodical_Update
- Actualización diaria:
Stock_Monthly_Snapshots_Daily_Update
Stock_Weekly_Snapshots_Update_Daily
- Actualizaciones mensuales y semanales:
Actualiza las vistas intermedias
StockMonthlySnapshots
yStockWeeklySnapshots
, seguidas de las vistasInventoryKeyMetrics
yInventoryByPlants
, respectivamente, para exponer los datos actualizados.
Opcional: Configura la vista Textos de la jerarquía de productos
La vista Textos de jerarquía de productos aplana los materiales y sus jerarquías de productos. La tabla resultante se puede usar para proporcionar al complemento Trends
una lista de términos para recuperar el interés a lo largo del tiempo. Para configurar esta vista, sigue estos pasos:
- Ajusta los niveles de la jerarquía y el idioma en el archivo
prod_hierarchy_texts.sql
, debajo de los marcadores de## CORTEX-CUSTOMER
. Si tu jerarquía de productos contiene más niveles, es posible que debas agregar una sentencia SELECT adicional similar a la expresión de tabla común
h1_h2_h3
.Es posible que haya personalizaciones adicionales según los sistemas de origen. Te recomendamos que involucres a los usuarios o analistas empresariales al principio del proceso para que te ayuden a detectarlos.
Opcional: Cómo configurar vistas de aplanamiento de jerarquía
A partir de la versión v6.0, Cortex Framework admite la aplanación de jerarquías como vistas de informes. Esta es una mejora importante con respecto al aplanador de jerarquía heredado, ya que ahora aplana toda la jerarquía, optimiza mejor para S/4 con el uso de tablas específicas de S/4 en lugar de tablas de ECC heredadas y también mejora significativamente el rendimiento.
Resumen de las vistas de informes
Encuentra las siguientes vistas relacionadas con el aplanamiento de jerarquías:
Tipo de jerarquía | Tabla que contiene solo jerarquía aplanada | Vistas para visualizar la jerarquía aplanada | Lógica de integración de P&L con esta jerarquía |
Versión de los estados financieros (FSV) | fsv_glaccounts
|
FSVHierarchyFlattened
|
ProfitAndLossOverview
|
Centro de ganancias | profit_centers
|
ProfitCenterHierarchyFlattened
|
ProfitAndLossOverview_ProfitCenterHierarchy
|
Centro de costos | cost_centers
|
CostCenterHierarchyFlattened
|
ProfitAndLossOverview_CostCenterHierarchy
|
Ten en cuenta lo siguiente cuando uses vistas de aplanamiento de jerarquías:
- Las vistas de solo jerarquía aplanada son funcionalmente equivalentes a las tablas que genera la solución de aplanamiento de jerarquía heredada.
- Las vistas generales no se implementan de forma predeterminada, ya que están diseñadas para mostrar solo la lógica de BI. Busca su código fuente en el directorio
src/SAP/SAP_REPORTING
.
Cómo configurar la aplanación de jerarquías
Según la jerarquía con la que estés trabajando, se requieren los siguientes parámetros de entrada:
Tipo de jerarquía | Parámetro obligatorio | Campo de origen (ECC) | Campo de origen (S4) |
Versión de los estados financieros (FSV) | Catálogo de cuentas | ktopl
|
nodecls
|
Nombre de la jerarquía | versn
|
hryid
|
|
Centro de ganancias | Clase del conjunto | setclass
|
setclass
|
Unidad organizativa: Es el área de control o la clave adicional del conjunto. | subclass
|
subclass
|
|
Centro de costos | Clase del conjunto | setclass
|
setclass
|
Unidad organizativa: Es el área de control o la clave adicional del conjunto. | subclass
|
subclass
|
Si no estás seguro de los parámetros exactos, consulta a un consultor de SAP de Finanzas o Control.
Después de recopilar los parámetros, actualiza los comentarios ## CORTEX-CUSTOMER
dentro de cada uno de los directorios correspondientes según tus requisitos:
Tipo de jerarquía | Ubicación del código |
Versión de los estados financieros (FSV) | src/SAP/SAP_REPORTING/local_k9/fsv_hierarchy
|
Centro de ganancias | src/SAP/SAP_REPORTING/local_k9/profitcenter_hierarchy
|
Centro de costos | src/SAP/SAP_REPORTING/local_k9/costcenter_hierarchy
|
Si corresponde, asegúrate de actualizar los comentarios de ## CORTEX-CUSTOMER
en las vistas de informes relevantes del directorio src/SAP/SAP_REPORTING
.
Detalles de la solución
Las siguientes tablas de origen se usan para aplanar la jerarquía:
Tipo de jerarquía | Tablas de origen (ECC) | Tablas de origen (S4) |
Versión de los estados financieros (FSV) |
|
|
Centro de ganancias |
|
|
Centro de costos |
|
|
Visualiza las jerarquías
La solución de aplanamiento de jerarquías de SAP de Cortex aplana toda la jerarquía. Si deseas crear una representación visual de la jerarquía cargada que sea comparable con lo que SAP muestra en la IU, consulta una de las vistas para visualizar jerarquías aplanadas con la condición IsLeafNode=True
.
Cómo migrar desde la solución de aplanamiento de jerarquías heredada
Para migrar desde la solución de aplanamiento de jerarquía heredada anterior a Cortex v6.0, reemplaza las tablas como se muestra en la siguiente tabla. Asegúrate de verificar la exactitud de los nombres de los campos, ya que algunos se modificaron ligeramente. Por ejemplo, prctr
en cepc_hier
ahora es profitcenter
en la tabla profit_centers
.
Tipo de jerarquía | Reemplaza esta tabla: | Con: |
Versión de los estados financieros (FSV) | ska1_hier
|
fsv_glaccounts
|
Centro de ganancias | cepc_hier
|
profit_centers
|
Centro de costos | csks_hier
|
cost_centers
|
Opcional: Configura el módulo SAP Finance
El módulo SAP Finance de Cortex Framework incluye las vistas FinancialStatement
, BalanceSheet
y ProfitAndLoss
, que proporcionan estadísticas financieras clave.
Para actualizar estas tablas de finanzas, sigue estos pasos:
Para la carga inicial
- Después de la implementación, asegúrate de que el conjunto de datos de CDC se propague correctamente (ejecuta los DAG de CDC según sea necesario).
- Asegúrate de que las vistas de aplanamiento de jerarquías estén configuradas correctamente para los tipos de jerarquías que usas (FSV, centro de costos y centro de ganancias).
Ejecuta el DAG
financial_statement_initial_load
.Si se implementan como tablas (recomendado), actualiza lo siguiente en orden ejecutando sus DAG correspondientes:
Financial_Statements
BalanceSheets
ProfitAndLoss
Para la actualización periódica
- Asegúrate de que las vistas de aplanamiento de jerarquías estén configuradas correctamente y actualizadas para los tipos de jerarquías que usas (FSV, centro de costos y centro de ganancias).
Programa o ejecuta el DAG
financial_statement_periodical_load
.Si se implementan como tablas (recomendado), actualiza lo siguiente en orden ejecutando sus DAG correspondientes:
Financial_Statements
BalanceSheets
ProfitAndLoss
Para visualizar los datos de estas tablas, consulta las siguientes vistas de descripción general:
ProfitAndLossOverview.sql
si usas la jerarquía de FSV.ProfitAndLossOverview_CostCenter.sql
si usas la jerarquía de centros de costosProfitAndLossOverview_ProfitCenter.sql
si usas la jerarquía de centros de ganancias
Próximos pasos
- Para obtener más información sobre otras fuentes de datos y cargas de trabajo, consulta Fuentes de datos y cargas de trabajo.
- Para obtener más información sobre los pasos para la implementación en entornos de producción, consulta los requisitos previos para la implementación de Data Foundation de Cortex Framework.