Acelerador de pedidos a efectivo en SAP

El acelerador de SAP para el proceso de pedido para pago en efectivo es una implementación de muestra de la función de Fuente de Batch de tablas de SAP en Cloud Data Fusion. El acelerador te ayuda a comenzar cuando creas tu pedido de extremo a extremo para pagar procesos y estadísticas en efectivo. Incluye canalizaciones de Cloud Data Fusion de muestra que puedes configurar para realizar las siguientes tareas:

  • Conéctate a la fuente de datos de SAP.
  • Realiza transformaciones en tus datos en Cloud Data Fusion.
  • Almacena tus datos en BigQuery.
  • Configura estadísticas en Looker. Esto incluye paneles y un modelo de AA, en el que puedes definir los indicadores de rendimiento clave (KPI) para tu proceso de pago en efectivo.

En esta guía, se describe la implementación de muestra y cómo comenzar a usar tus configuraciones.

El acelerador está disponible en entornos de Cloud Data Fusion que se ejecutan en la versión 6.3.0 y versiones posteriores.

Antes de comenzar

  1. Accede a tu cuenta de Google.

    Si todavía no tienes una cuenta, regístrate para obtener una nueva.

  2. En la página del selector de proyectos de la consola de Google Cloud, selecciona o crea un proyecto de Google Cloud.

    Ir al selector de proyectos

  3. Asegúrate de que la facturación esté habilitada para tu proyecto de Google Cloud.

  4. Habilita las API de Cloud Data Fusion and BigQuery.

    Habilita las API

  5. En la página del selector de proyectos de la consola de Google Cloud, selecciona o crea un proyecto de Google Cloud.

    Ir al selector de proyectos

  6. Asegúrate de que la facturación esté habilitada para tu proyecto de Google Cloud.

  7. Habilita las API de Cloud Data Fusion and BigQuery.

    Habilita las API

  8. Descarga la Fuente de Batch de tablas de SAP.
  9. Debes tener acceso a una instancia de Looker y tener activada la función de labs de Marketplace para instalar el bloque de Looker. Puedes solicitar una prueba gratuita para obtener acceso a una instancia.

Habilidades requeridas

Para configurar el acelerador de pedido a efectivo de SAP, se requieren las siguientes habilidades:

Usuarios obligatorios

Los parámetros de configuración que se describen en esta página requieren cambios en tu sistema SAP y en Google Cloud. Debes trabajar con los siguientes usuarios de esos sistemas para realizar las configuraciones:

Tipo de usuario Descripción
Administrador de SAP Es el administrador de tu sistema SAP que puede acceder al sitio del servicio de SAP para descargar software.
Usuario de SAP Es un usuario de SAP autorizado para conectarse a un sistema SAP.
Administrador de GCP Es un administrador que controla el acceso de IAM para tu organización, que crea e implementa cuentas de servicio y otorga permisos para Cloud Data Fusion, BigQuery y Looker.
Usuario de Cloud Data Fusion Son usuarios autorizados para diseñar y ejecutar canalizaciones de datos en Cloud Data Fusion.
Propietario de datos de BigQuery Son usuarios autorizados para crear, ver y modificar conjuntos de datos de BigQuery.
Desarrollador de Looker Estos usuarios pueden instalar el bloque de Looker a través de Marketplace. Deben tener permisos develop, manage_model y deploy.

Funciones de IAM obligatorias

En la implementación de muestra del acelerador, se requieren las siguientes funciones de IAM. Es posible que necesites funciones adicionales si tu proyecto se basa en otros servicios de Google Cloud.

Descripción general del proceso

Para implementar el acelerador en tu proyecto, sigue estos pasos:

  1. Configura el sistema SAP ERP y, luego, instala el transporte SAP proporcionado.
  2. Configura tu entorno de Cloud Data Fusion para usar el complemento de la Fuente de Batch de tablas de SAP.
  3. Crea conjuntos de datos en BigQuery. El acelerador proporciona conjuntos de datos de muestra para tablas de etapa de pruebas, dimensionales y de hechos.
  4. Configura las canalizaciones de Cloud Data Fusion de muestra del acelerador para integrar tus datos de SAP.
  5. Desde el centro de noticias de Cloud Data Fusion, implementa las canalizaciones asociadas con el proceso de análisis de pedido para pago en efectivo. Estas canalizaciones deben configurarse de forma correcta para crear el conjunto de datos de BigQuery.
  6. Conecta Looker al proyecto de BigQuery.
  7. Instala e implementa el bloque de Looker.

Para obtener más información, consulta Usa el complemento de la Fuente de Batch de tablas de SAP.

Conjuntos de datos de muestra en BigQuery

En la implementación de muestra en este acelerador, los siguientes conjuntos de datos se crean en BigQuery.

Nombre del conjunto de datos Descripción
sap_cdf_staging Contiene todas las tablas del sistema de la fuente de SAP, como se identifica para ese proceso empresarial.
sap_cdf_dimension Contiene las entidades de dimensión clave, como Dimensión del cliente y Dimensión material.
sap_cdf_fact Contiene las tablas de hechos generadas a partir de la canalización.

Canalizaciones de muestra en Cloud Data Fusion

Las canalizaciones de muestra para este acelerador están disponibles en el centro de noticias de Cloud Data Fusion.

Para obtener las canalizaciones de muestra del centro de noticias de, sigue estos pasos:

  1. Ve a tu instancia:
    1. En la consola de Google Cloud, ve a la página de Cloud Data Fusion.

    2. Para abrir la instancia en la interfaz web de Cloud Data Fusion, haga clic en Instancias y, luego, en Ver instancia.

      Ir a Instancias

  2. Haz clic en Hub.
  3. Selecciona la pestaña SAP.
  4. Selecciona Canalizaciones. Se abrirá una página de canalizaciones de muestra.
  5. Selecciona las canalizaciones deseadas para descargarlas.

Cada una de las canalizaciones contiene macros que puedes configurar para que se ejecuten en tu entorno.

Existen tres tipos de canalizaciones de muestra:

  • Canalizaciones de la capa de etapa de pruebas: El conjunto de datos de etapa de pruebas en este tipo de canalización es una asignación directa a la tabla de origen original en SAP. Las canalizaciones de la capa de etapa de pruebas de muestra tienen nombres que hacen referencia a la tabla de origen de SAP y la tabla de destino de BigQuery. Por ejemplo, una canalización llamada KNA1_Customer_Master se refiere a la tabla de origen de SAP (KNA1) y la tabla de destino de BigQuery (CustomerMaster).
  • Canalizaciones de la capa de dimensión: El conjunto de datos de la capa de dimensión en este tipo de canalización es una versión seleccionada y definida del conjunto de datos de etapa de pruebas que crea la dimensión y los hechos necesarios para el análisis. Las canalizaciones de muestra tienen nombres que hacen referencia a la entidad de destino en el conjunto de datos de BigQuery de destino. Por ejemplo, una canalización llamada customer_dimension hace referencia a la entidad de dimensión del cliente en el conjunto de datos sap_cdf_fact de BigQuery.
  • Canalizaciones de la capa de hechos: El conjunto de datos de la capa de hechos es una versión seleccionada y definida mejor del conjunto de datos de etapa de pruebas que crea los hechos necesarios para el análisis. Estas canalizaciones de muestra tienen nombres que hacen referencia a la entidad de destino en el conjunto de datos de BigQuery de destino. Por ejemplo, una canalización llamada sales_order_fact entrega datos seleccionados a la entidad de hecho de orden de ventas en el conjunto de datos de BigQuery correspondiente sap_cdf_fact.

En las siguientes secciones, se resume cómo hacer que las canalizaciones funcionen en tu entorno.

Configura las canalizaciones de la capa de etapa de pruebas

Existen dos pasos de configuración para las canalizaciones de etapa de pruebas:

  1. Configura el sistema SAP de origen.
  2. Configura la tabla y el conjunto de datos de BigQuery de destino.

Parámetros para el complemento de la Fuente de Batch de tablas de SAP

El complemento de la Fuente de Batch de tablas de SAP lee el contenido de una tabla o una vista de SAP. El acelerador proporciona las siguientes macro, que puedes modificar para controlar tus conexiones de SAP de forma centralizada.

Nombre de la macro Descripción Ejemplo
${SAP Client} Cliente de SAP que se usará 100
${SAP Language} Lenguaje de inicio de sesión de SAP EN
${SAP Application Server Host} Nombre del servidor de SAP o dirección de IP 10.132.0.47
${SAP System Number} Número de sistema de SAP 00
${secure(saplogonusername)} Nombre de usuario de SAP Para obtener más información, consulta Usa claves seguras.
${secure(saplogonpassword)} Contraseña de usuario de SAP Para obtener más información, consulta Usa claves seguras.
${Number of Rows to Fetch} Se usa para limitar la cantidad de registros extraídos. 100000

Para obtener más información, consulta Configura el complemento.

Parámetros para el destino de BigQuery

El acelerador proporciona las siguientes macro para los destinos de BigQuery.

Configuración del conector de destino de BigQuery

Nombre de la macro Descripción Ejemplo
${ProjectID} Es el ID del proyecto en el que se creó el conjunto de datos de BigQuery. sap_adaptor
${Dataset} Conjunto de datos de destino sap_cdf_staging

Canalizaciones de muestra usadas para las KPI de pedido para pago en efectivo

Las siguientes entidades comerciales clave en el proceso de pedido para pago en efectivo corresponden a canalizaciones de muestra en el acelerador. Estas canalizaciones entregan los datos que potencian las estadísticas de estas entidades.

Entidades comerciales clave Nombre de la canalización de muestra correspondiente
Una Customer puede ser una persona o una entidad con la que la organización realiza negocios. En estas tres tablas de origen de SAP, se captan detalles sobre el cliente en relación con el negocio. La información de estas tablas contribuye a customer_dimension en el conjunto de datos sap_cdf_dimension. KNA1_CustomerMaster
KNVV_CustomerSales
KNVP_CustomerPartnerFunction
Material es el producto básico que se intercambia entre la empresa y sus clientes. La información de estas tablas de origen de SAP contribuye a material_dimension en el conjunto de datos sap_cdf_dimension. MARA_MaterialMaster
MARD_MaterialStorageLocation
El subproceso de administración de pedidos del proceso de pedido para pago en efectivo (cuando el sistema recibe un pedido del cliente). VBAK_SalesDocumentHeader
VBAP_SalesDocumentItem
VBEP_SalesDocumentSchedule
Los subprocesos de entrega y envío de pedidos. LIKP_DeliveryHeader
LIPS_DeliveryItem
Los subprocesos de facturación y pagos del cliente (cuando el cliente recibe una factura). VBRK_BillingHeader
VBRP_BillingLineItem
Los subprocesos de informes y cuentas a cobrar (cuando el pago se registra en tu sistema). ACDOCA_UniversalJournalItem

Todas las canalizaciones de etapas de pruebas de Cloud Data Fusion

Las siguientes muestras de canalización de la etapa de pruebas de Cloud Data Fusion están disponibles en el acelerador:

  • KNA1_CustomerMaster
  • KNVV_CustomerSales
  • KNVP_CustomerPartnerFunction
  • MARA_MaterialMaster
  • MARD_MaterialStorageLocation
  • VBAK_SalesDocumentHeader
  • VBAP_SalesDocumentItem
  • VBEP_SalesDocumentSchedule
  • LIKP_DeliveryHeader
  • LIPS_DeliveryItem
  • ACDOCA_UniversalJournalItem
  • VBRK_BillingHeader
  • VBRP_BillingLineItem
  • BSEG_AccountDocumentItem
  • BSID_AccDocCustOpenItem
  • BSAD_AccDocCustCloseItem
  • T001_CompanyCodes
  • T006A_UnitOfMeasure
  • T024D_MRPControllers
  • T042ZT_PaymentMethodText
  • T189T_PriceListCategory
  • TCURC_CurrencyCodes
  • TCURT_CurrencyCodesText
  • TCURW_ExchangeRateType
  • TINCT_CustomerIncotermsText
  • TVAKT_SalesDocumentType
  • TVAPT_SalesDocumentItemCategory
  • TVFST_BillingBlockReasonText
  • TVLST_DeliveryBlockText
  • TVTWT_DistributionChannelText
  • MAKT_MaterialDescription
  • T005T_CountryNames
  • T005U_RegionText
  • TVAST_SalesDocBlockReasonText
  • T077X_AccountGroupName
  • T134T_MaterialTypeDescription
  • T023T_MaterialGroupDescription
  • TSPAT_SalesDivisionText
  • TVKOV_DistributionChannel
  • TVTA_SalesArea
  • TVKOT_SalesOrgText
  • TVAUT_SalesDocumentOrderText
  • TVSBT_ShippingConditionText
  • TVAG_SalesDocRejectionReasons
  • TVAGT_SalesDocRejectionReasonDescription

Configura canalizaciones de la capa dimensional

Puedes extraer los KPI de tablas de SAP de origen. A fin de preparar los datos para el análisis, organiza los datos en la tabla de origen a fin de que coincidan con la estructura del esquema de la tabla de BigQuery.

El acelerador crea las siguientes cuatro tablas de muestra:

Nombre de la tabla Descripción de la tabla
customer_dimension Lista seleccionada* de clientes y sus datos asociados, como la clasificación de los clientes, la jerarquía de los clientes y la información relacionada con las ventas de los clientes.
material_dimension Lista seleccionada de materiales y hechos asociados, como el número de SKU, la jerarquía de los productos y la clasificación.
sales_order_fact Lista seleccionada de información de ventas, como los tipos de pedido, la visibilidad del estado, la cantidad y el valor del pedido. Generalmente, estos campos se agregan para generar KPI de administración de pedidos, como pedidos abiertos, pedidos confirmados, pedidos rechazados y pedidos facturados.
revenue_fact Información detallada de contabilidad generada por la venta del material a los clientes. Derivada de las tablas de contabilidad, esta tabla de hechos contiene información que puede proporcionar estadísticas a través de KPI de ingresos, incluidas las ventas en bruto, ventas netas anteriores al descuento, ventas netas después del descuento o tendencias.

*En este contexto, la lista seleccionada proviene de la lógica empresarial que se aplica a la lista de columnas seleccionada.

El acelerador compila la capa dimensional del conjunto de datos de BigQuery con secuencias de comandos de SQL, que puedes modificar para tu proyecto. Por ejemplo, puedes adaptar estas secuencias de comandos para agregar más columnas a las entidades de conjunto de datos de BigQuery de destino.

Transformación a un esquema en estrella: nombres de las canalizaciones del ejecutor de BigQuery

Las siguientes canalizaciones del ejecutor de BigQuery en Cloud Data Fusion cargan datos en tablas de dimensiones y hechos:

Todas las canalizaciones de transformación dimensionales:

  • customer_dimension
  • material_dimension
  • sales_order_fact
  • revenue_fact

Configuración del ejecutor de BigQuery

Nombre de la macro Ejemplo
${ProjectID} sap_adaptor
${StagingDatasetName} sap_cdf_staging
${TargetDatasetName} sap_cdf_dimension

Conecta Looker al proyecto de BigQuery.

Para conectar Looker a BigQuery, consulta la documentación de Looker sobre las conexiones de BigQuery.

Instala el bloque

Puedes acceder al bloque de Looker de SAP en GitHub.

Looker Block instala un modelo LookML preconfigurado con dos Explorar entornos y dos paneles.

¿Qué sigue?