El acelerador de SAP para el proceso de pedido para pago en efectivo es una implementación de muestra de la función de Fuente de Batch de tablas de SAP en Cloud Data Fusion. El acelerador te ayuda a comenzar cuando creas tu pedido de extremo a extremo para pagar procesos y estadísticas en efectivo. Incluye canalizaciones de Cloud Data Fusion de muestra que puedes configurar para realizar las siguientes tareas:
- Conéctate a la fuente de datos de SAP.
- Realiza transformaciones en tus datos en Cloud Data Fusion.
- Almacena tus datos en BigQuery.
- Configura estadísticas en Looker. Esto incluye paneles y un modelo de AA, en el que puedes definir los indicadores de rendimiento clave (KPI) para tu proceso de pago en efectivo.
En esta guía, se describe la implementación de muestra y cómo comenzar a usar tus configuraciones.
El acelerador está disponible en entornos de Cloud Data Fusion que se ejecutan en la versión 6.3.0 y versiones posteriores.
Antes de comenzar
-
Accede a tu cuenta de Google.
Si todavía no tienes una cuenta, regístrate para obtener una nueva.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Asegúrate de que la facturación esté habilitada para tu proyecto de Google Cloud.
-
Enable the Cloud Data Fusion and BigQuery APIs.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Asegúrate de que la facturación esté habilitada para tu proyecto de Google Cloud.
-
Enable the Cloud Data Fusion and BigQuery APIs.
- Descarga la Fuente de Batch de tablas de SAP.
- Debes tener acceso a una instancia de Looker y tener activada la función de labs de Marketplace para instalar el bloque de Looker. Puedes solicitar una prueba gratuita para obtener acceso a una instancia.
Habilidades requeridas
Para configurar el acelerador de pedido a efectivo de SAP, se requieren las siguientes habilidades:
- Experiencia en sistemas y configuración de ERP locales de SAP
- Conocimientos de Cloud Data Fusion
- Conocimientos de BigQuery
- Conocimientos de Looker
- Conocimientos de las cuentas de servicio de Identity and Access Management (IAM) y el control de acceso
- Conocimientos del análisis de datos, incluida la escritura de consultas de SQL
- Conocimientos del modelo de datos dimensionales de Kimball
Usuarios obligatorios
Los parámetros de configuración que se describen en esta página requieren cambios en tu sistema SAP y en Google Cloud. Debes trabajar con los siguientes usuarios de esos sistemas para realizar las configuraciones:
Tipo de usuario | Descripción |
---|---|
Administrador de SAP | Es el administrador de tu sistema SAP que puede acceder al sitio del servicio de SAP para descargar software. |
Usuario de SAP | Es un usuario de SAP autorizado para conectarse a un sistema SAP. |
Administrador de GCP | Es un administrador que controla el acceso de IAM para tu organización, que crea e implementa cuentas de servicio y otorga permisos para Cloud Data Fusion, BigQuery y Looker. |
Usuario de Cloud Data Fusion | Son usuarios autorizados para diseñar y ejecutar canalizaciones de datos en Cloud Data Fusion. |
Propietario de datos de BigQuery | Son usuarios autorizados para crear, ver y modificar conjuntos de datos de BigQuery. |
Desarrollador de Looker | Estos usuarios pueden instalar el bloque de Looker a través de Marketplace.
Deben tener permisos develop , manage_model y deploy . |
Funciones de IAM obligatorias
En la implementación de muestra del acelerador, se requieren las siguientes funciones de IAM. Es posible que necesites funciones adicionales si tu proyecto se basa en otros servicios de Google Cloud.
- Administrador de BigQuery (
roles/bigquery.admin
) - Propietario de datos de BigQuery (
roles/bigquery.dataOwner
) - Visualizador de objetos de Storage (
roles/storage.objectViewer
) - Se debe otorgar la función de ejecutor de Cloud Data Fusion (
roles/datafusion.runner
) a la cuenta de servicio de Dataproc
Descripción general del proceso
Para implementar el acelerador en tu proyecto, sigue estos pasos:
- Configura el sistema SAP ERP y, luego, instala el transporte SAP proporcionado.
- Configura tu entorno de Cloud Data Fusion para usar el complemento de la Fuente de Batch de tablas de SAP.
- Crea conjuntos de datos en BigQuery. El acelerador proporciona conjuntos de datos de muestra para tablas de etapa de pruebas, dimensionales y de hechos.
- Configura las canalizaciones de Cloud Data Fusion de muestra del acelerador para integrar tus datos de SAP.
- Desde el centro de noticias de Cloud Data Fusion, implementa las canalizaciones asociadas con el proceso de análisis de pedido para pago en efectivo. Estas canalizaciones deben configurarse de forma correcta para crear el conjunto de datos de BigQuery.
- Conecta Looker al proyecto de BigQuery.
- Instala e implementa el bloque de Looker.
Para obtener más información, consulta Usa el complemento de la Fuente de Batch de tablas de SAP.
Conjuntos de datos de muestra en BigQuery
En la implementación de muestra en este acelerador, los siguientes conjuntos de datos se crean en BigQuery.
Nombre del conjunto de datos | Descripción |
---|---|
sap_cdf_staging |
Contiene todas las tablas del sistema de la fuente de SAP, como se identifica para ese proceso empresarial. |
sap_cdf_dimension |
Contiene las entidades de dimensión clave, como Dimensión del cliente y Dimensión material. |
sap_cdf_fact |
Contiene las tablas de hechos generadas a partir de la canalización. |
Canalizaciones de muestra en Cloud Data Fusion
Las canalizaciones de muestra para este acelerador están disponibles en el centro de noticias de Cloud Data Fusion.
Para obtener las canalizaciones de muestra del centro de noticias de, sigue estos pasos:
- Ve a tu instancia:
En la consola de Google Cloud, ve a la página de Cloud Data Fusion.
Para abrir la instancia en Cloud Data Fusion Studio, haz clic en Instancias y, luego, en Ver instancia.
- Haz clic en Hub.
- Selecciona la pestaña SAP.
- Selecciona Canalizaciones. Se abrirá una página de canalizaciones de muestra.
- Selecciona las canalizaciones deseadas para descargarlas.
Cada una de las canalizaciones contiene macros que puedes configurar para que se ejecuten en tu entorno.
Existen tres tipos de canalizaciones de muestra:
- Canalizaciones de la capa de etapa de pruebas: El conjunto de datos de etapa de pruebas en este tipo de canalización es una asignación directa a la tabla de origen original en SAP. Las canalizaciones de la capa de etapa de pruebas de muestra tienen nombres que hacen referencia a la tabla de origen de SAP y la tabla de destino de BigQuery. Por ejemplo, una canalización llamada KNA1_Customer_Master se refiere a la tabla de origen de SAP (
KNA1
) y la tabla de destino de BigQuery (CustomerMaster
). - Canalizaciones de la capa de dimensión: El conjunto de datos de la capa de dimensión en este tipo de canalización es una versión seleccionada y definida del conjunto de datos de etapa de pruebas que crea la dimensión y los hechos necesarios para el análisis. Las canalizaciones de muestra tienen nombres que hacen referencia a la entidad de destino en el conjunto de datos de BigQuery de destino. Por ejemplo, una canalización llamada customer_dimension hace referencia a la entidad de dimensión del cliente en el conjunto de datos
sap_cdf_fact
de BigQuery. - Canalizaciones de la capa de hechos: El conjunto de datos de la capa de hechos es una versión seleccionada y definida mejor del conjunto de datos de etapa de pruebas que crea los hechos necesarios para el análisis. Estas canalizaciones de muestra tienen nombres que hacen referencia a la entidad de destino en el conjunto de datos de BigQuery de destino.
Por ejemplo, una canalización llamada sales_order_fact entrega datos seleccionados a la entidad de hecho de orden de ventas en el conjunto de datos de BigQuery correspondiente
sap_cdf_fact
.
En las siguientes secciones, se resume cómo hacer que las canalizaciones funcionen en tu entorno.
Configura las canalizaciones de la capa de etapa de pruebas
Existen dos pasos de configuración para las canalizaciones de etapa de pruebas:
- Configura el sistema SAP de origen.
- Configura la tabla y el conjunto de datos de BigQuery de destino.
Parámetros para el complemento de la Fuente de Batch de tablas de SAP
El complemento de la Fuente de Batch de tablas de SAP lee el contenido de una tabla o una vista de SAP. El acelerador proporciona las siguientes macro, que puedes modificar para controlar tus conexiones de SAP de forma centralizada.
Nombre de la macro | Descripción | Ejemplo |
---|---|---|
${SAP Client} |
Cliente de SAP que se usará | 100 |
${SAP Language} |
Lenguaje de inicio de sesión de SAP | EN |
${SAP Application Server Host} |
Nombre del servidor de SAP o dirección de IP | 10.132.0.47 |
${SAP System Number} |
Número de sistema de SAP | 00 |
${secure(saplogonusername)} |
Nombre de usuario de SAP | Para obtener más información, consulta Usa claves seguras. |
${secure(saplogonpassword)} |
Contraseña de usuario de SAP | Para obtener más información, consulta Usa claves seguras. |
${Number of Rows to Fetch} |
Se usa para limitar la cantidad de registros extraídos. | 100000 |
Para obtener más información, consulta Configura el complemento.
Parámetros para el destino de BigQuery
El acelerador proporciona las siguientes macro para los destinos de BigQuery.
Configuración del conector de destino de BigQuery
Nombre de la macro | Descripción | Ejemplo |
---|---|---|
${ProjectID} |
Es el ID del proyecto en el que se creó el conjunto de datos de BigQuery. | sap_adaptor |
${Dataset} |
Conjunto de datos de destino | sap_cdf_staging |
Canalizaciones de muestra usadas para las KPI de pedido para pago en efectivo
Las siguientes entidades comerciales clave en el proceso de pedido para pago en efectivo corresponden a canalizaciones de muestra en el acelerador. Estas canalizaciones entregan los datos que potencian las estadísticas de estas entidades.
Entidades comerciales clave | Nombre de la canalización de muestra correspondiente |
---|---|
Una Customer puede ser una persona o una entidad con la que la organización realiza negocios. En estas tres tablas de origen de SAP, se captan detalles sobre el cliente en relación con el negocio. La información de estas tablas contribuye a customer_dimension en el conjunto de datos sap_cdf_dimension .
|
KNA1_CustomerMaster KNVV_CustomerSales KNVP_CustomerPartnerFunction |
Material es el producto básico que se intercambia entre la empresa y sus clientes. La información de estas tablas de origen de SAP contribuye a material_dimension en el conjunto de datos sap_cdf_dimension .
|
MARA_MaterialMaster MARD_MaterialStorageLocation |
El subproceso de administración de pedidos del proceso de pedido para pago en efectivo (cuando el sistema recibe un pedido del cliente). |
VBAK_SalesDocumentHeader VBAP_SalesDocumentItem VBEP_SalesDocumentSchedule |
Los subprocesos de entrega y envío de pedidos. |
LIKP_DeliveryHeader LIPS_DeliveryItem |
Los subprocesos de facturación y pagos del cliente (cuando el cliente recibe una factura). |
VBRK_BillingHeader VBRP_BillingLineItem |
Los subprocesos de informes y cuentas a cobrar (cuando el pago se registra en tu sistema). | ACDOCA_UniversalJournalItem |
Todas las canalizaciones de etapas de pruebas de Cloud Data Fusion
Las siguientes muestras de canalización de la etapa de pruebas de Cloud Data Fusion están disponibles en el acelerador:
- KNA1_CustomerMaster
- KNVV_CustomerSales
- KNVP_CustomerPartnerFunction
- MARA_MaterialMaster
- MARD_MaterialStorageLocation
- VBAK_SalesDocumentHeader
- VBAP_SalesDocumentItem
- VBEP_SalesDocumentSchedule
- LIKP_DeliveryHeader
- LIPS_DeliveryItem
- ACDOCA_UniversalJournalItem
- VBRK_BillingHeader
- VBRP_BillingLineItem
- BSEG_AccountDocumentItem
- BSID_AccDocCustOpenItem
- BSAD_AccDocCustCloseItem
- T001_CompanyCodes
- T006A_UnitOfMeasure
- T024D_MRPControllers
- T042ZT_PaymentMethodText
- T189T_PriceListCategory
- TCURC_CurrencyCodes
- TCURT_CurrencyCodesText
- TCURW_ExchangeRateType
- TINCT_CustomerIncotermsText
- TVAKT_SalesDocumentType
- TVAPT_SalesDocumentItemCategory
- TVFST_BillingBlockReasonText
- TVLST_DeliveryBlockText
- TVTWT_DistributionChannelText
- MAKT_MaterialDescription
- T005T_CountryNames
- T005U_RegionText
- TVAST_SalesDocBlockReasonText
- T077X_AccountGroupName
- T134T_MaterialTypeDescription
- T023T_MaterialGroupDescription
- TSPAT_SalesDivisionText
- TVKOV_DistributionChannel
- TVTA_SalesArea
- TVKOT_SalesOrgText
- TVAUT_SalesDocumentOrderText
- TVSBT_ShippingConditionText
- TVAG_SalesDocRejectionReasons
- TVAGT_SalesDocRejectionReasonDescription
Configura canalizaciones de la capa dimensional
Puedes extraer los KPI de tablas de SAP de origen. A fin de preparar los datos para el análisis, organiza los datos en la tabla de origen a fin de que coincidan con la estructura del esquema de la tabla de BigQuery.
El acelerador crea las siguientes cuatro tablas de muestra:
Nombre de la tabla | Descripción de la tabla |
---|---|
customer_dimension | Lista seleccionada* de clientes y sus datos asociados, como la clasificación de los clientes, la jerarquía de los clientes y la información relacionada con las ventas de los clientes. |
material_dimension | Lista seleccionada de materiales y hechos asociados, como el número de SKU, la jerarquía de los productos y la clasificación. |
sales_order_fact | Lista seleccionada de información de ventas, como los tipos de pedido, la visibilidad del estado, la cantidad y el valor del pedido. Generalmente, estos campos se agregan para generar KPI de administración de pedidos, como pedidos abiertos, pedidos confirmados, pedidos rechazados y pedidos facturados. |
revenue_fact | Información detallada de contabilidad generada por la venta del material a los clientes. Derivada de las tablas de contabilidad, esta tabla de hechos contiene información que puede proporcionar estadísticas a través de KPI de ingresos, incluidas las ventas en bruto, ventas netas anteriores al descuento, ventas netas después del descuento o tendencias. |
*En este contexto, la lista seleccionada proviene de la lógica empresarial que se aplica a la lista de columnas seleccionada.
El acelerador compila la capa dimensional del conjunto de datos de BigQuery con secuencias de comandos de SQL, que puedes modificar para tu proyecto. Por ejemplo, puedes adaptar estas secuencias de comandos para agregar más columnas a las entidades de conjunto de datos de BigQuery de destino.
Transformación a un esquema en estrella: nombres de las canalizaciones del ejecutor de BigQuery
Las siguientes canalizaciones del ejecutor de BigQuery en Cloud Data Fusion cargan datos en tablas de dimensiones y hechos:
Todas las canalizaciones de transformación dimensionales:
customer_dimension
material_dimension
sales_order_fact
revenue_fact
Configuración del ejecutor de BigQuery
Nombre de la macro | Ejemplo |
---|---|
${ProjectID} |
sap_adaptor |
${StagingDatasetName} |
sap_cdf_staging |
${TargetDatasetName} |
sap_cdf_dimension |
Conecta Looker al proyecto de BigQuery.
Para conectar Looker a BigQuery, consulta la documentación de Looker sobre las conexiones de BigQuery.
Instala el bloque
Puedes acceder al bloque de Looker de SAP en GitHub.
Looker Block instala un modelo LookML preconfigurado con dos Explorar entornos y dos paneles.
¿Qué sigue?
- Obtén más información sobre Cloud Data Fusion.
- Obtén más información sobre SAP en Google Cloud.
- Obtén más información sobre BigQuery.
- Obtén más información sobre los bloques de Looker.