Commande SAP en accélérateur de trésorerie

L'accélérateur SAP pour le processus de commandes en espèces est un exemple de mise en œuvre de la fonctionnalité Source de lot SAP Table de Cloud Data Fusion. L'accélérateur vous aide à vous lancer lorsque vous créez votre processus de bout en bout de traitement des espèces et des analyses. Il inclut des exemples de pipelines Cloud Data Fusion que vous pouvez configurer pour effectuer les tâches suivantes:

  • Connectez-vous à la source de données SAP.
  • Effectuer des transformations sur vos données dans Cloud Data Fusion.
  • Stocker vos données dans BigQuery
  • Configurez l'analyse dans Looker. y compris des tableaux de bord et un modèle de ML dans lequel vous pouvez définir les indicateurs clés de performance (KPI) d'un processus de commande à encaisser.

Ce guide décrit l'exemple d'implémentation et vous explique comment vous lancer avec vos configurations.

L'accélérateur est disponible dans les environnements Cloud Data Fusion exécutant la version 6.3.0 ou ultérieure.

Avant de commencer

  1. Connectez-vous à votre compte Google.

    Si vous n'en possédez pas déjà un, vous devez en créer un.

  2. Dans Google Cloud Console, sur la page de sélection du projet, sélectionnez ou créez un projet Google Cloud.

    Accéder au sélecteur de projet

  3. Assurez-vous que la facturation est activée pour votre projet Cloud. Découvrez comment vérifier que la facturation est activée pour votre projet.

  4. Activer les API Cloud Data Fusion and BigQuery.

    Activer les API

  5. Téléchargez la source de table SAP de lots.
  6. Pour installer le bloc Looker, vous devez avoir accès à une instance Looker et activer la fonctionnalité expérimentale de Marketplace. Vous pouvez demander un essai gratuit pour accéder à une instance.

Compétences requises

Utilisateurs requis

Les configurations décrites sur cette page nécessitent des modifications de votre système SAP et de Google Cloud. Vous devez travailler avec les utilisateurs suivants de ces systèmes pour effectuer les configurations:

Type d'utilisateur Description
Administrateur SAP Administrateur de votre système SAP pouvant accéder au site de service SAP pour télécharger les logiciels.
Utilisateur SAP Un utilisateur SAP autorisé à se connecter à un système SAP.
Administrateur GCP Administrateur qui contrôle l'accès IAM pour votre organisation, qui crée et déploie des comptes de service et accorde des autorisations pour Cloud Data Fusion, BigQuery et Looker.
Utilisateur Cloud Data Fusion Utilisateurs autorisés à concevoir et à exécuter des pipelines de données dans Cloud Data Fusion.
Propriétaire de données BigQuery Utilisateurs autorisés à créer, afficher et modifier des ensembles de données BigQuery.
Développeur Looker Ces utilisateurs peuvent installer le bloc Looker via Marketplace. Ils doivent disposer des autorisations develop, manage_model et deploy.

Rôles IAM requis

Dans l'exemple de mise en œuvre de l'accélérateur, les rôles IAM suivants sont requis. Vous pouvez avoir besoin de rôles supplémentaires si votre projet s'appuie sur d'autres services Google Cloud.

Présentation du processus

Pour mettre en œuvre l'accélérateur dans votre projet, procédez comme suit:

  1. Configurez le système SAP ERP et installez le transport SAP fourni.
  2. Configurez votre environnement Cloud Data Fusion pour utiliser le plug-in source de tables SAP Table.
  3. Créez des ensembles de données dans BigQuery. L'accélérateur fournit des exemples d'ensembles de données pour les tables de préproduction, dimensionnelles et de faits.
  4. Configurer les exemples de pipelines Cloud Data Fusion à partir de l'accélérateur pour intégrer vos données SAP.
  5. À partir de Cloud Data Fusion Hub, déployez les pipelines associés au processus d'analyse des commandes. Ces pipelines doivent être correctement configurés pour créer l'ensemble de données BigQuery.
  6. Connectez Looker au projet BigQuery.
  7. Installez et déployez le bloc Looker.

Pour en savoir plus, consultez la page Utiliser le plug-in source de table SAP Table.

Exemples d'ensembles de données dans BigQuery

Dans l'exemple de mise en œuvre de cet accélérateur, les ensembles de données suivants sont créés dans BigQuery :

Nom de l'ensemble de données Description
sap_cdf_staging Contient toutes les tables du système source SAP telles qu'elles sont identifiées pour ce processus métier.
sap_cdf_dimension Contient les entités de dimension clé telles que la dimension client et la dimension matérielle.
sap_cdf_fact Contient les tables de faits générées à partir du pipeline.

Exemples de pipelines dans Cloud Data Fusion

Des exemples de pipelines pour cet accélérateur sont disponibles dans le Cloud Data Fusion Hub.

Pour obtenir les exemples de pipelines du Hub, procédez comme suit:

  1. Dans Cloud Console, ouvrez la page Instances.
    Accéder à la page Instances de Cloud Data Fusion
  2. Dans la colonne Actions de l'instance, cliquez sur View instance (Afficher l'instance).
  3. Dans l'interface utilisateur Web de Cloud Data Fusion, cliquez sur Hub (Hub).
  4. Sélectionnez l'onglet SAP.
  5. Sélectionnez Pipelines. Une page d'exemples de pipelines s'affiche.
  6. Sélectionnez les pipelines souhaités pour les télécharger.

Chacun des pipelines contient des macros que vous pouvez configurer pour exécuter dans votre environnement.

Il existe trois types d'exemples de pipelines:

  • Pipelines de couche de préproduction: l'ensemble de données de préproduction dans ce type de pipeline est un mappage direct avec la table source d'origine dans SAP. Les exemples de pipelines de couche de préproduction ont des noms qui font référence à la table source SAP et à la table cible BigQuery. Par exemple, un pipeline nommé KNA1_Customer_Master fait référence à la table source SAP (KNA1) et à la table cible BigQuery (CustomerMaster).
  • Pipelines de la couche de dimension: l'ensemble de données de la couche de dimension dans ce type de pipeline est une version organisée et affinée de l'ensemble de données de préproduction qui crée la dimension et les faits nécessaires à l'analyse. Les exemples de pipelines portent des noms qui font référence à l'entité cible dans l'ensemble de données BigQuery cible. Par exemple, un pipeline appelé customer_dimension fait référence à l'entité de dimension client dans l'ensemble de données BigQuery sap_cdf_fact.
  • Pipelines de couche de fait: l'ensemble de données de couche de fait est une version sélectionnée et affinée de l'ensemble de données de préproduction qui crée les faits nécessaires à l'analyse. Ces exemples de pipelines portent des noms qui font référence à l'entité cible dans l'ensemble de données BigQuery cible. Par exemple, un pipeline appelé "sales_order_fact" (données_commandes_ventes) envoie des données organisées à l'entité "Order Order Fact" dans l'ensemble de données BigQuery correspondant sap_cdf_fact.

Dans les sections suivantes, nous allons voir comment faire fonctionner les pipelines dans votre environnement.

Configurer des pipelines de couche de préproduction

Il existe deux étapes de configuration pour les pipelines de préproduction:

  1. Configurer le système SAP source
  2. Configurer la table et l'ensemble de données BigQuery cibles

Paramètres pour le plug-in Source de la table SAP Batch

Le plug-in source de table SAP Table lit le contenu d'une table ou d'une vue SAP. L'accélérateur fournit les macros suivantes, que vous pouvez modifier pour contrôler vos connexions SAP de manière centralisée.

Nom de la macro Description Exemple
${SAP Client} Client SAP à utiliser 100
${SAP Language} Langue de connexion SAP EN
${SAP Application Server Host} Nom du serveur SAP ou adresse IP 10.132.0.47
${SAP System Number} Numéro de système SAP 00
${secure(saplogonusername)} Nom d'utilisateur SAP Pour en savoir plus, consultez la page Utiliser des clés sécurisées.
${secure(saplogonpassword)} Mot de passe utilisateur SAP Pour en savoir plus, consultez la page Utiliser des clés sécurisées.
${Number of Rows to Fetch} Utilisé pour limiter le nombre d'enregistrements extraits. 100000

Pour en savoir plus, consultez la section Configuration du plug-in.

Paramètres de la cible BigQuery

L'accélérateur fournit les macros suivantes pour les cibles BigQuery.

Configurer le connecteur cible BigQuery

Nom de la macro Description Exemple
${ProjectID} ID du projet dans lequel l'ensemble de données BigQuery a été créé. sap_adaptor
${Dataset} Ensemble de données cible sap_cdf_staging

Exemples de pipelines utilisés pour commander des KPI en espèces

Les principales entités métier suivantes dans l'ordre de traitement des espèces correspondent à des exemples de pipelines dans l'accélérateur. Ces pipelines fournissent les données qui alimentent les analyses sur ces entités.

Entités commerciales clés Exemple de nom de pipeline correspondant
Une Customer peut être une personne ou une entité avec laquelle l'organisation travaille. Ces trois tables sources SAP capturent les informations sur le client concernant l'activité. Les informations de ces tables contribuent à customer_dimension dans l'ensemble de données sap_cdf_dimension. KNA1_CustomerMaster
KNVV_CustomerSales
KNVP_CustomerPartnerFunction
Material est le produit qui est échangé entre l'entreprise et ses clients. Les informations issues de ces tables sources contribuent à la dimension "material_dimension" dans l'ensemble de données sap_cdf_dimension. MARA_MaterialMaster
MARD_MaterialStorageLocation
Sous-processus de gestion des commandes du processus de traitement des commandes (en espèces lorsque votre système reçoit une commande du client). VBAK_SalesDocumentHeader
VBAP_SalesDocumentItem
VBEP_SalesDocumentSchedule
Sous-processus traitement et livraison de commandes LIKP_DeliveryHeader
LIPS_DeliveryItem
Les sous-processus de facturation et de paiement des clients (lorsque le client reçoit une facture) VBRK_BillingHeader
VBRP_BillingLineItem
Les sous-processus de réception de compte et de création de rapports (lorsque le paiement est enregistré dans votre système). ACDOCA_UniversalJournalItem

Tous les pipelines de préproduction de Cloud Data Fusion

Les exemples de pipelines de préproduction Cloud Data Fusion suivants sont disponibles dans l'accélérateur:

  • KNA1_CustomerMaster
  • KNVV_CustomerSales
  • KNVP_CustomerPartnerFunction
  • MARA_MaîtreMaître
  • MARD_MaterialStorageLocation
  • En-tête VBAK_SalesDocument
  • VBAP_SalesDocumentItem
  • VBEP_ServicePlanPlanification des ventes
  • En-tête LIKP_Delivery
  • Élément LIPS_Delivery
  • ACDOCA_UniversalJournalItem
  • En-tête VBRK_Billing
  • VBRP_BillingLineItem
  • BSEG_AccountDocumentItem
  • BSID_AccDocCustOpenItem
  • BSAD_AccDocCustCloseItem
  • T001_CompanyCodes
  • T006A_UnitéOfMesure
  • Contrôleurs M024D_MRP
  • T042ZT_PaymentMethodText
  • T189T_PriceListCategory
  • TCURC_CurrencyCodes
  • TCURT_CurrencyCodesText
  • TCURW_ExchangeRateType
  • TINCT_CustomerIncotermsText
  • TVAKT_SalesDocumentType
  • TVAPT_SalesDocumentItemCategory
  • TVFST_BillingBlockReasonText
  • TVLST_DeliveryBlockText
  • TVTWT_DistributionChannelText
  • MAKT_MaterialDescription
  • T005T_NomsPays
  • T005U_RégionalText
  • TVAST_SalesDocBlockReasonText
  • T077X_NomGroupeGroupe
  • T134T_MaterialTypeDescription
  • T023T_MaterialGroupDescription
  • TSPAT_SalesDivisionText
  • TVKOV_DistributionCanal
  • Espace TVTA_Vente
  • TVKOT_TexteOrganigramme
  • TVAUT_SalesDocumentOrderText
  • TVSBT_ShippingConditionText
  • TVAG_SalesDocRejectionReasons
  • TVAGT_SalesDocRejectionReasonDescription

Configurer des pipelines de couches dimensionnelles

Vous pouvez extraire des KPI à partir des tables SAP sources. Pour préparer les données à analyser, organisez les données de la table source de sorte qu'elles correspondent à la structure de schéma de la table BigQuery.

L'accélérateur crée les quatre exemples de tables suivants:

Nom de la table Description de la table
dimension_client Liste sélectionnée* de clients et les informations associées, telles que la classification des clients, la hiérarchie des clients et des informations sur les ventes.
dimension_matière Liste organisée de documents et faits associés tels que le numéro de SKU, la hiérarchie des produits et la classification.
info_commandes_ventes Liste organisée d'informations sur les ventes telles que les types de commandes, la visibilité de l'état de la commande, la quantité commandée et le montant de la commande. Ces champs sont généralement agrégés pour générer des KPI (indicateurs clés de performance) concernant la gestion des commandes, tels que les commandes ouvertes, les commandes confirmées, les commandes refusées et les commandes facturées.
revenus_fact Informations comptables détaillées générées par la vente de matériaux aux clients. Basée sur les tableaux de comptabilité, cette table de faits contient des informations qui peuvent fournir des renseignements par le biais des KPI (indicateurs clés de performance) concernant les revenus, y compris les ventes brutes, les ventes nettes avant remise, les ventes nettes après remise ou les tendances.

*Dans ce contexte, la liste organisée provient de la logique métier qui est appliquée à la liste de colonnes sélectionnée.

L'accélérateur crée la couche dimensionnelle de l'ensemble de données BigQuery à l'aide de scripts SQL, que vous pouvez modifier pour votre projet. Par exemple, vous pouvez adapter ces scripts pour ajouter davantage de colonnes aux entités de l'ensemble de données BigQuery cible.

Transformation en étoile: noms des pipelines de l'exécuteur BigQuery

Les pipelines d'exécuteurs BigQuery suivants dans Cloud Data Fusion chargent des données dans des tables de dimension et de fait:

Tous les pipelines de transformation dimensionnel:

  • customer_dimension
  • material_dimension
  • sales_order_fact
  • revenue_fact

Configuration de l'exécuteur BigQuery

Nom de la macro Exemple
${ProjectID} sap_adaptor
${StagingDatasetName} sap_cdf_staging
${TargetDatasetName} sap_cdf_dimension

Connecter Looker au projet BigQuery

Pour connecter Looker à BigQuery, consultez la documentation Looker sur les connexions BigQuery.

Installer le bloc

Vous pouvez accéder au bloc Looker SAP sur GitHub.

L'APIBloc Looker installe un fichier préconfiguréLookML modèle à deuxDécouverte et deux tableaux de bord.

Étape suivante