SAP Procure to Pay-Beschleuniger

Der SAP-Beschleuniger für den Procure-to-Pay-Prozess ist eine Beispielimplementierung des Features SAP Table Batch Source in Cloud Data Fusion. Der SAP Procure to Pay-Beschleuniger hilft Ihnen beim Erstellen Ihres End-to-End-Procure-to-Pay-Prozesses und Ihrer Analysen. Er enthält Beispiele für Cloud Data Fusion-Pipelines, die Sie für die folgenden Aufgaben konfigurieren können:

  • Eine Verbindung zu Ihrer SAP-Datenquelle herstellen.
  • Transformationen an Ihren Daten in Cloud Data Fusion ausführen.
  • Daten in BigQuery speichern.
  • Analysen in Looker einrichten Dazu gehören Dashboards und ein ML-Modell, in dem Sie die Leistungskennzahlen (Key Performance Indicators, KPIs) für Ihren Procure-to-Pay-Prozess definieren können.

In diesem Leitfaden werden die Beispielimplementierung und die ersten Schritte mit Ihren Konfigurationen beschrieben.

Der Beschleuniger ist in Cloud Data Fusion-Umgebungen ab Version 6.4.0 verfügbar.

Hinweise

  1. Sign in to your Google Account.

    If you don't already have one, sign up for a new account.

  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  4. Enable the Cloud Data Fusion and BigQuery APIs.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  6. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  7. Enable the Cloud Data Fusion and BigQuery APIs.

    Enable the APIs

  8. Laden Sie SAP Table Batch Source herunter.
  9. Sie müssen Zugriff auf eine Looker-Instanz haben und die Marketplace-Labs-Funktion aktiviert haben, um den Looker-Block zu installieren. Sie können eine kostenlose Testversion anfordern, um Zugriff auf eine Instanz zu erhalten.

Erforderliche Kenntnisse

Zum Einrichten des SAP Procure to Pay-Beschleunigers sind folgende Fähigkeiten erforderlich:

Erforderliche Nutzer

Die auf dieser Seite beschriebenen Konfigurationen erfordern Änderungen in Ihrem SAP-System und in Google Cloud. Sie müssen mit den folgenden Nutzern dieser Systeme zusammenarbeiten, um die Konfigurationen durchzuführen:

Nutzertyp Beschreibung
SAP-Administrator Administrator für Ihr SAP-System, der auf die SAP-Dienstwebsite zum Herunterladen von Software zugreifen kann.
SAP-Nutzer Ein SAP-Nutzer, der berechtigt ist, eine Verbindung zu einem SAP-System herzustellen.
GCP-Administrator Administrator, der den IAM-Zugriff für Ihre Organisation steuert, Dienstkonten erstellt und bereitstellt und Berechtigungen für Cloud Data Fusion, BigQuery und Looker erteilt.
Cloud Data Fusion-Nutzer Nutzer mit Berechtigungen zum Entwerfen und Ausführen von Datenpipelines in Cloud Data Fusion.
BigQuery-Dateninhaber Nutzer mit Berechtigungen zum Erstellen, Aufrufen und Ändern von BigQuery-Datasets.
Looker-Entwickler Diese Nutzer können den Looker Block über den Marketplace installieren. Sie benötigen die Berechtigungen develop, manage_model und deploy.

Erforderliche IAM-Rollen

In der Beispielimplementierung des Beschleunigers sind die folgenden IAM-Rollen erforderlich. Wenn Ihr Projekt andere Google Cloud-Dienste verwendet, benötigen Sie möglicherweise zusätzliche Rollen.

Prozessübersicht

So können Sie den Beschleuniger in Ihrem Projekt implementieren:

  1. Konfigurieren Sie das SAP ERP-System und installieren Sie den SAP-Transport.
  2. Richten Sie Ihre Cloud Data Fusion-Umgebung für die Verwendung des Plug-ins "SAP Table Batch Source" ein.
  3. Erstellen Sie Datasets in BigQuery. Der Beschleuniger stellt Beispiel-Datasets für Staging-Tabellen, dimensionale Tabellen und Faktentabellen bereit.
  4. Konfigurieren Sie die Cloud Data Fusion-Beispielpipelines anhand des Beschleunigers, um Ihre SAP-Daten einzubinden.
  5. Stellen Sie im Cloud Data Fusion Hub die Pipelines bereit, die mit dem Procure-to-Pay-Analyseprozess verknüpft sind. Diese Pipelines müssen korrekt konfiguriert sein, um das BigQuery-Dataset zu erstellen.
  6. Verbinden Sie Looker mit dem BigQuery-Projekt.
  7. Installieren Sie Looker Block und stellen Sie ihn bereit.

Weitere Informationen finden Sie unter Plug-in "SAP Table Batch Source" verwenden.

Beispiel-Datasets in BigQuery

In der Beispielimplementierung in diesem Beschleuniger werden die folgenden Datasets in BigQuery erstellt.

Dataset-Name Beschreibung
sap_cdf_staging Enthält alle Tabellen aus dem SAP-Quellsystem, die für diesen Geschäftsprozess identifiziert wurden.
sap_cdf_dimension Enthält die wichtigsten Dimensionsentitäten wie Kundendimension und Materialdimension.
sap_cdf_fact Enthält die aus der Pipeline generierten Faktentabellen.

Beispielpipelines in Cloud Data Fusion

Beispielpipelines für diesen Beschleuniger sind im Cloud Data Fusion Hub verfügbar.

So rufen Sie die Beispielpipelines aus dem Hub ab:

  1. Rufen Sie die Instanz auf:
    1. Rufen Sie in der Google Cloud Console die Seite „Cloud Data Fusion“ auf.

    2. Um die Instanz in Cloud Data Fusion Studio zu öffnen, Klicken Sie auf Instanzen und dann auf Instanz ansehen.

      Zur Seite „VM-Instanzen“

  2. Klicken Sie auf Hub.
  3. Wählen Sie den Tab SAP aus.
  4. Wählen Sie Pipelines aus. Eine Seite mit Beispielpipelines wird geöffnet.
  5. Wählen Sie die gewünschten Pipelines aus, um sie herunterzuladen.

Jede Pipeline enthält Makros, die Sie für die Ausführung in Ihrer Umgebung konfigurieren können.

Es gibt drei Arten von Beispielpipelines:

  • Pipelines der Staging-Ebene: Das Staging-Dataset in dieser Art von Pipeline ist eine direkte Zuordnung zur ursprünglichen Quelltabelle in SAP. Die Pipelines der Beispiel-Staging-Ebene haben Namen, die sich auf die SAP-Quelltabelle und die BigQuery-Zieltabelle beziehen. Beispielsweise bezieht sich eine Pipeline mit dem Namen LFA1_Supplier_Master auf die SAP-Quelltabelle (LFA1) und die BigQuery-Zieltabelle (CustomerMaster).
  • Pipelines der Dimensionsebene: Das Dataset der Dimensionsebene in diesem Pipelinetyp ist eine ausgewählte und optimierte Version des Staging-Datasets, das die Dimension und die Fakten erstellt, die für die Analyse erforderlich sind. Die Beispielpipelines haben Namen, die auf die Zielentität im BigQuery-Ziel-Dataset verweisen. Eine Pipeline mit dem Namen customer_dimension bezieht sich beispielsweise auf die Entität "Customer Dimension" im BigQuery-Dataset sap_cdf_fact.
  • Pipelines der Faktenebene: Das Dataset der Faktenebene ist eine ausgewählte und optimierte Version des Staging-Datasets, das die für die Analyse erforderlichen Fakten erstellt. Die Beispielpipelines haben Namen, die auf die Zielentität im BigQuery-Ziel-Dataset verweisen. Eine Pipeline namens sales_order_fact liefert beispielsweise ausgewählte Daten an die Entität „Sales Order Fact“ im entsprechenden BigQuery-Dataset sap_cdf_fact.

In den folgenden Abschnitten wird zusammengefasst, wie die Pipelines in Ihrer Umgebung funktionieren.

Pipelines für Staging-Ebene konfigurieren

Für die Staging-Pipelines gibt es zwei Konfigurationsschritte:

  1. Konfigurieren Sie das SAP-Quellsystem.
  2. Konfigurieren Sie das BigQuery-Ziel-Dataset und die BigQuery-Tabelle.

Parameter für das Plug-in "SAP Table Batch Source"

Das Batchtabellen-Plug-in von SAP liest den Inhalt einer SAP-Tabelle oder -Ansicht. Der Beschleuniger bietet die folgenden Makros, die Sie ändern können, um Ihre SAP-Verbindungen zentral zu steuern.

Name des Makros Beschreibung Beispiel
${SAP Client} Zu verwendender SAP-Client 100
${SAP Language} SAP-Anmeldesprache EN
${SAP Application Server Host} Name oder IP-Adresse des SAP-Servers 10.132.0.47
${SAP System Number} SAP-Systemnummer 00
${secure(saplogonusername)} SAP-Nutzername Weitere Informationen finden Sie unter Sichere Schlüssel verwenden.
${secure(saplogonpassword)} SAP-Nutzerpasswort Weitere Informationen finden Sie unter Sichere Schlüssel verwenden.
${Number of Rows to Fetch} Beschränkt die Anzahl der extrahierten Datensätze 100000

Weitere Informationen finden Sie unter Plug-in konfigurieren.

Parameter für das BigQuery-Ziel

Der Beschleuniger stellt die folgenden Makros für BigQuery-Ziele bereit.

Konfiguration des BigQuery-Ziel-Connectors

Name des Makros Beschreibung Beispiel
${ProjectID} Die Projekt-ID, in der das BigQuery-Dataset erstellt wurde. sap_adaptor
${Dataset} Ziel-Dataset sap_cdf_staging

Beispielpipelines für Procure-to-Pay-KPIs

Die folgenden wichtigen Geschäftsentitäten im Procure-to-Pay-Prozess entsprechen Beispielpipelines im Beschleuniger. Diese Pipelines liefern die Daten, die den Analysen zu diesen Entitäten zugrunde liegen.

Wichtige Geschäftsentitäten Entsprechender Pipelinename
Supplier-SAP-Quelltabellen erfassen Anbieterdetails, die sich auf das Unternehmen beziehen. Informationen aus diesen Tabellen tragen zur supplier_dimension auf der dimensionalen Ebene des Data Warehouse bei. LFA1_SupplierMaster
LFB1_SupplierMasterCompanyCode
BUT000_BPGeneralInformation
Material oder Product ist die Ware, die zwischen dem Unternehmen und seinen Kunden gehandelt wird. Die Informationen aus diesen Tabellen tragen zur „material_dimension“ in der Dimensionsebene des Data Warehouse bei. MARA_MaterialMaster
Der Procure-to-Pay-Prozess beginnt mit einer Bestellung, der die Bestellmenge und Details zu den Materialposten umfasst. EKKO_PurchaseOrderHeader
EKPO_PurchaseOrdertItem
Der Unterprozess Wareneingang, der Bewegungsdetails für Materialposten enthält. MATDOC_GoodsReceipt
Die Unterprozesse Rechnungsstellung, einschließlich der Details des angeforderten Rechnungsdokuments. RBKP_InvoiceHeader
RSEG_InvoiceLineItem
Der Procure-to-Pay-Prozess endet, wenn die Rechnungszahlung in Ihr System geloggt wird. ACDOCA_UniversalJournalItem

Alle Cloud Data Fusion-Staging-Pipelines

Die folgenden Beispiele für Cloud Data Fusion-Staging-Pipelines sind im Beschleuniger verfügbar:

  • ACDOCA_JournalLedgerDetails
  • ADR6_SupplierMasterEMailDetails
  • ADRC_SupplierMasterAddressDetails
  • BKPF_AccountingDocumentHeaderDetail
  • BSEG_AccountDocumentItem
  • BUT000_BusinessPartnerGeneralDataDetails
  • BUT020_BusinessPartnerAddressDetails
  • CEPCT_ProfitCenterDescription
  • EBAN_PurchaseRequisitionDetails
  • EKBE_PurchaseOrderHistoryDetail
  • EKET_PurchaseOrderScheduleLinesDetail
  • EKKO_PurchaseOrderHeaderDetail
  • EKPO_PurchaseOrderItemDetail
  • FINSC_BTTYPE_T_BusinessTransactionTypeDescription
  • FINSC_LEDGER_T_JournalLedgerDescription
  • LFA1_SupplierMasterDetails
  • LFB1_SupplierMasterCompanyCodeDetails
  • MARA_MaterialMaster
  • MATDOC_MaterialMovementDetails
  • MKPF_MaterialMovementHeaderDetail
  • MSEG_MaterialMovementItemDetail
  • RBKP_InvoiceReceiptHeaderDetail
  • RSEG_IncomingInvoiceItemDetail
  • T001_CompanyCodes
  • T001_CompanyCodes
  • T001K_ValuationAreaDetails
  • T001L_MaterialStorageLocation
  • T001W_PlantDetails
  • T002T_LanguageKeyDescription
  • T003T_AccountingDocumentTypeDescription
  • T005_CountryMaster
  • T006A_UnitOfMeasure
  • T007S_PurchaseSalesTaxCodeDescription
  • T023T_MaterialGroupDescription
  • T024_PurchasingGroupsDetails
  • T024E_PurchasingOrganizationsDetails
  • T024W_PlantPurchasingOrganizationsDetails
  • T156HT_MaterialMovementTypeDescription
  • T161T_PurchasingDocumentTypeDescription
  • T163M_ConfirmationCategoryDescription
  • T16FE_PurchaseDocumentReleaseIndicatorDescription
  • TBSLT_PostingKeyDescription
  • TCURT_CurrencyCodesText
  • TKA01_ControllingAreaMaster

Pipelines auf der dimensionalen Ebene konfigurieren

Sie können KPIs aus SAP-Quelltabellen extrahieren. Ordnen Sie die Daten in der Quelltabelle so an, dass sie zur Schemastruktur der BigQuery-Tabelle passen, um die Daten für die Analyse vorzubereiten.

Der Beschleuniger erstellt die folgenden Beispieltabellen:

Tabellenname Tabellenbeschreibung
Supplier_dimension Ausgewählte Liste* der Anbieter und zugehörige Fakten wie allgemeine Informationen zum Anbieter und vertriebsbezogene Anbieterinformationen.
Material_dimension Ausgewählte Liste der Materialien und zugehörigen Fakten wie SKU-Nummer, Produkthierarchie und Klassifizierung.
Purchase_Order_Fact Liste der Bestellungen, einschließlich Organisation, Gruppe und Bestelltyp.
Goods_Receipt_Fact Ausgewählte Liste der Warenbelege, einschließlich Informationen zu Profitstellen und Art der Bewegung.
Invoice_Fact Ausgewählte Liste rechnungsbezogener Informationen, einschließlich Rechnungstyp, Artikelmenge, Wert und Datum der Rechnungszustellung.
Accounting_Fact Ausgewählte Liste der Abrechnungsposten für jede Auftragsposition.

*In diesem Kontext stammt die ausgewählte Liste aus der Geschäftslogik, die auf die ausgewählte Liste der Spalten angewendet wird.

Der Beschleuniger erstellt die dimensionale Ebene des BigQuery-Datasets mithilfe von SQL-Skripts, die Sie für Ihr Projekt ändern können. Sie können diese Skripts beispielsweise anpassen, um den BigQuery-Dataset-Zielentitäten weitere Spalten hinzuzufügen.

Transformation zum Sternschema: BigQuery-Executor-Pipeline-Namen

Die folgenden BigQuery-Executor-Pipelines in Cloud Data Fusion laden Daten in Dimensions- und Faktentabellen:

Alle dimensionalen Transformationspipelines:

  • Supplier_dimension
  • Material_dimension
  • Purchase_Order_Fact
  • Goods_Receipt_Fact
  • Invoice_Fact
  • Accounting_Fact

BigQuery executor configuration

Name des Makros Beispiel
${ProjectID} sap_adaptor
${StagingDatasetName} sap_cdf_staging
${TargetDatasetName} sap_cdf_dimension

Looker mit dem BigQuery-Projekt verbinden

Informationen zum Verbinden von Looker mit BigQuery finden Sie in der Looker-Dokumentation zu BigQuery-Verbindungen.

Block installieren

Sie können auf den SAP Looker Block auf GitHub zugreifen.

Der Looker Block installiert ein vorkonfiguriertes LookML mit zwei Explore-Umgebungen und zwei Dashboards.

Nächste Schritte