SAP Order to Cash-Beschleuniger

Der SAP-Beschleuniger für den Bestellung zum Cash-Prozess ist eine Beispielimplementierung des Features SAP Table Batch Source in Cloud Data Fusion. Der Beschleuniger unterstützt Sie beim Erstellen einer End-to-End-Bestellung zum Cash-Prozess und die Analyse. Er enthält Beispiele für Cloud Data Fusion-Pipelines, die Sie für die folgenden Aufgaben konfigurieren können:

  • Eine Verbindung zu Ihrer SAP-Datenquelle herstellen
  • Transformationen an Ihren Daten in Cloud Data Fusion ausführen.
  • Daten in BigQuery speichern.
  • Analysen in Looker einrichten Dazu gehören Dashboards und ein ML-Modell, in dem Sie die Leistungskennzahlen (Key Performance Indicators, KPIs) für Ihren Bestellung zum Cash-Prozess definieren können.

In diesem Leitfaden werden die Beispielimplementierung und die ersten Schritte mit Ihren Konfigurationen beschrieben.

Der Beschleuniger ist in Cloud Data Fusion-Umgebungen ab Version 6.3.0 verfügbar.

Hinweise

  1. Melden Sie sich bei Ihrem Google-Konto an.

    Wenn Sie noch kein Konto haben, melden Sie sich hier für ein neues Konto an.

  2. Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.

    Zur Projektauswahl

  3. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  4. Cloud Data Fusion and BigQuery APIs aktivieren.

    Aktivieren Sie die APIs

  5. Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.

    Zur Projektauswahl

  6. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  7. Cloud Data Fusion and BigQuery APIs aktivieren.

    Aktivieren Sie die APIs

  8. Laden Sie SAP Table Batch Source herunter.
  9. Sie müssen Zugriff auf eine Looker-Instanz haben und die Marketplace-Labs-Funktion aktiviert haben, um den Looker-Block zu installieren. Sie können eine kostenlose Testversion anfordern, um Zugriff auf eine Instanz zu erhalten.

Erforderliche Kenntnisse

Für die Einrichtung des SAP Order to Cash-Beschleunigers sind folgende Fähigkeiten erforderlich:

Erforderliche Nutzer

Die auf dieser Seite beschriebenen Konfigurationen erfordern Änderungen in Ihrem SAP-System und in Google Cloud. Sie müssen mit den folgenden Nutzern dieser Systeme zusammenarbeiten, um die Konfigurationen durchzuführen:

Nutzertyp Beschreibung
SAP-Administrator Administrator für Ihr SAP-System, der auf die SAP-Dienstwebsite zum Herunterladen von Software zugreifen kann.
SAP-Nutzer Ein SAP-Nutzer, der berechtigt ist, eine Verbindung zu einem SAP-System herzustellen.
GCP-Administrator Administrator, der den IAM-Zugriff für Ihre Organisation steuert, Dienstkonten erstellt und bereitstellt und Berechtigungen für Cloud Data Fusion, BigQuery und Looker erteilt.
Cloud Data Fusion-Nutzer Nutzer mit Berechtigungen zum Entwerfen und Ausführen von Datenpipelines in Cloud Data Fusion.
BigQuery-Dateninhaber Nutzer mit Berechtigungen zum Erstellen, Aufrufen und Ändern von BigQuery-Datasets.
Looker-Entwickler Diese Nutzer können den Looker Block über den Marketplace installieren. Sie benötigen die Berechtigungen develop, manage_model und deploy.

Erforderliche IAM-Rollen

In der Beispielimplementierung des Beschleunigers sind die folgenden IAM-Rollen erforderlich. Wenn Ihr Projekt andere Google Cloud-Dienste verwendet, benötigen Sie möglicherweise zusätzliche Rollen.

Prozessübersicht

So können Sie den Beschleuniger in Ihrem Projekt implementieren:

  1. Konfigurieren Sie das SAP ERP-System und installieren Sie den SAP-Transport.
  2. Richten Sie Ihre Cloud Data Fusion-Umgebung für die Verwendung des Plug-ins "SAP Table Batch Source" ein.
  3. Erstellen Sie Datasets in BigQuery. Der Beschleuniger stellt Beispiel-Datasets für Staging-Tabellen, dimensionale Tabellen und Faktentabellen bereit.
  4. Konfigurieren Sie die Cloud Data Fusion-Beispielpipelines anhand des Beschleunigers, um Ihre SAP-Daten einzubinden.
  5. Stellen Sie im Cloud Data Fusion Hub die Pipelines bereit, die mit dem Bestellung zum Cash-Analyseprozess verknüpft sind. Diese Pipelines müssen korrekt konfiguriert sein, um das BigQuery-Dataset zu erstellen.
  6. Verbinden Sie Looker mit dem BigQuery-Projekt.
  7. Installieren Sie Looker Block und stellen Sie ihn bereit.

Weitere Informationen finden Sie unter Plug-in "SAP Table Batch Source" verwenden.

Beispiel-Datasets in BigQuery

In der Beispielimplementierung in diesem Beschleuniger werden die folgenden Datasets in BigQuery erstellt.

Dataset-Name Beschreibung
sap_cdf_staging Enthält alle Tabellen aus dem SAP-Quellsystem, die für diesen Geschäftsprozess identifiziert wurden.
sap_cdf_dimension Enthält die wichtigsten Dimensionsentitäten wie Kundendimension und Materialdimension.
sap_cdf_fact Enthält die aus der Pipeline generierten Faktentabellen.

Beispielpipelines in Cloud Data Fusion

Beispielpipelines für diesen Beschleuniger sind im Cloud Data Fusion Hub verfügbar.

So rufen Sie die Beispielpipelines aus dem Hub ab:

  1. Rufen Sie die Instanz auf:
    1. Rufen Sie in der Google Cloud Console die Seite „Cloud Data Fusion“ auf.

    2. Klicken Sie zum Öffnen der Instanz in der Cloud Data Fusion-Weboberfläche auf Instanzen und dann auf Instanz ansehen.

      Zur Seite „VM-Instanzen“

  2. Klicken Sie auf Hub.
  3. Wählen Sie den Tab SAP aus.
  4. Wählen Sie Pipelines aus. Eine Seite mit Beispielpipelines wird geöffnet.
  5. Wählen Sie die gewünschten Pipelines aus, um sie herunterzuladen.

Jede Pipeline enthält Makros, die Sie für die Ausführung in Ihrer Umgebung konfigurieren können.

Es gibt drei Arten von Beispielpipelines:

  • Pipelines der Staging-Ebene: Das Staging-Dataset in dieser Art von Pipeline ist eine direkte Zuordnung zur ursprünglichen Quelltabelle in SAP. Die Pipelines der Beispiel-Staging-Ebene haben Namen, die sich auf die SAP-Quelltabelle und die BigQuery-Zieltabelle beziehen. Beispielsweise bezieht sich eine Pipeline namens KNA1_Customer_Master auf die SAP-Quelltabelle (KNA1) und die BigQuery-Zieltabelle (CustomerMaster).
  • Pipelines der Dimensionsebene: Das Dataset der Dimensionsebene in diesem Pipelinetyp ist eine ausgewählte und optimierte Version des Staging-Datasets, das die Dimension und die Fakten erstellt, die für die Analyse erforderlich sind. Die Beispielpipelines haben Namen, die auf die Zielentität im BigQuery-Ziel-Dataset verweisen. Eine Pipeline mit dem Namen "customer_dimension" bezieht sich beispielsweise auf die Entität "Customer Dimension" im BigQuery-Dataset sap_cdf_fact.
  • Pipelines der Faktenebene: Das Dataset der Faktenebene ist eine ausgewählte und optimierte Version des Staging-Datasets, das die für die Analyse erforderlichen Fakten erstellt. Die Beispielpipelines haben Namen, die auf die Zielentität im BigQuery-Ziel-Dataset verweisen. Eine Pipeline mit dem Namen "sales_order_fact" liefert beispielsweise ausgewählte Daten für die Entität "Customer Order Fact" im entsprechenden BigQuery-Dataset sap_cdf_fact.

In den folgenden Abschnitten wird zusammengefasst, wie die Pipelines in Ihrer Umgebung funktionieren.

Pipelines für Staging-Ebene konfigurieren

Für die Staging-Pipelines gibt es zwei Konfigurationsschritte:

  1. Konfigurieren Sie das SAP-Quellsystem.
  2. Konfigurieren Sie das BigQuery-Ziel-Dataset und die BigQuery-Tabelle.

Parameter für das Plug-in "SAP Table Batch Source"

Das Batchtabellen-Plug-in von SAP liest den Inhalt einer SAP-Tabelle oder -Ansicht. Der Beschleuniger bietet die folgenden Makros, die Sie ändern können, um Ihre SAP-Verbindungen zentral zu steuern.

Name des Makros Beschreibung Beispiel
${SAP Client} Zu verwendender SAP-Client 100
${SAP Language} SAP-Anmeldesprache EN
${SAP Application Server Host} Name oder IP-Adresse des SAP-Servers 10.132.0.47
${SAP System Number} SAP-Systemnummer 00
${secure(saplogonusername)} SAP-Nutzername Weitere Informationen finden Sie unter Sichere Schlüssel verwenden.
${secure(saplogonpassword)} SAP-Nutzerpasswort Weitere Informationen finden Sie unter Sichere Schlüssel verwenden.
${Number of Rows to Fetch} Schränkt die Anzahl der extrahierten Datensätze ein. 100000

Weitere Informationen finden Sie unter Plug-in konfigurieren.

Parameter für das BigQuery-Ziel

Der Beschleuniger stellt die folgenden Makros für BigQuery-Ziele bereit.

Konfiguration des BigQuery-Ziel-Connectors

Name des Makros Beschreibung Beispiel
${ProjectID} Die Projekt-ID, in der das BigQuery-Dataset erstellt wurde. sap_adaptor
${Dataset} Ziel-Dataset sap_cdf_staging

Beispielpipelines, die für Auftragsabwicklungs-KPIs verwendet werden

Die folgenden wichtigen Geschäftsentitäten im Rahmen eines Cashflows entsprechen Beispielpipelines im Accelerator. Diese Pipelines liefern die Daten, die den Analysen zu diesen Entitäten zugrunde liegen.

Wichtige Geschäftsentitäten Entsprechender Name der Beispielpipeline
Ein Customer kann eine Person oder eine Entität sein, mit der die Organisation Geschäfte tätigt. Diese drei SAP-Quelltabellen erfassen Details zum Kunden, die sich auf das Unternehmen beziehen. Informationen aus diesen Tabellen tragen zum customer_dimension im Dataset sap_cdf_dimension bei. KNA1_CustomerMaster
KNVV_CustomerSales
KNVP_CustomerPartnerFunction
Material ist die Ware, die zwischen dem Unternehmen und seinen Kunden gehandelt wird. Informationen aus diesen SAP-Quelltabellen tragen zur material_dimension im Dataset sap_cdf_dimension bei. MARA_MaterialMaster
MARD_MaterialStorageLocation
Der Unterprozess der Bestellungsverwaltung des Vorgangs Bestellung zum Cash (wenn Ihr System eine Bestellung vom Kunden erhält). VBAK_SalesDocumentHeader
VBAP_SalesDocumentItem
VBEP_SalesDocumentSchedule
Die Unterprozesse Auftragsausführung und Versand. LIKP_DeliveryHeader
LIPS_DeliveryItem
Die Unterprozesse für die Rechnungsstellung und Kundenzahlungen (wenn der Kunde eine Rechnung erhält). VBRK_BillingHeader
VBRP_BillingLineItem
Die Unterprozesse Forderungen und Berichterstellung (wenn die Zahlung in Ihrem System protokolliert wird). ACDOCA_UniversalJournalItem

Alle Cloud Data Fusion-Staging-Pipelines

Die folgenden Beispiele für Cloud Data Fusion-Staging-Pipelines sind im Beschleuniger verfügbar:

  • KNA1_CustomerMaster
  • KNVV_CustomerSales
  • KNVP_CustomerPartnerFunction
  • MARA_MaterialMaster
  • MARD_MaterialStorageLocation
  • VBAK_SalesDocumentHeader
  • VBAP_SalesDocumentItem
  • VBEP_SalesDocumentSchedule
  • LIKP_DeliveryHeader
  • LIPS_DeliveryItem
  • ACDOCA_UniversalJournalItem
  • VBRK_BillingHeader
  • VBRP_BillingLineItem
  • BSEG_AccountDocumentItem
  • BSID_AccDocCustOpenItem
  • BSAD_AccDocCustCloseItem
  • T001_CompanyCodes
  • T006A_UnitOfMeasure
  • T024D_MRPControllers
  • T042ZT_PaymentMethodText
  • T189T_PriceListCategory
  • TCURC_CurrencyCodes
  • TCURT_CurrencyCodesText
  • TCURW_ExchangeRateType
  • TINCT_CustomerIncotermsText
  • TVAKT_SalesDocumentType
  • TVAPT_SalesDocumentItemCategory
  • TVFST_BillingBlockReasonText
  • TVLST_DeliveryBlockText
  • TVTWT_DistributionChannelText
  • MAKT_MaterialDescription
  • T005T_CountryNames
  • T005U_RegionText
  • TVAST_SalesDocBlockReasonText
  • T077X_AccountGroupName
  • T134T_MaterialTypeDescription
  • T023T_MaterialGroupDescription
  • TSPAT_SalesDivisionText
  • TVKOV_DistributionChannel
  • TVTA_SalesArea
  • TVKOT_SalesOrgText
  • TVAUT_SalesDocumentOrderText
  • TVSBT_ShippingConditionText
  • TVAG_SalesDocRejectionReasons
  • TVAGT_SalesDocRejectionReasonDescription

Dimensionsebenen-Pipelines konfigurieren

Sie können KPIs aus SAP-Quelltabellen extrahieren. Ordnen Sie die Daten in der Quelltabelle so an, dass sie zur Schemastruktur der BigQuery-Tabelle passen, um die Daten für die Analyse vorzubereiten.

Der Beschleuniger erstellt die folgenden vier Beispieltabellen:

Tabellenname Tabellenbeschreibung
customer_dimension Ausgewählte Liste* von Kunden und die zugehörigen Fakten wie Kundenklassifizierung, Kundenhierarchie und vertriebsbezogene Kundeninformationen.
material_dimension Ausgewählte Liste der Materialien und zugehörigen Fakten wie SKU-Nummer, Produkthierarchie und Klassifizierung.
sales_order_fact Ausgewählte Liste von Verkaufsinformationen wie Bestelltypen, Sichtbarkeit des Bestellstatus, bestellte Menge und Bestellwert Diese Felder werden in der Regel zusammengefasst, um KPIs für die Auftragsverwaltung wie offene Bestellungen, bestätigte Bestellungen, abgelehnte Bestellungen und abgerechnete Bestellungen zu generieren.
revenue_fact Detaillierte Buchhaltungsinformationen, die durch den Verkauf des Materials an Kunden generiert wurden. Diese Faktentabelle wird aus den Buchhaltungstabellen abgeleitet und enthält Informationen, die Sie über Umsatz-KPIs gewinnen können, darunter Bruttoumsatz, Nettoumsatz vor Rabatt, Nettoumsatz nach Rabatt oder Trends.

*In diesem Kontext stammt die ausgewählte Liste aus der Geschäftslogik, die auf die ausgewählte Liste der Spalten angewendet wird.

Der Beschleuniger erstellt die dimensionale Ebene des BigQuery-Datasets mithilfe von SQL-Skripts, die Sie für Ihr Projekt ändern können. Sie können diese Skripts beispielsweise anpassen, um den BigQuery-Dataset-Zielentitäten weitere Spalten hinzuzufügen.

Transformation zum Sternschema: BigQuery-Executor-Pipeline-Namen

Die folgenden BigQuery-Executor-Pipelines in Cloud Data Fusion laden Daten in Dimensions- und Faktentabellen:

Alle dimensionalen Transformationspipelines:

  • customer_dimension
  • material_dimension
  • sales_order_fact
  • revenue_fact

BigQuery executor configuration

Name des Makros Beispiel
${ProjectID} sap_adaptor
${StagingDatasetName} sap_cdf_staging
${TargetDatasetName} sap_cdf_dimension

Looker mit dem BigQuery-Projekt verbinden

Informationen zum Verbinden von Looker mit BigQuery finden Sie in der Looker-Dokumentation zu BigQuery-Verbindungen.

Block installieren

Sie können auf den SAP Looker Block auf GitHub zugreifen.

Der Looker Block installiert ein vorkonfiguriertes LookML mit zwei Explore-Umgebungen und zwei Dashboards.

Nächste Schritte